JP7042956B1 - Information processing methods, information processing devices, and programs - Google Patents

Information processing methods, information processing devices, and programs Download PDF

Info

Publication number
JP7042956B1
JP7042956B1 JP2021148074A JP2021148074A JP7042956B1 JP 7042956 B1 JP7042956 B1 JP 7042956B1 JP 2021148074 A JP2021148074 A JP 2021148074A JP 2021148074 A JP2021148074 A JP 2021148074A JP 7042956 B1 JP7042956 B1 JP 7042956B1
Authority
JP
Japan
Prior art keywords
accuracy
skeleton
skeleton extraction
unit
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021148074A
Other languages
Japanese (ja)
Other versions
JP2023040883A (en
Inventor
親 齊藤
宣孝 板橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2021148074A priority Critical patent/JP7042956B1/en
Application granted granted Critical
Publication of JP7042956B1 publication Critical patent/JP7042956B1/en
Publication of JP2023040883A publication Critical patent/JP2023040883A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】対象者の身体の動作の評価の信頼度をユーザに通知する。【解決手段】情報処理方法は、対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出するステップと、導出したパラメータの確度を示す確度情報を、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出するステップと、を含む。【選択図】図1PROBLEM TO BE SOLVED: To notify a user of the reliability of evaluation of a subject's physical movement. SOLUTION: The information processing method executes a skeleton extraction process for extracting a skeleton of a target person from a moving image including the target person, and derives a parameter related to the movement of the body of the target person by referring to the result of the skeleton extraction process. It includes a step of deriving the accuracy information indicating the accuracy of the derived parameter according to the frame in which the skeleton extraction by the skeleton extraction process fails. [Selection diagram] Fig. 1

Description

本発明は、情報処理方法、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing method, an information processing apparatus, and a program.

歩行している対象者を含む動画像から、対象者の歩容を解析する技術において、解析の精度を高くすることを目的とした技術が知られている。特許文献1には、撮影時における撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得し、撮影画像に状況情報を表す状況画像を含めた合成画像を出力する端末が開示されている。 In the technique of analyzing the gait of a subject from a moving image including a walking subject, a technique aimed at improving the accuracy of the analysis is known. Patent Document 1 discloses a terminal that acquires situation information including information indicating a shooting situation which is an internal situation of a shooting device at the time of shooting, and outputs a composite image including a situation image showing the situation information in the shot image. ing.

特許6895669号公報Japanese Patent No. 6895669

ところで、歩容解析することによって、対象者の歩行を評価する技術も知られている。このような技術において、評価の信頼度をユーザに通知する技術は知られていない。 By the way, a technique for evaluating the walking of a subject by performing gait analysis is also known. In such a technique, there is no known technique for notifying the user of the reliability of the evaluation.

本発明の一態様は、対象者の身体の動作の評価の信頼度をユーザに通知することを目的とする。 One aspect of the present invention is to notify the user of the reliability of the evaluation of the body movement of the subject.

上記の課題を解決するために、本発明の一態様に係る情報処理方法は、被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出ステップと、前記パラメータ導出ステップにおいて導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出ステップと、を含む情報処理方法。 In order to solve the above problems, the information processing method according to one aspect of the present invention executes a skeleton extraction process for extracting the skeleton of the subject from a moving image including the subject as a subject, and results in the skeleton extraction process. Of the plurality of frames included in the moving image, the parameter derivation step for deriving the parameters related to the movement of the body of the subject and the accuracy information indicating the accuracy of the parameters derived in the parameter derivation step are obtained with reference to. An information processing method including a probability derivation step of deriving according to a frame in which skeleton extraction by the skeleton extraction process fails.

本発明の一態様によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to one aspect of the present invention, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.

本発明の実施形態1に係る端末装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the terminal apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る端末装置による処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process by the terminal apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る表示部が表示パネルに表示する動画像の一例を示す図である。It is a figure which shows an example of the moving image which the display part which concerns on Embodiment 1 of this invention displays on a display panel. 本発明の実施形態1に係る表示部が表示パネルに表示する動画像の他の例を示す図である。It is a figure which shows the other example of the moving image which the display part which concerns on Embodiment 1 of this invention displays on a display panel. 本発明の実施形態1に係る表示部が表示パネルに表示する動画像のさらに他の例を示す図である。It is a figure which shows the further example of the moving image which the display part which concerns on Embodiment 1 of this invention displays on a display panel. 本発明の実施形態1に係る表示部が表示パネルに表示する動画像のさらに他の例を示す図である。It is a figure which shows the further example of the moving image which the display part which concerns on Embodiment 1 of this invention displays on a display panel. 本発明の実施形態1に係る表示部が表示パネルに表示する動画像のさらに他の例を示す図である。It is a figure which shows the further example of the moving image which the display part which concerns on Embodiment 1 of this invention displays on a display panel. 本発明の実施形態2に係る情報処理システムの概要を示す模式図である。It is a schematic diagram which shows the outline of the information processing system which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る情報処理システムに含まれる端末装置及び情報処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the terminal apparatus and information processing apparatus included in the information processing system which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る情報処理システムにおける処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of processing in the information processing system which concerns on Embodiment 2 of this invention. 端末装置及び情報処理装置として用いられるコンピュータの物理的構成を例示したブロック図である。It is a block diagram which exemplifies the physical composition of the computer used as a terminal device and an information processing device. 実施例1における推定値と実測値との関係を示すグラフである。It is a graph which shows the relationship between the estimated value and the measured value in Example 1. FIG. 実施例2における推定値と実測値との関係を示すグラフである。It is a graph which shows the relationship between the estimated value and the measured value in Example 2. FIG.

〔実施形態1〕
以下、本発明の一実施形態について説明する。
[Embodiment 1]
Hereinafter, an embodiment of the present invention will be described.

(端末装置1の概要)
図1を参照して、本実施形態に係る端末装置1の構成例について説明する。図1は、本実施形態に係る端末装置1の構成例を示すブロック図である。
(Overview of terminal device 1)
A configuration example of the terminal device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration example of the terminal device 1 according to the present embodiment.

本実施形態に係る端末装置1は、被写体として対象者を含む動画像を撮影し、当該動画像を参照し、以下の処理を行う。
・対象者の骨格を抽出し、抽出した対象者の骨格を、動画像における対象者に重畳して表示する
・対象者の動作に関するパラメータを導出する
・導出したパラメータの確度を示す確度情報を導出する
ここで、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1のユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。
The terminal device 1 according to the present embodiment captures a moving image including a target person as a subject, refers to the moving image, and performs the following processing.
・ Extract the skeleton of the target person and display the extracted skeleton of the target person superimposed on the target person in the moving image. Here, a care recipient can be mentioned as an example of the above-mentioned subject, but this does not limit the present embodiment. Further, as a user of the terminal device 1, a care worker who cares for the person to be cared for can be mentioned, but this does not limit the present embodiment.

(端末装置1の構成)
端末装置1は、図1に示すように、制御部10、表示パネル12、撮像部13、及び記憶部14を備えている。
(Configuration of terminal device 1)
As shown in FIG. 1, the terminal device 1 includes a control unit 10, a display panel 12, an image pickup unit 13, and a storage unit 14.

表示パネル12は、後述する制御部10から供給されるデータを表示するディスプレイである。一例として、表示パネル12は、対象者の骨格を当該対象者に重畳した動画像を表示する。 The display panel 12 is a display that displays data supplied from the control unit 10 described later. As an example, the display panel 12 displays a moving image in which the skeleton of the subject is superimposed on the subject.

撮像部13は、動画像を撮像可能なカメラである。一例として、撮像部13は、当該撮像部13の画角に対象者が含まれるよう、ユーザによって向けられる。そして撮像部13は、対象者が所定の動作(歩行、及び腕上げなど)を実行している様子を撮像し、被写体として当該対象者を含む動画像を生成する。撮像部13は、撮像によって得られた動画像を後述する制御部10に供給する。 The image pickup unit 13 is a camera capable of capturing a moving image. As an example, the image pickup unit 13 is directed by the user so that the subject is included in the angle of view of the image pickup unit 13. Then, the imaging unit 13 captures a state in which the subject is performing a predetermined motion (walking, arm raising, etc.), and generates a moving image including the subject as a subject. The image pickup unit 13 supplies the moving image obtained by the image pickup to the control unit 10 described later.

記憶部14は、後述する制御部10が参照する各種のデータが格納されている。一例として、記憶部14には、撮像部13によって撮像された動画像、及び後述する対象者の骨格を示す骨格情報などが格納されている。 The storage unit 14 stores various data referred to by the control unit 10 described later. As an example, the storage unit 14 stores a moving image captured by the imaging unit 13, skeleton information indicating the skeleton of the subject described later, and the like.

(制御部10)
制御部10は、端末装置1の各構成要素を制御する。一例として、制御部10は、撮像部13によって撮像された動画像を取得したり、表示パネル12に表示する動画像データを供給したりする。
(Control unit 10)
The control unit 10 controls each component of the terminal device 1. As an example, the control unit 10 acquires a moving image captured by the imaging unit 13 and supplies moving image data to be displayed on the display panel 12.

また、制御部10は、図1に示すように、取得部15、骨格抽出部16、パラメータ導出部17(導出部)、確度導出部18、及び表示部19としても機能する。 Further, as shown in FIG. 1, the control unit 10 also functions as an acquisition unit 15, a skeleton extraction unit 16, a parameter derivation unit 17 (derivation unit), an accuracy derivation unit 18, and a display unit 19.

取得部15は、撮像部13によって撮像された動画像を取得する。取得部15は、取得した動画像を、記憶部14に格納する。 The acquisition unit 15 acquires a moving image captured by the image pickup unit 13. The acquisition unit 15 stores the acquired moving image in the storage unit 14.

骨格抽出部16は、第1のアルゴリズムと、1又は複数の第2のアルゴリズムとを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。 The skeleton extraction unit 16 executes a skeleton extraction process for extracting the skeleton of the target person from a moving image including the target person as a subject by using the first algorithm and one or a plurality of second algorithms.

ここで、第1のアルゴリズム及び第2のアルゴリズムは、対象者の骨格を抽出するアルゴリズムである。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。そのため、第1のアルゴリズムは、後述する第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。より具体的には、第1のアルゴリズムは、映像のリフレッシュレート(30fpsまたは60fps)より速いことが好ましい。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。 Here, the first algorithm and the second algorithm are algorithms for extracting the skeleton of the subject. The skeleton of the subject extracted by the first algorithm is referred to in real time by the display unit 19 described later as the first skeleton information indicating the skeleton. Therefore, it is preferable that the first algorithm is an algorithm having a faster skeleton extraction process than the second algorithm described later. More specifically, the first algorithm is preferably faster than the video refresh rate (30 fps or 60 fps). In addition, the first algorithm generates first accuracy information indicating the accuracy of the extracted skeleton. The first accuracy information is referred to by the display unit 19 described later.

第2のアルゴリズムによって抽出された対象者の骨格抽出処理の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部17によって参照される。詳細は後述するものの、1又は複数の第2のアルゴリズムによる骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。 The result of the skeleton extraction process of the subject extracted by the second algorithm is referred to by the parameter derivation unit 17 described later as the second skeleton information indicating the skeleton. Although the details will be described later, it is preferable that the skeleton extraction process by one or a plurality of second algorithms has higher accuracy than the skeleton extraction process by the first algorithm.

また、骨格抽出部16は、複数のアルゴリズム候補から、1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。例えば、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、1又は複数の第2のアルゴリズムを選択してもよい。骨格抽出部16が1又は複数の第2のアルゴリズムを選択する処理の具体例については、後述する。 Further, the skeleton extraction unit 16 is configured to select one or a plurality of second algorithms from a plurality of algorithm candidates and extract the skeleton of the subject by using the selected one or a plurality of second algorithms. May be good. For example, the skeleton extraction unit 16 may select one or a plurality of second algorithms with reference to the skeleton of the subject extracted using the first algorithm. A specific example of the process in which the skeleton extraction unit 16 selects one or a plurality of second algorithms will be described later.

また、骨格抽出部16は、第1のアルゴリズム及び第2のアルゴリズムの少なくとも何れかを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成する。 Further, the skeleton extraction unit 16 outputs error information indicating a frame in which the skeleton extraction has failed among the frames included in the moving image when the skeleton is extracted using at least one of the first algorithm and the second algorithm. Generate.

骨格抽出に失敗したフレームとは、第1のアルゴリズム又は第2のアルゴリズムを用いた骨格抽出の際に、骨格が抽出されなかったフレーム、又は適切に骨格が抽出されていないと考えられるフレームである。具体的な例として、
・骨格抽出処理が完了しなかったため、骨格抽出処理の戻り値を取得できなかったフレーム
・骨格抽出処理は完了したが、骨格抽出処理の戻り値が、所定の範囲外の値(外れ値)になっていたフレーム
が挙げられるが、これらに限定されない。
The frame in which the skeleton extraction fails is a frame in which the skeleton is not extracted or a frame in which the skeleton is not properly extracted in the skeleton extraction using the first algorithm or the second algorithm. .. As a concrete example
-The return value of the skeleton extraction process could not be obtained because the skeleton extraction process was not completed.-The return value of the skeleton extraction process was completed, but the return value of the skeleton extraction process was out of the specified range (outlier value). The frames that have been used are, but are not limited to these.

エラー情報の例として、
・骨格抽出を失敗したフレームの数を示す情報
・骨格抽出を失敗したフレームの時間的な位置(骨格抽出を失敗したフレームが撮影された日時、又は動画像撮影開始からの経過時間など)を示す情報
・骨格抽出に失敗したフレームにおいて、骨格抽出できなかった部位を示す情報
などが挙げられるが、これらに限定されない。
As an example of error information
-Information indicating the number of frames for which skeleton extraction failed-Indicates the temporal position of the frame for which skeleton extraction failed (such as the date and time when the frame for which skeleton extraction failed was taken, or the elapsed time from the start of moving image shooting). Information ・ In the frame where the skeleton extraction failed, information indicating the part where the skeleton could not be extracted can be mentioned, but the present invention is not limited to these.

パラメータ導出部17は、骨格抽出部16が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部17は、骨格抽出部16が第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を示す第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータとは、対象者が動作を行った際に、当該動作をどの程度実行できたかを示すパラメータである。対象者の身体の動作に関するパラメータの例として、対象者が歩く、腕を上げる、及び立ち上がるといった動作を行った際の
・動作を行う速度
・動作を行うリズム
・動作を行う際の身体のふらつき
・動作の左右差
などが挙げられるが、これらに限定されない。パラメータ導出部17がパラメータを導出する処理の具体例については、後述する。
The parameter derivation unit 17 derives parameters related to the movement of the body of the subject with reference to the result of the skeleton extraction process executed by the skeleton extraction unit 16. More specifically, the parameter derivation unit 17 refers to the second skeleton information indicating the skeleton of the subject extracted from the moving image by the skeleton extraction unit 16 using the second algorithm, and the movement of the body of the subject. Derives the parameters for. The parameter relating to the movement of the body of the subject is a parameter indicating how much the movement can be performed when the subject performs the movement. Examples of parameters related to the movement of the subject's body are when the subject performs movements such as walking, raising arms, and standing up, the speed at which the movement is performed, the rhythm of the movement, and the wobbling of the body when performing the movement. The difference between the left and right of the operation can be mentioned, but the present invention is not limited to these. A specific example of the process of deriving the parameter by the parameter deriving unit 17 will be described later.

確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、骨格抽出部16が生成したエラー情報を参照して導出する。パラメータの確度とは、当該パラメータの確かさの度合いであり、当該パラメータの確度が高い程、パラメータの信頼度が高いことを示す。確度導出部18が第2の確度情報を導出する処理の具体例については、後述する。 The accuracy derivation unit 18 derives the second accuracy information indicating the accuracy of the parameter derived by the parameter derivation unit 17 according to the frame in which the skeleton extraction by the skeleton extraction process fails among the plurality of frames included in the moving image. .. More specifically, the accuracy derivation unit 18 derives the second accuracy information indicating the accuracy of the parameter derived by the parameter derivation unit 17 with reference to the error information generated by the skeleton extraction unit 16. The accuracy of the parameter is the degree of certainty of the parameter, and the higher the accuracy of the parameter, the higher the reliability of the parameter. A specific example of the process in which the accuracy derivation unit 18 derives the second accuracy information will be described later.

表示部19は、表示パネル12に表示する動画像データを生成する。具体的には、表示部19は、骨格抽出部16が生成した第1の骨格情報を参照し、第1の骨格情報が示す骨格を、取得部15が取得した動画像における対象者に重畳して、表示パネル12に表示する。また、表示部19は、確度導出部18が導出した第2の確度情報を参照し、第2の確度情報が示す確度を表示パネル12に表示する。 The display unit 19 generates moving image data to be displayed on the display panel 12. Specifically, the display unit 19 refers to the first skeleton information generated by the skeleton extraction unit 16, and superimposes the skeleton indicated by the first skeleton information on the target person in the moving image acquired by the acquisition unit 15. And display it on the display panel 12. Further, the display unit 19 refers to the second accuracy information derived by the accuracy derivation unit 18, and displays the accuracy indicated by the second accuracy information on the display panel 12.

(端末装置1による処理)
端末装置1による処理について、図2を用いて説明する。図2は、本実施形態に係る端末装置1による処理の流れを示すシーケンス図である。
(Processing by terminal device 1)
The processing by the terminal device 1 will be described with reference to FIG. FIG. 2 is a sequence diagram showing a flow of processing by the terminal device 1 according to the present embodiment.

(ステップS12)
ステップS12において、取得部15は、撮像部13を介して、被写体として対象者を含む動画像の取得を開始する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を開始する旨を示す情報を取得すると、撮像部13を介して動画像の取得を開始する。
(Step S12)
In step S12, the acquisition unit 15 starts acquiring a moving image including the subject as a subject via the image pickup unit 13. For example, when the acquisition unit 15 acquires information indicating that shooting is to be started from an operation reception unit (not shown) that accepts an operation from the user of the terminal device 1, the acquisition unit 15 starts acquisition of a moving image via the image pickup unit 13. do.

(ステップS13)
ステップS13において、骨格抽出部16は、ステップS12において取得部15が取得した動画像から、第1のアルゴリズムを用いて対象者の骨格を抽出する。骨格抽出部16は、抽出した骨格を示す第1の骨格情報を、表示部19に供給する。また、ステップS13において、骨格抽出部16は、抽出した骨格の確からしさを示す第1の確度情報及び骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。この場合、骨格抽出部16は、第1の確度情報を表示部19に供給し、エラー情報を確度導出部18に供給する。
(Step S13)
In step S13, the skeleton extraction unit 16 extracts the skeleton of the subject using the first algorithm from the moving image acquired by the acquisition unit 15 in step S12. The skeleton extraction unit 16 supplies the display unit 19 with the first skeleton information indicating the extracted skeleton. Further, in step S13, the skeleton extraction unit 16 may generate the first accuracy information indicating the certainty of the extracted skeleton and the error information indicating the frame in which the skeleton extraction has failed. In this case, the skeleton extraction unit 16 supplies the first accuracy information to the display unit 19, and supplies the error information to the accuracy derivation unit 18.

(ステップS14)
ステップS14において、表示部19は、ステップS13において骨格抽出部16が供給した第1の骨格情報が示す骨格を動画像における対象者に重畳した動画像を示す動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S14)
In step S14, the display unit 19 supplies the display panel 12 with moving image data indicating a moving image in which the skeleton indicated by the first skeleton information supplied by the skeleton extracting unit 16 in step S13 is superimposed on the target person in the moving image. .. The display panel 12 displays the moving image indicated by the acquired moving image data.

(表示部19が表示する動画像の例1)
表示部19が表示パネル12に表示する動画像の一例について、図3を用いて説明する。図3は、本実施形態に係る表示部19が表示パネル12に表示する動画像の一例を示す図である。
(Example 1 of a moving image displayed by the display unit 19)
An example of a moving image displayed on the display panel 12 by the display unit 19 will be described with reference to FIG. FIG. 3 is a diagram showing an example of a moving image displayed on the display panel 12 by the display unit 19 according to the present embodiment.

表示部19は、第1の骨格情報が示す骨格のうち、関節を対象者に重畳して表示パネル12に表示する。例えば、図3に示すように、表示部19は、関節を示す点JT1、点JT2、及び点JT3等を対象者TPに重畳して表示パネル12に表示する。また、表示部19は、隣接する関節(例えば、図3における点JT1、点JT2)を線で結び、対象者TPに重畳して表示パネル12に表示する。換言すると、表示部19は、第1のアルゴリズムを用いた骨格抽出において、抽出されなかった骨格は表示パネル12に表示しない。当該構成により、端末装置1は、対象者を撮影しているユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。 The display unit 19 superimposes the joints on the subject among the skeletons indicated by the first skeleton information and displays them on the display panel 12. For example, as shown in FIG. 3, the display unit 19 superimposes the points JT1, the points JT2, the points JT3, and the like indicating the joints on the subject TP and displays them on the display panel 12. Further, the display unit 19 connects adjacent joints (for example, points JT1 and JT2 in FIG. 3) with a line, superimposes them on the subject TP, and displays them on the display panel 12. In other words, the display unit 19 does not display the unextracted skeleton on the display panel 12 in the skeleton extraction using the first algorithm. With this configuration, the terminal device 1 can notify the user who is photographing the target person whether or not the moving image being photographed is a moving image suitable for extracting the skeleton of the target person.

ここで、撮影している動画像に含まれる対象者TPの骨格が抽出されているか否かをユーザに通知するためには、骨格抽出の処理が速い方が好ましい。そのため、上述したように、第1の骨格情報が示す骨格を抽出する第1のアルゴリズムは、第2のアルゴリズムよりも抽出処理が速いアルゴリズムであることが好ましい。この構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。 Here, in order to notify the user whether or not the skeleton of the subject TP included in the moving image to be captured has been extracted, it is preferable that the skeleton extraction process is fast. Therefore, as described above, the first algorithm for extracting the skeleton indicated by the first skeleton information is preferably an algorithm having a faster extraction process than the second algorithm. With this configuration, the terminal device 1 can notify the user during shooting whether or not the moving image being shot is a moving image suitable for extracting the skeleton of the subject.

(表示部19が表示する動画像の例2)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報を取得し、取得した第1の確度情報に応じて、対象者に重畳する骨格の表示態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図4を用いて説明する。図4は、本実施形態に係る表示部19が表示パネル12に表示する動画像の他の例を示す図である。
(Example 2 of a moving image displayed by the display unit 19)
When the skeleton extraction unit 16 supplies the first accuracy information to the display unit 19, the display unit 19 acquires the first accuracy information, and the skeleton superimposed on the target person according to the acquired first accuracy information. It may be configured to change the display mode of. An example of a moving image displayed on the display panel 12 by the display unit 19 in this configuration will be described with reference to FIG. FIG. 4 is a diagram showing another example of a moving image displayed on the display panel 12 by the display unit 19 according to the present embodiment.

図4に示すように、表示部19は、上述した図3と同様、関節を示す点JT2、点JT3、及び点JT4等を対象者TPに重畳して表示パネル12に表示する。ここで、対象者TPの左膝における第1の確度情報が示す確度が所定の値より低い場合、表示部19は、図4に示すように、左膝を示す点JT4の態様を、他の関節を示す表示の態様(形が丸)とは異なる態様(形が三角)に変更し、表示する。当該構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像における対象者の骨格のうち、何れの骨格を確度高く抽出できているかを通知することができる。 As shown in FIG. 4, the display unit 19 superimposes the point JT2, the point JT3, the point JT4, etc. indicating the joints on the subject TP and displays them on the display panel 12, as in FIG. 3 described above. Here, when the accuracy indicated by the first accuracy information in the left knee of the subject TP is lower than a predetermined value, the display unit 19 displays another aspect of the point JT4 indicating the left knee, as shown in FIG. The mode (shape is triangle) different from the display mode (shape is circle) indicating the joint is changed and displayed. With this configuration, the terminal device 1 can notify the user during shooting which of the skeletons of the target person in the moving image being shot can be extracted with high accuracy.

表示部19が表示態様を異ならせる構成は、形を異ならせる構成以外にも、例えば、
・第1の確度情報に応じて骨格を示す表示の色を異ならせる
・第1の確度情報に応じて骨格を示す表示の色の濃淡を異ならせる
・第1の確度情報に応じて骨格を示す表示の大きさを異ならせる
などが挙げられるが、これらに限定されない。
The configuration in which the display unit 19 has a different display mode is, for example, other than the configuration in which the shape is different.
-The color of the display indicating the skeleton is different according to the first accuracy information.-The shade of the display indicating the skeleton is different according to the first accuracy information.-The skeleton is indicated according to the first accuracy information. The size of the display may be different, but the display size is not limited to these.

(表示部19が表示する動画像の例3)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報が示す確度が所定の値より低い場合、確度が高くなるように被写体を撮影することを促す表示を行う構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図5を用いて説明する。図5は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 3 of a moving image displayed by the display unit 19)
When the skeleton extraction unit 16 supplies the first accuracy information to the display unit 19, the display unit 19 photographs the subject so that the accuracy is high when the accuracy indicated by the first accuracy information is lower than a predetermined value. It may be configured to display a message prompting the user to do so. An example of a moving image displayed on the display panel 12 by the display unit 19 in this configuration will be described with reference to FIG. FIG. 5 is a diagram showing still another example of the moving image displayed on the display panel 12 by the display unit 19 according to the present embodiment.

例えば、動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全て又は一部の骨格において低い場合、図5に示すように、表示部19は、確度が高くなるように被写体を撮影することを促す表示DP1を表示する。表示DP1は、「対象者がもう少し大きく映るように撮影してください」というテキストが含まれている。当該構成により、端末装置1は、撮影中のユーザに対して、どのように撮影すれば対象者の骨格抽出の確度を高くできるのかを通知することができる。 For example, when the subject included in the moving image is small and the accuracy indicated by the first accuracy information is low in all or a part of the skeleton, the display unit 19 has a high accuracy as shown in FIG. Display DP1 that prompts the subject to be photographed is displayed. The display DP1 contains the text "Please shoot so that the subject looks a little bigger". With this configuration, the terminal device 1 can notify the user during shooting how to shoot to increase the accuracy of skeleton extraction of the subject.

確度が高くなるように被写体を撮影することを促す表示の例として、
・動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全ての骨格において低い場合、「画角を狭くしてください」と表示する
・動画像に含まれる対象者が左側に寄っているため、対象者の左側の骨格における第1の確度情報が示す確度が低い場合、「もう少し左側を撮影してください」と表示する
などが挙げられるが、これらに限定されない。
As an example of a display that encourages you to shoot a subject with high accuracy,
・ Since the target person included in the moving image is small, if the accuracy indicated by the first accuracy information is low in all skeletons, "Please narrow the angle of view" is displayed. ・ The target person included in the moving image is on the left side. If the accuracy indicated by the first accuracy information in the skeleton on the left side of the subject is low, the message "Please take a picture of the left side a little more" may be displayed, but the present invention is not limited to these.

また、表示部19は、確度が高くなるように被写体を撮影することを促す表示を、骨格抽出部16が抽出した部位の数が、所定の数よりも小さい場合に表示する構成であってもよい。より具体的には、表示部19は、骨格抽出部16が供給した第1の骨格情報が示す部位を参照し、当該部位の数が、所定の数よりも小さい場合、確度が高くなるように被写体を撮影することを促す表示を行ってもよい。 Further, even if the display unit 19 is configured to display a display prompting the subject to be photographed with high accuracy when the number of parts extracted by the skeleton extraction unit 16 is smaller than a predetermined number. good. More specifically, the display unit 19 refers to a portion indicated by the first skeleton information supplied by the skeleton extraction unit 16, and if the number of the portions is smaller than a predetermined number, the accuracy is high. A display prompting the subject to be photographed may be displayed.

再び図2を参照し、端末装置1による処理のステップS15以降について説明する。 With reference to FIG. 2 again, steps S15 and subsequent steps of the process by the terminal device 1 will be described.

(ステップS15)
ステップS15において、取得部15は、撮像部13を介した動画像の取得を終了する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を終了する旨を示す情報を取得すると、撮像部13を介しての動画像の取得を終了する。
(Step S15)
In step S15, the acquisition unit 15 ends the acquisition of the moving image via the image pickup unit 13. For example, when the acquisition unit 15 acquires information indicating the end of shooting from the operation reception unit (not shown) that accepts an operation from the user of the terminal device 1, the acquisition unit 15 acquires a moving image via the image pickup unit 13. finish.

(ステップS16)
ステップS16において、骨格抽出部16は、ステップS12~ステップS15において取得部15が取得した動画像から、第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する。ステップS16において、骨格抽出部16は、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出してもよい。また、ステップS13において骨格抽出部16がエラー情報を生成していない場合、ステップS16において、骨格抽出部16はエラー情報を生成してもよい。
(Step S16)
In step S16, the skeleton extraction unit 16 extracts the skeleton of the subject from the moving images acquired by the acquisition unit 15 in steps S12 to S15 using one or a plurality of second algorithms different from the first algorithm. do. In step S16, the skeleton extraction unit 16 may select one or a plurality of second algorithms from a plurality of algorithm candidates and extract the skeleton of the subject using the selected one or a plurality of second algorithms. .. If the skeleton extraction unit 16 does not generate error information in step S13, the skeleton extraction unit 16 may generate error information in step S16.

(骨格抽出部16による第2のアルゴリズム選択処理例)
骨格抽出部16による第2のアルゴリズム選択処理例について、以下に説明する。
(Example of second algorithm selection process by the skeleton extraction unit 16)
An example of the second algorithm selection process by the skeleton extraction unit 16 will be described below.

骨格抽出部16が複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する構成では、複数のアルゴリズム候補は、それぞれ、抽出する部位、抽出の精度、及び抽出の速度といった特性が異なっていてもよい。この場合、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、特性に応じたアルゴリズムを選択してもよい。 In the configuration in which the skeleton extraction unit 16 selects one or a plurality of second algorithms from a plurality of algorithm candidates, the plurality of algorithm candidates have different characteristics such as extraction site, extraction accuracy, and extraction speed. May be good. In this case, the skeleton extraction unit 16 may refer to the skeleton of the subject extracted using the first algorithm and select an algorithm according to the characteristics.

一例として、複数のアルゴリズム候補がそれぞれ抽出する骨格の部位が異なる場合、骨格抽出部16は、抽出する骨格の部位に応じて、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する。この場合、骨格抽出部16は、第1のアルゴリズムによって抽出された対象者の骨格を参照し、第1のアルゴリズムにおいて抽出された骨格の部位を抽出することができるアルゴリズムを、複数のアルゴリズム候補から選択する。例えば、第1のアルゴリズムによって対象者の脚部が抽出された場合、骨格抽出部16は、脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。 As an example, when a plurality of algorithm candidates have different parts of the skeleton to be extracted, the skeleton extraction unit 16 selects one or a plurality of second algorithms from the plurality of algorithm candidates according to the parts of the skeleton to be extracted. In this case, the skeleton extraction unit 16 refers to the skeleton of the subject extracted by the first algorithm, and selects an algorithm from a plurality of algorithm candidates capable of extracting the skeleton portion extracted by the first algorithm. select. For example, when the leg of the subject is extracted by the first algorithm, the skeleton extraction unit 16 selects an algorithm capable of extracting the leg from a plurality of algorithm candidates.

さらに、骨格抽出部16は、期間に応じて複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、ある期間において第1のアルゴリズムによって対象者の脚部が抽出され、当該ある期間とは異なる期間において第1のアルゴリズムによって対象者の腕部が抽出された場合、骨格抽出部16は、ある期間においては脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択し、異なる期間においては腕部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。 Further, the skeleton extraction unit 16 may select one or a plurality of second algorithms from a plurality of algorithm candidates depending on the period. For example, if the leg of the subject is extracted by the first algorithm in a certain period and the arm of the subject is extracted by the first algorithm in a period different from the certain period, the skeleton extraction unit 16 is present. An algorithm capable of extracting the legs in a period is selected from a plurality of algorithm candidates, and an algorithm capable of extracting an arm in a different period is selected from a plurality of algorithm candidates.

また、骨格抽出部16は、ユーザからの指示を参照し、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、歩く速度が加速する期間と、歩く速度が減速する期間とが動画像に含まれる場合、ユーザは、歩く速度が加速する期間と、歩く速度が減速する期間とのそれぞれに、加速期間であることを示すアノテーションと減速期間であることを示すアノテーションを当該動画像に付加する。骨格抽出部16は、当該アノテーションを参照し、歩く速度が加速する期間においては、歩く速度が加速する動きに適した1又は複数の第2のアルゴリズムを選択し、歩く速度が減速する期間において、歩く速度が減速する動きに適した1又は複数の第2のアルゴリズムを選択する構成であってもよい。または、骨格抽出部16は、期間及び部位に対して、何れの1又は複数の第2のアルゴリズムを選択するか、ユーザから直接指示される構成であってもよい。 Further, the skeleton extraction unit 16 may select one or a plurality of second algorithms from a plurality of algorithm candidates with reference to instructions from the user. For example, if the moving image includes a period in which the walking speed accelerates and a period in which the walking speed decreases, the user can use the acceleration period for each of the period in which the walking speed accelerates and the period in which the walking speed decreases. An annotation indicating that there is and an annotation indicating that the deceleration period is in effect are added to the moving image. The skeleton extraction unit 16 refers to the annotation and selects one or a plurality of second algorithms suitable for the movement in which the walking speed is accelerated during the period in which the walking speed is accelerated, and in the period in which the walking speed is decelerated. It may be configured to select one or more second algorithms suitable for the movement in which the walking speed is decelerated. Alternatively, the skeleton extraction unit 16 may be configured to directly instruct the user to select any one or a plurality of second algorithms for the period and the site.

このように、骨格抽出部16が第2のアルゴリズムを選択することにより、高い精度で対象者の骨格を抽出することができる。 In this way, the skeleton extraction unit 16 can extract the skeleton of the subject with high accuracy by selecting the second algorithm.

(ステップS17)
ステップS17において、パラメータ導出部17は、ステップS16において抽出された対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。
(Step S17)
In step S17, the parameter derivation unit 17 refers to the skeleton of the subject extracted in step S16, and derives parameters related to the movement of the body of the subject.

(パラメータ導出部17によるパラメータ導出処理例)
パラメータ導出部17によるパラメータ導出処理例について、以下に説明する。
(Example of parameter derivation processing by parameter derivation unit 17)
An example of parameter derivation processing by the parameter derivation unit 17 will be described below.

例えば、パラメータ導出部17は、第2のアルゴリズムを用いて抽出した、歩行中の対象者の骨格を参照し、対象者の歩行に関するパラメータを導出する。より具体的には、骨格抽出部16から取得した第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者が歩行する速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者が歩行する速度が所定の値より大きい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が速いことを示すパラメータに設定する。一方、対象者が歩行する速度が所定の値より小さい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が遅いことを示すパラメータに設定する。 For example, the parameter derivation unit 17 refers to the skeleton of the walking subject extracted by using the second algorithm, and derives the parameters related to the walking of the subject. More specifically, the second skeleton information acquired from the skeleton extraction unit 16 indicates that the right leg and the left leg of the subject have been extracted, and the right leg and the left leg are the subject walking. In the case of, the parameter derivation unit 17 calculates the walking speed of the target person. The parameter derivation unit 17 derives parameters according to the calculated speed. For example, when the walking speed of the subject is greater than a predetermined value, the parameter derivation unit 17 sets the parameter of the walking speed to a parameter indicating that the speed is high. On the other hand, when the walking speed of the subject is smaller than a predetermined value, the parameter derivation unit 17 sets the parameter of the walking speed to a parameter indicating that the speed is slow.

他の例として、第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者の右脚と左脚とがそれぞれ動く速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より小さい場合、パラメータ導出部17は、左右差のパラメータを、左右差がないことを示すパラメータに設定する。一方、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より大きい場合、パラメータ導出部17は、左右差のパラメータを、左右差があることを示すパラメータに設定する。 As another example, when the second skeletal information indicates that the right leg and the left leg of the subject have been extracted, and the right leg and the left leg indicate that the subject is walking, the parameter derivation unit 17 Calculates the speed at which the subject's right and left legs move, respectively. The parameter derivation unit 17 derives parameters according to the calculated speed. For example, when the difference between the speed at which the right leg of the subject moves and the speed at which the left leg of the subject moves is smaller than a predetermined value, the parameter derivation unit 17 indicates that there is no difference between the left and right parameters. Set in the parameter. On the other hand, when the difference between the speed at which the right leg of the subject moves and the speed at which the left leg of the subject moves is larger than a predetermined value, the parameter derivation unit 17 indicates that there is a difference between the left and right parameters. Set in the parameter.

このように、端末装置1は、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照して、対象者の身体の動作に関するパラメータを導出する。すなわち、第2のアルゴリズムが抽出した骨格は、対象者の身体の動作に関するパラメータの導出に用いられるため、上述したように、第2のアルゴリズムの骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。この構成により、端末装置1は、第1のアルゴリズムが抽出した骨格を示す第1の骨格情報ではなく、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照することにより、対象者の身体の動作に関するパラメータの精度を高くすることができる。 In this way, the terminal device 1 derives parameters related to the movement of the body of the subject with reference to the second skeleton information indicating the skeleton extracted by the second algorithm. That is, since the skeleton extracted by the second algorithm is used for deriving parameters related to the movement of the body of the subject, as described above, the skeleton extraction process of the second algorithm is the skeleton extraction process by the first algorithm. It is preferable that the accuracy is higher than that. With this configuration, the terminal device 1 refers to the second skeleton information indicating the skeleton extracted by the second algorithm instead of the first skeleton information indicating the skeleton extracted by the first algorithm. The accuracy of the parameters related to the movement of the body can be improved.

(ステップS18)
ステップS18において、確度導出部18は、骨格抽出部16が生成したエラー情報を参照し、ステップS17において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
(Step S18)
In step S18, the accuracy derivation unit 18 refers to the error information generated by the skeleton extraction unit 16, and obtains the second accuracy information indicating the accuracy of the parameter derived in step S17 among the plurality of frames included in the moving image. , Derived according to the frame in which the skeleton extraction by the skeleton extraction process failed.

(確度導出部18による確度導出処理例)
確度導出部18による確度導出処理例について、以下に説明する。
(Example of accuracy derivation process by accuracy derivation unit 18)
An example of the accuracy derivation process by the accuracy derivation unit 18 will be described below.

確度導出部18は、骨格抽出部16が生成したエラー情報を参照することにより、骨格抽出処理による骨格抽出が失敗したフレームを特定し、特定したフレームに応じて第2の確度情報を導出する。 The accuracy derivation unit 18 identifies the frame in which the skeleton extraction by the skeleton extraction process has failed by referring to the error information generated by the skeleton extraction unit 16, and derives the second accuracy information according to the specified frame.

一例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの数を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの数に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも多い場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも少ない場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームの数が多い場合は、パラメータの確度が低いことをユーザに通知することができる。 As an example, when the error information indicates the number of frames in which the skeleton extraction by the skeleton extraction process has failed, the accuracy derivation unit 18 derives the second accuracy information according to the number of frames in which the skeleton extraction by the skeleton extraction process has failed. do. For example, when the number of frames for which skeleton extraction by the skeleton extraction process has failed is larger than a predetermined value, the accuracy derivation unit 18 derives the second accuracy information indicating that the accuracy is low as the second accuracy information. .. On the other hand, when the number of frames in which the skeleton extraction by the skeleton extraction process has failed is less than a predetermined value, the accuracy derivation unit 18 derives the second accuracy information indicating that the accuracy is high as the second accuracy information. .. With this configuration, the terminal device 1 can notify the user that the accuracy of the parameter is low when the number of frames in which the skeleton extraction by the skeleton extraction process fails is large.

他の例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれている場合(例えば、対象者の歩行動画であれば、対象者が歩行している期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれていない場合(例えば、対象者の歩行動画であれば、対象者が歩行する前(又は歩行した後)の期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者が動作している期間に骨格抽出が失敗した場合、パラメータの確度が低いことをユーザに通知することができる。 As another example, when the error information indicates the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails, the accuracy derivation unit 18 responds to the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails. The second accuracy information is derived. For example, when the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails is included in the period during which the subject operates (for example, in the case of the walking video of the subject, the subject is walking). (When included in the period), the accuracy derivation unit 18 derives the second accuracy information indicating that the accuracy is low as the second accuracy information. On the other hand, when the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails is not included in the period during which the subject operates (for example, in the case of a walking video of the subject, before the subject walks (for example). Or after walking)), the accuracy derivation unit 18 derives the second accuracy information indicating that the accuracy is high as the second accuracy information. With this configuration, the terminal device 1 can notify the user that the accuracy of the parameter is low when the skeleton extraction fails during the period when the target person is operating.

さらに他の例として、エラー情報が骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位を示す場合、確度導出部18は、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠な部位(例えば、対象者の歩行動画であれば、対象者の脚部)であった場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠ではない部位(例えば、対象者の歩行動画であれば、対象者の頸部)であった場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者の動作に不可欠な部位の骨格抽出に失敗した場合、パラメータの確度が低いことをユーザに通知することができる。 As yet another example, when the error information indicates a site where the skeleton was not extracted in the frame in which the skeleton extraction by the skeleton extraction process failed, the accuracy derivation unit 18 is in the frame in which the skeleton extraction by the skeleton extraction process failed. The second accuracy information is derived according to the site where the skeleton was not extracted. For example, in a frame in which skeleton extraction by skeleton extraction processing fails, the part where the skeleton was desired to be extracted is a part indispensable for the subject's movement (for example, in the case of a walking video of the subject, the subject's leg. In the case of the unit), the accuracy derivation unit 18 derives the second accuracy information indicating that the accuracy is low as the second accuracy information. On the other hand, in the frame in which the skeleton extraction by the skeleton extraction process fails, the part where the skeleton was desired to be extracted is not indispensable for the subject's movement (for example, in the case of the subject's walking video, the subject's walking video). In the case of the neck), the accuracy derivation unit 18 derives the second accuracy information indicating that the accuracy is high as the second accuracy information. With this configuration, the terminal device 1 can notify the user that the accuracy of the parameter is low when the skeleton extraction of the portion essential for the operation of the target person fails.

再び図2を参照し、端末装置1による処理のステップS19について説明する。 With reference to FIG. 2 again, step S19 of the process by the terminal device 1 will be described.

(ステップS19)
ステップS19において、表示部19は、ステップS17においてパラメータ導出部17が導出したパラメータと、ステップS19において確度導出部18が導出した第2の確度情報が示す確度を含む動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S19)
In step S19, the display unit 19 displays the moving image data including the parameters derived by the parameter derivation unit 17 in step S17 and the accuracy indicated by the second accuracy information derived by the accuracy derivation unit 18 in step S19 on the display panel 12. Supply. The display panel 12 displays the moving image indicated by the acquired moving image data.

(表示部19が表示する動画像の例4)
表示部19が表示パネル12に表示する動画像の一例について、図6を用いて説明する。図6は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 4 of a moving image displayed by the display unit 19)
An example of a moving image displayed on the display panel 12 by the display unit 19 will be described with reference to FIG. FIG. 6 is a diagram showing still another example of the moving image displayed on the display panel 12 by the display unit 19 according to the present embodiment.

図6に示すように、表示部19は、パラメータ導出部17が導出したパラメータPM1と、確度導出部18が導出した第2の確度情報が示す確度AC1を含む動画像を表示パネル12に表示する。また、表示部19は、評価項目毎のパラメータPM2も含む動画像を表示パネル12に表示してもよい。当該構成により、端末装置1は、表示されているパラメータPM1の確度をユーザに通知することができる。 As shown in FIG. 6, the display unit 19 displays a moving image including the parameter PM1 derived by the parameter derivation unit 17 and the accuracy AC1 indicated by the second accuracy information derived by the accuracy derivation unit 18 on the display panel 12. .. Further, the display unit 19 may display a moving image including the parameter PM2 for each evaluation item on the display panel 12. With this configuration, the terminal device 1 can notify the user of the accuracy of the displayed parameter PM1.

また、表示部19は、第2の確度情報が示す確度を、評価項目毎に表示する構成であってもよい。当該構成では、確度導出部18は、評価項目毎に第2の確度情報を導出する。例えば、対象者が歩く動作と、対象者が立ち止まって腕を上げる動作とが動画像に含まれている場合、対象者が歩く動作を行っている期間において、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の数より多い場合、確度導出部18は、対象者が歩く動作において評価される評価項目「速度」の確度が低くなるように第2の確度情報を導出する。 Further, the display unit 19 may be configured to display the accuracy indicated by the second accuracy information for each evaluation item. In this configuration, the accuracy derivation unit 18 derives the second accuracy information for each evaluation item. For example, when the moving image includes the movement of the subject walking and the movement of the subject stopping and raising the arm, the skeletal extraction by the skeletal extraction process failed during the period when the subject was walking. When the number of frames is larger than a predetermined number, the accuracy derivation unit 18 derives the second accuracy information so that the accuracy of the evaluation item “speed” evaluated in the walking motion of the subject becomes low.

(表示部19が表示する動画像の例5)
表示部19は、確度導出部18が導出した第2の確度情報が示す確度に応じて、確度を表示する態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図7を用いて説明する。図7は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 5 of a moving image displayed by the display unit 19)
The display unit 19 may be configured to change the mode of displaying the accuracy according to the accuracy indicated by the second accuracy information derived by the accuracy derivation unit 18. An example of a moving image displayed on the display panel 12 by the display unit 19 in this configuration will be described with reference to FIG. 7. FIG. 7 is a diagram showing still another example of the moving image displayed on the display panel 12 by the display unit 19 according to the present embodiment.

図7に示すように、表示部19は、第2の確度情報が示す確度が所定の値より低い場合、再度、動画像を撮影するよう促すメッセージDP2を含む画像を表示パネル12に表示する。この構成により、端末装置1は、確度の高いパラメータを導出するためには、再度の動画像の撮影が必要であることをユーザに通知することができる。 As shown in FIG. 7, when the accuracy indicated by the second accuracy information is lower than a predetermined value, the display unit 19 displays an image including the message DP2 prompting to take a moving image again on the display panel 12. With this configuration, the terminal device 1 can notify the user that it is necessary to take a moving image again in order to derive a parameter with high accuracy.

また、図7に示すように、表示部19は、動画像を撮影するよう促すメッセージDP2に加えて、パラメータ導出部17が導出したパラメータPM3、評価項目毎のパラメータPM4、及び確度導出部18が導出した第2の確度情報が示す確度を表示してもよい。 Further, as shown in FIG. 7, in addition to the message DP2 prompting to take a moving image, the display unit 19 includes a parameter PM3 derived by the parameter derivation unit 17, a parameter PM4 for each evaluation item, and an accuracy derivation unit 18. The accuracy indicated by the derived second accuracy information may be displayed.

図7に示す動画像の他に、表示部19は、第2の確度情報が示す確度が所定の値より高いか低いかに応じて、以下のように表示する態様を変更する構成であってもよい。
・第2の確度情報が示す確度のテキストの色を変更する
・第2の確度情報が示す確度のテキストの大きさを変更する
・第2の確度情報が示す確度が所定の値より高い場合、再度の動画像の撮影が不要であることをユーザに通知する(例えば、「測定が適切に完了しました」というテキストを表示する)
ただし、これらは本実施形態を限定するものではない。
In addition to the moving image shown in FIG. 7, the display unit 19 may be configured to change the display mode as follows depending on whether the accuracy indicated by the second accuracy information is higher or lower than a predetermined value. good.
-Change the color of the accuracy text indicated by the second accuracy information-Change the size of the accuracy text indicated by the second accuracy information-If the accuracy indicated by the second accuracy information is higher than the predetermined value Notify the user that it is not necessary to take another moving image (for example, display the text "Measurement completed properly")
However, these are not limited to this embodiment.

このように、端末装置1は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示し、1又は複数の第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、端末装置1は、第1のアルゴリズムを用いて抽出した対象者の骨格を、対象者に重畳して表示しつつ、第2のアルゴリズムを用いて抽出した対象者の骨格を参照して対象者の身体の動作に関するパラメータを導出するので、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 As described above, the terminal device 1 superimposes and displays the skeleton of the target person extracted from the moving image including the target person as the subject by using the first algorithm on the target person in the moving image, and displays one or a plurality of them. Using the second algorithm, the skeleton of the subject extracted from the moving image is referred to, and the parameters related to the movement of the subject's body are derived. Therefore, the terminal device 1 superimposes the skeleton of the target person extracted by the first algorithm on the target person and displays the skeleton of the target person by referring to the skeleton of the target person extracted by the second algorithm. Since the parameters related to the movement of the body of the subject are derived, it is possible to evaluate the movement of the subject's body with high accuracy while notifying the user who shoots the subject whether or not an appropriate moving image can be shot.

また、端末装置1は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出し、当該パラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。 Further, the terminal device 1 executes a skeleton extraction process for extracting the skeleton of the target person from a moving image including the target person as a subject, and derives a parameter related to the movement of the body of the target person by referring to the result of the skeleton extraction process. Then, the accuracy information indicating the accuracy of the parameter is derived according to the frame in which the skeleton extraction by the skeleton extraction process fails among the plurality of frames included in the moving image. Therefore, since the terminal device 1 derives the accuracy of the parameter according to the frame in which the skeleton extraction by the skeleton extraction process fails, the reliability of the parameter can be notified to the user.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present invention will be described below. For convenience of explanation, the same reference numerals are given to the members having the same functions as the members described in the above-described embodiment, and the description thereof will not be repeated.

(情報処理システム100)
図8を参照し、本実施形態に係る情報処理システム100の概要について説明する。図8は、本実施形態に係る情報処理システム100の概要を示す模式図である。図8に示すように、情報処理システム100は、端末装置1A及び情報処理装置3を含んで構成される。
(Information processing system 100)
An outline of the information processing system 100 according to the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram showing an outline of the information processing system 100 according to the present embodiment. As shown in FIG. 8, the information processing system 100 includes a terminal device 1A and an information processing device 3.

図8に示すように、端末装置1A及び情報処理装置3は、ネットワークNを介して互いに通信可能に接続されている。ここで、端末装置1Aの例として、スマートフォン、PC(Personal Computer)、及びタブレットが挙げられ、情報処理装置3の例としてサーバが挙げられるが、これらは本実施形態を限定するものではない。 As shown in FIG. 8, the terminal device 1A and the information processing device 3 are connected to each other so as to be able to communicate with each other via the network N. Here, examples of the terminal device 1A include a smartphone, a PC (Personal Computer), and a tablet, and examples of the information processing device 3 include a server, but these are not limited to this embodiment.

また、ネットワークNの具体的構成は本実施形態を限定するものではないが、一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。 The specific configuration of the network N is not limited to this embodiment, but as an example, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, etc. Alternatively, a combination of these networks can be used.

本実施形態に係る情報処理システム100において、端末装置1Aは、端末装置1Aのユーザが対象者を撮像した動画像から抽出した対象者の骨格を、動画像における対象者に重畳して表示する。そして、情報処理装置3は、端末装置1Aから動画像を取得し、動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。 In the information processing system 100 according to the present embodiment, the terminal device 1A superimposes and displays the skeleton of the target person extracted from the moving image captured by the user of the terminal device 1A on the moving image. Then, the information processing device 3 acquires a moving image from the terminal device 1A, refers to the skeleton of the target person extracted from the moving image, and derives parameters related to the movement of the body of the target person. Further, the information processing apparatus 3 derives the accuracy information indicating the accuracy of the derived parameters according to the frame in which the skeleton extraction by the skeleton extraction process fails.

本実施形態においても、実施形態1と同様に、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1Aのユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。 In the present embodiment as well, as in the first embodiment, the care recipient can be mentioned as an example of the subject, but this is not limited to the present embodiment. Further, as a user of the terminal device 1A, a care worker who cares for the person to be cared for can be mentioned, but this does not limit the present embodiment.

(端末装置1A)
図9を参照して、本実施形態に係る端末装置1Aの構成例について説明する。図9は、本実施形態に係る情報処理システム100に含まれる端末装置1A及び情報処理装置3の構成例を示すブロック図である。図9に示すように、端末装置1Aは、実施形態1における端末装置1における制御部10に替えて制御部10Aを備え、通信部11をさらに備えている。
(Terminal device 1A)
A configuration example of the terminal device 1A according to the present embodiment will be described with reference to FIG. 9. FIG. 9 is a block diagram showing a configuration example of the terminal device 1A and the information processing device 3 included in the information processing system 100 according to the present embodiment. As shown in FIG. 9, the terminal device 1A includes a control unit 10A instead of the control unit 10 in the terminal device 1 in the first embodiment, and further includes a communication unit 11.

通信部11は、ネットワークNを介した通信を行うための通信モジュールである。通信部11は、制御部10Aから取得したデータを、ネットワークNを介して情報処理装置3に出力したり、ネットワークNを介して情報処理装置3から取得したデータを、制御部10Aに供給したりする。 The communication unit 11 is a communication module for performing communication via the network N. The communication unit 11 outputs the data acquired from the control unit 10A to the information processing device 3 via the network N, and supplies the data acquired from the information processing device 3 via the network N to the control unit 10A. do.

(制御部10A)
制御部10Aは、端末装置1Aの各構成要素を制御する。また、制御部10Aは、取得部15、骨格抽出部16、表示部19、及び出力部20としても機能する。表示部19の機能は、実施形態1における表示部19と同じであるため、説明を省略する。
(Control unit 10A)
The control unit 10A controls each component of the terminal device 1A. The control unit 10A also functions as an acquisition unit 15, a skeleton extraction unit 16, a display unit 19, and an output unit 20. Since the function of the display unit 19 is the same as that of the display unit 19 in the first embodiment, the description thereof will be omitted.

取得部15は、実施形態1における取得部15の機能に加えて、通信部11を介して情報処理装置3からデータを取得する。取得部15が取得するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。 In addition to the function of the acquisition unit 15 in the first embodiment, the acquisition unit 15 acquires data from the information processing device 3 via the communication unit 11. Examples of the data acquired by the acquisition unit 15 include, but are not limited to, parameters and second accuracy information.

骨格抽出部16は、第1のアルゴリズムを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。実施形態1と同様に、第1のアルゴリズムは、第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。 The skeleton extraction unit 16 executes a skeleton extraction process for extracting the skeleton of the target person from a moving image including the target person as a subject by using the first algorithm. The skeleton of the subject extracted by the first algorithm is referred to in real time by the display unit 19 described later as the first skeleton information indicating the skeleton. In addition, the first algorithm generates first accuracy information indicating the accuracy of the extracted skeleton. The first accuracy information is referred to by the display unit 19 described later. As in the first embodiment, it is preferable that the first algorithm is an algorithm having a faster skeleton extraction process than the second algorithm.

また、骨格抽出部16は、第1のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。エラー情報については、実施形態1において説明した通りである。 Further, the skeleton extraction unit 16 may generate error information indicating a frame in which the skeleton extraction has failed among the frames included in the moving image during the skeleton extraction using the first algorithm. The error information is as described in the first embodiment.

出力部20は、通信部11を介して情報処理装置3にデータを出力する。出力部20が出力するデータの例として、動画像及びエラー情報が挙げられるが、これらに限定されない。 The output unit 20 outputs data to the information processing device 3 via the communication unit 11. Examples of the data output by the output unit 20 include, but are not limited to, moving images and error information.

(情報処理装置3)
図9に示すように、情報処理装置3は、制御部30、通信部31、及び記憶部34を備えている。
(Information processing device 3)
As shown in FIG. 9, the information processing apparatus 3 includes a control unit 30, a communication unit 31, and a storage unit 34.

通信部31は、ネットワークNを介した通信を行うための通信モジュールである。通信部31は、制御部30から取得したデータを、ネットワークNを介して端末装置1に出力したり、ネットワークNを介して端末装置1Aから取得したデータを、制御部30に供給したりする。 The communication unit 31 is a communication module for performing communication via the network N. The communication unit 31 outputs the data acquired from the control unit 30 to the terminal device 1 via the network N, and supplies the data acquired from the terminal device 1A via the network N to the control unit 30.

記憶部34は、後述する制御部30が参照する各種のデータが格納されている。一例として、記憶部34には、端末装置1Aから取得した動画像、導出されたパラメータなどが格納されている。 The storage unit 34 stores various data referred to by the control unit 30 described later. As an example, the storage unit 34 stores a moving image acquired from the terminal device 1A, a derived parameter, and the like.

(制御部30)
制御部30は、情報処理装置3の各構成要素を制御する。一例として、制御部30は、通信部31を介して端末装置1Aから出力された動画像を取得したり、通信部31を介して生成したデータを出力したりする。
(Control unit 30)
The control unit 30 controls each component of the information processing apparatus 3. As an example, the control unit 30 acquires a moving image output from the terminal device 1A via the communication unit 31 or outputs data generated via the communication unit 31.

また、制御部30は、図9に示すように、取得部35、骨格抽出部36、パラメータ導出部37、確度導出部38、及び出力部40としても機能する。 Further, as shown in FIG. 9, the control unit 30 also functions as an acquisition unit 35, a skeleton extraction unit 36, a parameter derivation unit 37, an accuracy derivation unit 38, and an output unit 40.

取得部35は、通信部31を介して端末装置1Aからデータを取得する。取得部35が取得するデータの例として、動画像が挙げられるが、これに限定されない。 The acquisition unit 35 acquires data from the terminal device 1A via the communication unit 31. An example of the data acquired by the acquisition unit 35 is, but is not limited to, a moving image.

骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。第2のアルゴリズムによって抽出された対象者の骨格の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部37によって参照される。 The skeleton extraction unit 36 executes a skeleton extraction process for extracting the skeleton of the target person from the moving image acquired by the acquisition unit 35 by using the second algorithm. The result of the subject's skeleton extracted by the second algorithm is referred to by the parameter derivation unit 37 described later as the second skeleton information indicating the skeleton.

また、骨格抽出部36は、第2のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。 Further, the skeleton extraction unit 36 may generate error information indicating a frame in which the skeleton extraction has failed among the frames included in the moving image during the skeleton extraction using the second algorithm.

パラメータ導出部37は、上述したパラメータ導出部17と同様、骨格抽出部36が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータについては、実施形態1において説明した通りである。 Similar to the parameter derivation unit 17 described above, the parameter derivation unit 37 derives parameters related to the movement of the body of the subject with reference to the result of the skeleton extraction process executed by the skeleton extraction unit 36. The parameters related to the movement of the body of the subject are as described in the first embodiment.

確度導出部38は、上述した確度導出部18と同様、パラメータ導出部37が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。 Similar to the accuracy derivation unit 18 described above, the accuracy derivation unit 38 extracts the second accuracy information indicating the accuracy of the parameters derived by the parameter derivation unit 37 from the plurality of frames included in the moving image by skeleton extraction processing. Derives according to the failed frame.

出力部40は、通信部31を介して端末装置1Aにデータを出力する。出力部40が出力するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。 The output unit 40 outputs data to the terminal device 1A via the communication unit 31. Examples of the data output by the output unit 40 include, but are not limited to, parameters and second accuracy information.

(情報処理システム100における処理)
情報処理システム100における処理について、図10を用いて説明する。図4は、本実施形態に係る情報処理システム100における処理の流れを示すシーケンス図である。
(Processing in the information processing system 100)
The processing in the information processing system 100 will be described with reference to FIG. FIG. 4 is a sequence diagram showing a processing flow in the information processing system 100 according to the present embodiment.

(ステップS12~ステップS15)
端末装置1Aが動画像の取得を開始し、動画像の取得を終了するまでのステップS12~ステップS15の処理は、上述した処理と同じであるため、説明を省略する。
(Step S12 to Step S15)
Since the processes of steps S12 to S15 from the start of the acquisition of the moving image to the end of the acquisition of the moving image by the terminal device 1A are the same as the above-mentioned processes, the description thereof will be omitted.

(ステップS20)
ステップS20において、端末装置1Aの出力部20は、通信部11を介して、動画像を情報処理装置3に出力する。ここで、骨格抽出部16が第1の確度情報及びエラー情報の少なくとも何れかを生成している場合、出力部20は、動画像と共に、生成された第1の確度情報及びエラー情報の少なくとも何れかを出力してもよい。また、出力部20は、後述するパラメータ導出部37によるパラメータ導出処理のために、撮像部13のカメラパラメータ及び動画像の画像サイズなども出力してよい。
(Step S20)
In step S20, the output unit 20 of the terminal device 1A outputs the moving image to the information processing device 3 via the communication unit 11. Here, when the skeleton extraction unit 16 generates at least one of the first accuracy information and the error information, the output unit 20 receives at least one of the generated first accuracy information and the error information together with the moving image. May be output. Further, the output unit 20 may also output the camera parameters of the image pickup unit 13, the image size of the moving image, and the like for the parameter derivation process by the parameter derivation unit 37 described later.

(ステップS21)
ステップS21において、情報処理装置3の取得部35は、通信部31を介して、端末装置1Aから動画像を取得する。
(Step S21)
In step S21, the acquisition unit 35 of the information processing device 3 acquires a moving image from the terminal device 1A via the communication unit 31.

(ステップS22)
ステップS22において、骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。より具体的には、骨格抽出部36は、1又は複数の第2のアルゴリズムを用いて、動画像から対象者の骨格を抽出し、抽出した骨格を示す第2の骨格情報を生成する。また、骨格抽出部36は、端末装置1Aから第1の確度情報が出力されている場合、第1の確度情報を参照して、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する処理の詳細は、上述した通りである。また、ステップS22において骨格抽出部36は、エラー情報を生成してもよい。
(Step S22)
In step S22, the skeleton extraction unit 36 executes a skeleton extraction process for extracting the skeleton of the subject from the moving image acquired by the acquisition unit 35 by using the second algorithm. More specifically, the skeleton extraction unit 36 extracts the skeleton of the subject from the moving image by using one or a plurality of second algorithms, and generates the second skeleton information indicating the extracted skeleton. Further, when the first accuracy information is output from the terminal device 1A, the skeleton extraction unit 36 selects one or a plurality of second algorithms from a plurality of algorithm candidates with reference to the first accuracy information. , The skeleton of the subject may be extracted using the selected one or a plurality of second algorithms. The details of the process of selecting one or a plurality of second algorithms from a plurality of algorithm candidates are as described above. Further, in step S22, the skeleton extraction unit 36 may generate error information.

(ステップS23)
ステップS23において、パラメータ導出部37は、ステップS22において実行された骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部37は、骨格抽出部36が生成した第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。パラメータ導出部37がパラメータを導出する処理の詳細については、上述した通りである。
(Step S23)
In step S23, the parameter derivation unit 37 derives parameters related to the movement of the body of the subject with reference to the result of the skeleton extraction process executed in step S22. More specifically, the parameter derivation unit 37 refers to the second skeleton information generated by the skeleton extraction unit 36, and derives parameters related to the movement of the body of the subject. The details of the process of deriving the parameters by the parameter deriving unit 37 are as described above.

(ステップS24)
ステップS24において、確度導出部38は、ステップS23において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部38は、ステップS20において端末装置1Aから出力されたエラー情報及びステップS22において生成されたエラー情報の少なくとも何れかを参照し、第2の確度情報を導出する。確度導出部38が第2の確度情報を導出する処理の詳細については、上述した通りである。
(Step S24)
In step S24, the accuracy derivation unit 38 uses the second accuracy information indicating the accuracy of the parameter derived in step S23 as the frame in which the skeleton extraction by the skeleton extraction process fails among the plurality of frames included in the moving image. Derived according to. More specifically, the accuracy derivation unit 38 refers to at least one of the error information output from the terminal device 1A in step S20 and the error information generated in step S22, and derives the second accuracy information. The details of the process by which the accuracy derivation unit 38 derives the second accuracy information are as described above.

(ステップS25)
ステップS25において、出力部40は、ステップS23において導出されたパラメータと、ステップS24において導出された第2の確度情報とを、通信部31を介して端末装置1Aに出力する。
(Step S25)
In step S25, the output unit 40 outputs the parameter derived in step S23 and the second accuracy information derived in step S24 to the terminal device 1A via the communication unit 31.

(ステップS26)
ステップS26において、端末装置1Aの取得部15は、通信部11を介して、情報処理装置3から出力されたパラメータ及び第2の確度情報を取得する。
(Step S26)
In step S26, the acquisition unit 15 of the terminal device 1A acquires the parameters output from the information processing device 3 and the second accuracy information via the communication unit 11.

(ステップS27)
ステップS27において、表示部19は、ステップS26において取得部15が取得したパラメータ及び第2の確度情報を含む動画像を、表示パネル12に表示する。ステップS27において表示部19が表示する画像の例として、上述した図6及び図7の画像が挙げられる。
(Step S27)
In step S27, the display unit 19 displays a moving image including the parameters acquired by the acquisition unit 15 in step S26 and the second accuracy information on the display panel 12. As an example of the image displayed by the display unit 19 in step S27, the above-mentioned images of FIGS. 6 and 7 can be mentioned.

このように、情報処理システム100における端末装置1Aは、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示する。また、情報処理装置3は、被写体として対象者を含む動画像を取得し、取得した動画像から第2のアルゴリズムを用いて抽出した骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、情報処理システム100では、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 As described above, the terminal device 1A in the information processing system 100 displays the skeleton of the target person extracted from the moving image including the target person as the subject by using the first algorithm, superimposed on the target person in the moving image. .. Further, the information processing apparatus 3 acquires a moving image including the target person as a subject, refers to a skeleton extracted from the acquired moving image using the second algorithm, and derives parameters related to the movement of the target person's body. .. Therefore, the information processing system 100 can accurately evaluate the movement of the body of the target person while notifying the user who shoots the target person whether or not an appropriate moving image can be shot.

また、情報処理システム100における情報処理装置3は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、情報処理装置3は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。 Further, the information processing apparatus 3 in the information processing system 100 executes a skeleton extraction process for extracting the skeleton of the target person from a moving image including the target person as a subject, and refers to the result of the skeleton extraction process to refer to the body of the target person. Derivation of parameters related to the operation of. Further, the information processing apparatus 3 derives the accuracy information indicating the accuracy of the derived parameters according to the frame in which the skeleton extraction by the skeleton extraction process fails among the plurality of frames included in the moving image. Therefore, the information processing apparatus 3 derives the accuracy of the parameter according to the frame in which the skeleton extraction by the skeleton extraction process fails, so that the reliability of the parameter can be notified to the user.

(端末装置1Aの物理的構成)
図11は、端末装置1A(1)及び情報処理装置3として用いられるコンピュータの物理的構成を例示したブロック図である。端末装置1Aは、図11に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104と、カメラ105、表示パネル106とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、通信インタフェース104、カメラ105、及び表示パネル106は、バス110を介して互いに接続されている。
(Physical configuration of terminal device 1A)
FIG. 11 is a block diagram illustrating the physical configuration of a computer used as the terminal device 1A (1) and the information processing device 3. As shown in FIG. 11, the terminal device 1A can be configured by a computer including a bus 110, a processor 101, a main memory 102, an auxiliary memory 103, a communication interface 104, a camera 105, and a display panel 106. be. The processor 101, the main memory 102, the auxiliary memory 103, the communication interface 104, the camera 105, and the display panel 106 are connected to each other via the bus 110.

プロセッサ101としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。 As the processor 101, for example, a CPU (Central Processing Unit), a microprocessor, a digital signal processor, a microcontroller, or a combination thereof or the like is used.

主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。 As the main memory 102, for example, a semiconductor RAM (random access memory) or the like is used.

補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、上述した端末装置1Aの動作をプロセッサ101に実行させるためのプログラムが格納されている。プロセッサ101は、補助メモリ103に格納されたプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行する。 As the auxiliary memory 103, for example, a flash memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a combination thereof or the like is used. The auxiliary memory 103 stores a program for causing the processor 101 to execute the operation of the terminal device 1A described above. The processor 101 expands the program stored in the auxiliary memory 103 on the main memory 102, and executes each instruction included in the expanded program.

通信インタフェース104は、ネットワークNに接続するインタフェースである。 The communication interface 104 is an interface connected to the network N.

カメラ105は、撮像部13を実現するハードウェア要素の一例である。 The camera 105 is an example of a hardware element that realizes the image pickup unit 13.

表示パネル106は、表示パネル12を実現するハードウェア要素の一例である。 The display panel 106 is an example of hardware elements that realize the display panel 12.

この例で、プロセッサ101は制御部10Aを実現するハードウェア要素の一例である。また、主メモリ102及び補助メモリ103は、記憶部14を実現するハードウェア要素の一例である。また、通信インタフェース104は、通信部11を実現するハードウェア要素の一例である。 In this example, the processor 101 is an example of a hardware element that realizes the control unit 10A. Further, the main memory 102 and the auxiliary memory 103 are examples of hardware elements that realize the storage unit 14. Further, the communication interface 104 is an example of a hardware element that realizes the communication unit 11.

(情報処理装置3の物理的構成)
情報処理装置3は、図11に示すように、バス310と、プロセッサ301と、主メモリ302と、補助メモリ303と、通信インタフェース304とを備えたコンピュータによって構成可能である。プロセッサ301、主メモリ302、補助メモリ303、及び通信インタフェース104は、バス110を介して互いに接続されている。
(Physical configuration of information processing device 3)
As shown in FIG. 11, the information processing apparatus 3 can be configured by a computer including a bus 310, a processor 301, a main memory 302, an auxiliary memory 303, and a communication interface 304. The processor 301, the main memory 302, the auxiliary memory 303, and the communication interface 104 are connected to each other via the bus 110.

この例で、プロセッサ301は制御部30を実現するハードウェア要素の一例である。また、主メモリ302及び補助メモリ303は、記憶部34を実現するハードウェア要素の一例である。また、通信インタフェース304は、通信部31を実現するハードウェア要素の一例である。 In this example, the processor 301 is an example of a hardware element that realizes the control unit 30. Further, the main memory 302 and the auxiliary memory 303 are examples of hardware elements that realize the storage unit 34. Further, the communication interface 304 is an example of a hardware element that realizes the communication unit 31.

〔ソフトウェアによる実現例〕
端末装置1、1A、及び情報処理装置3(以下、総称して「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部10、10A、及び30に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
[Example of implementation by software]
The functions of the terminal devices 1, 1A, and the information processing device 3 (hereinafter collectively referred to as "devices") are programs for operating the computer as the device, and each control block (particularly control) of the device is used. Each part included in parts 10, 10A, and 30) can be realized by a program for operating a computer.

この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。 In this case, the device includes a computer having at least one control device (for example, a processor) and at least one storage device (for example, memory) as hardware for executing the program. By executing the above program by the control device and the storage device, each function described in each of the above embodiments is realized.

上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。 The program may be recorded on one or more computer-readable recording media rather than transiently. This recording medium may or may not be provided in the above-mentioned apparatus. In the latter case, the program may be supplied to the device via any wired or wireless transmission medium.

また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。 Further, some or all of the functions of the above control blocks can be realized by a logic circuit. For example, an integrated circuit in which a logic circuit functioning as each of the above control blocks is formed is also included in the category of the present invention. In addition to this, it is also possible to realize the function of each of the above control blocks by, for example, a quantum computer.

また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。 Further, each process described in each of the above embodiments may be executed by AI (Artificial Intelligence). In this case, the AI may be operated by the above-mentioned control device, or may be operated by another device (for example, an edge computer or a cloud server).

本発明の一実施例について以下に説明する。 An embodiment of the present invention will be described below.

三次元動作分析装置を用いて測定した対象者の歩行速度の実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した歩行速度の推定値と、の関係を示すグラフを、図12に示す。図12は、実施例1における推定値と実測値との関係を示すグラフである。 A graph showing the relationship between the measured value of the walking speed of the subject measured using the three-dimensional motion analysis device and the estimated value of the walking speed estimated using the gait analysis AI from the moving image of the subject walking. , FIG. 12. FIG. 12 is a graph showing the relationship between the estimated value and the actually measured value in Example 1.

図12における〇、△、及び×はそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図12に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、歩行速度の推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、歩行速度の推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
〇, Δ, and × in FIG. 12 indicate the following moving images, respectively.
Δ: There is a frame in which skeleton extraction failed during the period from the start of the moving image to the start of the motion, or from the end of the motion to the end of the motion image. Moving image with failed frames 〇: Moving image with no frame that failed to extract the skeleton As shown in Fig. 12, if there is a frame that failed to extract the skeleton in the moving image during operation, the estimated walking speed is reliable. It was found that the degree was low (the deviation of the estimated value from the measured value was large). On the other hand, when there is a frame in which the skeleton extraction fails in the period from the start of the moving image to the start of the motion, or from the end of the motion to the end of the moving image, or when there is no frame in which the skeleton extraction fails. It was found that the estimated walking speed was highly reliable (the deviation of the estimated value from the measured value was small).

本発明の他の実施例について以下に説明する。 Other embodiments of the present invention will be described below.

三次元動作分析装置を用いて測定した頭部のふらつきの実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した頭部のふらつきの推定値と、の関係を示すグラフを、図13に示す。図13は、実施例2における推定値と実測値との関係を示すグラフである。 A graph showing the relationship between the measured value of head wobbling measured using a three-dimensional motion analyzer and the estimated value of head wobbling estimated using gait analysis AI from a moving image of a subject walking. Is shown in FIG. FIG. 13 is a graph showing the relationship between the estimated value and the actually measured value in Example 2.

図13における〇、△、及び×もそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図13に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、頭部のふらつきの推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、頭部のふらつきの推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
〇, Δ, and × in FIG. 13 also show the following moving images, respectively.
Δ: There is a frame in which skeleton extraction failed during the period from the start of the moving image to the start of the motion, or from the end of the motion to the end of the motion image. Moving image with failed frames 〇: Moving image with no frame that failed to extract the skeleton As shown in Fig. 13, if there is a frame that failed to extract the skeleton in the moving image during operation, the estimated value of head wobbling. Was found to have low reliability (large deviation of the estimated value from the measured value). On the other hand, when there is a frame in which the skeleton extraction fails in the period from the start of the moving image to the start of the operation, or from the end of the operation to the end of the moving image, or when there is no frame in which the skeleton extraction fails. It was found that the estimated value of head wobbling is highly reliable (the deviation of the estimated value from the measured value is small).

[まとめ]
各実施形態の一態様に係る情報処理方法は、被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出ステップと、前記パラメータ導出ステップにおいて導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出ステップと、を含む。
[summary]
In the information processing method according to one embodiment of each embodiment, a skeleton extraction process for extracting the skeleton of the subject from a moving image including the subject as a subject is executed, and the result of the skeleton extraction process is referred to to the subject. Of the plurality of frames included in the moving image, the skeleton extraction by the skeleton extraction process can obtain the accuracy information indicating the accuracy of the parameter derived in the parameter derivation step and the parameter derivation step for deriving the parameters related to the movement of the body. Includes an accuracy derivation step, which derives according to the failed frame.

上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.

各実施形態の一態様に係る情報処理方法において、前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームの数に応じて、前記確度情報を導出することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the accuracy derivation step, it is preferable to derive the accuracy information according to the number of frames in which the skeleton extraction by the skeleton extraction process has failed.

上記構成によれば、骨格抽出に失敗したフレームが多い場合、信頼度が低いことをユーザに通知することができる。 According to the above configuration, when there are many frames in which the skeleton extraction fails, it is possible to notify the user that the reliability is low.

各実施形態の一態様に係る情報処理方法において、前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置に応じて、前記確度情報を導出することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the accuracy derivation step, it is preferable to derive the accuracy information according to the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails.

上記構成によれば、対象者の動作中に骨格抽出に失敗したフレームがある場合、信頼度が低いことをユーザに通知することができる。 According to the above configuration, if there is a frame in which the skeleton extraction fails during the operation of the target person, it is possible to notify the user that the reliability is low.

各実施形態の一態様に係る情報処理方法において、前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームにおいて、骨格が抽出されなかった部位に応じて、前記確度情報を導出することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the accuracy derivation step, in the frame in which the skeleton extraction by the skeleton extraction process fails, the accuracy information is derived according to the portion where the skeleton was not extracted. Is preferable.

上記構成によれば、対象者の動作に関係した部位の骨格抽出に失敗したフレームがある場合、信頼度が低いことをユーザに通知することができる。 According to the above configuration, when there is a frame in which the skeleton extraction of the portion related to the movement of the target person fails, it is possible to notify the user that the reliability is low.

各実施形態の一態様に係る情報処理方法は、前記確度導出ステップにおいて導出された確度情報が示す確度を表示する表示ステップを更に含むことが好ましい。 It is preferable that the information processing method according to one embodiment of each embodiment further includes a display step for displaying the accuracy indicated by the accuracy information derived in the accuracy derivation step.

上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.

各実施形態の一態様に係る情報処理方法において、前記表示ステップでは、前記確度導出ステップにおいて導出された確度情報が示す確度に応じて、確度を表示する態様を変更することが好ましい。 In the information processing method according to one aspect of each embodiment, in the display step, it is preferable to change the mode of displaying the accuracy according to the accuracy indicated by the accuracy information derived in the accuracy derivation step.

上記構成によれば、対象者の身体の動作の評価の信頼度が低い場合、ユーザに適切に通知することができる。 According to the above configuration, when the reliability of the evaluation of the body movement of the subject is low, the user can be appropriately notified.

各実施形態の一態様に係る情報処理方法において、前記表示ステップでは、前記確度導出ステップにおいて導出された確度情報が示す確度が所定の値より低い場合、再度、動画像を撮影するよう促すメッセージを表示することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the display step, when the accuracy indicated by the accuracy information derived in the accuracy derivation step is lower than a predetermined value, a message prompting the user to take a moving image again is displayed. It is preferable to display it.

上記構成によれば、対象者の身体の動作の評価の信頼度が低い場合、ユーザに再度の撮影を促すことができる。 According to the above configuration, if the reliability of the evaluation of the body movement of the subject is low, the user can be prompted to take a picture again.

各実施形態の一態様に係る情報処理装置は、被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出部と、前記パラメータ導出部が導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出部と、を備える。 The information processing apparatus according to one embodiment of each embodiment executes a skeleton extraction process for extracting the skeleton of the subject from a moving image including the subject as a subject, and refers to the result of the skeleton extraction process to refer to the subject. Of the plurality of frames included in the moving image, the skeleton extraction by the skeleton extraction process can obtain the accuracy information indicating the accuracy of the parameters derived by the parameter derivation unit and the parameter derivation unit for deriving the parameters related to the movement of the body. It is provided with an accuracy derivation unit for deriving according to a failed frame.

上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.

各実施形態の一態様に係るプログラムは、上述した情報処理装置としてコンピュータを機能させるためのプログラムであって、上記パラメータ導出部及び上記確度導出部としてコンピュータを機能させる。 The program according to one aspect of each embodiment is a program for operating a computer as the above-mentioned information processing apparatus, and causes the computer to function as the parameter derivation unit and the accuracy derivation unit.

上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

1、1A 端末装置
3 情報処理装置
10、10A、30 制御部
11、31 通信部
12 表示パネル
13 撮像部
14、34 記憶部
15、35 取得部
16、36 骨格抽出部
17、37 パラメータ導出部
18、38 確度導出部
19 表示部
20、40 出力部
100 情報処理システム
1, 1A Terminal device 3 Information processing device 10, 10A, 30 Control unit 11, 31 Communication unit 12 Display panel 13 Imaging unit 14, 34 Storage unit 15, 35 Acquisition unit 16, 36 Skeleton extraction unit 17, 37 Parameter derivation unit 18 , 38 Accuracy derivation unit 19 Display unit 20, 40 Output unit 100 Information processing system

Claims (9)

被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出ステップと、
前記パラメータ導出ステップにおいて導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出ステップと、
を含み、
前記パラメータ導出ステップでは、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗しなかったフレームにおける前記骨格抽出処理の結果を少なくとも参照して、前記パラメータを導出する、情報処理方法。
A parameter derivation step of executing a skeleton extraction process for extracting the skeleton of the target person from a moving image including the target person as a subject and deriving parameters related to the body movement of the target person by referring to the result of the skeleton extraction process. ,
The accuracy derivation step of deriving the accuracy information indicating the accuracy of the parameters derived in the parameter derivation step according to the frame in which the skeleton extraction by the skeleton extraction process fails among the plurality of frames included in the moving image.
Including
In the parameter derivation step, the parameter is derived by at least referring to the result of the skeleton extraction process in the frame in which the skeleton extraction by the skeleton extraction process did not fail among the plurality of frames included in the moving image. Information processing method.
前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームの数に応じて、前記確度情報を導出する
請求項1に記載の情報処理方法。
The information processing method according to claim 1, wherein in the accuracy derivation step, the accuracy information is derived according to the number of frames in which the skeleton extraction by the skeleton extraction process fails.
前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置に応じて、前記確度情報を導出する
請求項1または2に記載の情報処理方法。
The information processing method according to claim 1 or 2, wherein in the accuracy derivation step, the accuracy information is derived according to the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails.
前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームにおいて、骨格が抽出されなかった部位に応じて、前記確度情報を導出する
請求項1~3の何れか1項に記載の情報処理方法。
The information according to any one of claims 1 to 3 for deriving the accuracy information according to the portion where the skeleton was not extracted in the frame in which the skeleton extraction by the skeleton extraction process failed in the accuracy derivation step. Processing method.
前記確度導出ステップにおいて導出された確度情報が示す確度を表示する表示ステップを更に含む請求項1~4の何れか1項に記載の情報処理方法。 The information processing method according to any one of claims 1 to 4, further comprising a display step for displaying the accuracy indicated by the accuracy information derived in the accuracy derivation step. 前記表示ステップでは、前記確度導出ステップにおいて導出された確度情報が示す確度に応じて、確度を表示する態様を変更する
請求項5に記載の情報処理方法。
The information processing method according to claim 5, wherein in the display step, the mode of displaying the accuracy is changed according to the accuracy indicated by the accuracy information derived in the accuracy derivation step.
前記表示ステップでは、前記確度導出ステップにおいて導出された確度情報が示す確度が所定の値より低い場合、再度、動画像を撮影するよう促すメッセージを表示する
請求項6に記載の情報処理方法。
The information processing method according to claim 6, wherein in the display step, when the accuracy indicated by the accuracy information derived in the accuracy derivation step is lower than a predetermined value, a message prompting the user to take a moving image again is displayed.
被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出部と、
前記パラメータ導出部が導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出部と、
を備え、
前記パラメータ導出部は、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗しなかったフレームにおける前記骨格抽出処理の結果を少なくとも参照して、前記パラメータを導出する、情報処理装置。
A parameter derivation unit that executes a skeleton extraction process that extracts the skeleton of the target person from a moving image including the target person as a subject, and derives parameters related to the body movement of the target person by referring to the result of the skeleton extraction process. ,
An accuracy derivation unit that derives accuracy information indicating the accuracy of the parameters derived by the parameter derivation unit according to a frame in which the skeleton extraction by the skeleton extraction process fails among a plurality of frames included in the moving image.
Equipped with
The parameter derivation unit derives the parameter by at least referring to the result of the skeleton extraction process in the frame in which the skeleton extraction by the skeleton extraction process did not fail among the plurality of frames included in the moving image. Information processing device.
請求項8に記載の情報処理装置としてコンピュータを機能させるためのプログラムであって、上記パラメータ導出部及び上記確度導出部としてコンピュータを機能させるためのプログラム。 The program for operating a computer as the information processing apparatus according to claim 8, wherein the computer functions as the parameter derivation unit and the accuracy derivation unit.
JP2021148074A 2021-09-10 2021-09-10 Information processing methods, information processing devices, and programs Active JP7042956B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021148074A JP7042956B1 (en) 2021-09-10 2021-09-10 Information processing methods, information processing devices, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021148074A JP7042956B1 (en) 2021-09-10 2021-09-10 Information processing methods, information processing devices, and programs

Publications (2)

Publication Number Publication Date
JP7042956B1 true JP7042956B1 (en) 2022-03-28
JP2023040883A JP2023040883A (en) 2023-03-23

Family

ID=81214520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021148074A Active JP7042956B1 (en) 2021-09-10 2021-09-10 Information processing methods, information processing devices, and programs

Country Status (1)

Country Link
JP (1) JP7042956B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120052942A1 (en) * 2010-08-31 2012-03-01 Microsoft Corporation User Selection and Navigation Based on Looped Motions
US20160335486A1 (en) * 2015-05-13 2016-11-17 Intel Corporation Detection, tracking, and pose estimation of an articulated body
US20190251341A1 (en) * 2017-12-08 2019-08-15 Huawei Technologies Co., Ltd. Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium
CN110363140A (en) * 2019-07-15 2019-10-22 成都理工大学 A kind of human action real-time identification method based on infrared image
JP2021039687A (en) * 2019-09-05 2021-03-11 株式会社日立製作所 Video processing device, video processing system, and video processing method
US20210166459A1 (en) * 2018-05-01 2021-06-03 Magic Leap, Inc. Avatar animation using markov decision process policies
JP6887586B1 (en) * 2020-07-03 2021-06-16 三菱電機株式会社 Behavior identification device, behavior identification method and behavior identification program
JP2021132267A (en) * 2020-02-18 2021-09-09 株式会社日立製作所 Video monitoring system and video monitoring method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120052942A1 (en) * 2010-08-31 2012-03-01 Microsoft Corporation User Selection and Navigation Based on Looped Motions
US20160335486A1 (en) * 2015-05-13 2016-11-17 Intel Corporation Detection, tracking, and pose estimation of an articulated body
US20190251341A1 (en) * 2017-12-08 2019-08-15 Huawei Technologies Co., Ltd. Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium
US20210166459A1 (en) * 2018-05-01 2021-06-03 Magic Leap, Inc. Avatar animation using markov decision process policies
CN110363140A (en) * 2019-07-15 2019-10-22 成都理工大学 A kind of human action real-time identification method based on infrared image
JP2021039687A (en) * 2019-09-05 2021-03-11 株式会社日立製作所 Video processing device, video processing system, and video processing method
JP2021132267A (en) * 2020-02-18 2021-09-09 株式会社日立製作所 Video monitoring system and video monitoring method
JP6887586B1 (en) * 2020-07-03 2021-06-16 三菱電機株式会社 Behavior identification device, behavior identification method and behavior identification program

Also Published As

Publication number Publication date
JP2023040883A (en) 2023-03-23

Similar Documents

Publication Publication Date Title
US10297076B2 (en) Apparatus and method for generating 3D face model using mobile device
US10559062B2 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
JP5067418B2 (en) Subject tracking program, subject tracking device, and camera
CN113973190A (en) Video virtual background image processing method and device and computer equipment
CN111626105B (en) Gesture estimation method and device and electronic equipment
US20150002518A1 (en) Image generating apparatus
CN110751728B (en) Virtual reality equipment with BIM building model mixed reality function and method
CN109002248B (en) VR scene screenshot method, equipment and storage medium
JP2018207252A (en) Image processing system, control method for image processing system, and program
WO2015154359A1 (en) Method and device for implementing photographing
JP7042956B1 (en) Information processing methods, information processing devices, and programs
JP7047176B1 (en) Terminal devices, information processing methods, information processing systems, and programs
JP2015026894A (en) Imaging program, imaging method and information processing device
JP2019179481A (en) Computer program and portable terminal device
KR102126370B1 (en) Apparatus and method for analyzing motion
US20200226787A1 (en) Information processing apparatus, information processing method, and program
CN111028322A (en) Game animation expression generation method and device and electronic equipment
JP2021077218A (en) Information processing device, information processing method, and information processing program
CN107667522A (en) Adjust the length of live image
US20220070365A1 (en) Mixed reality image capture and smart inspection
WO2019061020A1 (en) Image generation method, image generation device, and machine readable storage medium
JP2024501161A (en) 3D localization of objects in images or videos
JP7462869B2 (en) Information processing method, information processing device, and program
CN111510635B (en) Cloud deck fault determination method and device, storage medium and electronic device
CN115311472A (en) Motion capture method and related equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220315

R150 Certificate of patent or registration of utility model

Ref document number: 7042956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150