JP2023040882A - Terminal device, information processing method, information processing system, and program - Google Patents

Terminal device, information processing method, information processing system, and program Download PDF

Info

Publication number
JP2023040882A
JP2023040882A JP2021148073A JP2021148073A JP2023040882A JP 2023040882 A JP2023040882 A JP 2023040882A JP 2021148073 A JP2021148073 A JP 2021148073A JP 2021148073 A JP2021148073 A JP 2021148073A JP 2023040882 A JP2023040882 A JP 2023040882A
Authority
JP
Japan
Prior art keywords
skeleton
subject
unit
moving image
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021148073A
Other languages
Japanese (ja)
Other versions
JP7047176B1 (en
Inventor
孝志 黒木
Takashi Kuroki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2021148073A priority Critical patent/JP7047176B1/en
Application granted granted Critical
Publication of JP7047176B1 publication Critical patent/JP7047176B1/en
Publication of JP2023040882A publication Critical patent/JP2023040882A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To efficiently evaluate a motion of a subject's body while notifying a user photographing a subject whether a proper moving image has been photographed or not.SOLUTION: A terminal device (1) comprises: a display unit (19) which superimposes the skeleton of a subject extracted by using a first algorithm from a moving image including the subject on the subject and displays a result of this; and a derivation unit (17) which refers to the skeleton of the subject extracted by using a second algorithm and derives parameters related to the motion of the subject's body.SELECTED DRAWING: Figure 1

Description

本発明は、端末装置、情報処理方法、情報処理システム、及びプログラムに関する。 The present invention relates to a terminal device, an information processing method, an information processing system, and a program.

歩行している対象者を含む動画像から、対象者の歩容を解析する技術において、解析の精度を高くすることを目的とした技術が知られている。特許文献1には、撮影時における撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得し、撮影画像に状況情報を表す状況画像を含めた合成画像を出力する端末が開示されている。 Among techniques for analyzing a subject's gait from a moving image including a walking subject, there is known a technique for increasing the accuracy of analysis. Patent Literature 1 discloses a terminal that acquires situation information including information indicating the shooting situation, which is the internal situation of the shooting device at the time of shooting, and outputs a composite image that includes the situation image representing the situation information in the shot image. ing.

特許6895669号公報Japanese Patent No. 6895669

ところで、歩容解析することによって、対象者の歩行を評価する技術も知られている。当該技術では、撮影している動画像が歩容解析に適しているか否かをユーザに通知するため、抽出した対象者の骨格を対象者に重畳し、表示することが知られている。ここで、撮影中に歩容解析のための骨格抽出を行うと、骨格抽出する処理の速さが要求されるため、骨格抽出の精度が低くなり、対象者の歩行を適切に評価できなくなる。一方、骨格抽出を撮影後に行うと、被写体を撮影するユーザに対して、歩容解析のために適切な動画像が撮影できているか否かを通知できないという問題がある。 By the way, there is also known a technique for evaluating the walking of a subject by analyzing the gait. In this technology, it is known to superimpose and display the extracted skeleton of the target person on the target person in order to notify the user whether or not the captured moving image is suitable for gait analysis. Here, if skeleton extraction for gait analysis is performed during photographing, the speed of skeleton extraction processing is required, and the accuracy of skeleton extraction becomes low, making it impossible to appropriately evaluate the gait of the subject. On the other hand, when skeleton extraction is performed after photographing, there is a problem that it is not possible to notify the user photographing the subject whether or not a suitable moving image for gait analysis has been photographed.

本発明の一態様は、対象者を撮影するユーザに適切な動画像が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することを目的とする。 An object of one aspect of the present invention is to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.

上記の課題を解決するために、本発明の一態様に係る端末装置は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、を備える端末装置。 In order to solve the above problems, a terminal device according to an aspect of the present invention extracts a skeleton of a target person using a first algorithm from a moving image including the target person as a subject. With reference to the skeleton of the subject extracted from the moving image using a display unit that is superimposed on the subject and one or more second algorithms different from the first algorithm, the subject's skeleton and a derivation unit for deriving parameters related to body motion.

本発明の一態様によれば、対象者を撮影するユーザに適切な動画像が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to one aspect of the present invention, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.

本発明の実施形態1に係る端末装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the terminal device which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る端末装置による処理の流れを示すシーケンス図である。4 is a sequence diagram showing the flow of processing by the terminal device according to Embodiment 1 of the present invention; FIG. 本発明の実施形態1に係る表示部が表示パネルに表示する動画像の一例を示す図である。FIG. 4 is a diagram showing an example of a moving image displayed on the display panel by the display unit according to Embodiment 1 of the present invention; 本発明の実施形態1に係る表示部が表示パネルに表示する動画像の他の例を示す図である。FIG. 5 is a diagram showing another example of a moving image displayed on the display panel by the display unit according to Embodiment 1 of the present invention; 本発明の実施形態1に係る表示部が表示パネルに表示する動画像のさらに他の例を示す図である。FIG. 10 is a diagram showing still another example of a moving image displayed on the display panel by the display unit according to Embodiment 1 of the present invention; 本発明の実施形態1に係る表示部が表示パネルに表示する動画像のさらに他の例を示す図である。FIG. 10 is a diagram showing still another example of a moving image displayed on the display panel by the display unit according to Embodiment 1 of the present invention; 本発明の実施形態1に係る表示部が表示パネルに表示する動画像のさらに他の例を示す図である。FIG. 10 is a diagram showing still another example of a moving image displayed on the display panel by the display unit according to Embodiment 1 of the present invention; 本発明の実施形態2に係る情報処理システムの概要を示す模式図である。It is a schematic diagram which shows the outline|summary of the information processing system which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る情報処理システムに含まれる端末装置及び情報処理装置の構成例を示すブロック図である。8 is a block diagram showing a configuration example of a terminal device and an information processing device included in the information processing system according to Embodiment 2 of the present invention; FIG. 本発明の実施形態2に係る情報処理システムにおける処理の流れを示すシーケンス図である。FIG. 9 is a sequence diagram showing the flow of processing in the information processing system according to Embodiment 2 of the present invention; 端末装置及び情報処理装置として用いられるコンピュータの物理的構成を例示したブロック図である。1 is a block diagram illustrating a physical configuration of a computer used as a terminal device and an information processing device; FIG. 実施例1における推定値と実測値との関係を示すグラフである。4 is a graph showing the relationship between estimated values and measured values in Example 1. FIG. 実施例2における推定値と実測値との関係を示すグラフである。9 is a graph showing the relationship between estimated values and measured values in Example 2. FIG.

〔実施形態1〕
以下、本発明の一実施形態について説明する。
[Embodiment 1]
An embodiment of the present invention will be described below.

(端末装置1の概要)
図1を参照して、本実施形態に係る端末装置1の構成例について説明する。図1は、本実施形態に係る端末装置1の構成例を示すブロック図である。
(Overview of terminal device 1)
A configuration example of a terminal device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration example of a terminal device 1 according to this embodiment.

本実施形態に係る端末装置1は、被写体として対象者を含む動画像を撮影し、当該動画像を参照し、以下の処理を行う。
・対象者の骨格を抽出し、抽出した対象者の骨格を、動画像における対象者に重畳して表示する
・対象者の動作に関するパラメータを導出する
・導出したパラメータの確度を示す確度情報を導出する
ここで、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1のユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。
The terminal device 1 according to the present embodiment shoots a moving image including a target person as a subject, refers to the moving image, and performs the following processing.
・Extract the target person's skeleton and display the extracted target person's skeleton superimposed on the target person in the moving image ・Deriving parameters related to the target person's movement ・Deriving accuracy information indicating the accuracy of the derived parameters Here, although a cared person is mentioned as an example of the subject, this does not limit the present embodiment. Further, the user of the terminal device 1 may be a caregiver who takes care of the care recipient, but this does not limit the present embodiment.

(端末装置1の構成)
端末装置1は、図1に示すように、制御部10、表示パネル12、撮像部13、及び記憶部14を備えている。
(Configuration of terminal device 1)
The terminal device 1 includes a control unit 10, a display panel 12, an imaging unit 13, and a storage unit 14, as shown in FIG.

表示パネル12は、後述する制御部10から供給されるデータを表示するディスプレイである。一例として、表示パネル12は、対象者の骨格を当該対象者に重畳した動画像を表示する。 The display panel 12 is a display that displays data supplied from the control unit 10, which will be described later. As an example, the display panel 12 displays a moving image in which the target person's skeleton is superimposed on the target person.

撮像部13は、動画像を撮像可能なカメラである。一例として、撮像部13は、当該撮像部13の画角に対象者が含まれるよう、ユーザによって向けられる。そして撮像部13は、対象者が所定の動作(歩行、及び腕上げなど)を実行している様子を撮像し、被写体として当該対象者を含む動画像を生成する。撮像部13は、撮像によって得られた動画像を後述する制御部10に供給する。 The imaging unit 13 is a camera capable of capturing moving images. As an example, the imaging unit 13 is directed by the user so that the angle of view of the imaging unit 13 includes the subject. Then, the imaging unit 13 captures an image of the subject performing a predetermined action (walking, arm-raising, etc.), and generates a moving image including the subject as a subject. The imaging unit 13 supplies moving images obtained by imaging to the control unit 10, which will be described later.

記憶部14は、後述する制御部10が参照する各種のデータが格納されている。一例として、記憶部14には、撮像部13によって撮像された動画像、及び後述する対象者の骨格を示す骨格情報などが格納されている。 The storage unit 14 stores various data referred to by the control unit 10, which will be described later. As an example, the storage unit 14 stores a moving image captured by the imaging unit 13, bone structure information indicating a target person's bone structure, which will be described later, and the like.

(制御部10)
制御部10は、端末装置1の各構成要素を制御する。一例として、制御部10は、撮像部13によって撮像された動画像を取得したり、表示パネル12に表示する動画像データを供給したりする。
(control unit 10)
The control unit 10 controls each component of the terminal device 1 . As an example, the control unit 10 acquires moving images captured by the imaging unit 13 and supplies moving image data to be displayed on the display panel 12 .

また、制御部10は、図1に示すように、取得部15、骨格抽出部16、パラメータ導出部17(導出部)、確度導出部18、及び表示部19としても機能する。 The control unit 10 also functions as an acquisition unit 15, a skeleton extraction unit 16, a parameter derivation unit 17 (derivation unit), a probability derivation unit 18, and a display unit 19, as shown in FIG.

取得部15は、撮像部13によって撮像された動画像を取得する。取得部15は、取得した動画像を、記憶部14に格納する。 Acquisition unit 15 acquires the moving image captured by imaging unit 13 . Acquisition unit 15 stores the acquired moving image in storage unit 14 .

骨格抽出部16は、第1のアルゴリズムと、1又は複数の第2のアルゴリズムとを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。 The skeleton extraction unit 16 uses a first algorithm and one or a plurality of second algorithms to execute skeleton extraction processing for extracting a skeleton of a subject from a moving image including the subject as a subject.

ここで、第1のアルゴリズム及び第2のアルゴリズムは、対象者の骨格を抽出するアルゴリズムである。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。そのため、第1のアルゴリズムは、後述する第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。より具体的には、第1のアルゴリズムは、映像のリフレッシュレート(30fpsまたは60fps)より速いことが好ましい。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。 Here, the first algorithm and the second algorithm are algorithms for extracting the subject's skeleton. The skeleton of the subject extracted by the first algorithm is referred to in real time by the display unit 19, which will be described later, as first skeleton information indicating the skeleton. Therefore, it is preferable that the first algorithm be an algorithm that performs skeleton extraction processing faster than the second algorithm, which will be described later. More specifically, the first algorithm is preferably faster than the video refresh rate (30 fps or 60 fps). Also, the first algorithm generates first accuracy information indicating the accuracy of the extracted skeleton. The first accuracy information is referred to by the display section 19, which will be described later.

第2のアルゴリズムによって抽出された対象者の骨格抽出処理の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部17によって参照される。詳細は後述するものの、1又は複数の第2のアルゴリズムによる骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。 The result of the target person's skeleton extraction process extracted by the second algorithm is referred to by the parameter derivation unit 17, which will be described later, as second skeleton information indicating the skeleton. Although the details will be described later, it is preferable that the skeleton extraction processing by one or more of the second algorithms has higher accuracy than the skeleton extraction processing by the first algorithm.

また、骨格抽出部16は、複数のアルゴリズム候補から、1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。例えば、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、1又は複数の第2のアルゴリズムを選択してもよい。骨格抽出部16が1又は複数の第2のアルゴリズムを選択する処理の具体例については、後述する。 Further, the skeleton extraction unit 16 is configured to select one or more second algorithms from a plurality of algorithm candidates and extract the skeleton of the subject using the selected one or more second algorithms. good too. For example, the skeleton extraction unit 16 may refer to the skeleton of the subject extracted using the first algorithm and select one or more second algorithms. A specific example of the processing in which the skeleton extraction unit 16 selects one or more second algorithms will be described later.

また、骨格抽出部16は、第1のアルゴリズム及び第2のアルゴリズムの少なくとも何れかを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成する。 Further, the skeleton extracting unit 16, when extracting the skeleton using at least one of the first algorithm and the second algorithm, stores error information indicating a frame for which skeleton extraction has failed among the frames included in the moving image. Generate.

骨格抽出に失敗したフレームとは、第1のアルゴリズム又は第2のアルゴリズムを用いた骨格抽出の際に、骨格が抽出されなかったフレーム、又は適切に骨格が抽出されていないと考えられるフレームである。具体的な例として、
・骨格抽出処理が完了しなかったため、骨格抽出処理の戻り値を取得できなかったフレーム
・骨格抽出処理は完了したが、骨格抽出処理の戻り値が、所定の範囲外の値(外れ値)になっていたフレーム
が挙げられるが、これらに限定されない。
Frames for which skeleton extraction failed are frames for which skeletons were not extracted, or frames whose skeletons were not properly extracted during skeleton extraction using the first algorithm or the second algorithm. . As a concrete example,
- A frame for which the return value of the skeleton extraction process could not be acquired because the skeleton extraction process was not completed - The skeleton extraction process was completed, but the return value of the skeleton extraction process was a value outside the specified range (outlier) Examples include, but are not limited to, frames that have been used.

エラー情報の例として、
・骨格抽出を失敗したフレームの数を示す情報
・骨格抽出を失敗したフレームの時間的な位置(骨格抽出を失敗したフレームが撮影された日時、又は動画像撮影開始からの経過時間など)を示す情報
・骨格抽出に失敗したフレームにおいて、骨格抽出できなかった部位を示す情報
などが挙げられるが、これらに限定されない。
As an example of error information,
・Information indicating the number of frames for which skeleton extraction has failed ・Indicates the temporal position of the frame for which skeleton extraction has failed (the date and time when the frame for which skeleton extraction failed was captured, or the elapsed time from the start of moving image shooting, etc.) Information/In a frame for which skeleton extraction has failed, the information may include, but is not limited to, information indicating a region for which skeleton extraction could not be performed.

パラメータ導出部17は、骨格抽出部16が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部17は、骨格抽出部16が第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を示す第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータとは、対象者が動作を行った際に、当該動作をどの程度実行できたかを示すパラメータである。対象者の身体の動作に関するパラメータの例として、対象者が歩く、腕を上げる、及び立ち上がるといった動作を行った際の
・動作を行う速度
・動作を行うリズム
・動作を行う際の身体のふらつき
・動作の左右差
などが挙げられるが、これらに限定されない。パラメータ導出部17がパラメータを導出する処理の具体例については、後述する。
The parameter derivation unit 17 refers to the results of the skeleton extraction processing executed by the skeleton extraction unit 16 to derive parameters related to the motion of the subject's body. More specifically, the parameter derivation unit 17 refers to the second skeleton information indicating the skeleton of the subject extracted from the moving image by the skeleton extraction unit 16 using the second algorithm, and calculates the body motion of the subject. Derive the parameters for A parameter related to the motion of the subject's body is a parameter that indicates to what extent the motion was performed by the subject when the motion was performed. Examples of parameters related to the movement of the subject's body include, when the subject performs a movement such as walking, raising an arm, or standing up; Examples include, but are not limited to, left-right difference in motion. A specific example of the process of deriving parameters by the parameter derivation unit 17 will be described later.

確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、骨格抽出部16が生成したエラー情報を参照して導出する。パラメータの確度とは、当該パラメータの確かさの度合いであり、当該パラメータの確度が高い程、パラメータの信頼度が高いことを示す。確度導出部18が第2の確度情報を導出する処理の具体例については、後述する。 The accuracy derivation unit 18 derives second accuracy information indicating the accuracy of the parameter derived by the parameter derivation unit 17, according to the frames for which the skeleton extraction by the skeleton extraction process has failed among the plurality of frames included in the moving image. . More specifically, the accuracy derivation unit 18 derives second accuracy information indicating the accuracy of the parameters derived by the parameter derivation unit 17 by referring to the error information generated by the skeleton extraction unit 16 . The accuracy of a parameter is the degree of certainty of the parameter, and the higher the accuracy of the parameter, the higher the reliability of the parameter. A specific example of the process of deriving the second accuracy information by the accuracy deriving unit 18 will be described later.

表示部19は、表示パネル12に表示する動画像データを生成する。具体的には、表示部19は、骨格抽出部16が生成した第1の骨格情報を参照し、第1の骨格情報が示す骨格を、取得部15が取得した動画像における対象者に重畳して、表示パネル12に表示する。また、表示部19は、確度導出部18が導出した第2の確度情報を参照し、第2の確度情報が示す確度を表示パネル12に表示する。 The display unit 19 generates moving image data to be displayed on the display panel 12 . Specifically, the display unit 19 refers to the first skeleton information generated by the skeleton extraction unit 16, and superimposes the skeleton indicated by the first skeleton information on the target person in the moving image acquired by the acquisition unit 15. to display on the display panel 12. The display unit 19 also refers to the second accuracy information derived by the accuracy derivation unit 18 and displays the accuracy indicated by the second accuracy information on the display panel 12 .

(端末装置1による処理)
端末装置1による処理について、図2を用いて説明する。図2は、本実施形態に係る端末装置1による処理の流れを示すシーケンス図である。
(Processing by terminal device 1)
Processing by the terminal device 1 will be described with reference to FIG. FIG. 2 is a sequence diagram showing the flow of processing by the terminal device 1 according to this embodiment.

(ステップS12)
ステップS12において、取得部15は、撮像部13を介して、被写体として対象者を含む動画像の取得を開始する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を開始する旨を示す情報を取得すると、撮像部13を介して動画像の取得を開始する。
(Step S12)
In step S<b>12 , the acquiring unit 15 starts acquiring a moving image including the target person as a subject via the imaging unit 13 . For example, when the acquiring unit 15 acquires information indicating that shooting is to be started from an operation accepting unit (not shown) that accepts an operation from the user of the terminal device 1, the acquiring unit 15 starts acquiring moving images via the imaging unit 13. do.

(ステップS13)
ステップS13において、骨格抽出部16は、ステップS12において取得部15が取得した動画像から、第1のアルゴリズムを用いて対象者の骨格を抽出する。骨格抽出部16は、抽出した骨格を示す第1の骨格情報を、表示部19に供給する。また、ステップS13において、骨格抽出部16は、抽出した骨格の確からしさを示す第1の確度情報及び骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。この場合、骨格抽出部16は、第1の確度情報を表示部19に供給し、エラー情報を確度導出部18に供給する。
(Step S13)
In step S13, the skeleton extraction unit 16 extracts the skeleton of the subject using the first algorithm from the moving image acquired by the acquisition unit 15 in step S12. The skeleton extraction unit 16 supplies first skeleton information indicating the extracted skeleton to the display unit 19 . Further, in step S13, the skeleton extracting unit 16 may generate first accuracy information indicating the likelihood of the extracted skeleton and error information indicating frames for which skeleton extraction has failed. In this case, the skeleton extraction unit 16 supplies the first accuracy information to the display unit 19 and supplies the error information to the accuracy derivation unit 18 .

(ステップS14)
ステップS14において、表示部19は、ステップS13において骨格抽出部16が供給した第1の骨格情報が示す骨格を動画像における対象者に重畳した動画像を示す動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S14)
In step S14, the display unit 19 supplies to the display panel 12 moving image data representing a moving image in which the skeleton indicated by the first skeleton information supplied by the skeleton extracting unit 16 in step S13 is superimposed on the subject in the moving image. . The display panel 12 displays the moving image indicated by the acquired moving image data.

(表示部19が表示する動画像の例1)
表示部19が表示パネル12に表示する動画像の一例について、図3を用いて説明する。図3は、本実施形態に係る表示部19が表示パネル12に表示する動画像の一例を示す図である。
(Example 1 of moving image displayed by display unit 19)
An example of a moving image displayed on the display panel 12 by the display unit 19 will be described with reference to FIG. FIG. 3 is a diagram showing an example of a moving image displayed on the display panel 12 by the display unit 19 according to this embodiment.

表示部19は、第1の骨格情報が示す骨格のうち、関節を対象者に重畳して表示パネル12に表示する。例えば、図3に示すように、表示部19は、関節を示す点JT1、点JT2、及び点JT3等を対象者TPに重畳して表示パネル12に表示する。また、表示部19は、隣接する関節(例えば、図3における点JT1、点JT2)を線で結び、対象者TPに重畳して表示パネル12に表示する。換言すると、表示部19は、第1のアルゴリズムを用いた骨格抽出において、抽出されなかった骨格は表示パネル12に表示しない。当該構成により、端末装置1は、対象者を撮影しているユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。 The display unit 19 superimposes the joints of the skeleton indicated by the first skeleton information on the subject and displays them on the display panel 12 . For example, as shown in FIG. 3, the display unit 19 superimposes points JT1, JT2, and JT3 indicating joints on the subject TP and displays them on the display panel 12 . In addition, the display unit 19 connects adjacent joints (for example, points JT1 and JT2 in FIG. 3) with a line and displays them on the display panel 12 while superimposing them on the subject TP. In other words, the display unit 19 does not display the unextracted skeleton on the display panel 12 in skeleton extraction using the first algorithm. With this configuration, the terminal device 1 can notify the user who is shooting the target person whether or not the moving image being shot is suitable for extracting the skeleton of the target person.

ここで、撮影している動画像に含まれる対象者TPの骨格が抽出されているか否かをユーザに通知するためには、骨格抽出の処理が速い方が好ましい。そのため、上述したように、第1の骨格情報が示す骨格を抽出する第1のアルゴリズムは、第2のアルゴリズムよりも抽出処理が速いアルゴリズムであることが好ましい。この構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。 Here, in order to notify the user whether or not the skeleton of the target person TP included in the captured moving image has been extracted, the faster the skeleton extraction process, the better. Therefore, as described above, the first algorithm for extracting the skeleton indicated by the first skeleton information is preferably an algorithm with faster extraction processing than the second algorithm. With this configuration, the terminal device 1 can notify the user who is shooting whether or not the moving image being shot is suitable for extracting the skeleton of the target person.

(表示部19が表示する動画像の例2)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報を取得し、取得した第1の確度情報に応じて、対象者に重畳する骨格の表示態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図4を用いて説明する。図4は、本実施形態に係る表示部19が表示パネル12に表示する動画像の他の例を示す図である。
(Example 2 of moving image displayed by display unit 19)
When the skeleton extracting unit 16 supplies the first accuracy information to the display unit 19, the display unit 19 acquires the first accuracy information and, according to the acquired first accuracy information, extracts a skeleton superimposed on the subject. may be configured to change the display mode of. An example of a moving image displayed on the display panel 12 by the display unit 19 in this configuration will be described with reference to FIG. FIG. 4 is a diagram showing another example of a moving image displayed on the display panel 12 by the display unit 19 according to this embodiment.

図4に示すように、表示部19は、上述した図3と同様、関節を示す点JT2、点JT3、及び点JT4等を対象者TPに重畳して表示パネル12に表示する。ここで、対象者TPの左膝における第1の確度情報が示す確度が所定の値より低い場合、表示部19は、図4に示すように、左膝を示す点JT4の態様を、他の関節を示す表示の態様(形が丸)とは異なる態様(形が三角)に変更し、表示する。当該構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像における対象者の骨格のうち、何れの骨格を確度高く抽出できているかを通知することができる。 As shown in FIG. 4, the display unit 19 superimposes points JT2, JT3, and JT4 indicating joints on the subject TP and displays them on the display panel 12, as in FIG. Here, if the accuracy indicated by the first accuracy information for the left knee of the subject TP is lower than a predetermined value, the display unit 19 changes the aspect of the point JT4 indicating the left knee to another aspect, as shown in FIG. The display mode (circular shape) showing the joints is changed to a different mode (triangular shape) and displayed. With this configuration, the terminal device 1 can notify the user who is shooting which skeleton of the target person in the moving image being shot has been extracted with high accuracy.

表示部19が表示態様を異ならせる構成は、形を異ならせる構成以外にも、例えば、
・第1の確度情報に応じて骨格を示す表示の色を異ならせる
・第1の確度情報に応じて骨格を示す表示の色の濃淡を異ならせる
・第1の確度情報に応じて骨格を示す表示の大きさを異ならせる
などが挙げられるが、これらに限定されない。
In addition to the configuration in which the display unit 19 has different display modes, for example,
- The color of the skeleton display is changed according to the first accuracy information. - The display color of the skeleton is changed in shade according to the first accuracy information. - The skeleton is shown according to the first accuracy information. Examples include, but are not limited to, different display sizes.

(表示部19が表示する動画像の例3)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報が示す確度が所定の値より低い場合、確度が高くなるように被写体を撮影することを促す表示を行う構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図5を用いて説明する。図5は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 3 of moving image displayed by display unit 19)
When the skeleton extraction unit 16 supplies the first accuracy information to the display unit 19, and the accuracy indicated by the first accuracy information is lower than a predetermined value, the display unit 19 shoots the subject so as to increase the accuracy. The configuration may be such that a display prompting the user to do so is displayed. An example of a moving image displayed on the display panel 12 by the display unit 19 in this configuration will be described with reference to FIG. FIG. 5 is a diagram showing still another example of the moving image displayed on the display panel 12 by the display unit 19 according to this embodiment.

例えば、動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全て又は一部の骨格において低い場合、図5に示すように、表示部19は、確度が高くなるように被写体を撮影することを促す表示DP1を表示する。表示DP1は、「対象者がもう少し大きく映るように撮影してください」というテキストが含まれている。当該構成により、端末装置1は、撮影中のユーザに対して、どのように撮影すれば対象者の骨格抽出の確度を高くできるのかを通知することができる。 For example, if the accuracy indicated by the first accuracy information is low for all or part of the skeleton because the target person included in the moving image is small, the display unit 19 displays the accuracy as shown in FIG. A display DP1 prompting to photograph the subject is displayed. The display DP1 includes the text "Please take a picture so that the target person appears a little larger". With this configuration, the terminal device 1 can notify the user who is shooting how to shoot to increase the accuracy of extracting the skeleton of the target person.

確度が高くなるように被写体を撮影することを促す表示の例として、
・動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全ての骨格において低い場合、「画角を狭くしてください」と表示する
・動画像に含まれる対象者が左側に寄っているため、対象者の左側の骨格における第1の確度情報が示す確度が低い場合、「もう少し左側を撮影してください」と表示する
などが挙げられるが、これらに限定されない。
As an example of a display prompting you to shoot the subject so that the accuracy is high,
・Because the target person included in the moving image is small, if the accuracy indicated by the first accuracy information is low for all skeletons, “Please narrow the angle of view” is displayed. ・The target person included in the moving image is on the left side. Therefore, when the accuracy indicated by the first accuracy information for the skeleton on the left side of the subject is low, a message such as "Please shoot the left side a little more" is displayed, but is not limited to these.

また、表示部19は、確度が高くなるように被写体を撮影することを促す表示を、骨格抽出部16が抽出した部位の数が、所定の数よりも小さい場合に表示する構成であってもよい。より具体的には、表示部19は、骨格抽出部16が供給した第1の骨格情報が示す部位を参照し、当該部位の数が、所定の数よりも小さい場合、確度が高くなるように被写体を撮影することを促す表示を行ってもよい。 Further, even if the display unit 19 is configured to display a display prompting the subject to be photographed so as to increase the accuracy when the number of body parts extracted by the skeleton extraction unit 16 is smaller than a predetermined number. good. More specifically, the display unit 19 refers to the parts indicated by the first skeleton information supplied by the skeleton extraction unit 16, and if the number of parts is smaller than a predetermined number, the accuracy is increased. A display prompting the user to photograph the subject may be provided.

再び図2を参照し、端末装置1による処理のステップS15以降について説明する。 With reference to FIG. 2 again, the processing after step S15 of the terminal device 1 will be described.

(ステップS15)
ステップS15において、取得部15は、撮像部13を介した動画像の取得を終了する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を終了する旨を示す情報を取得すると、撮像部13を介しての動画像の取得を終了する。
(Step S15)
In step S<b>15 , the acquisition unit 15 finishes acquisition of moving images via the imaging unit 13 . For example, when the acquiring unit 15 acquires information indicating that the shooting is to end from an operation accepting unit (not shown) that accepts an operation from the user of the terminal device 1, the acquisition unit 15 acquires the moving image via the imaging unit 13. finish.

(ステップS16)
ステップS16において、骨格抽出部16は、ステップS12~ステップS15において取得部15が取得した動画像から、第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する。ステップS16において、骨格抽出部16は、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出してもよい。また、ステップS13において骨格抽出部16がエラー情報を生成していない場合、ステップS16において、骨格抽出部16はエラー情報を生成してもよい。
(Step S16)
In step S16, the skeleton extraction unit 16 extracts the skeleton of the subject from the moving image acquired by the acquisition unit 15 in steps S12 to S15 using one or more second algorithms different from the first algorithm. do. In step S16, the skeleton extraction unit 16 may select one or a plurality of second algorithms from among the plurality of algorithm candidates, and extract the skeleton of the subject using the selected one or a plurality of second algorithms. . If the skeleton extraction unit 16 does not generate error information in step S13, the skeleton extraction unit 16 may generate error information in step S16.

(骨格抽出部16による第2のアルゴリズム選択処理例)
骨格抽出部16による第2のアルゴリズム選択処理例について、以下に説明する。
(Example of Second Algorithm Selection Processing by Skeleton Extraction Unit 16)
A second example of algorithm selection processing by the skeleton extraction unit 16 will be described below.

骨格抽出部16が複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する構成では、複数のアルゴリズム候補は、それぞれ、抽出する部位、抽出の精度、及び抽出の速度といった特性が異なっていてもよい。この場合、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、特性に応じたアルゴリズムを選択してもよい。 In a configuration in which the skeleton extraction unit 16 selects one or a plurality of second algorithms from a plurality of algorithm candidates, the plurality of algorithm candidates have different characteristics such as a site to be extracted, extraction accuracy, and extraction speed. good too. In this case, the skeleton extraction unit 16 may refer to the skeleton of the subject extracted using the first algorithm and select an algorithm according to the characteristics.

一例として、複数のアルゴリズム候補がそれぞれ抽出する骨格の部位が異なる場合、骨格抽出部16は、抽出する骨格の部位に応じて、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する。この場合、骨格抽出部16は、第1のアルゴリズムによって抽出された対象者の骨格を参照し、第1のアルゴリズムにおいて抽出された骨格の部位を抽出することができるアルゴリズムを、複数のアルゴリズム候補から選択する。例えば、第1のアルゴリズムによって対象者の脚部が抽出された場合、骨格抽出部16は、脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。 As an example, when a plurality of algorithm candidates extract different skeletal parts, the skeleton extracting unit 16 selects one or more second algorithms from the plurality of algorithm candidates according to the skeletal parts to be extracted. In this case, the skeleton extraction unit 16 refers to the skeleton of the subject extracted by the first algorithm, and selects an algorithm capable of extracting the parts of the skeleton extracted by the first algorithm from among the plurality of algorithm candidates. select. For example, when the leg of the subject is extracted by the first algorithm, the skeleton extraction unit 16 selects an algorithm capable of extracting the leg from a plurality of algorithm candidates.

さらに、骨格抽出部16は、期間に応じて複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、ある期間において第1のアルゴリズムによって対象者の脚部が抽出され、当該ある期間とは異なる期間において第1のアルゴリズムによって対象者の腕部が抽出された場合、骨格抽出部16は、ある期間においては脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択し、異なる期間においては腕部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。 Further, the skeleton extraction unit 16 may select one or more second algorithms from multiple algorithm candidates depending on the period. For example, when the subject's legs are extracted by the first algorithm in a certain period, and the subject's arms are extracted by the first algorithm in a period different from the certain period, the skeleton extraction unit 16 extracts a certain An algorithm capable of extracting a leg is selected from a plurality of candidate algorithms for a period, and an algorithm capable of extracting an arm is selected from a plurality of candidate algorithms for a different period.

また、骨格抽出部16は、ユーザからの指示を参照し、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、歩く速度が加速する期間と、歩く速度が減速する期間とが動画像に含まれる場合、ユーザは、歩く速度が加速する期間と、歩く速度が減速する期間とのそれぞれに、加速期間であることを示すアノテーションと減速期間であることを示すアノテーションを当該動画像に付加する。骨格抽出部16は、当該アノテーションを参照し、歩く速度が加速する期間においては、歩く速度が加速する動きに適した1又は複数の第2のアルゴリズムを選択し、歩く速度が減速する期間において、歩く速度が減速する動きに適した1又は複数の第2のアルゴリズムを選択する構成であってもよい。または、骨格抽出部16は、期間及び部位に対して、何れの1又は複数の第2のアルゴリズムを選択するか、ユーザから直接指示される構成であってもよい。 Further, the skeleton extraction unit 16 may select one or a plurality of second algorithms from a plurality of algorithm candidates with reference to instructions from the user. For example, if the moving image includes a period during which the walking speed is accelerated and a period during which the walking speed is decelerated, the user can specify an acceleration period for each of the period during which the walking speed is accelerated and the period during which the walking speed is decelerated. An annotation indicating that there is a deceleration period and an annotation indicating that it is a deceleration period are added to the moving image. The skeleton extraction unit 16 refers to the annotation, selects one or a plurality of second algorithms suitable for the movement in which the walking speed accelerates during the period when the walking speed accelerates, and during the period when the walking speed slows down, It may be configured to select one or a plurality of second algorithms that are suitable for motions in which the walking speed slows down. Alternatively, the skeleton extraction unit 16 may be configured such that the user directly instructs which one or a plurality of second algorithms to select for the period and region.

このように、骨格抽出部16が第2のアルゴリズムを選択することにより、高い精度で対象者の骨格を抽出することができる。 By selecting the second algorithm by the skeleton extracting unit 16 in this manner, the skeleton of the subject can be extracted with high accuracy.

(ステップS17)
ステップS17において、パラメータ導出部17は、ステップS16において抽出された対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。
(Step S17)
In step S17, the parameter deriving unit 17 refers to the subject's skeleton extracted in step S16, and derives parameters relating to the body motion of the subject.

(パラメータ導出部17によるパラメータ導出処理例)
パラメータ導出部17によるパラメータ導出処理例について、以下に説明する。
(Example of parameter derivation processing by parameter derivation unit 17)
An example of parameter derivation processing by the parameter derivation unit 17 will be described below.

例えば、パラメータ導出部17は、第2のアルゴリズムを用いて抽出した、歩行中の対象者の骨格を参照し、対象者の歩行に関するパラメータを導出する。より具体的には、骨格抽出部16から取得した第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者が歩行する速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者が歩行する速度が所定の値より大きい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が速いことを示すパラメータに設定する。一方、対象者が歩行する速度が所定の値より小さい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が遅いことを示すパラメータに設定する。 For example, the parameter deriving unit 17 refers to the skeleton of the subject who is walking, which is extracted using the second algorithm, and derives parameters relating to walking of the subject. More specifically, the second skeleton information acquired from the skeleton extraction unit 16 indicates that the subject's right and left legs have been extracted, and the right and left legs indicate that the subject is walking. , the parameter deriving unit 17 calculates the walking speed of the subject. A parameter derivation unit 17 derives a parameter according to the calculated speed. For example, when the subject's walking speed is higher than a predetermined value, the parameter deriving unit 17 sets the walking speed parameter to a parameter indicating that the walking speed is fast. On the other hand, when the subject's walking speed is lower than the predetermined value, the parameter deriving unit 17 sets the walking speed parameter to a parameter indicating that the walking speed is slow.

他の例として、第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者の右脚と左脚とがそれぞれ動く速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より小さい場合、パラメータ導出部17は、左右差のパラメータを、左右差がないことを示すパラメータに設定する。一方、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より大きい場合、パラメータ導出部17は、左右差のパラメータを、左右差があることを示すパラメータに設定する。 As another example, when the second skeleton information indicates that the subject's right and left legs have been extracted, and the right and left legs indicate that the subject is walking, the parameter deriving unit 17 calculates the speed at which the subject's right and left legs respectively move. A parameter derivation unit 17 derives a parameter according to the calculated speed. For example, if the difference between the movement speed of the subject's right leg and the movement speed of the subject's left leg is smaller than a predetermined value, the parameter derivation unit 17 sets the left-right difference parameter to indicate that there is no left-right difference. Set to parameter. On the other hand, when the difference between the movement speed of the subject's right leg and the movement speed of the subject's left leg is greater than the predetermined value, the parameter derivation unit 17 sets the left-right difference parameter to indicate that there is a left-right difference. Set to parameter.

このように、端末装置1は、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照して、対象者の身体の動作に関するパラメータを導出する。すなわち、第2のアルゴリズムが抽出した骨格は、対象者の身体の動作に関するパラメータの導出に用いられるため、上述したように、第2のアルゴリズムの骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。この構成により、端末装置1は、第1のアルゴリズムが抽出した骨格を示す第1の骨格情報ではなく、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照することにより、対象者の身体の動作に関するパラメータの精度を高くすることができる。 In this way, the terminal device 1 refers to the second skeleton information indicating the skeleton extracted by the second algorithm, and derives the parameters related to the motion of the subject's body. That is, the skeleton extracted by the second algorithm is used for deriving parameters related to the motion of the subject's body. It is preferable that the accuracy is higher than With this configuration, the terminal device 1 refers not to the first skeleton information indicating the skeleton extracted by the first algorithm, but to the second skeleton information indicating the skeleton extracted by the second algorithm, so that the subject person It is possible to improve the accuracy of the parameters related to the movement of the body.

(ステップS18)
ステップS18において、確度導出部18は、骨格抽出部16が生成したエラー情報を参照し、ステップS17において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
(Step S18)
In step S18, the accuracy derivation unit 18 refers to the error information generated by the skeleton extraction unit 16, and obtains the second accuracy information indicating the accuracy of the parameter derived in step S17 from among the plurality of frames included in the moving image. , is derived according to the frame for which the skeleton extraction by the skeleton extraction process has failed.

(確度導出部18による確度導出処理例)
確度導出部18による確度導出処理例について、以下に説明する。
(Example of accuracy derivation processing by accuracy derivation unit 18)
An example of accuracy derivation processing by the accuracy derivation unit 18 will be described below.

確度導出部18は、骨格抽出部16が生成したエラー情報を参照することにより、骨格抽出処理による骨格抽出が失敗したフレームを特定し、特定したフレームに応じて第2の確度情報を導出する。 By referring to the error information generated by the skeleton extraction unit 16, the accuracy derivation unit 18 identifies frames for which skeleton extraction by the skeleton extraction process has failed, and derives second accuracy information according to the identified frames.

一例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの数を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの数に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも多い場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも少ない場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームの数が多い場合は、パラメータの確度が低いことをユーザに通知することができる。 As an example, when the error information indicates the number of frames for which skeleton extraction by skeleton extraction processing has failed, the accuracy deriving unit 18 derives second accuracy information according to the number of frames for which skeleton extraction by skeleton extraction processing has failed. do. For example, when the number of frames for which skeleton extraction by the skeleton extraction process fails is greater than a predetermined value, the accuracy deriving unit 18 derives second accuracy information indicating that the accuracy is low. . On the other hand, if the number of frames for which skeleton extraction by the skeleton extraction process has failed is less than the predetermined value, the accuracy derivation unit 18 derives second accuracy information indicating that the accuracy is high as second accuracy information. . With this configuration, the terminal device 1 can notify the user that the accuracy of the parameter is low when there are a large number of frames for which skeleton extraction by skeleton extraction processing has failed.

他の例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれている場合(例えば、対象者の歩行動画であれば、対象者が歩行している期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれていない場合(例えば、対象者の歩行動画であれば、対象者が歩行する前(又は歩行した後)の期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者が動作している期間に骨格抽出が失敗した場合、パラメータの確度が低いことをユーザに通知することができる。 As another example, when the error information indicates the temporal position of the frame for which the skeleton extraction by the skeleton extraction process has failed, the accuracy derivation unit 18 calculates the time position of the frame for which the skeleton extraction by the skeleton extraction process has failed. to derive the second accuracy information. For example, if the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails is included in the period during which the target person is moving (for example, if the target person is walking video, the target person is walking period), the accuracy deriving unit 18 derives second accuracy information indicating that the accuracy is low as the second accuracy information. On the other hand, if the temporal position of the frame for which skeleton extraction by the skeleton extraction process has failed is not included in the period during which the target person is moving (for example, if the target person is walking video, before the target person walks ( or after walking), the accuracy deriving unit 18 derives second accuracy information indicating that the accuracy is high as the second accuracy information. With this configuration, the terminal device 1 can notify the user that the accuracy of the parameters is low when skeleton extraction fails while the subject is in motion.

さらに他の例として、エラー情報が骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位を示す場合、確度導出部18は、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠な部位(例えば、対象者の歩行動画であれば、対象者の脚部)であった場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠ではない部位(例えば、対象者の歩行動画であれば、対象者の頸部)であった場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者の動作に不可欠な部位の骨格抽出に失敗した場合、パラメータの確度が低いことをユーザに通知することができる。 As yet another example, if the error information indicates a region for which no skeleton was extracted in a frame in which skeleton extraction by skeleton extraction processing failed, the accuracy deriving unit 18 may, in the frame in which skeleton extraction by skeleton extraction processing failed, Second accuracy information is derived according to the part where the skeleton has not been extracted. For example, in a frame for which skeleton extraction by the skeleton extraction process has failed, the part for which the skeleton was to be extracted is an essential part for the target's movement (for example, if the target's walking video, the target's leg part), the accuracy deriving unit 18 derives second accuracy information indicating that the accuracy is low as the second accuracy information. On the other hand, in the frames for which the skeleton extraction by the skeleton extraction process failed, the parts whose skeletons were to be extracted are parts that are not essential for the movement of the subject (for example, if the subject's walking video is neck), the accuracy derivation unit 18 derives second accuracy information indicating that the accuracy is high as the second accuracy information. With this configuration, the terminal device 1 can notify the user that the accuracy of the parameters is low when extraction of the skeleton of the body part essential for the movement of the subject fails.

再び図2を参照し、端末装置1による処理のステップS19について説明する。 Referring to FIG. 2 again, step S19 of the processing by the terminal device 1 will be described.

(ステップS19)
ステップS19において、表示部19は、ステップS17においてパラメータ導出部17が導出したパラメータと、ステップS19において確度導出部18が導出した第2の確度情報が示す確度を含む動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S19)
In step S19, the display unit 19 displays the moving image data including the parameters derived by the parameter deriving unit 17 in step S17 and the accuracy indicated by the second accuracy information derived by the accuracy deriving unit 18 in step S19 on the display panel 12. supply. The display panel 12 displays the moving image indicated by the acquired moving image data.

(表示部19が表示する動画像の例4)
表示部19が表示パネル12に表示する動画像の一例について、図6を用いて説明する。図6は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 4 of moving image displayed by display unit 19)
An example of a moving image displayed on the display panel 12 by the display unit 19 will be described with reference to FIG. FIG. 6 is a diagram showing still another example of the moving image displayed on the display panel 12 by the display unit 19 according to this embodiment.

図6に示すように、表示部19は、パラメータ導出部17が導出したパラメータPM1と、確度導出部18が導出した第2の確度情報が示す確度AC1を含む動画像を表示パネル12に表示する。また、表示部19は、評価項目毎のパラメータPM2も含む動画像を表示パネル12に表示してもよい。当該構成により、端末装置1は、表示されているパラメータPM1の確度をユーザに通知することができる。 As shown in FIG. 6, the display unit 19 displays on the display panel 12 a moving image including the parameter PM1 derived by the parameter deriving unit 17 and the accuracy AC1 indicated by the second accuracy information derived by the accuracy deriving unit 18. . Moreover, the display unit 19 may display a moving image including the parameter PM2 for each evaluation item on the display panel 12 . With this configuration, the terminal device 1 can notify the user of the accuracy of the displayed parameter PM1.

また、表示部19は、第2の確度情報が示す確度を、評価項目毎に表示する構成であってもよい。当該構成では、確度導出部18は、評価項目毎に第2の確度情報を導出する。例えば、対象者が歩く動作と、対象者が立ち止まって腕を上げる動作とが動画像に含まれている場合、対象者が歩く動作を行っている期間において、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の数より多い場合、確度導出部18は、対象者が歩く動作において評価される評価項目「速度」の確度が低くなるように第2の確度情報を導出する。 Further, the display unit 19 may be configured to display the accuracy indicated by the second accuracy information for each evaluation item. In this configuration, the accuracy deriving unit 18 derives the second accuracy information for each evaluation item. For example, if the moving image includes a motion of the target person walking and a motion of the target person standing still and raising their arms, the skeleton extraction process fails during the period when the target person is performing the walking motion. If the number of frames is greater than the predetermined number, the accuracy deriving unit 18 derives the second accuracy information so that the accuracy of the evaluation item "speed" evaluated in the walking motion of the subject is low.

(表示部19が表示する動画像の例5)
表示部19は、確度導出部18が導出した第2の確度情報が示す確度に応じて、確度を表示する態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図7を用いて説明する。図7は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 5 of moving image displayed by display unit 19)
The display unit 19 may be configured to change the mode of displaying the accuracy according to the accuracy indicated by the second accuracy information derived by the accuracy deriving unit 18 . An example of a moving image displayed on the display panel 12 by the display unit 19 in this configuration will be described with reference to FIG. FIG. 7 is a diagram showing still another example of the moving image displayed on the display panel 12 by the display unit 19 according to this embodiment.

図7に示すように、表示部19は、第2の確度情報が示す確度が所定の値より低い場合、再度、動画像を撮影するよう促すメッセージDP2を含む画像を表示パネル12に表示する。この構成により、端末装置1は、確度の高いパラメータを導出するためには、再度の動画像の撮影が必要であることをユーザに通知することができる。 As shown in FIG. 7, when the accuracy indicated by the second accuracy information is lower than a predetermined value, the display unit 19 again displays on the display panel 12 an image including a message DP2 prompting to shoot a moving image. With this configuration, the terminal device 1 can notify the user that it is necessary to capture moving images again in order to derive parameters with high accuracy.

また、図7に示すように、表示部19は、動画像を撮影するよう促すメッセージDP2に加えて、パラメータ導出部17が導出したパラメータPM3、評価項目毎のパラメータPM4、及び確度導出部18が導出した第2の確度情報が示す確度を表示してもよい。 Further, as shown in FIG. 7, the display unit 19 displays the message DP2 prompting to shoot a moving image, the parameter PM3 derived by the parameter derivation unit 17, the parameter PM4 for each evaluation item, and the accuracy derivation unit 18. The accuracy indicated by the derived second accuracy information may be displayed.

図7に示す動画像の他に、表示部19は、第2の確度情報が示す確度が所定の値より高いか低いかに応じて、以下のように表示する態様を変更する構成であってもよい。
・第2の確度情報が示す確度のテキストの色を変更する
・第2の確度情報が示す確度のテキストの大きさを変更する
・第2の確度情報が示す確度が所定の値より高い場合、再度の動画像の撮影が不要であることをユーザに通知する(例えば、「測定が適切に完了しました」というテキストを表示する)
ただし、これらは本実施形態を限定するものではない。
In addition to the moving image shown in FIG. 7, the display unit 19 may change the display mode as follows depending on whether the accuracy indicated by the second accuracy information is higher or lower than a predetermined value. good.
・Change the color of the text of the accuracy indicated by the second accuracy information ・Change the size of the text of the accuracy indicated by the second accuracy information ・When the accuracy indicated by the second accuracy information is higher than a predetermined value, Inform the user that they do not need to take video again (e.g. display the text "Measurement successfully completed")
However, these do not limit this embodiment.

このように、端末装置1は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示し、1又は複数の第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、端末装置1は、第1のアルゴリズムを用いて抽出した対象者の骨格を、対象者に重畳して表示しつつ、第2のアルゴリズムを用いて抽出した対象者の骨格を参照して対象者の身体の動作に関するパラメータを導出するので、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 In this way, the terminal device 1 superimposes and displays the target person's skeleton extracted using the first algorithm from the moving image including the target person as the subject on the target person in the moving image, and displays one or more A second algorithm is used to refer to the subject's skeleton extracted from the moving image to derive parameters relating to the subject's bodily motion. Therefore, the terminal device 1 superimposes the target person's skeleton extracted using the first algorithm on the target person, while referring to the target person's skeleton extracted using the second algorithm. Since the parameters related to the motion of the person's body are derived, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been shot.

また、端末装置1は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出し、当該パラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。 In addition, the terminal device 1 executes a skeleton extraction process for extracting the skeleton of the target person from a moving image containing the target person as a subject, and refers to the result of the skeleton extraction process to derive parameters related to the movement of the body of the target person. Then, accuracy information indicating the accuracy of the parameter is derived according to a frame for which skeleton extraction by the skeleton extraction process has failed among the plurality of frames included in the moving image. Therefore, since the terminal device 1 derives the accuracy of the parameter according to the frame for which skeleton extraction by the skeleton extraction process has failed, the reliability of the parameter can be notified to the user.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.

(情報処理システム100)
図8を参照し、本実施形態に係る情報処理システム100の概要について説明する。図8は、本実施形態に係る情報処理システム100の概要を示す模式図である。図8に示すように、情報処理システム100は、端末装置1A及び情報処理装置3を含んで構成される。
(Information processing system 100)
An outline of an information processing system 100 according to the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram showing an overview of the information processing system 100 according to this embodiment. As shown in FIG. 8, the information processing system 100 includes a terminal device 1A and an information processing device 3. As shown in FIG.

図8に示すように、端末装置1A及び情報処理装置3は、ネットワークNを介して互いに通信可能に接続されている。ここで、端末装置1Aの例として、スマートフォン、PC(Personal Computer)、及びタブレットが挙げられ、情報処理装置3の例としてサーバが挙げられるが、これらは本実施形態を限定するものではない。 As shown in FIG. 8, the terminal device 1A and the information processing device 3 are connected via a network N so as to be able to communicate with each other. Here, examples of the terminal device 1A include a smart phone, a PC (Personal Computer), and a tablet, and an example of the information processing device 3 includes a server, but these do not limit the present embodiment.

また、ネットワークNの具体的構成は本実施形態を限定するものではないが、一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。 Further, the specific configuration of the network N does not limit the present embodiment, but as an example, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, Or a combination of these networks can be used.

本実施形態に係る情報処理システム100において、端末装置1Aは、端末装置1Aのユーザが対象者を撮像した動画像から抽出した対象者の骨格を、動画像における対象者に重畳して表示する。そして、情報処理装置3は、端末装置1Aから動画像を取得し、動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。 In the information processing system 100 according to the present embodiment, the terminal device 1A displays the target person's skeleton extracted from the moving image of the target person captured by the user of the terminal device 1A so as to be superimposed on the target person in the moving image. Then, the information processing device 3 acquires the moving image from the terminal device 1A, refers to the skeleton of the subject person extracted from the moving image, and derives parameters related to the movement of the body of the subject person. Further, the information processing device 3 derives accuracy information indicating the accuracy of the derived parameter according to the frame for which the skeleton extraction by the skeleton extraction process has failed.

本実施形態においても、実施形態1と同様に、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1Aのユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。 In the present embodiment, as in the first embodiment, a cared person is an example of the target person, but this does not limit the present embodiment. Further, the user of the terminal device 1A may be a caregiver who takes care of the care recipient, but this does not limit the present embodiment.

(端末装置1A)
図9を参照して、本実施形態に係る端末装置1Aの構成例について説明する。図9は、本実施形態に係る情報処理システム100に含まれる端末装置1A及び情報処理装置3の構成例を示すブロック図である。図9に示すように、端末装置1Aは、実施形態1における端末装置1における制御部10に替えて制御部10Aを備え、通信部11をさらに備えている。
(Terminal device 1A)
A configuration example of the terminal device 1A according to the present embodiment will be described with reference to FIG. FIG. 9 is a block diagram showing a configuration example of the terminal device 1A and the information processing device 3 included in the information processing system 100 according to this embodiment. As shown in FIG. 9, the terminal device 1A includes a control unit 10A instead of the control unit 10 in the terminal device 1 of the first embodiment, and further includes a communication unit 11. FIG.

通信部11は、ネットワークNを介した通信を行うための通信モジュールである。通信部11は、制御部10Aから取得したデータを、ネットワークNを介して情報処理装置3に出力したり、ネットワークNを介して情報処理装置3から取得したデータを、制御部10Aに供給したりする。 The communication unit 11 is a communication module for performing communication via the network N. FIG. The communication unit 11 outputs data obtained from the control unit 10A to the information processing device 3 via the network N, and supplies data obtained from the information processing device 3 via the network N to the control unit 10A. do.

(制御部10A)
制御部10Aは、端末装置1Aの各構成要素を制御する。また、制御部10Aは、取得部15、骨格抽出部16、表示部19、及び出力部20としても機能する。表示部19の機能は、実施形態1における表示部19と同じであるため、説明を省略する。
(Control section 10A)
The control unit 10A controls each component of the terminal device 1A. The control unit 10A also functions as an acquisition unit 15, a skeleton extraction unit 16, a display unit 19, and an output unit 20. Since the function of the display unit 19 is the same as that of the display unit 19 in the first embodiment, description thereof will be omitted.

取得部15は、実施形態1における取得部15の機能に加えて、通信部11を介して情報処理装置3からデータを取得する。取得部15が取得するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。 The acquisition unit 15 acquires data from the information processing device 3 via the communication unit 11 in addition to the functions of the acquisition unit 15 in the first embodiment. Examples of data acquired by the acquisition unit 15 include parameters and second accuracy information, but are not limited to these.

骨格抽出部16は、第1のアルゴリズムを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。実施形態1と同様に、第1のアルゴリズムは、第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。 The skeleton extraction unit 16 uses the first algorithm to execute skeleton extraction processing for extracting the skeleton of the target person from the moving image containing the target person as the subject. The skeleton of the subject extracted by the first algorithm is referred to in real time by the display unit 19, which will be described later, as first skeleton information indicating the skeleton. Also, the first algorithm generates first accuracy information indicating the accuracy of the extracted skeleton. The first accuracy information is referred to by the display section 19, which will be described later. As in the first embodiment, the first algorithm is preferably an algorithm with faster skeleton extraction processing than the second algorithm.

また、骨格抽出部16は、第1のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。エラー情報については、実施形態1において説明した通りである。 Further, the skeleton extracting unit 16 may generate error information indicating a frame for which skeleton extraction has failed among the frames included in the moving image when extracting the skeleton using the first algorithm. The error information is as described in the first embodiment.

出力部20は、通信部11を介して情報処理装置3にデータを出力する。出力部20が出力するデータの例として、動画像及びエラー情報が挙げられるが、これらに限定されない。 The output unit 20 outputs data to the information processing device 3 via the communication unit 11 . Examples of data output by the output unit 20 include moving images and error information, but are not limited to these.

(情報処理装置3)
図9に示すように、情報処理装置3は、制御部30、通信部31、及び記憶部34を備えている。
(Information processing device 3)
As shown in FIG. 9, the information processing device 3 includes a control section 30, a communication section 31, and a storage section .

通信部31は、ネットワークNを介した通信を行うための通信モジュールである。通信部31は、制御部30から取得したデータを、ネットワークNを介して端末装置1に出力したり、ネットワークNを介して端末装置1Aから取得したデータを、制御部30に供給したりする。 The communication unit 31 is a communication module for performing communication via the network N. FIG. The communication unit 31 outputs data obtained from the control unit 30 to the terminal device 1 via the network N, and supplies data obtained from the terminal device 1A via the network N to the control unit 30 .

記憶部34は、後述する制御部30が参照する各種のデータが格納されている。一例として、記憶部34には、端末装置1Aから取得した動画像、導出されたパラメータなどが格納されている。 The storage unit 34 stores various data referred to by the control unit 30, which will be described later. As an example, the storage unit 34 stores moving images acquired from the terminal device 1A, derived parameters, and the like.

(制御部30)
制御部30は、情報処理装置3の各構成要素を制御する。一例として、制御部30は、通信部31を介して端末装置1Aから出力された動画像を取得したり、通信部31を介して生成したデータを出力したりする。
(control unit 30)
The control unit 30 controls each component of the information processing device 3 . As an example, the control unit 30 acquires a moving image output from the terminal device 1A via the communication unit 31, and outputs data generated via the communication unit 31.

また、制御部30は、図9に示すように、取得部35、骨格抽出部36、パラメータ導出部37、確度導出部38、及び出力部40としても機能する。 The control unit 30 also functions as an acquisition unit 35, a skeleton extraction unit 36, a parameter derivation unit 37, a probability derivation unit 38, and an output unit 40, as shown in FIG.

取得部35は、通信部31を介して端末装置1Aからデータを取得する。取得部35が取得するデータの例として、動画像が挙げられるが、これに限定されない。 The acquisition unit 35 acquires data from the terminal device 1A via the communication unit 31 . An example of the data acquired by the acquisition unit 35 is a moving image, but the data is not limited to this.

骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。第2のアルゴリズムによって抽出された対象者の骨格の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部37によって参照される。 The skeleton extracting unit 36 executes a skeleton extracting process of extracting the skeleton of the subject using the second algorithm from the moving image acquired by the acquiring unit 35 . The result of the subject's skeleton extracted by the second algorithm is referred to by the parameter derivation unit 37, which will be described later, as second skeleton information indicating the skeleton.

また、骨格抽出部36は、第2のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。 Further, the skeleton extraction unit 36 may generate error information indicating a frame for which skeleton extraction has failed among the frames included in the moving image when extracting the skeleton using the second algorithm.

パラメータ導出部37は、上述したパラメータ導出部17と同様、骨格抽出部36が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータについては、実施形態1において説明した通りである。 The parameter derivation unit 37 derives parameters related to the movement of the subject's body by referring to the results of the skeleton extraction processing executed by the skeleton extraction unit 36, similar to the parameter derivation unit 17 described above. The parameters related to the motion of the subject's body are as described in the first embodiment.

確度導出部38は、上述した確度導出部18と同様、パラメータ導出部37が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。 Like the accuracy derivation unit 18 described above, the accuracy derivation unit 38 extracts the second accuracy information indicating the accuracy of the parameter derived by the parameter derivation unit 37 from among a plurality of frames included in the moving image by skeleton extraction processing. is derived according to the failed frame.

出力部40は、通信部31を介して端末装置1Aにデータを出力する。出力部40が出力するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。 The output unit 40 outputs data to the terminal device 1A via the communication unit 31. FIG. Examples of data output by the output unit 40 include, but are not limited to, parameters and second accuracy information.

(情報処理システム100における処理)
情報処理システム100における処理について、図10を用いて説明する。図4は、本実施形態に係る情報処理システム100における処理の流れを示すシーケンス図である。
(Processing in information processing system 100)
Processing in the information processing system 100 will be described with reference to FIG. 10 . FIG. 4 is a sequence diagram showing the flow of processing in the information processing system 100 according to this embodiment.

(ステップS12~ステップS15)
端末装置1Aが動画像の取得を開始し、動画像の取得を終了するまでのステップS12~ステップS15の処理は、上述した処理と同じであるため、説明を省略する。
(Step S12 to Step S15)
The processing from step S12 to step S15 from when the terminal device 1A starts acquiring the moving image until the acquisition of the moving image ends is the same as the above-described processing, so the description thereof is omitted.

(ステップS20)
ステップS20において、端末装置1Aの出力部20は、通信部11を介して、動画像を情報処理装置3に出力する。ここで、骨格抽出部16が第1の確度情報及びエラー情報の少なくとも何れかを生成している場合、出力部20は、動画像と共に、生成された第1の確度情報及びエラー情報の少なくとも何れかを出力してもよい。また、出力部20は、後述するパラメータ導出部37によるパラメータ導出処理のために、撮像部13のカメラパラメータ及び動画像の画像サイズなども出力してよい。
(Step S20)
In step S<b>20 , the output unit 20 of the terminal device 1</b>A outputs the moving image to the information processing device 3 via the communication unit 11 . Here, if the skeleton extraction unit 16 has generated at least one of the first accuracy information and error information, the output unit 20 outputs at least one of the generated first accuracy information and error information together with the moving image. can be output. The output unit 20 may also output the camera parameters of the imaging unit 13 and the image size of the moving image for parameter derivation processing by the parameter derivation unit 37, which will be described later.

(ステップS21)
ステップS21において、情報処理装置3の取得部35は、通信部31を介して、端末装置1Aから動画像を取得する。
(Step S21)
In step S<b>21 , the acquisition unit 35 of the information processing device 3 acquires the moving image from the terminal device 1</b>A via the communication unit 31 .

(ステップS22)
ステップS22において、骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。より具体的には、骨格抽出部36は、1又は複数の第2のアルゴリズムを用いて、動画像から対象者の骨格を抽出し、抽出した骨格を示す第2の骨格情報を生成する。また、骨格抽出部36は、端末装置1Aから第1の確度情報が出力されている場合、第1の確度情報を参照して、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する処理の詳細は、上述した通りである。また、ステップS22において骨格抽出部36は、エラー情報を生成してもよい。
(Step S22)
In step S<b>22 , the skeleton extraction unit 36 executes skeleton extraction processing for extracting the skeleton of the subject from the moving image acquired by the acquisition unit 35 using the second algorithm. More specifically, the skeleton extraction unit 36 extracts the skeleton of the subject from the moving image using one or more second algorithms, and generates second skeleton information indicating the extracted skeleton. Further, when the first accuracy information is output from the terminal device 1A, the skeleton extraction unit 36 refers to the first accuracy information and selects one or a plurality of second algorithms from a plurality of algorithm candidates. , the skeleton of the subject may be extracted using one or more selected second algorithms. The details of the process of selecting one or more second algorithms from multiple algorithm candidates are as described above. Also, in step S22, the skeleton extraction unit 36 may generate error information.

(ステップS23)
ステップS23において、パラメータ導出部37は、ステップS22において実行された骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部37は、骨格抽出部36が生成した第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。パラメータ導出部37がパラメータを導出する処理の詳細については、上述した通りである。
(Step S23)
In step S23, the parameter derivation unit 37 refers to the result of the skeleton extraction process executed in step S22 to derive parameters related to the motion of the subject's body. More specifically, the parameter deriving unit 37 refers to the second skeleton information generated by the skeleton extracting unit 36 and derives parameters relating to the motion of the subject's body. The details of the process of deriving the parameters by the parameter derivation unit 37 are as described above.

(ステップS24)
ステップS24において、確度導出部38は、ステップS23において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部38は、ステップS20において端末装置1Aから出力されたエラー情報及びステップS22において生成されたエラー情報の少なくとも何れかを参照し、第2の確度情報を導出する。確度導出部38が第2の確度情報を導出する処理の詳細については、上述した通りである。
(Step S24)
In step S24, the accuracy derivation unit 38 calculates the second accuracy information indicating the accuracy of the parameter derived in step S23 as a frame for which skeleton extraction by the skeleton extraction process has failed, among the plurality of frames included in the moving image. derived according to More specifically, the accuracy derivation unit 38 refers to at least one of the error information output from the terminal device 1A in step S20 and the error information generated in step S22 to derive the second accuracy information. The details of the process of deriving the second accuracy information by the accuracy derivation unit 38 are as described above.

(ステップS25)
ステップS25において、出力部40は、ステップS23において導出されたパラメータと、ステップS24において導出された第2の確度情報とを、通信部31を介して端末装置1Aに出力する。
(Step S25)
In step S25, the output unit 40 outputs the parameter derived in step S23 and the second accuracy information derived in step S24 to the terminal device 1A via the communication unit 31.

(ステップS26)
ステップS26において、端末装置1Aの取得部15は、通信部11を介して、情報処理装置3から出力されたパラメータ及び第2の確度情報を取得する。
(Step S26)
In step S<b>26 , the acquisition unit 15 of the terminal device 1</b>A acquires the parameters and the second accuracy information output from the information processing device 3 via the communication unit 11 .

(ステップS27)
ステップS27において、表示部19は、ステップS26において取得部15が取得したパラメータ及び第2の確度情報を含む動画像を、表示パネル12に表示する。ステップS27において表示部19が表示する画像の例として、上述した図6及び図7の画像が挙げられる。
(Step S27)
In step S<b>27 , the display unit 19 displays on the display panel 12 the moving image including the parameters and the second accuracy information acquired by the acquisition unit 15 in step S<b>26 . Examples of images displayed by the display unit 19 in step S27 include the images shown in FIGS. 6 and 7 described above.

このように、情報処理システム100における端末装置1Aは、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示する。また、情報処理装置3は、被写体として対象者を含む動画像を取得し、取得した動画像から第2のアルゴリズムを用いて抽出した骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、情報処理システム100では、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 In this way, the terminal device 1A in the information processing system 100 displays the skeleton of the target person extracted from the moving image including the target person as the subject using the first algorithm, superimposed on the target person in the moving image. . Further, the information processing device 3 acquires a moving image including the subject as a subject, refers to the skeleton extracted from the acquired moving image using the second algorithm, and derives parameters related to the movement of the subject's body. . Therefore, in the information processing system 100, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.

また、情報処理システム100における情報処理装置3は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、情報処理装置3は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。 Further, the information processing device 3 in the information processing system 100 executes a skeleton extraction process for extracting the skeleton of the target person from a moving image including the target person as a subject, refers to the result of the skeleton extraction process, and extracts the target person's body. parameters for the operation of Further, the information processing device 3 derives accuracy information indicating the accuracy of the derived parameters according to a frame for which skeleton extraction by the skeleton extraction process has failed, among the plurality of frames included in the moving image. Therefore, the information processing device 3 derives the accuracy of the parameter according to the frame for which skeleton extraction by the skeleton extraction process fails, so that the reliability of the parameter can be notified to the user.

(端末装置1Aの物理的構成)
図11は、端末装置1A(1)及び情報処理装置3として用いられるコンピュータの物理的構成を例示したブロック図である。端末装置1Aは、図11に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104と、カメラ105、表示パネル106とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、通信インタフェース104、カメラ105、及び表示パネル106は、バス110を介して互いに接続されている。
(Physical Configuration of Terminal Device 1A)
FIG. 11 is a block diagram illustrating the physical configuration of a computer used as the terminal device 1A(1) and the information processing device 3. As shown in FIG. The terminal device 1A can be configured by a computer having a bus 110, a processor 101, a main memory 102, an auxiliary memory 103, a communication interface 104, a camera 105, and a display panel 106, as shown in FIG. be. Processor 101 , main memory 102 , auxiliary memory 103 , communication interface 104 , camera 105 and display panel 106 are interconnected via bus 110 .

プロセッサ101としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。 As the processor 101, for example, a CPU (Central Processing Unit), a microprocessor, a digital signal processor, a microcontroller, or a combination thereof is used.

主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。 As the main memory 102, for example, a semiconductor RAM (random access memory) or the like is used.

補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、上述した端末装置1Aの動作をプロセッサ101に実行させるためのプログラムが格納されている。プロセッサ101は、補助メモリ103に格納されたプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行する。 As the auxiliary memory 103, for example, a flash memory, a HDD (Hard Disk Drive), an SSD (Solid State Drive), or a combination thereof is used. The auxiliary memory 103 stores a program for causing the processor 101 to execute the operation of the terminal device 1A described above. The processor 101 expands the program stored in the auxiliary memory 103 onto the main memory 102 and executes each instruction included in the expanded program.

通信インタフェース104は、ネットワークNに接続するインタフェースである。 A communication interface 104 is an interface that connects to the network N. FIG.

カメラ105は、撮像部13を実現するハードウェア要素の一例である。 The camera 105 is an example of a hardware element that implements the imaging unit 13 .

表示パネル106は、表示パネル12を実現するハードウェア要素の一例である。 Display panel 106 is an example of a hardware element that implements display panel 12 .

この例で、プロセッサ101は制御部10Aを実現するハードウェア要素の一例である。また、主メモリ102及び補助メモリ103は、記憶部14を実現するハードウェア要素の一例である。また、通信インタフェース104は、通信部11を実現するハードウェア要素の一例である。 In this example, processor 101 is an example of a hardware element that implements control unit 10A. Also, the main memory 102 and the auxiliary memory 103 are examples of hardware elements that implement the storage unit 14 . Also, the communication interface 104 is an example of a hardware element that implements the communication unit 11 .

(情報処理装置3の物理的構成)
情報処理装置3は、図11に示すように、バス310と、プロセッサ301と、主メモリ302と、補助メモリ303と、通信インタフェース304とを備えたコンピュータによって構成可能である。プロセッサ301、主メモリ302、補助メモリ303、及び通信インタフェース104は、バス110を介して互いに接続されている。
(Physical Configuration of Information Processing Device 3)
The information processing device 3 can be configured by a computer having a bus 310, a processor 301, a main memory 302, an auxiliary memory 303, and a communication interface 304, as shown in FIG. Processor 301 , main memory 302 , auxiliary memory 303 and communication interface 104 are interconnected via bus 110 .

この例で、プロセッサ301は制御部30を実現するハードウェア要素の一例である。また、主メモリ302及び補助メモリ303は、記憶部34を実現するハードウェア要素の一例である。また、通信インタフェース304は、通信部31を実現するハードウェア要素の一例である。 In this example, processor 301 is an example of a hardware element that implements control unit 30 . Also, the main memory 302 and the auxiliary memory 303 are examples of hardware elements that implement the storage unit 34 . Also, the communication interface 304 is an example of a hardware element that implements the communication unit 31 .

〔ソフトウェアによる実現例〕
端末装置1、1A、及び情報処理装置3(以下、総称して「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部10、10A、及び30に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
[Example of realization by software]
The functions of the terminal devices 1 and 1A and the information processing device 3 (hereinafter collectively referred to as "apparatus") are programs for causing a computer to function as the device, and each control block (especially the control block) of the device. Each unit included in units 10, 10A, and 30) can be realized by a program for causing a computer to function.

この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。 In this case, the apparatus comprises a computer having at least one control device (eg processor) and at least one storage device (eg memory) as hardware for executing the program. Each function described in each of the above embodiments is realized by executing the above program using the control device and the storage device.

上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。 The program may be recorded on one or more computer-readable recording media, not temporary. The recording medium may or may not be included in the device. In the latter case, the program may be supplied to the device via any transmission medium, wired or wireless.

また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。 Also, part or all of the functions of the above control blocks can be realized by logic circuits. For example, integrated circuits in which logic circuits functioning as the control blocks described above are formed are also included in the scope of the present invention. In addition, it is also possible to implement the functions of the control blocks described above by, for example, a quantum computer.

また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。 Further, each process described in each of the above embodiments may be executed by AI (Artificial Intelligence). In this case, the AI may operate on the control device, or may operate on another device (for example, an edge computer or a cloud server).

本発明の一実施例について以下に説明する。 An embodiment of the invention is described below.

三次元動作分析装置を用いて測定した対象者の歩行速度の実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した歩行速度の推定値と、の関係を示すグラフを、図12に示す。図12は、実施例1における推定値と実測値との関係を示すグラフである。 A graph showing the relationship between the measured walking speed of the subject measured using a three-dimensional motion analysis device and the estimated walking speed estimated using gait analysis AI from the moving image of the subject walking. , as shown in FIG. FIG. 12 is a graph showing the relationship between estimated values and measured values in Example 1;

図12における〇、△、及び×はそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図12に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、歩行速度の推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、歩行速度の推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
◯, Δ, and × in FIG. 12 respectively indicate the following moving images.
△: A video image with frames for which skeleton extraction failed during the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image ×: Frame extraction failed in the video image during motion Video with failed frames ○: Video with no frames for which skeleton extraction failed It was found that the degree is low (the difference between the estimated value and the measured value is large). On the other hand, in the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image, if there are frames for which skeleton extraction has failed, or if there are no frames for which skeleton extraction has failed. , the estimated value of walking speed was found to be highly reliable (the difference between the estimated value and the measured value was small).

本発明の他の実施例について以下に説明する。 Other embodiments of the invention are described below.

三次元動作分析装置を用いて測定した頭部のふらつきの実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した頭部のふらつきの推定値と、の関係を示すグラフを、図13に示す。図13は、実施例2における推定値と実測値との関係を示すグラフである。 Graph showing the relationship between the measured value of head sway measured using a 3D motion analysis device and the estimated value of head sway estimated using gait analysis AI from moving images of the subject walking is shown in FIG. FIG. 13 is a graph showing the relationship between estimated values and measured values in Example 2;

図13における〇、△、及び×もそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図13に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、頭部のふらつきの推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、頭部のふらつきの推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
◯, Δ, and × in FIG. 13 also indicate the following moving images.
△: A video image with frames for which skeleton extraction failed during the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image ×: Frame extraction failed in the video image during motion Video image with failed frames ○: Video image with no frames for which skeleton extraction has failed was found to have low reliability (large discrepancy between estimated values and measured values). On the other hand, in the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image, if there are frames for which skeleton extraction has failed, or if there are no frames for which skeleton extraction has failed. , the estimated value of head sway was found to be highly reliable (the difference between the estimated value and the measured value was small).

[まとめ]
各実施形態の一態様に係る端末装置は被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、を備える。
[summary]
A terminal device according to one aspect of each embodiment displays a skeleton of a target person extracted from a moving image including the target person as a subject using a first algorithm, superimposed on the target person in the moving image. and deriving parameters related to the movement of the subject's body by referring to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm. and

上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.

各実施形態の一態様に係る端末装置において、前記1又は複数の第2のアルゴリズムによる骨格抽出処理は、前記第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。 In the terminal device according to one aspect of each embodiment, it is preferable that the skeleton extraction processing by the one or more second algorithms has higher accuracy than the skeleton extraction processing by the first algorithm.

上記構成によれば、対象者の身体の動作をより精度高く評価することができる。 According to the above configuration, it is possible to evaluate the motion of the subject's body with higher accuracy.

各実施形態の一態様に係る端末装置において、前記表示部は、前記第1のアルゴリズムを用いて抽出した骨格の確からしさを示す確度情報を取得し、取得した確度情報に応じて、前記対象者に重畳する骨格の表示態様を変更することが好ましい。 In the terminal device according to one aspect of each embodiment, the display unit acquires accuracy information indicating the likelihood of the skeleton extracted using the first algorithm, and according to the acquired accuracy information, the subject person It is preferable to change the display mode of the skeleton superimposed on the .

上記構成によれば、ユーザに対して、撮影している動画像における対象者の骨格のうち、何れの骨格を確度高く抽出できているかを通知することができる。 According to the above configuration, it is possible to notify the user which skeleton has been extracted with high accuracy from among the skeletons of the target person in the captured moving image.

各実施形態の一態様に係る端末装置において、前記表示部は、前記確度情報が示す確度が所定の値より低い場合、確度が高くなるように被写体を撮影することを促す表示を行うことが好ましい。 In the terminal device according to one aspect of each embodiment, it is preferable that, when the accuracy indicated by the accuracy information is lower than a predetermined value, the display unit displays a message prompting the subject to be photographed so as to increase the accuracy. .

上記構成によれば、ユーザに対して、どのように撮影すれば対象者の骨格抽出の確度を高くできるのかを通知することができる。 According to the above configuration, it is possible to notify the user of how to take an image to increase the accuracy of extracting the skeleton of the target person.

各実施形態の一態様に係る端末装置は、前記第1のアルゴリズムと、前記1又は複数の第2のアルゴリズムとを用いて骨格抽出処理を実行する骨格抽出部を更に備えることが好ましい。 The terminal device according to one aspect of each embodiment preferably further includes a skeleton extraction unit that executes skeleton extraction processing using the first algorithm and the one or more second algorithms.

上記構成によれば、骨格抽出処理を実行することができる。 According to the above configuration, the skeleton extraction process can be executed.

各実施形態の一態様に係る端末装置において、前記骨格抽出部は、複数の第2のアルゴリズム候補から、前記1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて前記対象者の骨格を抽出することが好ましい。 In the terminal device according to one aspect of each embodiment, the skeleton extracting unit selects the one or more second algorithms from a plurality of second algorithm candidates, and selects the selected one or more second algorithms is preferably used to extract the skeleton of the subject.

上記構成によれば、より高い精度で対象者の骨格を抽出することができる。 According to the above configuration, it is possible to extract the skeleton of the subject with higher accuracy.

各実施形態の一態様に係る端末装置において、前記骨格抽出部は、前記第1のアルゴリズムを用いて抽出した前記対象者の骨格を参照して、前記1又は複数の第2のアルゴリズムを選択することが好ましい。 In the terminal device according to one aspect of each embodiment, the skeleton extraction unit refers to the skeleton of the subject extracted using the first algorithm, and selects the one or more second algorithms. is preferred.

上記構成によれば、より高い精度で対象者の骨格を抽出することができる。 According to the above configuration, it is possible to extract the skeleton of the subject with higher accuracy.

各実施形態の一態様に係る端末装置において、前記導出部は、前記1又は複数の第2のアルゴリズムを用いて抽出した、歩行中の前記対象者の骨格を参照し、前記対象者の歩行に関するパラメータを導出することが好ましい。 In the terminal device according to one aspect of each embodiment, the derivation unit refers to the skeleton of the subject during walking, which is extracted using the one or more second algorithms, and It is preferable to derive the parameters.

上記構成によれば、歩行中の対象者の歩行に関するパラメータを導出することができる。 According to the above configuration, it is possible to derive the parameters related to the walking of the subject who is walking.

各実施形態の一態様に係る情報処理方法は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示するステップと、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出するステップと、を含む。 An information processing method according to an aspect of each embodiment displays a skeleton of a target person extracted from a moving image including a target person as a subject using a first algorithm, superimposed on the target person in the moving image. and referring to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and deriving parameters related to the movement of the body of the subject. and a step.

上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.

各実施形態の一態様に係る情報処理システムは、端末装置と情報処理装置とを含む情報処理システムであって、前記端末装置は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、前記動画像を前記情報処理装置に出力する出力部と、を備え、前記情報処理装置は、前記端末装置から前記動画像を取得する取得部と、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、を備える。 An information processing system according to one aspect of each embodiment is an information processing system that includes a terminal device and an information processing device, wherein the terminal device uses a first algorithm from a moving image including a target person as a subject. a display unit for superimposing and displaying the extracted skeleton of the target person on the target person in the moving image; and an output unit for outputting the moving image to the information processing device, wherein the information processing device comprises: with reference to the skeleton of the subject extracted from the moving image using an acquisition unit that acquires the moving image from the terminal device and one or more second algorithms different from the first algorithm; and a deriving unit for deriving parameters related to the motion of the person's body.

上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.

各実施形態の一態様に係るプログラムは、上述した端末装置としてコンピュータを機能させるためのプログラムであって、上記表示部及び上記導出部としてコンピュータを機能させる。 A program according to one aspect of each embodiment is a program for causing a computer to function as the above-described terminal device, and causes the computer to function as the display unit and the derivation unit.

上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

1、1A 端末装置
3 情報処理装置
10、10A、30 制御部
11、31 通信部
12 表示パネル
13 撮像部
14、34 記憶部
15、35 取得部
16、36 骨格抽出部
17、37 パラメータ導出部
18、38 確度導出部
19 表示部
20、40 出力部
100 情報処理システム
Reference Signs List 1, 1A terminal device 3 information processing device 10, 10A, 30 control unit 11, 31 communication unit 12 display panel 13 imaging unit 14, 34 storage unit 15, 35 acquisition unit 16, 36 skeleton extraction unit 17, 37 parameter derivation unit 18 , 38 accuracy derivation unit 19 display unit 20, 40 output unit 100 information processing system

Claims (11)

被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、
前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、
を備える端末装置。
a display unit for superimposing and displaying the skeleton of the target person extracted using a first algorithm from a moving image including the target person as a subject on the target person in the moving image;
a deriving unit that refers to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and derives parameters related to the movement of the body of the subject;
terminal device.
前記1又は複数の第2のアルゴリズムによる骨格抽出処理は、前記第1のアルゴリズムによる骨格抽出処理よりも精度が高い
請求項1に記載の端末装置。
2. The terminal device according to claim 1, wherein skeleton extraction processing by said one or more second algorithms has higher accuracy than skeleton extraction processing by said first algorithm.
前記表示部は、
前記第1のアルゴリズムを用いて抽出した骨格の確からしさを示す確度情報を取得し、
取得した確度情報に応じて、前記対象者に重畳する骨格の表示態様を変更する
請求項1又は2に記載の端末装置。
The display unit
Acquiring accuracy information indicating the accuracy of the skeleton extracted using the first algorithm,
3. The terminal device according to claim 1, wherein the display mode of the skeleton superimposed on the subject is changed according to the acquired accuracy information.
前記表示部は、前記確度情報が示す確度が所定の値より低い場合、確度が高くなるように被写体を撮影することを促す表示を行う
請求項3に記載の端末装置。
4. The terminal device according to claim 3, wherein, when the accuracy indicated by the accuracy information is lower than a predetermined value, the display section displays a display prompting the subject to be photographed so as to increase the accuracy.
前記第1のアルゴリズムと、前記1又は複数の第2のアルゴリズムとを用いて骨格抽出処理を実行する骨格抽出部を更に備える
請求項1~4の何れか1項に記載の端末装置。
The terminal device according to any one of claims 1 to 4, further comprising a skeleton extracting unit that executes skeleton extraction processing using the first algorithm and the one or more second algorithms.
前記骨格抽出部は、複数の第2のアルゴリズム候補から、前記1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて前記対象者の骨格を抽出する
請求項5に記載の端末装置。
wherein said skeleton extracting unit selects said one or more second algorithms from a plurality of second algorithm candidates, and extracts said subject's skeleton using said one or more selected second algorithms. Item 6. The terminal device according to item 5.
前記骨格抽出部は、前記第1のアルゴリズムを用いて抽出した前記対象者の骨格を参照して、前記1又は複数の第2のアルゴリズムを選択する
請求項5に記載の端末装置。
6. The terminal device according to claim 5, wherein the skeleton extraction unit selects the one or more second algorithms by referring to the skeleton of the subject extracted using the first algorithm.
前記導出部は、前記1又は複数の第2のアルゴリズムを用いて抽出した、歩行中の前記対象者の骨格を参照し、前記対象者の歩行に関するパラメータを導出する
請求項1~7の何れか1項に記載の端末装置。
8. The derivation unit refers to the skeleton of the subject during walking, which is extracted using the one or more second algorithms, and derives parameters related to walking of the subject. The terminal device according to item 1.
被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示するステップと、
前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出するステップと、
を含む情報処理方法。
a step of superimposing and displaying the skeleton of the target person extracted using a first algorithm from a moving image including the target person as a subject on the target person in the moving image;
referring to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and deriving parameters relating to the movement of the subject's body;
Information processing method including.
端末装置と情報処理装置とを含む情報処理システムであって、
前記端末装置は、
被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、
前記動画像を前記情報処理装置に出力する出力部と、
を備え、
前記情報処理装置は、
前記端末装置から前記動画像を取得する取得部と、
前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、
を備える情報処理システム。
An information processing system including a terminal device and an information processing device,
The terminal device
a display unit for superimposing and displaying the skeleton of the target person extracted using a first algorithm from a moving image including the target person as a subject on the target person in the moving image;
an output unit that outputs the moving image to the information processing device;
with
The information processing device is
an acquisition unit that acquires the moving image from the terminal device;
a deriving unit that refers to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and derives parameters related to the movement of the body of the subject;
An information processing system comprising
請求項1に記載の端末装置としてコンピュータを機能させるためのプログラムであって、上記表示部及び上記導出部としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the terminal device according to claim 1, the program for causing the computer to function as the display section and the derivation section.
JP2021148073A 2021-09-10 2021-09-10 Terminal devices, information processing methods, information processing systems, and programs Active JP7047176B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021148073A JP7047176B1 (en) 2021-09-10 2021-09-10 Terminal devices, information processing methods, information processing systems, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021148073A JP7047176B1 (en) 2021-09-10 2021-09-10 Terminal devices, information processing methods, information processing systems, and programs

Publications (2)

Publication Number Publication Date
JP7047176B1 JP7047176B1 (en) 2022-04-04
JP2023040882A true JP2023040882A (en) 2023-03-23

Family

ID=81256632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021148073A Active JP7047176B1 (en) 2021-09-10 2021-09-10 Terminal devices, information processing methods, information processing systems, and programs

Country Status (1)

Country Link
JP (1) JP7047176B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017064120A (en) * 2015-09-30 2017-04-06 株式会社リコー Information processor and system
US20190251341A1 (en) * 2017-12-08 2019-08-15 Huawei Technologies Co., Ltd. Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium
JP2021026527A (en) * 2019-08-06 2021-02-22 株式会社エクサウィザーズ Information processing device and program
WO2021132426A1 (en) * 2019-12-26 2021-07-01 国立大学法人東京大学 Smart treadmill

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017064120A (en) * 2015-09-30 2017-04-06 株式会社リコー Information processor and system
US20190251341A1 (en) * 2017-12-08 2019-08-15 Huawei Technologies Co., Ltd. Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium
JP2021026527A (en) * 2019-08-06 2021-02-22 株式会社エクサウィザーズ Information processing device and program
WO2021132426A1 (en) * 2019-12-26 2021-07-01 国立大学法人東京大学 Smart treadmill

Also Published As

Publication number Publication date
JP7047176B1 (en) 2022-04-04

Similar Documents

Publication Publication Date Title
JP5018767B2 (en) Subject tracking program, subject tracking device, and camera
US10559062B2 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
JP2023175052A (en) Estimating pose in 3d space
JP5067418B2 (en) Subject tracking program, subject tracking device, and camera
JP6562197B2 (en) Image processing method and image processing system
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
CN113973190A (en) Video virtual background image processing method and device and computer equipment
JP2017194935A (en) 3D reconstruction method
JP2020086983A5 (en)
KR102343325B1 (en) Method for image compression and method for image restoration
JP2018207252A (en) Image processing system, control method for image processing system, and program
JP2020053774A (en) Imaging apparatus and image recording method
KR101672691B1 (en) Method and apparatus for generating emoticon in social network service platform
JP6723720B2 (en) Display system, information processing method and program
JP2009015558A (en) Attitude estimation device and method
JP7047176B1 (en) Terminal devices, information processing methods, information processing systems, and programs
JP7042956B1 (en) Information processing methods, information processing devices, and programs
KR102126370B1 (en) Apparatus and method for analyzing motion
JP2007102478A (en) Image processor, image processing method, and semiconductor integrated circuit
JP2019068234A (en) Processing program, processing method, and processing apparatus
JP7462869B2 (en) Information processing method, information processing device, and program
JP2021105850A (en) Image processing device and method, and imaging device
JP7416736B2 (en) Photography support device, photography support method, and photography support program
EP3182367A1 (en) Apparatus and method for generating and visualizing a 3d model of an object
US20230177767A1 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220323

R150 Certificate of patent or registration of utility model

Ref document number: 7047176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150