JP7042956B1 - Information processing methods, information processing devices, and programs - Google Patents
Information processing methods, information processing devices, and programs Download PDFInfo
- Publication number
- JP7042956B1 JP7042956B1 JP2021148074A JP2021148074A JP7042956B1 JP 7042956 B1 JP7042956 B1 JP 7042956B1 JP 2021148074 A JP2021148074 A JP 2021148074A JP 2021148074 A JP2021148074 A JP 2021148074A JP 7042956 B1 JP7042956 B1 JP 7042956B1
- Authority
- JP
- Japan
- Prior art keywords
- accuracy
- skeleton
- skeleton extraction
- unit
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】対象者の身体の動作の評価の信頼度をユーザに通知する。【解決手段】情報処理方法は、対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出するステップと、導出したパラメータの確度を示す確度情報を、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出するステップと、を含む。【選択図】図1PROBLEM TO BE SOLVED: To notify a user of the reliability of evaluation of a subject's physical movement. SOLUTION: The information processing method executes a skeleton extraction process for extracting a skeleton of a target person from a moving image including the target person, and derives a parameter related to the movement of the body of the target person by referring to the result of the skeleton extraction process. It includes a step of deriving the accuracy information indicating the accuracy of the derived parameter according to the frame in which the skeleton extraction by the skeleton extraction process fails. [Selection diagram] Fig. 1
Description
本発明は、情報処理方法、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing method, an information processing apparatus, and a program.
歩行している対象者を含む動画像から、対象者の歩容を解析する技術において、解析の精度を高くすることを目的とした技術が知られている。特許文献1には、撮影時における撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得し、撮影画像に状況情報を表す状況画像を含めた合成画像を出力する端末が開示されている。
In the technique of analyzing the gait of a subject from a moving image including a walking subject, a technique aimed at improving the accuracy of the analysis is known.
ところで、歩容解析することによって、対象者の歩行を評価する技術も知られている。このような技術において、評価の信頼度をユーザに通知する技術は知られていない。 By the way, a technique for evaluating the walking of a subject by performing gait analysis is also known. In such a technique, there is no known technique for notifying the user of the reliability of the evaluation.
本発明の一態様は、対象者の身体の動作の評価の信頼度をユーザに通知することを目的とする。 One aspect of the present invention is to notify the user of the reliability of the evaluation of the body movement of the subject.
上記の課題を解決するために、本発明の一態様に係る情報処理方法は、被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出ステップと、前記パラメータ導出ステップにおいて導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出ステップと、を含む情報処理方法。 In order to solve the above problems, the information processing method according to one aspect of the present invention executes a skeleton extraction process for extracting the skeleton of the subject from a moving image including the subject as a subject, and results in the skeleton extraction process. Of the plurality of frames included in the moving image, the parameter derivation step for deriving the parameters related to the movement of the body of the subject and the accuracy information indicating the accuracy of the parameters derived in the parameter derivation step are obtained with reference to. An information processing method including a probability derivation step of deriving according to a frame in which skeleton extraction by the skeleton extraction process fails.
本発明の一態様によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to one aspect of the present invention, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.
〔実施形態1〕
以下、本発明の一実施形態について説明する。
[Embodiment 1]
Hereinafter, an embodiment of the present invention will be described.
(端末装置1の概要)
図1を参照して、本実施形態に係る端末装置1の構成例について説明する。図1は、本実施形態に係る端末装置1の構成例を示すブロック図である。
(Overview of terminal device 1)
A configuration example of the
本実施形態に係る端末装置1は、被写体として対象者を含む動画像を撮影し、当該動画像を参照し、以下の処理を行う。
・対象者の骨格を抽出し、抽出した対象者の骨格を、動画像における対象者に重畳して表示する
・対象者の動作に関するパラメータを導出する
・導出したパラメータの確度を示す確度情報を導出する
ここで、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1のユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。
The
・ Extract the skeleton of the target person and display the extracted skeleton of the target person superimposed on the target person in the moving image. Here, a care recipient can be mentioned as an example of the above-mentioned subject, but this does not limit the present embodiment. Further, as a user of the
(端末装置1の構成)
端末装置1は、図1に示すように、制御部10、表示パネル12、撮像部13、及び記憶部14を備えている。
(Configuration of terminal device 1)
As shown in FIG. 1, the
表示パネル12は、後述する制御部10から供給されるデータを表示するディスプレイである。一例として、表示パネル12は、対象者の骨格を当該対象者に重畳した動画像を表示する。
The
撮像部13は、動画像を撮像可能なカメラである。一例として、撮像部13は、当該撮像部13の画角に対象者が含まれるよう、ユーザによって向けられる。そして撮像部13は、対象者が所定の動作(歩行、及び腕上げなど)を実行している様子を撮像し、被写体として当該対象者を含む動画像を生成する。撮像部13は、撮像によって得られた動画像を後述する制御部10に供給する。
The
記憶部14は、後述する制御部10が参照する各種のデータが格納されている。一例として、記憶部14には、撮像部13によって撮像された動画像、及び後述する対象者の骨格を示す骨格情報などが格納されている。
The
(制御部10)
制御部10は、端末装置1の各構成要素を制御する。一例として、制御部10は、撮像部13によって撮像された動画像を取得したり、表示パネル12に表示する動画像データを供給したりする。
(Control unit 10)
The
また、制御部10は、図1に示すように、取得部15、骨格抽出部16、パラメータ導出部17(導出部)、確度導出部18、及び表示部19としても機能する。
Further, as shown in FIG. 1, the
取得部15は、撮像部13によって撮像された動画像を取得する。取得部15は、取得した動画像を、記憶部14に格納する。
The
骨格抽出部16は、第1のアルゴリズムと、1又は複数の第2のアルゴリズムとを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。
The
ここで、第1のアルゴリズム及び第2のアルゴリズムは、対象者の骨格を抽出するアルゴリズムである。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。そのため、第1のアルゴリズムは、後述する第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。より具体的には、第1のアルゴリズムは、映像のリフレッシュレート(30fpsまたは60fps)より速いことが好ましい。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。
Here, the first algorithm and the second algorithm are algorithms for extracting the skeleton of the subject. The skeleton of the subject extracted by the first algorithm is referred to in real time by the
第2のアルゴリズムによって抽出された対象者の骨格抽出処理の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部17によって参照される。詳細は後述するものの、1又は複数の第2のアルゴリズムによる骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。
The result of the skeleton extraction process of the subject extracted by the second algorithm is referred to by the
また、骨格抽出部16は、複数のアルゴリズム候補から、1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。例えば、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、1又は複数の第2のアルゴリズムを選択してもよい。骨格抽出部16が1又は複数の第2のアルゴリズムを選択する処理の具体例については、後述する。
Further, the
また、骨格抽出部16は、第1のアルゴリズム及び第2のアルゴリズムの少なくとも何れかを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成する。
Further, the
骨格抽出に失敗したフレームとは、第1のアルゴリズム又は第2のアルゴリズムを用いた骨格抽出の際に、骨格が抽出されなかったフレーム、又は適切に骨格が抽出されていないと考えられるフレームである。具体的な例として、
・骨格抽出処理が完了しなかったため、骨格抽出処理の戻り値を取得できなかったフレーム
・骨格抽出処理は完了したが、骨格抽出処理の戻り値が、所定の範囲外の値(外れ値)になっていたフレーム
が挙げられるが、これらに限定されない。
The frame in which the skeleton extraction fails is a frame in which the skeleton is not extracted or a frame in which the skeleton is not properly extracted in the skeleton extraction using the first algorithm or the second algorithm. .. As a concrete example
-The return value of the skeleton extraction process could not be obtained because the skeleton extraction process was not completed.-The return value of the skeleton extraction process was completed, but the return value of the skeleton extraction process was out of the specified range (outlier value). The frames that have been used are, but are not limited to these.
エラー情報の例として、
・骨格抽出を失敗したフレームの数を示す情報
・骨格抽出を失敗したフレームの時間的な位置(骨格抽出を失敗したフレームが撮影された日時、又は動画像撮影開始からの経過時間など)を示す情報
・骨格抽出に失敗したフレームにおいて、骨格抽出できなかった部位を示す情報
などが挙げられるが、これらに限定されない。
As an example of error information
-Information indicating the number of frames for which skeleton extraction failed-Indicates the temporal position of the frame for which skeleton extraction failed (such as the date and time when the frame for which skeleton extraction failed was taken, or the elapsed time from the start of moving image shooting). Information ・ In the frame where the skeleton extraction failed, information indicating the part where the skeleton could not be extracted can be mentioned, but the present invention is not limited to these.
パラメータ導出部17は、骨格抽出部16が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部17は、骨格抽出部16が第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を示す第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータとは、対象者が動作を行った際に、当該動作をどの程度実行できたかを示すパラメータである。対象者の身体の動作に関するパラメータの例として、対象者が歩く、腕を上げる、及び立ち上がるといった動作を行った際の
・動作を行う速度
・動作を行うリズム
・動作を行う際の身体のふらつき
・動作の左右差
などが挙げられるが、これらに限定されない。パラメータ導出部17がパラメータを導出する処理の具体例については、後述する。
The
確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、骨格抽出部16が生成したエラー情報を参照して導出する。パラメータの確度とは、当該パラメータの確かさの度合いであり、当該パラメータの確度が高い程、パラメータの信頼度が高いことを示す。確度導出部18が第2の確度情報を導出する処理の具体例については、後述する。
The
表示部19は、表示パネル12に表示する動画像データを生成する。具体的には、表示部19は、骨格抽出部16が生成した第1の骨格情報を参照し、第1の骨格情報が示す骨格を、取得部15が取得した動画像における対象者に重畳して、表示パネル12に表示する。また、表示部19は、確度導出部18が導出した第2の確度情報を参照し、第2の確度情報が示す確度を表示パネル12に表示する。
The
(端末装置1による処理)
端末装置1による処理について、図2を用いて説明する。図2は、本実施形態に係る端末装置1による処理の流れを示すシーケンス図である。
(Processing by terminal device 1)
The processing by the
(ステップS12)
ステップS12において、取得部15は、撮像部13を介して、被写体として対象者を含む動画像の取得を開始する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を開始する旨を示す情報を取得すると、撮像部13を介して動画像の取得を開始する。
(Step S12)
In step S12, the
(ステップS13)
ステップS13において、骨格抽出部16は、ステップS12において取得部15が取得した動画像から、第1のアルゴリズムを用いて対象者の骨格を抽出する。骨格抽出部16は、抽出した骨格を示す第1の骨格情報を、表示部19に供給する。また、ステップS13において、骨格抽出部16は、抽出した骨格の確からしさを示す第1の確度情報及び骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。この場合、骨格抽出部16は、第1の確度情報を表示部19に供給し、エラー情報を確度導出部18に供給する。
(Step S13)
In step S13, the
(ステップS14)
ステップS14において、表示部19は、ステップS13において骨格抽出部16が供給した第1の骨格情報が示す骨格を動画像における対象者に重畳した動画像を示す動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S14)
In step S14, the
(表示部19が表示する動画像の例1)
表示部19が表示パネル12に表示する動画像の一例について、図3を用いて説明する。図3は、本実施形態に係る表示部19が表示パネル12に表示する動画像の一例を示す図である。
(Example 1 of a moving image displayed by the display unit 19)
An example of a moving image displayed on the
表示部19は、第1の骨格情報が示す骨格のうち、関節を対象者に重畳して表示パネル12に表示する。例えば、図3に示すように、表示部19は、関節を示す点JT1、点JT2、及び点JT3等を対象者TPに重畳して表示パネル12に表示する。また、表示部19は、隣接する関節(例えば、図3における点JT1、点JT2)を線で結び、対象者TPに重畳して表示パネル12に表示する。換言すると、表示部19は、第1のアルゴリズムを用いた骨格抽出において、抽出されなかった骨格は表示パネル12に表示しない。当該構成により、端末装置1は、対象者を撮影しているユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。
The
ここで、撮影している動画像に含まれる対象者TPの骨格が抽出されているか否かをユーザに通知するためには、骨格抽出の処理が速い方が好ましい。そのため、上述したように、第1の骨格情報が示す骨格を抽出する第1のアルゴリズムは、第2のアルゴリズムよりも抽出処理が速いアルゴリズムであることが好ましい。この構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。
Here, in order to notify the user whether or not the skeleton of the subject TP included in the moving image to be captured has been extracted, it is preferable that the skeleton extraction process is fast. Therefore, as described above, the first algorithm for extracting the skeleton indicated by the first skeleton information is preferably an algorithm having a faster extraction process than the second algorithm. With this configuration, the
(表示部19が表示する動画像の例2)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報を取得し、取得した第1の確度情報に応じて、対象者に重畳する骨格の表示態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図4を用いて説明する。図4は、本実施形態に係る表示部19が表示パネル12に表示する動画像の他の例を示す図である。
(Example 2 of a moving image displayed by the display unit 19)
When the
図4に示すように、表示部19は、上述した図3と同様、関節を示す点JT2、点JT3、及び点JT4等を対象者TPに重畳して表示パネル12に表示する。ここで、対象者TPの左膝における第1の確度情報が示す確度が所定の値より低い場合、表示部19は、図4に示すように、左膝を示す点JT4の態様を、他の関節を示す表示の態様(形が丸)とは異なる態様(形が三角)に変更し、表示する。当該構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像における対象者の骨格のうち、何れの骨格を確度高く抽出できているかを通知することができる。
As shown in FIG. 4, the
表示部19が表示態様を異ならせる構成は、形を異ならせる構成以外にも、例えば、
・第1の確度情報に応じて骨格を示す表示の色を異ならせる
・第1の確度情報に応じて骨格を示す表示の色の濃淡を異ならせる
・第1の確度情報に応じて骨格を示す表示の大きさを異ならせる
などが挙げられるが、これらに限定されない。
The configuration in which the
-The color of the display indicating the skeleton is different according to the first accuracy information.-The shade of the display indicating the skeleton is different according to the first accuracy information.-The skeleton is indicated according to the first accuracy information. The size of the display may be different, but the display size is not limited to these.
(表示部19が表示する動画像の例3)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報が示す確度が所定の値より低い場合、確度が高くなるように被写体を撮影することを促す表示を行う構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図5を用いて説明する。図5は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 3 of a moving image displayed by the display unit 19)
When the
例えば、動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全て又は一部の骨格において低い場合、図5に示すように、表示部19は、確度が高くなるように被写体を撮影することを促す表示DP1を表示する。表示DP1は、「対象者がもう少し大きく映るように撮影してください」というテキストが含まれている。当該構成により、端末装置1は、撮影中のユーザに対して、どのように撮影すれば対象者の骨格抽出の確度を高くできるのかを通知することができる。
For example, when the subject included in the moving image is small and the accuracy indicated by the first accuracy information is low in all or a part of the skeleton, the
確度が高くなるように被写体を撮影することを促す表示の例として、
・動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全ての骨格において低い場合、「画角を狭くしてください」と表示する
・動画像に含まれる対象者が左側に寄っているため、対象者の左側の骨格における第1の確度情報が示す確度が低い場合、「もう少し左側を撮影してください」と表示する
などが挙げられるが、これらに限定されない。
As an example of a display that encourages you to shoot a subject with high accuracy,
・ Since the target person included in the moving image is small, if the accuracy indicated by the first accuracy information is low in all skeletons, "Please narrow the angle of view" is displayed. ・ The target person included in the moving image is on the left side. If the accuracy indicated by the first accuracy information in the skeleton on the left side of the subject is low, the message "Please take a picture of the left side a little more" may be displayed, but the present invention is not limited to these.
また、表示部19は、確度が高くなるように被写体を撮影することを促す表示を、骨格抽出部16が抽出した部位の数が、所定の数よりも小さい場合に表示する構成であってもよい。より具体的には、表示部19は、骨格抽出部16が供給した第1の骨格情報が示す部位を参照し、当該部位の数が、所定の数よりも小さい場合、確度が高くなるように被写体を撮影することを促す表示を行ってもよい。
Further, even if the
再び図2を参照し、端末装置1による処理のステップS15以降について説明する。
With reference to FIG. 2 again, steps S15 and subsequent steps of the process by the
(ステップS15)
ステップS15において、取得部15は、撮像部13を介した動画像の取得を終了する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を終了する旨を示す情報を取得すると、撮像部13を介しての動画像の取得を終了する。
(Step S15)
In step S15, the
(ステップS16)
ステップS16において、骨格抽出部16は、ステップS12~ステップS15において取得部15が取得した動画像から、第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する。ステップS16において、骨格抽出部16は、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出してもよい。また、ステップS13において骨格抽出部16がエラー情報を生成していない場合、ステップS16において、骨格抽出部16はエラー情報を生成してもよい。
(Step S16)
In step S16, the
(骨格抽出部16による第2のアルゴリズム選択処理例)
骨格抽出部16による第2のアルゴリズム選択処理例について、以下に説明する。
(Example of second algorithm selection process by the skeleton extraction unit 16)
An example of the second algorithm selection process by the
骨格抽出部16が複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する構成では、複数のアルゴリズム候補は、それぞれ、抽出する部位、抽出の精度、及び抽出の速度といった特性が異なっていてもよい。この場合、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、特性に応じたアルゴリズムを選択してもよい。
In the configuration in which the
一例として、複数のアルゴリズム候補がそれぞれ抽出する骨格の部位が異なる場合、骨格抽出部16は、抽出する骨格の部位に応じて、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する。この場合、骨格抽出部16は、第1のアルゴリズムによって抽出された対象者の骨格を参照し、第1のアルゴリズムにおいて抽出された骨格の部位を抽出することができるアルゴリズムを、複数のアルゴリズム候補から選択する。例えば、第1のアルゴリズムによって対象者の脚部が抽出された場合、骨格抽出部16は、脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。
As an example, when a plurality of algorithm candidates have different parts of the skeleton to be extracted, the
さらに、骨格抽出部16は、期間に応じて複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、ある期間において第1のアルゴリズムによって対象者の脚部が抽出され、当該ある期間とは異なる期間において第1のアルゴリズムによって対象者の腕部が抽出された場合、骨格抽出部16は、ある期間においては脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択し、異なる期間においては腕部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。
Further, the
また、骨格抽出部16は、ユーザからの指示を参照し、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、歩く速度が加速する期間と、歩く速度が減速する期間とが動画像に含まれる場合、ユーザは、歩く速度が加速する期間と、歩く速度が減速する期間とのそれぞれに、加速期間であることを示すアノテーションと減速期間であることを示すアノテーションを当該動画像に付加する。骨格抽出部16は、当該アノテーションを参照し、歩く速度が加速する期間においては、歩く速度が加速する動きに適した1又は複数の第2のアルゴリズムを選択し、歩く速度が減速する期間において、歩く速度が減速する動きに適した1又は複数の第2のアルゴリズムを選択する構成であってもよい。または、骨格抽出部16は、期間及び部位に対して、何れの1又は複数の第2のアルゴリズムを選択するか、ユーザから直接指示される構成であってもよい。
Further, the
このように、骨格抽出部16が第2のアルゴリズムを選択することにより、高い精度で対象者の骨格を抽出することができる。
In this way, the
(ステップS17)
ステップS17において、パラメータ導出部17は、ステップS16において抽出された対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。
(Step S17)
In step S17, the
(パラメータ導出部17によるパラメータ導出処理例)
パラメータ導出部17によるパラメータ導出処理例について、以下に説明する。
(Example of parameter derivation processing by parameter derivation unit 17)
An example of parameter derivation processing by the
例えば、パラメータ導出部17は、第2のアルゴリズムを用いて抽出した、歩行中の対象者の骨格を参照し、対象者の歩行に関するパラメータを導出する。より具体的には、骨格抽出部16から取得した第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者が歩行する速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者が歩行する速度が所定の値より大きい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が速いことを示すパラメータに設定する。一方、対象者が歩行する速度が所定の値より小さい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が遅いことを示すパラメータに設定する。
For example, the
他の例として、第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者の右脚と左脚とがそれぞれ動く速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より小さい場合、パラメータ導出部17は、左右差のパラメータを、左右差がないことを示すパラメータに設定する。一方、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より大きい場合、パラメータ導出部17は、左右差のパラメータを、左右差があることを示すパラメータに設定する。
As another example, when the second skeletal information indicates that the right leg and the left leg of the subject have been extracted, and the right leg and the left leg indicate that the subject is walking, the
このように、端末装置1は、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照して、対象者の身体の動作に関するパラメータを導出する。すなわち、第2のアルゴリズムが抽出した骨格は、対象者の身体の動作に関するパラメータの導出に用いられるため、上述したように、第2のアルゴリズムの骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。この構成により、端末装置1は、第1のアルゴリズムが抽出した骨格を示す第1の骨格情報ではなく、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照することにより、対象者の身体の動作に関するパラメータの精度を高くすることができる。
In this way, the
(ステップS18)
ステップS18において、確度導出部18は、骨格抽出部16が生成したエラー情報を参照し、ステップS17において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
(Step S18)
In step S18, the
(確度導出部18による確度導出処理例)
確度導出部18による確度導出処理例について、以下に説明する。
(Example of accuracy derivation process by accuracy derivation unit 18)
An example of the accuracy derivation process by the
確度導出部18は、骨格抽出部16が生成したエラー情報を参照することにより、骨格抽出処理による骨格抽出が失敗したフレームを特定し、特定したフレームに応じて第2の確度情報を導出する。
The
一例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの数を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの数に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも多い場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも少ない場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームの数が多い場合は、パラメータの確度が低いことをユーザに通知することができる。
As an example, when the error information indicates the number of frames in which the skeleton extraction by the skeleton extraction process has failed, the
他の例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれている場合(例えば、対象者の歩行動画であれば、対象者が歩行している期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれていない場合(例えば、対象者の歩行動画であれば、対象者が歩行する前(又は歩行した後)の期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者が動作している期間に骨格抽出が失敗した場合、パラメータの確度が低いことをユーザに通知することができる。
As another example, when the error information indicates the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails, the
さらに他の例として、エラー情報が骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位を示す場合、確度導出部18は、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠な部位(例えば、対象者の歩行動画であれば、対象者の脚部)であった場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠ではない部位(例えば、対象者の歩行動画であれば、対象者の頸部)であった場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者の動作に不可欠な部位の骨格抽出に失敗した場合、パラメータの確度が低いことをユーザに通知することができる。
As yet another example, when the error information indicates a site where the skeleton was not extracted in the frame in which the skeleton extraction by the skeleton extraction process failed, the
再び図2を参照し、端末装置1による処理のステップS19について説明する。
With reference to FIG. 2 again, step S19 of the process by the
(ステップS19)
ステップS19において、表示部19は、ステップS17においてパラメータ導出部17が導出したパラメータと、ステップS19において確度導出部18が導出した第2の確度情報が示す確度を含む動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S19)
In step S19, the
(表示部19が表示する動画像の例4)
表示部19が表示パネル12に表示する動画像の一例について、図6を用いて説明する。図6は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 4 of a moving image displayed by the display unit 19)
An example of a moving image displayed on the
図6に示すように、表示部19は、パラメータ導出部17が導出したパラメータPM1と、確度導出部18が導出した第2の確度情報が示す確度AC1を含む動画像を表示パネル12に表示する。また、表示部19は、評価項目毎のパラメータPM2も含む動画像を表示パネル12に表示してもよい。当該構成により、端末装置1は、表示されているパラメータPM1の確度をユーザに通知することができる。
As shown in FIG. 6, the
また、表示部19は、第2の確度情報が示す確度を、評価項目毎に表示する構成であってもよい。当該構成では、確度導出部18は、評価項目毎に第2の確度情報を導出する。例えば、対象者が歩く動作と、対象者が立ち止まって腕を上げる動作とが動画像に含まれている場合、対象者が歩く動作を行っている期間において、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の数より多い場合、確度導出部18は、対象者が歩く動作において評価される評価項目「速度」の確度が低くなるように第2の確度情報を導出する。
Further, the
(表示部19が表示する動画像の例5)
表示部19は、確度導出部18が導出した第2の確度情報が示す確度に応じて、確度を表示する態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図7を用いて説明する。図7は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 5 of a moving image displayed by the display unit 19)
The
図7に示すように、表示部19は、第2の確度情報が示す確度が所定の値より低い場合、再度、動画像を撮影するよう促すメッセージDP2を含む画像を表示パネル12に表示する。この構成により、端末装置1は、確度の高いパラメータを導出するためには、再度の動画像の撮影が必要であることをユーザに通知することができる。
As shown in FIG. 7, when the accuracy indicated by the second accuracy information is lower than a predetermined value, the
また、図7に示すように、表示部19は、動画像を撮影するよう促すメッセージDP2に加えて、パラメータ導出部17が導出したパラメータPM3、評価項目毎のパラメータPM4、及び確度導出部18が導出した第2の確度情報が示す確度を表示してもよい。
Further, as shown in FIG. 7, in addition to the message DP2 prompting to take a moving image, the
図7に示す動画像の他に、表示部19は、第2の確度情報が示す確度が所定の値より高いか低いかに応じて、以下のように表示する態様を変更する構成であってもよい。
・第2の確度情報が示す確度のテキストの色を変更する
・第2の確度情報が示す確度のテキストの大きさを変更する
・第2の確度情報が示す確度が所定の値より高い場合、再度の動画像の撮影が不要であることをユーザに通知する(例えば、「測定が適切に完了しました」というテキストを表示する)
ただし、これらは本実施形態を限定するものではない。
In addition to the moving image shown in FIG. 7, the
-Change the color of the accuracy text indicated by the second accuracy information-Change the size of the accuracy text indicated by the second accuracy information-If the accuracy indicated by the second accuracy information is higher than the predetermined value Notify the user that it is not necessary to take another moving image (for example, display the text "Measurement completed properly")
However, these are not limited to this embodiment.
このように、端末装置1は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示し、1又は複数の第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、端末装置1は、第1のアルゴリズムを用いて抽出した対象者の骨格を、対象者に重畳して表示しつつ、第2のアルゴリズムを用いて抽出した対象者の骨格を参照して対象者の身体の動作に関するパラメータを導出するので、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。
As described above, the
また、端末装置1は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出し、当該パラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。
Further, the
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present invention will be described below. For convenience of explanation, the same reference numerals are given to the members having the same functions as the members described in the above-described embodiment, and the description thereof will not be repeated.
(情報処理システム100)
図8を参照し、本実施形態に係る情報処理システム100の概要について説明する。図8は、本実施形態に係る情報処理システム100の概要を示す模式図である。図8に示すように、情報処理システム100は、端末装置1A及び情報処理装置3を含んで構成される。
(Information processing system 100)
An outline of the information processing system 100 according to the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram showing an outline of the information processing system 100 according to the present embodiment. As shown in FIG. 8, the information processing system 100 includes a
図8に示すように、端末装置1A及び情報処理装置3は、ネットワークNを介して互いに通信可能に接続されている。ここで、端末装置1Aの例として、スマートフォン、PC(Personal Computer)、及びタブレットが挙げられ、情報処理装置3の例としてサーバが挙げられるが、これらは本実施形態を限定するものではない。
As shown in FIG. 8, the
また、ネットワークNの具体的構成は本実施形態を限定するものではないが、一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。 The specific configuration of the network N is not limited to this embodiment, but as an example, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, etc. Alternatively, a combination of these networks can be used.
本実施形態に係る情報処理システム100において、端末装置1Aは、端末装置1Aのユーザが対象者を撮像した動画像から抽出した対象者の骨格を、動画像における対象者に重畳して表示する。そして、情報処理装置3は、端末装置1Aから動画像を取得し、動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
In the information processing system 100 according to the present embodiment, the
本実施形態においても、実施形態1と同様に、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1Aのユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。
In the present embodiment as well, as in the first embodiment, the care recipient can be mentioned as an example of the subject, but this is not limited to the present embodiment. Further, as a user of the
(端末装置1A)
図9を参照して、本実施形態に係る端末装置1Aの構成例について説明する。図9は、本実施形態に係る情報処理システム100に含まれる端末装置1A及び情報処理装置3の構成例を示すブロック図である。図9に示すように、端末装置1Aは、実施形態1における端末装置1における制御部10に替えて制御部10Aを備え、通信部11をさらに備えている。
(
A configuration example of the
通信部11は、ネットワークNを介した通信を行うための通信モジュールである。通信部11は、制御部10Aから取得したデータを、ネットワークNを介して情報処理装置3に出力したり、ネットワークNを介して情報処理装置3から取得したデータを、制御部10Aに供給したりする。
The
(制御部10A)
制御部10Aは、端末装置1Aの各構成要素を制御する。また、制御部10Aは、取得部15、骨格抽出部16、表示部19、及び出力部20としても機能する。表示部19の機能は、実施形態1における表示部19と同じであるため、説明を省略する。
(
The
取得部15は、実施形態1における取得部15の機能に加えて、通信部11を介して情報処理装置3からデータを取得する。取得部15が取得するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。
In addition to the function of the
骨格抽出部16は、第1のアルゴリズムを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。実施形態1と同様に、第1のアルゴリズムは、第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。
The
また、骨格抽出部16は、第1のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。エラー情報については、実施形態1において説明した通りである。
Further, the
出力部20は、通信部11を介して情報処理装置3にデータを出力する。出力部20が出力するデータの例として、動画像及びエラー情報が挙げられるが、これらに限定されない。
The
(情報処理装置3)
図9に示すように、情報処理装置3は、制御部30、通信部31、及び記憶部34を備えている。
(Information processing device 3)
As shown in FIG. 9, the
通信部31は、ネットワークNを介した通信を行うための通信モジュールである。通信部31は、制御部30から取得したデータを、ネットワークNを介して端末装置1に出力したり、ネットワークNを介して端末装置1Aから取得したデータを、制御部30に供給したりする。
The
記憶部34は、後述する制御部30が参照する各種のデータが格納されている。一例として、記憶部34には、端末装置1Aから取得した動画像、導出されたパラメータなどが格納されている。
The
(制御部30)
制御部30は、情報処理装置3の各構成要素を制御する。一例として、制御部30は、通信部31を介して端末装置1Aから出力された動画像を取得したり、通信部31を介して生成したデータを出力したりする。
(Control unit 30)
The control unit 30 controls each component of the
また、制御部30は、図9に示すように、取得部35、骨格抽出部36、パラメータ導出部37、確度導出部38、及び出力部40としても機能する。
Further, as shown in FIG. 9, the control unit 30 also functions as an
取得部35は、通信部31を介して端末装置1Aからデータを取得する。取得部35が取得するデータの例として、動画像が挙げられるが、これに限定されない。
The
骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。第2のアルゴリズムによって抽出された対象者の骨格の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部37によって参照される。
The
また、骨格抽出部36は、第2のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。
Further, the
パラメータ導出部37は、上述したパラメータ導出部17と同様、骨格抽出部36が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータについては、実施形態1において説明した通りである。
Similar to the
確度導出部38は、上述した確度導出部18と同様、パラメータ導出部37が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
Similar to the
出力部40は、通信部31を介して端末装置1Aにデータを出力する。出力部40が出力するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。
The
(情報処理システム100における処理)
情報処理システム100における処理について、図10を用いて説明する。図4は、本実施形態に係る情報処理システム100における処理の流れを示すシーケンス図である。
(Processing in the information processing system 100)
The processing in the information processing system 100 will be described with reference to FIG. FIG. 4 is a sequence diagram showing a processing flow in the information processing system 100 according to the present embodiment.
(ステップS12~ステップS15)
端末装置1Aが動画像の取得を開始し、動画像の取得を終了するまでのステップS12~ステップS15の処理は、上述した処理と同じであるため、説明を省略する。
(Step S12 to Step S15)
Since the processes of steps S12 to S15 from the start of the acquisition of the moving image to the end of the acquisition of the moving image by the
(ステップS20)
ステップS20において、端末装置1Aの出力部20は、通信部11を介して、動画像を情報処理装置3に出力する。ここで、骨格抽出部16が第1の確度情報及びエラー情報の少なくとも何れかを生成している場合、出力部20は、動画像と共に、生成された第1の確度情報及びエラー情報の少なくとも何れかを出力してもよい。また、出力部20は、後述するパラメータ導出部37によるパラメータ導出処理のために、撮像部13のカメラパラメータ及び動画像の画像サイズなども出力してよい。
(Step S20)
In step S20, the
(ステップS21)
ステップS21において、情報処理装置3の取得部35は、通信部31を介して、端末装置1Aから動画像を取得する。
(Step S21)
In step S21, the
(ステップS22)
ステップS22において、骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。より具体的には、骨格抽出部36は、1又は複数の第2のアルゴリズムを用いて、動画像から対象者の骨格を抽出し、抽出した骨格を示す第2の骨格情報を生成する。また、骨格抽出部36は、端末装置1Aから第1の確度情報が出力されている場合、第1の確度情報を参照して、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する処理の詳細は、上述した通りである。また、ステップS22において骨格抽出部36は、エラー情報を生成してもよい。
(Step S22)
In step S22, the
(ステップS23)
ステップS23において、パラメータ導出部37は、ステップS22において実行された骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部37は、骨格抽出部36が生成した第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。パラメータ導出部37がパラメータを導出する処理の詳細については、上述した通りである。
(Step S23)
In step S23, the
(ステップS24)
ステップS24において、確度導出部38は、ステップS23において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部38は、ステップS20において端末装置1Aから出力されたエラー情報及びステップS22において生成されたエラー情報の少なくとも何れかを参照し、第2の確度情報を導出する。確度導出部38が第2の確度情報を導出する処理の詳細については、上述した通りである。
(Step S24)
In step S24, the
(ステップS25)
ステップS25において、出力部40は、ステップS23において導出されたパラメータと、ステップS24において導出された第2の確度情報とを、通信部31を介して端末装置1Aに出力する。
(Step S25)
In step S25, the
(ステップS26)
ステップS26において、端末装置1Aの取得部15は、通信部11を介して、情報処理装置3から出力されたパラメータ及び第2の確度情報を取得する。
(Step S26)
In step S26, the
(ステップS27)
ステップS27において、表示部19は、ステップS26において取得部15が取得したパラメータ及び第2の確度情報を含む動画像を、表示パネル12に表示する。ステップS27において表示部19が表示する画像の例として、上述した図6及び図7の画像が挙げられる。
(Step S27)
In step S27, the
このように、情報処理システム100における端末装置1Aは、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示する。また、情報処理装置3は、被写体として対象者を含む動画像を取得し、取得した動画像から第2のアルゴリズムを用いて抽出した骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、情報処理システム100では、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。
As described above, the
また、情報処理システム100における情報処理装置3は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、情報処理装置3は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。
Further, the
(端末装置1Aの物理的構成)
図11は、端末装置1A(1)及び情報処理装置3として用いられるコンピュータの物理的構成を例示したブロック図である。端末装置1Aは、図11に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104と、カメラ105、表示パネル106とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、通信インタフェース104、カメラ105、及び表示パネル106は、バス110を介して互いに接続されている。
(Physical configuration of
FIG. 11 is a block diagram illustrating the physical configuration of a computer used as the
プロセッサ101としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。
As the
主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。
As the
補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、上述した端末装置1Aの動作をプロセッサ101に実行させるためのプログラムが格納されている。プロセッサ101は、補助メモリ103に格納されたプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行する。
As the
通信インタフェース104は、ネットワークNに接続するインタフェースである。
The
カメラ105は、撮像部13を実現するハードウェア要素の一例である。
The
表示パネル106は、表示パネル12を実現するハードウェア要素の一例である。
The
この例で、プロセッサ101は制御部10Aを実現するハードウェア要素の一例である。また、主メモリ102及び補助メモリ103は、記憶部14を実現するハードウェア要素の一例である。また、通信インタフェース104は、通信部11を実現するハードウェア要素の一例である。
In this example, the
(情報処理装置3の物理的構成)
情報処理装置3は、図11に示すように、バス310と、プロセッサ301と、主メモリ302と、補助メモリ303と、通信インタフェース304とを備えたコンピュータによって構成可能である。プロセッサ301、主メモリ302、補助メモリ303、及び通信インタフェース104は、バス110を介して互いに接続されている。
(Physical configuration of information processing device 3)
As shown in FIG. 11, the
この例で、プロセッサ301は制御部30を実現するハードウェア要素の一例である。また、主メモリ302及び補助メモリ303は、記憶部34を実現するハードウェア要素の一例である。また、通信インタフェース304は、通信部31を実現するハードウェア要素の一例である。
In this example, the
〔ソフトウェアによる実現例〕
端末装置1、1A、及び情報処理装置3(以下、総称して「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部10、10A、及び30に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
[Example of implementation by software]
The functions of the
この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。 In this case, the device includes a computer having at least one control device (for example, a processor) and at least one storage device (for example, memory) as hardware for executing the program. By executing the above program by the control device and the storage device, each function described in each of the above embodiments is realized.
上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。 The program may be recorded on one or more computer-readable recording media rather than transiently. This recording medium may or may not be provided in the above-mentioned apparatus. In the latter case, the program may be supplied to the device via any wired or wireless transmission medium.
また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。 Further, some or all of the functions of the above control blocks can be realized by a logic circuit. For example, an integrated circuit in which a logic circuit functioning as each of the above control blocks is formed is also included in the category of the present invention. In addition to this, it is also possible to realize the function of each of the above control blocks by, for example, a quantum computer.
また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。 Further, each process described in each of the above embodiments may be executed by AI (Artificial Intelligence). In this case, the AI may be operated by the above-mentioned control device, or may be operated by another device (for example, an edge computer or a cloud server).
本発明の一実施例について以下に説明する。 An embodiment of the present invention will be described below.
三次元動作分析装置を用いて測定した対象者の歩行速度の実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した歩行速度の推定値と、の関係を示すグラフを、図12に示す。図12は、実施例1における推定値と実測値との関係を示すグラフである。 A graph showing the relationship between the measured value of the walking speed of the subject measured using the three-dimensional motion analysis device and the estimated value of the walking speed estimated using the gait analysis AI from the moving image of the subject walking. , FIG. 12. FIG. 12 is a graph showing the relationship between the estimated value and the actually measured value in Example 1.
図12における〇、△、及び×はそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図12に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、歩行速度の推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、歩行速度の推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
〇, Δ, and × in FIG. 12 indicate the following moving images, respectively.
Δ: There is a frame in which skeleton extraction failed during the period from the start of the moving image to the start of the motion, or from the end of the motion to the end of the motion image. Moving image with failed frames 〇: Moving image with no frame that failed to extract the skeleton As shown in Fig. 12, if there is a frame that failed to extract the skeleton in the moving image during operation, the estimated walking speed is reliable. It was found that the degree was low (the deviation of the estimated value from the measured value was large). On the other hand, when there is a frame in which the skeleton extraction fails in the period from the start of the moving image to the start of the motion, or from the end of the motion to the end of the moving image, or when there is no frame in which the skeleton extraction fails. It was found that the estimated walking speed was highly reliable (the deviation of the estimated value from the measured value was small).
本発明の他の実施例について以下に説明する。 Other embodiments of the present invention will be described below.
三次元動作分析装置を用いて測定した頭部のふらつきの実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した頭部のふらつきの推定値と、の関係を示すグラフを、図13に示す。図13は、実施例2における推定値と実測値との関係を示すグラフである。 A graph showing the relationship between the measured value of head wobbling measured using a three-dimensional motion analyzer and the estimated value of head wobbling estimated using gait analysis AI from a moving image of a subject walking. Is shown in FIG. FIG. 13 is a graph showing the relationship between the estimated value and the actually measured value in Example 2.
図13における〇、△、及び×もそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図13に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、頭部のふらつきの推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、頭部のふらつきの推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
〇, Δ, and × in FIG. 13 also show the following moving images, respectively.
Δ: There is a frame in which skeleton extraction failed during the period from the start of the moving image to the start of the motion, or from the end of the motion to the end of the motion image. Moving image with failed frames 〇: Moving image with no frame that failed to extract the skeleton As shown in Fig. 13, if there is a frame that failed to extract the skeleton in the moving image during operation, the estimated value of head wobbling. Was found to have low reliability (large deviation of the estimated value from the measured value). On the other hand, when there is a frame in which the skeleton extraction fails in the period from the start of the moving image to the start of the operation, or from the end of the operation to the end of the moving image, or when there is no frame in which the skeleton extraction fails. It was found that the estimated value of head wobbling is highly reliable (the deviation of the estimated value from the measured value is small).
[まとめ]
各実施形態の一態様に係る情報処理方法は、被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出ステップと、前記パラメータ導出ステップにおいて導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出ステップと、を含む。
[summary]
In the information processing method according to one embodiment of each embodiment, a skeleton extraction process for extracting the skeleton of the subject from a moving image including the subject as a subject is executed, and the result of the skeleton extraction process is referred to to the subject. Of the plurality of frames included in the moving image, the skeleton extraction by the skeleton extraction process can obtain the accuracy information indicating the accuracy of the parameter derived in the parameter derivation step and the parameter derivation step for deriving the parameters related to the movement of the body. Includes an accuracy derivation step, which derives according to the failed frame.
上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.
各実施形態の一態様に係る情報処理方法において、前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームの数に応じて、前記確度情報を導出することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the accuracy derivation step, it is preferable to derive the accuracy information according to the number of frames in which the skeleton extraction by the skeleton extraction process has failed.
上記構成によれば、骨格抽出に失敗したフレームが多い場合、信頼度が低いことをユーザに通知することができる。 According to the above configuration, when there are many frames in which the skeleton extraction fails, it is possible to notify the user that the reliability is low.
各実施形態の一態様に係る情報処理方法において、前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置に応じて、前記確度情報を導出することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the accuracy derivation step, it is preferable to derive the accuracy information according to the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails.
上記構成によれば、対象者の動作中に骨格抽出に失敗したフレームがある場合、信頼度が低いことをユーザに通知することができる。 According to the above configuration, if there is a frame in which the skeleton extraction fails during the operation of the target person, it is possible to notify the user that the reliability is low.
各実施形態の一態様に係る情報処理方法において、前記確度導出ステップでは、前記骨格抽出処理による骨格抽出が失敗したフレームにおいて、骨格が抽出されなかった部位に応じて、前記確度情報を導出することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the accuracy derivation step, in the frame in which the skeleton extraction by the skeleton extraction process fails, the accuracy information is derived according to the portion where the skeleton was not extracted. Is preferable.
上記構成によれば、対象者の動作に関係した部位の骨格抽出に失敗したフレームがある場合、信頼度が低いことをユーザに通知することができる。 According to the above configuration, when there is a frame in which the skeleton extraction of the portion related to the movement of the target person fails, it is possible to notify the user that the reliability is low.
各実施形態の一態様に係る情報処理方法は、前記確度導出ステップにおいて導出された確度情報が示す確度を表示する表示ステップを更に含むことが好ましい。 It is preferable that the information processing method according to one embodiment of each embodiment further includes a display step for displaying the accuracy indicated by the accuracy information derived in the accuracy derivation step.
上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.
各実施形態の一態様に係る情報処理方法において、前記表示ステップでは、前記確度導出ステップにおいて導出された確度情報が示す確度に応じて、確度を表示する態様を変更することが好ましい。 In the information processing method according to one aspect of each embodiment, in the display step, it is preferable to change the mode of displaying the accuracy according to the accuracy indicated by the accuracy information derived in the accuracy derivation step.
上記構成によれば、対象者の身体の動作の評価の信頼度が低い場合、ユーザに適切に通知することができる。 According to the above configuration, when the reliability of the evaluation of the body movement of the subject is low, the user can be appropriately notified.
各実施形態の一態様に係る情報処理方法において、前記表示ステップでは、前記確度導出ステップにおいて導出された確度情報が示す確度が所定の値より低い場合、再度、動画像を撮影するよう促すメッセージを表示することが好ましい。 In the information processing method according to one embodiment of each embodiment, in the display step, when the accuracy indicated by the accuracy information derived in the accuracy derivation step is lower than a predetermined value, a message prompting the user to take a moving image again is displayed. It is preferable to display it.
上記構成によれば、対象者の身体の動作の評価の信頼度が低い場合、ユーザに再度の撮影を促すことができる。 According to the above configuration, if the reliability of the evaluation of the body movement of the subject is low, the user can be prompted to take a picture again.
各実施形態の一態様に係る情報処理装置は、被写体として対象者を含む動画像から前記対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、前記対象者の身体の動作に関するパラメータを導出するパラメータ導出部と、前記パラメータ導出部が導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出部と、を備える。 The information processing apparatus according to one embodiment of each embodiment executes a skeleton extraction process for extracting the skeleton of the subject from a moving image including the subject as a subject, and refers to the result of the skeleton extraction process to refer to the subject. Of the plurality of frames included in the moving image, the skeleton extraction by the skeleton extraction process can obtain the accuracy information indicating the accuracy of the parameters derived by the parameter derivation unit and the parameter derivation unit for deriving the parameters related to the movement of the body. It is provided with an accuracy derivation unit for deriving according to a failed frame.
上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.
各実施形態の一態様に係るプログラムは、上述した情報処理装置としてコンピュータを機能させるためのプログラムであって、上記パラメータ導出部及び上記確度導出部としてコンピュータを機能させる。 The program according to one aspect of each embodiment is a program for operating a computer as the above-mentioned information processing apparatus, and causes the computer to function as the parameter derivation unit and the accuracy derivation unit.
上記構成によれば、対象者の身体の動作の評価の信頼度をユーザに通知することができる。 According to the above configuration, it is possible to notify the user of the reliability of the evaluation of the body movement of the subject.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.
1、1A 端末装置
3 情報処理装置
10、10A、30 制御部
11、31 通信部
12 表示パネル
13 撮像部
14、34 記憶部
15、35 取得部
16、36 骨格抽出部
17、37 パラメータ導出部
18、38 確度導出部
19 表示部
20、40 出力部
100 情報処理システム
1,
Claims (9)
前記パラメータ導出ステップにおいて導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出ステップと、
を含み、
前記パラメータ導出ステップでは、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗しなかったフレームにおける前記骨格抽出処理の結果を少なくとも参照して、前記パラメータを導出する、情報処理方法。 A parameter derivation step of executing a skeleton extraction process for extracting the skeleton of the target person from a moving image including the target person as a subject and deriving parameters related to the body movement of the target person by referring to the result of the skeleton extraction process. ,
The accuracy derivation step of deriving the accuracy information indicating the accuracy of the parameters derived in the parameter derivation step according to the frame in which the skeleton extraction by the skeleton extraction process fails among the plurality of frames included in the moving image.
Including
In the parameter derivation step, the parameter is derived by at least referring to the result of the skeleton extraction process in the frame in which the skeleton extraction by the skeleton extraction process did not fail among the plurality of frames included in the moving image. Information processing method.
請求項1に記載の情報処理方法。 The information processing method according to claim 1, wherein in the accuracy derivation step, the accuracy information is derived according to the number of frames in which the skeleton extraction by the skeleton extraction process fails.
請求項1または2に記載の情報処理方法。 The information processing method according to claim 1 or 2, wherein in the accuracy derivation step, the accuracy information is derived according to the temporal position of the frame in which the skeleton extraction by the skeleton extraction process fails.
請求項1~3の何れか1項に記載の情報処理方法。 The information according to any one of claims 1 to 3 for deriving the accuracy information according to the portion where the skeleton was not extracted in the frame in which the skeleton extraction by the skeleton extraction process failed in the accuracy derivation step. Processing method.
請求項5に記載の情報処理方法。 The information processing method according to claim 5, wherein in the display step, the mode of displaying the accuracy is changed according to the accuracy indicated by the accuracy information derived in the accuracy derivation step.
請求項6に記載の情報処理方法。 The information processing method according to claim 6, wherein in the display step, when the accuracy indicated by the accuracy information derived in the accuracy derivation step is lower than a predetermined value, a message prompting the user to take a moving image again is displayed.
前記パラメータ導出部が導出したパラメータの確度を示す確度情報を、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する確度導出部と、
を備え、
前記パラメータ導出部は、前記動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗しなかったフレームにおける前記骨格抽出処理の結果を少なくとも参照して、前記パラメータを導出する、情報処理装置。 A parameter derivation unit that executes a skeleton extraction process that extracts the skeleton of the target person from a moving image including the target person as a subject, and derives parameters related to the body movement of the target person by referring to the result of the skeleton extraction process. ,
An accuracy derivation unit that derives accuracy information indicating the accuracy of the parameters derived by the parameter derivation unit according to a frame in which the skeleton extraction by the skeleton extraction process fails among a plurality of frames included in the moving image.
Equipped with
The parameter derivation unit derives the parameter by at least referring to the result of the skeleton extraction process in the frame in which the skeleton extraction by the skeleton extraction process did not fail among the plurality of frames included in the moving image. Information processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148074A JP7042956B1 (en) | 2021-09-10 | 2021-09-10 | Information processing methods, information processing devices, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148074A JP7042956B1 (en) | 2021-09-10 | 2021-09-10 | Information processing methods, information processing devices, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7042956B1 true JP7042956B1 (en) | 2022-03-28 |
JP2023040883A JP2023040883A (en) | 2023-03-23 |
Family
ID=81214520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148074A Active JP7042956B1 (en) | 2021-09-10 | 2021-09-10 | Information processing methods, information processing devices, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7042956B1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120052942A1 (en) * | 2010-08-31 | 2012-03-01 | Microsoft Corporation | User Selection and Navigation Based on Looped Motions |
US20160335486A1 (en) * | 2015-05-13 | 2016-11-17 | Intel Corporation | Detection, tracking, and pose estimation of an articulated body |
US20190251341A1 (en) * | 2017-12-08 | 2019-08-15 | Huawei Technologies Co., Ltd. | Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium |
CN110363140A (en) * | 2019-07-15 | 2019-10-22 | 成都理工大学 | A kind of human action real-time identification method based on infrared image |
JP2021039687A (en) * | 2019-09-05 | 2021-03-11 | 株式会社日立製作所 | Video processing device, video processing system, and video processing method |
US20210166459A1 (en) * | 2018-05-01 | 2021-06-03 | Magic Leap, Inc. | Avatar animation using markov decision process policies |
JP6887586B1 (en) * | 2020-07-03 | 2021-06-16 | 三菱電機株式会社 | Behavior identification device, behavior identification method and behavior identification program |
JP2021132267A (en) * | 2020-02-18 | 2021-09-09 | 株式会社日立製作所 | Video monitoring system and video monitoring method |
-
2021
- 2021-09-10 JP JP2021148074A patent/JP7042956B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120052942A1 (en) * | 2010-08-31 | 2012-03-01 | Microsoft Corporation | User Selection and Navigation Based on Looped Motions |
US20160335486A1 (en) * | 2015-05-13 | 2016-11-17 | Intel Corporation | Detection, tracking, and pose estimation of an articulated body |
US20190251341A1 (en) * | 2017-12-08 | 2019-08-15 | Huawei Technologies Co., Ltd. | Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium |
US20210166459A1 (en) * | 2018-05-01 | 2021-06-03 | Magic Leap, Inc. | Avatar animation using markov decision process policies |
CN110363140A (en) * | 2019-07-15 | 2019-10-22 | 成都理工大学 | A kind of human action real-time identification method based on infrared image |
JP2021039687A (en) * | 2019-09-05 | 2021-03-11 | 株式会社日立製作所 | Video processing device, video processing system, and video processing method |
JP2021132267A (en) * | 2020-02-18 | 2021-09-09 | 株式会社日立製作所 | Video monitoring system and video monitoring method |
JP6887586B1 (en) * | 2020-07-03 | 2021-06-16 | 三菱電機株式会社 | Behavior identification device, behavior identification method and behavior identification program |
Also Published As
Publication number | Publication date |
---|---|
JP2023040883A (en) | 2023-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10297076B2 (en) | Apparatus and method for generating 3D face model using mobile device | |
US10559062B2 (en) | Method for automatic facial impression transformation, recording medium and device for performing the method | |
JP5067418B2 (en) | Subject tracking program, subject tracking device, and camera | |
CN113973190A (en) | Video virtual background image processing method and device and computer equipment | |
CN111626105B (en) | Gesture estimation method and device and electronic equipment | |
US20150002518A1 (en) | Image generating apparatus | |
CN110751728B (en) | Virtual reality equipment with BIM building model mixed reality function and method | |
CN109002248B (en) | VR scene screenshot method, equipment and storage medium | |
JP2018207252A (en) | Image processing system, control method for image processing system, and program | |
WO2015154359A1 (en) | Method and device for implementing photographing | |
JP7042956B1 (en) | Information processing methods, information processing devices, and programs | |
JP7047176B1 (en) | Terminal devices, information processing methods, information processing systems, and programs | |
JP2015026894A (en) | Imaging program, imaging method and information processing device | |
JP2019179481A (en) | Computer program and portable terminal device | |
KR102126370B1 (en) | Apparatus and method for analyzing motion | |
US20200226787A1 (en) | Information processing apparatus, information processing method, and program | |
CN111028322A (en) | Game animation expression generation method and device and electronic equipment | |
JP2021077218A (en) | Information processing device, information processing method, and information processing program | |
CN107667522A (en) | Adjust the length of live image | |
US20220070365A1 (en) | Mixed reality image capture and smart inspection | |
WO2019061020A1 (en) | Image generation method, image generation device, and machine readable storage medium | |
JP2024501161A (en) | 3D localization of objects in images or videos | |
JP7462869B2 (en) | Information processing method, information processing device, and program | |
CN111510635B (en) | Cloud deck fault determination method and device, storage medium and electronic device | |
CN115311472A (en) | Motion capture method and related equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210910 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042956 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |