JP2023040882A - Terminal device, information processing method, information processing system, and program - Google Patents
Terminal device, information processing method, information processing system, and program Download PDFInfo
- Publication number
- JP2023040882A JP2023040882A JP2021148073A JP2021148073A JP2023040882A JP 2023040882 A JP2023040882 A JP 2023040882A JP 2021148073 A JP2021148073 A JP 2021148073A JP 2021148073 A JP2021148073 A JP 2021148073A JP 2023040882 A JP2023040882 A JP 2023040882A
- Authority
- JP
- Japan
- Prior art keywords
- skeleton
- subject
- unit
- moving image
- accuracy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 59
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000033001 locomotion Effects 0.000 claims abstract description 66
- 238000009795 derivation Methods 0.000 claims abstract description 55
- 238000000605 extraction Methods 0.000 claims description 151
- 238000012545 processing Methods 0.000 claims description 45
- 239000000284 extract Substances 0.000 claims description 13
- 238000004891 communication Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 210000002414 leg Anatomy 0.000 description 14
- 238000000034 method Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 8
- 230000005021 gait Effects 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Abstract
Description
本発明は、端末装置、情報処理方法、情報処理システム、及びプログラムに関する。 The present invention relates to a terminal device, an information processing method, an information processing system, and a program.
歩行している対象者を含む動画像から、対象者の歩容を解析する技術において、解析の精度を高くすることを目的とした技術が知られている。特許文献1には、撮影時における撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得し、撮影画像に状況情報を表す状況画像を含めた合成画像を出力する端末が開示されている。
Among techniques for analyzing a subject's gait from a moving image including a walking subject, there is known a technique for increasing the accuracy of analysis.
ところで、歩容解析することによって、対象者の歩行を評価する技術も知られている。当該技術では、撮影している動画像が歩容解析に適しているか否かをユーザに通知するため、抽出した対象者の骨格を対象者に重畳し、表示することが知られている。ここで、撮影中に歩容解析のための骨格抽出を行うと、骨格抽出する処理の速さが要求されるため、骨格抽出の精度が低くなり、対象者の歩行を適切に評価できなくなる。一方、骨格抽出を撮影後に行うと、被写体を撮影するユーザに対して、歩容解析のために適切な動画像が撮影できているか否かを通知できないという問題がある。 By the way, there is also known a technique for evaluating the walking of a subject by analyzing the gait. In this technology, it is known to superimpose and display the extracted skeleton of the target person on the target person in order to notify the user whether or not the captured moving image is suitable for gait analysis. Here, if skeleton extraction for gait analysis is performed during photographing, the speed of skeleton extraction processing is required, and the accuracy of skeleton extraction becomes low, making it impossible to appropriately evaluate the gait of the subject. On the other hand, when skeleton extraction is performed after photographing, there is a problem that it is not possible to notify the user photographing the subject whether or not a suitable moving image for gait analysis has been photographed.
本発明の一態様は、対象者を撮影するユーザに適切な動画像が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することを目的とする。 An object of one aspect of the present invention is to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.
上記の課題を解決するために、本発明の一態様に係る端末装置は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、を備える端末装置。 In order to solve the above problems, a terminal device according to an aspect of the present invention extracts a skeleton of a target person using a first algorithm from a moving image including the target person as a subject. With reference to the skeleton of the subject extracted from the moving image using a display unit that is superimposed on the subject and one or more second algorithms different from the first algorithm, the subject's skeleton and a derivation unit for deriving parameters related to body motion.
本発明の一態様によれば、対象者を撮影するユーザに適切な動画像が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to one aspect of the present invention, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.
〔実施形態1〕
以下、本発明の一実施形態について説明する。
[Embodiment 1]
An embodiment of the present invention will be described below.
(端末装置1の概要)
図1を参照して、本実施形態に係る端末装置1の構成例について説明する。図1は、本実施形態に係る端末装置1の構成例を示すブロック図である。
(Overview of terminal device 1)
A configuration example of a
本実施形態に係る端末装置1は、被写体として対象者を含む動画像を撮影し、当該動画像を参照し、以下の処理を行う。
・対象者の骨格を抽出し、抽出した対象者の骨格を、動画像における対象者に重畳して表示する
・対象者の動作に関するパラメータを導出する
・導出したパラメータの確度を示す確度情報を導出する
ここで、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1のユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。
The
・Extract the target person's skeleton and display the extracted target person's skeleton superimposed on the target person in the moving image ・Deriving parameters related to the target person's movement ・Deriving accuracy information indicating the accuracy of the derived parameters Here, although a cared person is mentioned as an example of the subject, this does not limit the present embodiment. Further, the user of the
(端末装置1の構成)
端末装置1は、図1に示すように、制御部10、表示パネル12、撮像部13、及び記憶部14を備えている。
(Configuration of terminal device 1)
The
表示パネル12は、後述する制御部10から供給されるデータを表示するディスプレイである。一例として、表示パネル12は、対象者の骨格を当該対象者に重畳した動画像を表示する。
The
撮像部13は、動画像を撮像可能なカメラである。一例として、撮像部13は、当該撮像部13の画角に対象者が含まれるよう、ユーザによって向けられる。そして撮像部13は、対象者が所定の動作(歩行、及び腕上げなど)を実行している様子を撮像し、被写体として当該対象者を含む動画像を生成する。撮像部13は、撮像によって得られた動画像を後述する制御部10に供給する。
The
記憶部14は、後述する制御部10が参照する各種のデータが格納されている。一例として、記憶部14には、撮像部13によって撮像された動画像、及び後述する対象者の骨格を示す骨格情報などが格納されている。
The
(制御部10)
制御部10は、端末装置1の各構成要素を制御する。一例として、制御部10は、撮像部13によって撮像された動画像を取得したり、表示パネル12に表示する動画像データを供給したりする。
(control unit 10)
The
また、制御部10は、図1に示すように、取得部15、骨格抽出部16、パラメータ導出部17(導出部)、確度導出部18、及び表示部19としても機能する。
The
取得部15は、撮像部13によって撮像された動画像を取得する。取得部15は、取得した動画像を、記憶部14に格納する。
骨格抽出部16は、第1のアルゴリズムと、1又は複数の第2のアルゴリズムとを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。
The
ここで、第1のアルゴリズム及び第2のアルゴリズムは、対象者の骨格を抽出するアルゴリズムである。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。そのため、第1のアルゴリズムは、後述する第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。より具体的には、第1のアルゴリズムは、映像のリフレッシュレート(30fpsまたは60fps)より速いことが好ましい。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。
Here, the first algorithm and the second algorithm are algorithms for extracting the subject's skeleton. The skeleton of the subject extracted by the first algorithm is referred to in real time by the
第2のアルゴリズムによって抽出された対象者の骨格抽出処理の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部17によって参照される。詳細は後述するものの、1又は複数の第2のアルゴリズムによる骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。
The result of the target person's skeleton extraction process extracted by the second algorithm is referred to by the
また、骨格抽出部16は、複数のアルゴリズム候補から、1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。例えば、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、1又は複数の第2のアルゴリズムを選択してもよい。骨格抽出部16が1又は複数の第2のアルゴリズムを選択する処理の具体例については、後述する。
Further, the
また、骨格抽出部16は、第1のアルゴリズム及び第2のアルゴリズムの少なくとも何れかを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成する。
Further, the
骨格抽出に失敗したフレームとは、第1のアルゴリズム又は第2のアルゴリズムを用いた骨格抽出の際に、骨格が抽出されなかったフレーム、又は適切に骨格が抽出されていないと考えられるフレームである。具体的な例として、
・骨格抽出処理が完了しなかったため、骨格抽出処理の戻り値を取得できなかったフレーム
・骨格抽出処理は完了したが、骨格抽出処理の戻り値が、所定の範囲外の値(外れ値)になっていたフレーム
が挙げられるが、これらに限定されない。
Frames for which skeleton extraction failed are frames for which skeletons were not extracted, or frames whose skeletons were not properly extracted during skeleton extraction using the first algorithm or the second algorithm. . As a concrete example,
- A frame for which the return value of the skeleton extraction process could not be acquired because the skeleton extraction process was not completed - The skeleton extraction process was completed, but the return value of the skeleton extraction process was a value outside the specified range (outlier) Examples include, but are not limited to, frames that have been used.
エラー情報の例として、
・骨格抽出を失敗したフレームの数を示す情報
・骨格抽出を失敗したフレームの時間的な位置(骨格抽出を失敗したフレームが撮影された日時、又は動画像撮影開始からの経過時間など)を示す情報
・骨格抽出に失敗したフレームにおいて、骨格抽出できなかった部位を示す情報
などが挙げられるが、これらに限定されない。
As an example of error information,
・Information indicating the number of frames for which skeleton extraction has failed ・Indicates the temporal position of the frame for which skeleton extraction has failed (the date and time when the frame for which skeleton extraction failed was captured, or the elapsed time from the start of moving image shooting, etc.) Information/In a frame for which skeleton extraction has failed, the information may include, but is not limited to, information indicating a region for which skeleton extraction could not be performed.
パラメータ導出部17は、骨格抽出部16が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部17は、骨格抽出部16が第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を示す第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータとは、対象者が動作を行った際に、当該動作をどの程度実行できたかを示すパラメータである。対象者の身体の動作に関するパラメータの例として、対象者が歩く、腕を上げる、及び立ち上がるといった動作を行った際の
・動作を行う速度
・動作を行うリズム
・動作を行う際の身体のふらつき
・動作の左右差
などが挙げられるが、これらに限定されない。パラメータ導出部17がパラメータを導出する処理の具体例については、後述する。
The
確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部18は、パラメータ導出部17が導出したパラメータの確度を示す第2の確度情報を、骨格抽出部16が生成したエラー情報を参照して導出する。パラメータの確度とは、当該パラメータの確かさの度合いであり、当該パラメータの確度が高い程、パラメータの信頼度が高いことを示す。確度導出部18が第2の確度情報を導出する処理の具体例については、後述する。
The
表示部19は、表示パネル12に表示する動画像データを生成する。具体的には、表示部19は、骨格抽出部16が生成した第1の骨格情報を参照し、第1の骨格情報が示す骨格を、取得部15が取得した動画像における対象者に重畳して、表示パネル12に表示する。また、表示部19は、確度導出部18が導出した第2の確度情報を参照し、第2の確度情報が示す確度を表示パネル12に表示する。
The
(端末装置1による処理)
端末装置1による処理について、図2を用いて説明する。図2は、本実施形態に係る端末装置1による処理の流れを示すシーケンス図である。
(Processing by terminal device 1)
Processing by the
(ステップS12)
ステップS12において、取得部15は、撮像部13を介して、被写体として対象者を含む動画像の取得を開始する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を開始する旨を示す情報を取得すると、撮像部13を介して動画像の取得を開始する。
(Step S12)
In step S<b>12 , the acquiring
(ステップS13)
ステップS13において、骨格抽出部16は、ステップS12において取得部15が取得した動画像から、第1のアルゴリズムを用いて対象者の骨格を抽出する。骨格抽出部16は、抽出した骨格を示す第1の骨格情報を、表示部19に供給する。また、ステップS13において、骨格抽出部16は、抽出した骨格の確からしさを示す第1の確度情報及び骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。この場合、骨格抽出部16は、第1の確度情報を表示部19に供給し、エラー情報を確度導出部18に供給する。
(Step S13)
In step S13, the
(ステップS14)
ステップS14において、表示部19は、ステップS13において骨格抽出部16が供給した第1の骨格情報が示す骨格を動画像における対象者に重畳した動画像を示す動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S14)
In step S14, the
(表示部19が表示する動画像の例1)
表示部19が表示パネル12に表示する動画像の一例について、図3を用いて説明する。図3は、本実施形態に係る表示部19が表示パネル12に表示する動画像の一例を示す図である。
(Example 1 of moving image displayed by display unit 19)
An example of a moving image displayed on the
表示部19は、第1の骨格情報が示す骨格のうち、関節を対象者に重畳して表示パネル12に表示する。例えば、図3に示すように、表示部19は、関節を示す点JT1、点JT2、及び点JT3等を対象者TPに重畳して表示パネル12に表示する。また、表示部19は、隣接する関節(例えば、図3における点JT1、点JT2)を線で結び、対象者TPに重畳して表示パネル12に表示する。換言すると、表示部19は、第1のアルゴリズムを用いた骨格抽出において、抽出されなかった骨格は表示パネル12に表示しない。当該構成により、端末装置1は、対象者を撮影しているユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。
The
ここで、撮影している動画像に含まれる対象者TPの骨格が抽出されているか否かをユーザに通知するためには、骨格抽出の処理が速い方が好ましい。そのため、上述したように、第1の骨格情報が示す骨格を抽出する第1のアルゴリズムは、第2のアルゴリズムよりも抽出処理が速いアルゴリズムであることが好ましい。この構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像が対象者の骨格抽出に適した動画像であるかどうかを通知することができる。
Here, in order to notify the user whether or not the skeleton of the target person TP included in the captured moving image has been extracted, the faster the skeleton extraction process, the better. Therefore, as described above, the first algorithm for extracting the skeleton indicated by the first skeleton information is preferably an algorithm with faster extraction processing than the second algorithm. With this configuration, the
(表示部19が表示する動画像の例2)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報を取得し、取得した第1の確度情報に応じて、対象者に重畳する骨格の表示態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図4を用いて説明する。図4は、本実施形態に係る表示部19が表示パネル12に表示する動画像の他の例を示す図である。
(Example 2 of moving image displayed by display unit 19)
When the
図4に示すように、表示部19は、上述した図3と同様、関節を示す点JT2、点JT3、及び点JT4等を対象者TPに重畳して表示パネル12に表示する。ここで、対象者TPの左膝における第1の確度情報が示す確度が所定の値より低い場合、表示部19は、図4に示すように、左膝を示す点JT4の態様を、他の関節を示す表示の態様(形が丸)とは異なる態様(形が三角)に変更し、表示する。当該構成により、端末装置1は、撮影中のユーザに対して、撮影している動画像における対象者の骨格のうち、何れの骨格を確度高く抽出できているかを通知することができる。
As shown in FIG. 4, the
表示部19が表示態様を異ならせる構成は、形を異ならせる構成以外にも、例えば、
・第1の確度情報に応じて骨格を示す表示の色を異ならせる
・第1の確度情報に応じて骨格を示す表示の色の濃淡を異ならせる
・第1の確度情報に応じて骨格を示す表示の大きさを異ならせる
などが挙げられるが、これらに限定されない。
In addition to the configuration in which the
- The color of the skeleton display is changed according to the first accuracy information. - The display color of the skeleton is changed in shade according to the first accuracy information. - The skeleton is shown according to the first accuracy information. Examples include, but are not limited to, different display sizes.
(表示部19が表示する動画像の例3)
骨格抽出部16が第1の確度情報を表示部19に供給した場合、表示部19は、第1の確度情報が示す確度が所定の値より低い場合、確度が高くなるように被写体を撮影することを促す表示を行う構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図5を用いて説明する。図5は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 3 of moving image displayed by display unit 19)
When the
例えば、動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全て又は一部の骨格において低い場合、図5に示すように、表示部19は、確度が高くなるように被写体を撮影することを促す表示DP1を表示する。表示DP1は、「対象者がもう少し大きく映るように撮影してください」というテキストが含まれている。当該構成により、端末装置1は、撮影中のユーザに対して、どのように撮影すれば対象者の骨格抽出の確度を高くできるのかを通知することができる。
For example, if the accuracy indicated by the first accuracy information is low for all or part of the skeleton because the target person included in the moving image is small, the
確度が高くなるように被写体を撮影することを促す表示の例として、
・動画像に含まれる対象者が小さいため、第1の確度情報が示す確度が全ての骨格において低い場合、「画角を狭くしてください」と表示する
・動画像に含まれる対象者が左側に寄っているため、対象者の左側の骨格における第1の確度情報が示す確度が低い場合、「もう少し左側を撮影してください」と表示する
などが挙げられるが、これらに限定されない。
As an example of a display prompting you to shoot the subject so that the accuracy is high,
・Because the target person included in the moving image is small, if the accuracy indicated by the first accuracy information is low for all skeletons, “Please narrow the angle of view” is displayed. ・The target person included in the moving image is on the left side. Therefore, when the accuracy indicated by the first accuracy information for the skeleton on the left side of the subject is low, a message such as "Please shoot the left side a little more" is displayed, but is not limited to these.
また、表示部19は、確度が高くなるように被写体を撮影することを促す表示を、骨格抽出部16が抽出した部位の数が、所定の数よりも小さい場合に表示する構成であってもよい。より具体的には、表示部19は、骨格抽出部16が供給した第1の骨格情報が示す部位を参照し、当該部位の数が、所定の数よりも小さい場合、確度が高くなるように被写体を撮影することを促す表示を行ってもよい。
Further, even if the
再び図2を参照し、端末装置1による処理のステップS15以降について説明する。
With reference to FIG. 2 again, the processing after step S15 of the
(ステップS15)
ステップS15において、取得部15は、撮像部13を介した動画像の取得を終了する。例えば、取得部15は、端末装置1のユーザからの操作を受け付ける操作受付部(不図示)から、撮影を終了する旨を示す情報を取得すると、撮像部13を介しての動画像の取得を終了する。
(Step S15)
In step S<b>15 , the
(ステップS16)
ステップS16において、骨格抽出部16は、ステップS12~ステップS15において取得部15が取得した動画像から、第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する。ステップS16において、骨格抽出部16は、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出してもよい。また、ステップS13において骨格抽出部16がエラー情報を生成していない場合、ステップS16において、骨格抽出部16はエラー情報を生成してもよい。
(Step S16)
In step S16, the
(骨格抽出部16による第2のアルゴリズム選択処理例)
骨格抽出部16による第2のアルゴリズム選択処理例について、以下に説明する。
(Example of Second Algorithm Selection Processing by Skeleton Extraction Unit 16)
A second example of algorithm selection processing by the
骨格抽出部16が複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する構成では、複数のアルゴリズム候補は、それぞれ、抽出する部位、抽出の精度、及び抽出の速度といった特性が異なっていてもよい。この場合、骨格抽出部16は、第1のアルゴリズムを用いて抽出した対象者の骨格を参照して、特性に応じたアルゴリズムを選択してもよい。
In a configuration in which the
一例として、複数のアルゴリズム候補がそれぞれ抽出する骨格の部位が異なる場合、骨格抽出部16は、抽出する骨格の部位に応じて、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する。この場合、骨格抽出部16は、第1のアルゴリズムによって抽出された対象者の骨格を参照し、第1のアルゴリズムにおいて抽出された骨格の部位を抽出することができるアルゴリズムを、複数のアルゴリズム候補から選択する。例えば、第1のアルゴリズムによって対象者の脚部が抽出された場合、骨格抽出部16は、脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。
As an example, when a plurality of algorithm candidates extract different skeletal parts, the
さらに、骨格抽出部16は、期間に応じて複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、ある期間において第1のアルゴリズムによって対象者の脚部が抽出され、当該ある期間とは異なる期間において第1のアルゴリズムによって対象者の腕部が抽出された場合、骨格抽出部16は、ある期間においては脚部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択し、異なる期間においては腕部を抽出することができるアルゴリズムを複数のアルゴリズム候補から選択する。
Further, the
また、骨格抽出部16は、ユーザからの指示を参照し、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択してもよい。例えば、歩く速度が加速する期間と、歩く速度が減速する期間とが動画像に含まれる場合、ユーザは、歩く速度が加速する期間と、歩く速度が減速する期間とのそれぞれに、加速期間であることを示すアノテーションと減速期間であることを示すアノテーションを当該動画像に付加する。骨格抽出部16は、当該アノテーションを参照し、歩く速度が加速する期間においては、歩く速度が加速する動きに適した1又は複数の第2のアルゴリズムを選択し、歩く速度が減速する期間において、歩く速度が減速する動きに適した1又は複数の第2のアルゴリズムを選択する構成であってもよい。または、骨格抽出部16は、期間及び部位に対して、何れの1又は複数の第2のアルゴリズムを選択するか、ユーザから直接指示される構成であってもよい。
Further, the
このように、骨格抽出部16が第2のアルゴリズムを選択することにより、高い精度で対象者の骨格を抽出することができる。
By selecting the second algorithm by the
(ステップS17)
ステップS17において、パラメータ導出部17は、ステップS16において抽出された対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。
(Step S17)
In step S17, the
(パラメータ導出部17によるパラメータ導出処理例)
パラメータ導出部17によるパラメータ導出処理例について、以下に説明する。
(Example of parameter derivation processing by parameter derivation unit 17)
An example of parameter derivation processing by the
例えば、パラメータ導出部17は、第2のアルゴリズムを用いて抽出した、歩行中の対象者の骨格を参照し、対象者の歩行に関するパラメータを導出する。より具体的には、骨格抽出部16から取得した第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者が歩行する速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者が歩行する速度が所定の値より大きい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が速いことを示すパラメータに設定する。一方、対象者が歩行する速度が所定の値より小さい場合、パラメータ導出部17は、歩行を行う速度のパラメータを、速度が遅いことを示すパラメータに設定する。
For example, the
他の例として、第2の骨格情報が対象者の右脚及び左脚が抽出されたことを示し、右脚及び左脚が、対象者が歩行していることを示す場合、パラメータ導出部17は、対象者の右脚と左脚とがそれぞれ動く速度を算出する。パラメータ導出部17は、算出された速度に応じて、パラメータを導出する。例えば、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より小さい場合、パラメータ導出部17は、左右差のパラメータを、左右差がないことを示すパラメータに設定する。一方、対象者の右脚が動く速度と、対象者の左脚の動く速度との差が所定の値より大きい場合、パラメータ導出部17は、左右差のパラメータを、左右差があることを示すパラメータに設定する。
As another example, when the second skeleton information indicates that the subject's right and left legs have been extracted, and the right and left legs indicate that the subject is walking, the
このように、端末装置1は、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照して、対象者の身体の動作に関するパラメータを導出する。すなわち、第2のアルゴリズムが抽出した骨格は、対象者の身体の動作に関するパラメータの導出に用いられるため、上述したように、第2のアルゴリズムの骨格抽出処理は、第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。この構成により、端末装置1は、第1のアルゴリズムが抽出した骨格を示す第1の骨格情報ではなく、第2のアルゴリズムが抽出した骨格を示す第2の骨格情報を参照することにより、対象者の身体の動作に関するパラメータの精度を高くすることができる。
In this way, the
(ステップS18)
ステップS18において、確度導出部18は、骨格抽出部16が生成したエラー情報を参照し、ステップS17において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
(Step S18)
In step S18, the
(確度導出部18による確度導出処理例)
確度導出部18による確度導出処理例について、以下に説明する。
(Example of accuracy derivation processing by accuracy derivation unit 18)
An example of accuracy derivation processing by the
確度導出部18は、骨格抽出部16が生成したエラー情報を参照することにより、骨格抽出処理による骨格抽出が失敗したフレームを特定し、特定したフレームに応じて第2の確度情報を導出する。
By referring to the error information generated by the
一例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの数を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの数に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも多い場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の値よりも少ない場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームの数が多い場合は、パラメータの確度が低いことをユーザに通知することができる。
As an example, when the error information indicates the number of frames for which skeleton extraction by skeleton extraction processing has failed, the
他の例として、エラー情報が骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置を示す場合、確度導出部18は、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれている場合(例えば、対象者の歩行動画であれば、対象者が歩行している期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出が失敗したフレームの時間的な位置が、対象者が動作する期間に含まれていない場合(例えば、対象者の歩行動画であれば、対象者が歩行する前(又は歩行した後)の期間に含まれている場合)、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者が動作している期間に骨格抽出が失敗した場合、パラメータの確度が低いことをユーザに通知することができる。
As another example, when the error information indicates the temporal position of the frame for which the skeleton extraction by the skeleton extraction process has failed, the
さらに他の例として、エラー情報が骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位を示す場合、確度導出部18は、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されなかった部位に応じて第2の確度情報を導出する。例えば、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠な部位(例えば、対象者の歩行動画であれば、対象者の脚部)であった場合、確度導出部18は、第2の確度情報として、確度が低いことを示す第2の確度情報を導出する。一方、骨格抽出処理による骨格抽出に失敗したフレームにおいて、骨格が抽出されたかった部位が、対象者の動作をするために不可欠ではない部位(例えば、対象者の歩行動画であれば、対象者の頸部)であった場合、確度導出部18は、第2の確度情報として、確度が高いことを示す第2の確度情報を導出する。当該構成により、端末装置1は、対象者の動作に不可欠な部位の骨格抽出に失敗した場合、パラメータの確度が低いことをユーザに通知することができる。
As yet another example, if the error information indicates a region for which no skeleton was extracted in a frame in which skeleton extraction by skeleton extraction processing failed, the
再び図2を参照し、端末装置1による処理のステップS19について説明する。
Referring to FIG. 2 again, step S19 of the processing by the
(ステップS19)
ステップS19において、表示部19は、ステップS17においてパラメータ導出部17が導出したパラメータと、ステップS19において確度導出部18が導出した第2の確度情報が示す確度を含む動画像データを表示パネル12に供給する。表示パネル12は、取得した動画像データが示す動画像を表示する。
(Step S19)
In step S19, the
(表示部19が表示する動画像の例4)
表示部19が表示パネル12に表示する動画像の一例について、図6を用いて説明する。図6は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 4 of moving image displayed by display unit 19)
An example of a moving image displayed on the
図6に示すように、表示部19は、パラメータ導出部17が導出したパラメータPM1と、確度導出部18が導出した第2の確度情報が示す確度AC1を含む動画像を表示パネル12に表示する。また、表示部19は、評価項目毎のパラメータPM2も含む動画像を表示パネル12に表示してもよい。当該構成により、端末装置1は、表示されているパラメータPM1の確度をユーザに通知することができる。
As shown in FIG. 6, the
また、表示部19は、第2の確度情報が示す確度を、評価項目毎に表示する構成であってもよい。当該構成では、確度導出部18は、評価項目毎に第2の確度情報を導出する。例えば、対象者が歩く動作と、対象者が立ち止まって腕を上げる動作とが動画像に含まれている場合、対象者が歩く動作を行っている期間において、骨格抽出処理による骨格抽出が失敗したフレームの数が所定の数より多い場合、確度導出部18は、対象者が歩く動作において評価される評価項目「速度」の確度が低くなるように第2の確度情報を導出する。
Further, the
(表示部19が表示する動画像の例5)
表示部19は、確度導出部18が導出した第2の確度情報が示す確度に応じて、確度を表示する態様を変更する構成であってもよい。本構成において表示部19が表示パネル12に表示する動画像の一例について、図7を用いて説明する。図7は、本実施形態に係る表示部19が表示パネル12に表示する動画像のさらに他の例を示す図である。
(Example 5 of moving image displayed by display unit 19)
The
図7に示すように、表示部19は、第2の確度情報が示す確度が所定の値より低い場合、再度、動画像を撮影するよう促すメッセージDP2を含む画像を表示パネル12に表示する。この構成により、端末装置1は、確度の高いパラメータを導出するためには、再度の動画像の撮影が必要であることをユーザに通知することができる。
As shown in FIG. 7, when the accuracy indicated by the second accuracy information is lower than a predetermined value, the
また、図7に示すように、表示部19は、動画像を撮影するよう促すメッセージDP2に加えて、パラメータ導出部17が導出したパラメータPM3、評価項目毎のパラメータPM4、及び確度導出部18が導出した第2の確度情報が示す確度を表示してもよい。
Further, as shown in FIG. 7, the
図7に示す動画像の他に、表示部19は、第2の確度情報が示す確度が所定の値より高いか低いかに応じて、以下のように表示する態様を変更する構成であってもよい。
・第2の確度情報が示す確度のテキストの色を変更する
・第2の確度情報が示す確度のテキストの大きさを変更する
・第2の確度情報が示す確度が所定の値より高い場合、再度の動画像の撮影が不要であることをユーザに通知する(例えば、「測定が適切に完了しました」というテキストを表示する)
ただし、これらは本実施形態を限定するものではない。
In addition to the moving image shown in FIG. 7, the
・Change the color of the text of the accuracy indicated by the second accuracy information ・Change the size of the text of the accuracy indicated by the second accuracy information ・When the accuracy indicated by the second accuracy information is higher than a predetermined value, Inform the user that they do not need to take video again (e.g. display the text "Measurement successfully completed")
However, these do not limit this embodiment.
このように、端末装置1は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示し、1又は複数の第2のアルゴリズムを用いて動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、端末装置1は、第1のアルゴリズムを用いて抽出した対象者の骨格を、対象者に重畳して表示しつつ、第2のアルゴリズムを用いて抽出した対象者の骨格を参照して対象者の身体の動作に関するパラメータを導出するので、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。
In this way, the
また、端末装置1は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出し、当該パラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、端末装置1は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。
In addition, the
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.
(情報処理システム100)
図8を参照し、本実施形態に係る情報処理システム100の概要について説明する。図8は、本実施形態に係る情報処理システム100の概要を示す模式図である。図8に示すように、情報処理システム100は、端末装置1A及び情報処理装置3を含んで構成される。
(Information processing system 100)
An outline of an information processing system 100 according to the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram showing an overview of the information processing system 100 according to this embodiment. As shown in FIG. 8, the information processing system 100 includes a
図8に示すように、端末装置1A及び情報処理装置3は、ネットワークNを介して互いに通信可能に接続されている。ここで、端末装置1Aの例として、スマートフォン、PC(Personal Computer)、及びタブレットが挙げられ、情報処理装置3の例としてサーバが挙げられるが、これらは本実施形態を限定するものではない。
As shown in FIG. 8, the
また、ネットワークNの具体的構成は本実施形態を限定するものではないが、一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。 Further, the specific configuration of the network N does not limit the present embodiment, but as an example, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, Or a combination of these networks can be used.
本実施形態に係る情報処理システム100において、端末装置1Aは、端末装置1Aのユーザが対象者を撮像した動画像から抽出した対象者の骨格を、動画像における対象者に重畳して表示する。そして、情報処理装置3は、端末装置1Aから動画像を取得し、動画像から抽出した対象者の骨格を参照し、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
In the information processing system 100 according to the present embodiment, the
本実施形態においても、実施形態1と同様に、上記対象者の例として被介護者が挙げられるが、これは本実施形態を限定するものではない。また、端末装置1Aのユーザとして、上記被介護者を介護する介護職員が挙げられるが、これは本実施形態を限定するものではない。
In the present embodiment, as in the first embodiment, a cared person is an example of the target person, but this does not limit the present embodiment. Further, the user of the
(端末装置1A)
図9を参照して、本実施形態に係る端末装置1Aの構成例について説明する。図9は、本実施形態に係る情報処理システム100に含まれる端末装置1A及び情報処理装置3の構成例を示すブロック図である。図9に示すように、端末装置1Aは、実施形態1における端末装置1における制御部10に替えて制御部10Aを備え、通信部11をさらに備えている。
(
A configuration example of the
通信部11は、ネットワークNを介した通信を行うための通信モジュールである。通信部11は、制御部10Aから取得したデータを、ネットワークNを介して情報処理装置3に出力したり、ネットワークNを介して情報処理装置3から取得したデータを、制御部10Aに供給したりする。
The
(制御部10A)
制御部10Aは、端末装置1Aの各構成要素を制御する。また、制御部10Aは、取得部15、骨格抽出部16、表示部19、及び出力部20としても機能する。表示部19の機能は、実施形態1における表示部19と同じであるため、説明を省略する。
(
The
取得部15は、実施形態1における取得部15の機能に加えて、通信部11を介して情報処理装置3からデータを取得する。取得部15が取得するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。
The
骨格抽出部16は、第1のアルゴリズムを用いて、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行する。第1のアルゴリズムによって抽出された対象者の骨格は、当該骨格を示す第1の骨格情報として後述する表示部19によってリアルタイムに参照される。また、第1のアルゴリズムは、抽出した骨格の確からしさを示す第1の確度情報を生成する。第1の確度情報は、後述する表示部19によって参照される。実施形態1と同様に、第1のアルゴリズムは、第2のアルゴリズムよりも骨格抽出処理が速いアルゴリズムであることが好ましい。
The
また、骨格抽出部16は、第1のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。エラー情報については、実施形態1において説明した通りである。
Further, the
出力部20は、通信部11を介して情報処理装置3にデータを出力する。出力部20が出力するデータの例として、動画像及びエラー情報が挙げられるが、これらに限定されない。
The
(情報処理装置3)
図9に示すように、情報処理装置3は、制御部30、通信部31、及び記憶部34を備えている。
(Information processing device 3)
As shown in FIG. 9, the
通信部31は、ネットワークNを介した通信を行うための通信モジュールである。通信部31は、制御部30から取得したデータを、ネットワークNを介して端末装置1に出力したり、ネットワークNを介して端末装置1Aから取得したデータを、制御部30に供給したりする。
The
記憶部34は、後述する制御部30が参照する各種のデータが格納されている。一例として、記憶部34には、端末装置1Aから取得した動画像、導出されたパラメータなどが格納されている。
The
(制御部30)
制御部30は、情報処理装置3の各構成要素を制御する。一例として、制御部30は、通信部31を介して端末装置1Aから出力された動画像を取得したり、通信部31を介して生成したデータを出力したりする。
(control unit 30)
The control unit 30 controls each component of the
また、制御部30は、図9に示すように、取得部35、骨格抽出部36、パラメータ導出部37、確度導出部38、及び出力部40としても機能する。
The control unit 30 also functions as an
取得部35は、通信部31を介して端末装置1Aからデータを取得する。取得部35が取得するデータの例として、動画像が挙げられるが、これに限定されない。
The
骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。第2のアルゴリズムによって抽出された対象者の骨格の結果は、当該骨格を示す第2の骨格情報として後述するパラメータ導出部37によって参照される。
The
また、骨格抽出部36は、第2のアルゴリズムを用いた骨格抽出の際に、動画像に含まれるフレームのうち、骨格抽出に失敗したフレームを示すエラー情報を生成してもよい。
Further, the
パラメータ導出部37は、上述したパラメータ導出部17と同様、骨格抽出部36が実行した骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。対象者の身体の動作に関するパラメータについては、実施形態1において説明した通りである。
The
確度導出部38は、上述した確度導出部18と同様、パラメータ導出部37が導出したパラメータの確度を示す第2の確度情報を、動画像に含まれる複数フレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。
Like the
出力部40は、通信部31を介して端末装置1Aにデータを出力する。出力部40が出力するデータの例として、パラメータ及び第2の確度情報が挙げられるが、これらに限定されない。
The
(情報処理システム100における処理)
情報処理システム100における処理について、図10を用いて説明する。図4は、本実施形態に係る情報処理システム100における処理の流れを示すシーケンス図である。
(Processing in information processing system 100)
Processing in the information processing system 100 will be described with reference to FIG. 10 . FIG. 4 is a sequence diagram showing the flow of processing in the information processing system 100 according to this embodiment.
(ステップS12~ステップS15)
端末装置1Aが動画像の取得を開始し、動画像の取得を終了するまでのステップS12~ステップS15の処理は、上述した処理と同じであるため、説明を省略する。
(Step S12 to Step S15)
The processing from step S12 to step S15 from when the
(ステップS20)
ステップS20において、端末装置1Aの出力部20は、通信部11を介して、動画像を情報処理装置3に出力する。ここで、骨格抽出部16が第1の確度情報及びエラー情報の少なくとも何れかを生成している場合、出力部20は、動画像と共に、生成された第1の確度情報及びエラー情報の少なくとも何れかを出力してもよい。また、出力部20は、後述するパラメータ導出部37によるパラメータ導出処理のために、撮像部13のカメラパラメータ及び動画像の画像サイズなども出力してよい。
(Step S20)
In step S<b>20 , the
(ステップS21)
ステップS21において、情報処理装置3の取得部35は、通信部31を介して、端末装置1Aから動画像を取得する。
(Step S21)
In step S<b>21 , the
(ステップS22)
ステップS22において、骨格抽出部36は、取得部35が取得した動画像から、第2のアルゴリズムを用いて、対象者の骨格を抽出する骨格抽出処理を実行する。より具体的には、骨格抽出部36は、1又は複数の第2のアルゴリズムを用いて、動画像から対象者の骨格を抽出し、抽出した骨格を示す第2の骨格情報を生成する。また、骨格抽出部36は、端末装置1Aから第1の確度情報が出力されている場合、第1の確度情報を参照して、複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて対象者の骨格を抽出する構成であってもよい。複数のアルゴリズム候補から1又は複数の第2のアルゴリズムを選択する処理の詳細は、上述した通りである。また、ステップS22において骨格抽出部36は、エラー情報を生成してもよい。
(Step S22)
In step S<b>22 , the
(ステップS23)
ステップS23において、パラメータ導出部37は、ステップS22において実行された骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。より具体的には、パラメータ導出部37は、骨格抽出部36が生成した第2の骨格情報を参照し、対象者の身体の動作に関するパラメータを導出する。パラメータ導出部37がパラメータを導出する処理の詳細については、上述した通りである。
(Step S23)
In step S23, the
(ステップS24)
ステップS24において、確度導出部38は、ステップS23において導出されたパラメータの確度を示す第2の確度情報を、動画像に含まれる複数のフレームのうち、前記骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。より具体的には、確度導出部38は、ステップS20において端末装置1Aから出力されたエラー情報及びステップS22において生成されたエラー情報の少なくとも何れかを参照し、第2の確度情報を導出する。確度導出部38が第2の確度情報を導出する処理の詳細については、上述した通りである。
(Step S24)
In step S24, the
(ステップS25)
ステップS25において、出力部40は、ステップS23において導出されたパラメータと、ステップS24において導出された第2の確度情報とを、通信部31を介して端末装置1Aに出力する。
(Step S25)
In step S25, the
(ステップS26)
ステップS26において、端末装置1Aの取得部15は、通信部11を介して、情報処理装置3から出力されたパラメータ及び第2の確度情報を取得する。
(Step S26)
In step S<b>26 , the
(ステップS27)
ステップS27において、表示部19は、ステップS26において取得部15が取得したパラメータ及び第2の確度情報を含む動画像を、表示パネル12に表示する。ステップS27において表示部19が表示する画像の例として、上述した図6及び図7の画像が挙げられる。
(Step S27)
In step S<b>27 , the
このように、情報処理システム100における端末装置1Aは、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した対象者の骨格を、動画像における前記対象者に重畳して表示する。また、情報処理装置3は、被写体として対象者を含む動画像を取得し、取得した動画像から第2のアルゴリズムを用いて抽出した骨格を参照し、対象者の身体の動作に関するパラメータを導出する。そのため、情報処理システム100では、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。
In this way, the
また、情報処理システム100における情報処理装置3は、被写体として対象者を含む動画像から対象者の骨格を抽出する骨格抽出処理を実行し、骨格抽出処理の結果を参照して、対象者の身体の動作に関するパラメータを導出する。また、情報処理装置3は、導出したパラメータの確度を示す確度情報を、動画像に含まれる複数のフレームのうち、骨格抽出処理による骨格抽出が失敗したフレームに応じて導出する。そのため、情報処理装置3は、骨格抽出処理による骨格抽出が失敗したフレームに応じてパラメータの確度を導出するので、パラメータの信頼度をユーザに通知することができる。
Further, the
(端末装置1Aの物理的構成)
図11は、端末装置1A(1)及び情報処理装置3として用いられるコンピュータの物理的構成を例示したブロック図である。端末装置1Aは、図11に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104と、カメラ105、表示パネル106とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、通信インタフェース104、カメラ105、及び表示パネル106は、バス110を介して互いに接続されている。
(Physical Configuration of
FIG. 11 is a block diagram illustrating the physical configuration of a computer used as the
プロセッサ101としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。
As the
主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。
As the
補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、上述した端末装置1Aの動作をプロセッサ101に実行させるためのプログラムが格納されている。プロセッサ101は、補助メモリ103に格納されたプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行する。
As the
通信インタフェース104は、ネットワークNに接続するインタフェースである。
A
カメラ105は、撮像部13を実現するハードウェア要素の一例である。
The
表示パネル106は、表示パネル12を実現するハードウェア要素の一例である。
この例で、プロセッサ101は制御部10Aを実現するハードウェア要素の一例である。また、主メモリ102及び補助メモリ103は、記憶部14を実現するハードウェア要素の一例である。また、通信インタフェース104は、通信部11を実現するハードウェア要素の一例である。
In this example,
(情報処理装置3の物理的構成)
情報処理装置3は、図11に示すように、バス310と、プロセッサ301と、主メモリ302と、補助メモリ303と、通信インタフェース304とを備えたコンピュータによって構成可能である。プロセッサ301、主メモリ302、補助メモリ303、及び通信インタフェース104は、バス110を介して互いに接続されている。
(Physical Configuration of Information Processing Device 3)
The
この例で、プロセッサ301は制御部30を実現するハードウェア要素の一例である。また、主メモリ302及び補助メモリ303は、記憶部34を実現するハードウェア要素の一例である。また、通信インタフェース304は、通信部31を実現するハードウェア要素の一例である。
In this example,
〔ソフトウェアによる実現例〕
端末装置1、1A、及び情報処理装置3(以下、総称して「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部10、10A、及び30に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
[Example of realization by software]
The functions of the
この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。 In this case, the apparatus comprises a computer having at least one control device (eg processor) and at least one storage device (eg memory) as hardware for executing the program. Each function described in each of the above embodiments is realized by executing the above program using the control device and the storage device.
上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。 The program may be recorded on one or more computer-readable recording media, not temporary. The recording medium may or may not be included in the device. In the latter case, the program may be supplied to the device via any transmission medium, wired or wireless.
また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。 Also, part or all of the functions of the above control blocks can be realized by logic circuits. For example, integrated circuits in which logic circuits functioning as the control blocks described above are formed are also included in the scope of the present invention. In addition, it is also possible to implement the functions of the control blocks described above by, for example, a quantum computer.
また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。 Further, each process described in each of the above embodiments may be executed by AI (Artificial Intelligence). In this case, the AI may operate on the control device, or may operate on another device (for example, an edge computer or a cloud server).
本発明の一実施例について以下に説明する。 An embodiment of the invention is described below.
三次元動作分析装置を用いて測定した対象者の歩行速度の実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した歩行速度の推定値と、の関係を示すグラフを、図12に示す。図12は、実施例1における推定値と実測値との関係を示すグラフである。 A graph showing the relationship between the measured walking speed of the subject measured using a three-dimensional motion analysis device and the estimated walking speed estimated using gait analysis AI from the moving image of the subject walking. , as shown in FIG. FIG. 12 is a graph showing the relationship between estimated values and measured values in Example 1;
図12における〇、△、及び×はそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図12に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、歩行速度の推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、歩行速度の推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
◯, Δ, and × in FIG. 12 respectively indicate the following moving images.
△: A video image with frames for which skeleton extraction failed during the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image ×: Frame extraction failed in the video image during motion Video with failed frames ○: Video with no frames for which skeleton extraction failed It was found that the degree is low (the difference between the estimated value and the measured value is large). On the other hand, in the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image, if there are frames for which skeleton extraction has failed, or if there are no frames for which skeleton extraction has failed. , the estimated value of walking speed was found to be highly reliable (the difference between the estimated value and the measured value was small).
本発明の他の実施例について以下に説明する。 Other embodiments of the invention are described below.
三次元動作分析装置を用いて測定した頭部のふらつきの実測値と、対象者が歩行する動画像から歩容解析AIを用いて推定した頭部のふらつきの推定値と、の関係を示すグラフを、図13に示す。図13は、実施例2における推定値と実測値との関係を示すグラフである。 Graph showing the relationship between the measured value of head sway measured using a 3D motion analysis device and the estimated value of head sway estimated using gait analysis AI from moving images of the subject walking is shown in FIG. FIG. 13 is a graph showing the relationship between estimated values and measured values in Example 2;
図13における〇、△、及び×もそれぞれ、以下の動画像を示している。
△:動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある動画像
×:動作中の動画像において骨格抽出に失敗したフレームがある動画像
〇:骨格抽出に失敗したフレームがなかった動画像
図13に示すように、動作中の動画像において骨格抽出に失敗したフレームがある場合、頭部のふらつきの推定値は信頼度が低い(実測値に対する推定値のずれが大きい)ことが分かった。一方、動画像の開始から動作が始まるまで、または動作が終了してから動画像が終了するまでの期間において、骨格抽出に失敗したフレームがある場合、及び骨格抽出に失敗したフレームがなかった場合、頭部のふらつきの推定値は信頼度が高い(実測値に対する推定値のずれが小さい)ことが分かった。
◯, Δ, and × in FIG. 13 also indicate the following moving images.
△: A video image with frames for which skeleton extraction failed during the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image ×: Frame extraction failed in the video image during motion Video image with failed frames ○: Video image with no frames for which skeleton extraction has failed was found to have low reliability (large discrepancy between estimated values and measured values). On the other hand, in the period from the start of the video image to the start of the motion, or from the end of the motion to the end of the video image, if there are frames for which skeleton extraction has failed, or if there are no frames for which skeleton extraction has failed. , the estimated value of head sway was found to be highly reliable (the difference between the estimated value and the measured value was small).
[まとめ]
各実施形態の一態様に係る端末装置は被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、を備える。
[summary]
A terminal device according to one aspect of each embodiment displays a skeleton of a target person extracted from a moving image including the target person as a subject using a first algorithm, superimposed on the target person in the moving image. and deriving parameters related to the movement of the subject's body by referring to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm. and
上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.
各実施形態の一態様に係る端末装置において、前記1又は複数の第2のアルゴリズムによる骨格抽出処理は、前記第1のアルゴリズムによる骨格抽出処理よりも精度が高いことが好ましい。 In the terminal device according to one aspect of each embodiment, it is preferable that the skeleton extraction processing by the one or more second algorithms has higher accuracy than the skeleton extraction processing by the first algorithm.
上記構成によれば、対象者の身体の動作をより精度高く評価することができる。 According to the above configuration, it is possible to evaluate the motion of the subject's body with higher accuracy.
各実施形態の一態様に係る端末装置において、前記表示部は、前記第1のアルゴリズムを用いて抽出した骨格の確からしさを示す確度情報を取得し、取得した確度情報に応じて、前記対象者に重畳する骨格の表示態様を変更することが好ましい。 In the terminal device according to one aspect of each embodiment, the display unit acquires accuracy information indicating the likelihood of the skeleton extracted using the first algorithm, and according to the acquired accuracy information, the subject person It is preferable to change the display mode of the skeleton superimposed on the .
上記構成によれば、ユーザに対して、撮影している動画像における対象者の骨格のうち、何れの骨格を確度高く抽出できているかを通知することができる。 According to the above configuration, it is possible to notify the user which skeleton has been extracted with high accuracy from among the skeletons of the target person in the captured moving image.
各実施形態の一態様に係る端末装置において、前記表示部は、前記確度情報が示す確度が所定の値より低い場合、確度が高くなるように被写体を撮影することを促す表示を行うことが好ましい。 In the terminal device according to one aspect of each embodiment, it is preferable that, when the accuracy indicated by the accuracy information is lower than a predetermined value, the display unit displays a message prompting the subject to be photographed so as to increase the accuracy. .
上記構成によれば、ユーザに対して、どのように撮影すれば対象者の骨格抽出の確度を高くできるのかを通知することができる。 According to the above configuration, it is possible to notify the user of how to take an image to increase the accuracy of extracting the skeleton of the target person.
各実施形態の一態様に係る端末装置は、前記第1のアルゴリズムと、前記1又は複数の第2のアルゴリズムとを用いて骨格抽出処理を実行する骨格抽出部を更に備えることが好ましい。 The terminal device according to one aspect of each embodiment preferably further includes a skeleton extraction unit that executes skeleton extraction processing using the first algorithm and the one or more second algorithms.
上記構成によれば、骨格抽出処理を実行することができる。 According to the above configuration, the skeleton extraction process can be executed.
各実施形態の一態様に係る端末装置において、前記骨格抽出部は、複数の第2のアルゴリズム候補から、前記1又は複数の第2のアルゴリズムを選択し、選択した1又は複数の第2のアルゴリズムを用いて前記対象者の骨格を抽出することが好ましい。 In the terminal device according to one aspect of each embodiment, the skeleton extracting unit selects the one or more second algorithms from a plurality of second algorithm candidates, and selects the selected one or more second algorithms is preferably used to extract the skeleton of the subject.
上記構成によれば、より高い精度で対象者の骨格を抽出することができる。 According to the above configuration, it is possible to extract the skeleton of the subject with higher accuracy.
各実施形態の一態様に係る端末装置において、前記骨格抽出部は、前記第1のアルゴリズムを用いて抽出した前記対象者の骨格を参照して、前記1又は複数の第2のアルゴリズムを選択することが好ましい。 In the terminal device according to one aspect of each embodiment, the skeleton extraction unit refers to the skeleton of the subject extracted using the first algorithm, and selects the one or more second algorithms. is preferred.
上記構成によれば、より高い精度で対象者の骨格を抽出することができる。 According to the above configuration, it is possible to extract the skeleton of the subject with higher accuracy.
各実施形態の一態様に係る端末装置において、前記導出部は、前記1又は複数の第2のアルゴリズムを用いて抽出した、歩行中の前記対象者の骨格を参照し、前記対象者の歩行に関するパラメータを導出することが好ましい。 In the terminal device according to one aspect of each embodiment, the derivation unit refers to the skeleton of the subject during walking, which is extracted using the one or more second algorithms, and It is preferable to derive the parameters.
上記構成によれば、歩行中の対象者の歩行に関するパラメータを導出することができる。 According to the above configuration, it is possible to derive the parameters related to the walking of the subject who is walking.
各実施形態の一態様に係る情報処理方法は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示するステップと、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出するステップと、を含む。 An information processing method according to an aspect of each embodiment displays a skeleton of a target person extracted from a moving image including a target person as a subject using a first algorithm, superimposed on the target person in the moving image. and referring to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and deriving parameters related to the movement of the body of the subject. and a step.
上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.
各実施形態の一態様に係る情報処理システムは、端末装置と情報処理装置とを含む情報処理システムであって、前記端末装置は、被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、前記動画像を前記情報処理装置に出力する出力部と、を備え、前記情報処理装置は、前記端末装置から前記動画像を取得する取得部と、前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、を備える。 An information processing system according to one aspect of each embodiment is an information processing system that includes a terminal device and an information processing device, wherein the terminal device uses a first algorithm from a moving image including a target person as a subject. a display unit for superimposing and displaying the extracted skeleton of the target person on the target person in the moving image; and an output unit for outputting the moving image to the information processing device, wherein the information processing device comprises: with reference to the skeleton of the subject extracted from the moving image using an acquisition unit that acquires the moving image from the terminal device and one or more second algorithms different from the first algorithm; and a deriving unit for deriving parameters related to the motion of the person's body.
上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.
各実施形態の一態様に係るプログラムは、上述した端末装置としてコンピュータを機能させるためのプログラムであって、上記表示部及び上記導出部としてコンピュータを機能させる。 A program according to one aspect of each embodiment is a program for causing a computer to function as the above-described terminal device, and causes the computer to function as the display unit and the derivation unit.
上記構成によれば、対象者を撮影するユーザに適切な動画が撮影できているか否かを通知しつつ、対象者の身体の動作を精度高く評価することができる。 According to the above configuration, it is possible to accurately evaluate the motion of the subject's body while notifying the user who is shooting the subject of whether or not an appropriate moving image has been captured.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
1、1A 端末装置
3 情報処理装置
10、10A、30 制御部
11、31 通信部
12 表示パネル
13 撮像部
14、34 記憶部
15、35 取得部
16、36 骨格抽出部
17、37 パラメータ導出部
18、38 確度導出部
19 表示部
20、40 出力部
100 情報処理システム
Claims (11)
前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、
を備える端末装置。 a display unit for superimposing and displaying the skeleton of the target person extracted using a first algorithm from a moving image including the target person as a subject on the target person in the moving image;
a deriving unit that refers to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and derives parameters related to the movement of the body of the subject;
terminal device.
請求項1に記載の端末装置。 2. The terminal device according to claim 1, wherein skeleton extraction processing by said one or more second algorithms has higher accuracy than skeleton extraction processing by said first algorithm.
前記第1のアルゴリズムを用いて抽出した骨格の確からしさを示す確度情報を取得し、
取得した確度情報に応じて、前記対象者に重畳する骨格の表示態様を変更する
請求項1又は2に記載の端末装置。 The display unit
Acquiring accuracy information indicating the accuracy of the skeleton extracted using the first algorithm,
3. The terminal device according to claim 1, wherein the display mode of the skeleton superimposed on the subject is changed according to the acquired accuracy information.
請求項3に記載の端末装置。 4. The terminal device according to claim 3, wherein, when the accuracy indicated by the accuracy information is lower than a predetermined value, the display section displays a display prompting the subject to be photographed so as to increase the accuracy.
請求項1~4の何れか1項に記載の端末装置。 The terminal device according to any one of claims 1 to 4, further comprising a skeleton extracting unit that executes skeleton extraction processing using the first algorithm and the one or more second algorithms.
請求項5に記載の端末装置。 wherein said skeleton extracting unit selects said one or more second algorithms from a plurality of second algorithm candidates, and extracts said subject's skeleton using said one or more selected second algorithms. Item 6. The terminal device according to item 5.
請求項5に記載の端末装置。 6. The terminal device according to claim 5, wherein the skeleton extraction unit selects the one or more second algorithms by referring to the skeleton of the subject extracted using the first algorithm.
請求項1~7の何れか1項に記載の端末装置。 8. The derivation unit refers to the skeleton of the subject during walking, which is extracted using the one or more second algorithms, and derives parameters related to walking of the subject. The terminal device according to item 1.
前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出するステップと、
を含む情報処理方法。 a step of superimposing and displaying the skeleton of the target person extracted using a first algorithm from a moving image including the target person as a subject on the target person in the moving image;
referring to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and deriving parameters relating to the movement of the subject's body;
Information processing method including.
前記端末装置は、
被写体として対象者を含む動画像から第1のアルゴリズムを用いて抽出した前記対象者の骨格を、前記動画像における前記対象者に重畳して表示する表示部と、
前記動画像を前記情報処理装置に出力する出力部と、
を備え、
前記情報処理装置は、
前記端末装置から前記動画像を取得する取得部と、
前記第1のアルゴリズムとは異なる1又は複数の第2のアルゴリズムを用いて前記動画像から抽出した前記対象者の骨格を参照し、前記対象者の身体の動作に関するパラメータを導出する導出部と、
を備える情報処理システム。 An information processing system including a terminal device and an information processing device,
The terminal device
a display unit for superimposing and displaying the skeleton of the target person extracted using a first algorithm from a moving image including the target person as a subject on the target person in the moving image;
an output unit that outputs the moving image to the information processing device;
with
The information processing device is
an acquisition unit that acquires the moving image from the terminal device;
a deriving unit that refers to the skeleton of the subject extracted from the moving image using one or more second algorithms different from the first algorithm, and derives parameters related to the movement of the body of the subject;
An information processing system comprising
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148073A JP7047176B1 (en) | 2021-09-10 | 2021-09-10 | Terminal devices, information processing methods, information processing systems, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148073A JP7047176B1 (en) | 2021-09-10 | 2021-09-10 | Terminal devices, information processing methods, information processing systems, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7047176B1 JP7047176B1 (en) | 2022-04-04 |
JP2023040882A true JP2023040882A (en) | 2023-03-23 |
Family
ID=81256632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148073A Active JP7047176B1 (en) | 2021-09-10 | 2021-09-10 | Terminal devices, information processing methods, information processing systems, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7047176B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017064120A (en) * | 2015-09-30 | 2017-04-06 | 株式会社リコー | Information processor and system |
US20190251341A1 (en) * | 2017-12-08 | 2019-08-15 | Huawei Technologies Co., Ltd. | Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium |
JP2021026527A (en) * | 2019-08-06 | 2021-02-22 | 株式会社エクサウィザーズ | Information processing device and program |
WO2021132426A1 (en) * | 2019-12-26 | 2021-07-01 | 国立大学法人東京大学 | Smart treadmill |
-
2021
- 2021-09-10 JP JP2021148073A patent/JP7047176B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017064120A (en) * | 2015-09-30 | 2017-04-06 | 株式会社リコー | Information processor and system |
US20190251341A1 (en) * | 2017-12-08 | 2019-08-15 | Huawei Technologies Co., Ltd. | Skeleton Posture Determining Method and Apparatus, and Computer Readable Storage Medium |
JP2021026527A (en) * | 2019-08-06 | 2021-02-22 | 株式会社エクサウィザーズ | Information processing device and program |
WO2021132426A1 (en) * | 2019-12-26 | 2021-07-01 | 国立大学法人東京大学 | Smart treadmill |
Also Published As
Publication number | Publication date |
---|---|
JP7047176B1 (en) | 2022-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5018767B2 (en) | Subject tracking program, subject tracking device, and camera | |
US10559062B2 (en) | Method for automatic facial impression transformation, recording medium and device for performing the method | |
JP2023175052A (en) | Estimating pose in 3d space | |
JP5067418B2 (en) | Subject tracking program, subject tracking device, and camera | |
JP6562197B2 (en) | Image processing method and image processing system | |
US10771761B2 (en) | Information processing apparatus, information processing method and storing unit | |
CN113973190A (en) | Video virtual background image processing method and device and computer equipment | |
JP2017194935A (en) | 3D reconstruction method | |
JP2020086983A5 (en) | ||
KR102343325B1 (en) | Method for image compression and method for image restoration | |
JP2018207252A (en) | Image processing system, control method for image processing system, and program | |
JP2020053774A (en) | Imaging apparatus and image recording method | |
KR101672691B1 (en) | Method and apparatus for generating emoticon in social network service platform | |
JP6723720B2 (en) | Display system, information processing method and program | |
JP2009015558A (en) | Attitude estimation device and method | |
JP7047176B1 (en) | Terminal devices, information processing methods, information processing systems, and programs | |
JP7042956B1 (en) | Information processing methods, information processing devices, and programs | |
KR102126370B1 (en) | Apparatus and method for analyzing motion | |
JP2007102478A (en) | Image processor, image processing method, and semiconductor integrated circuit | |
JP2019068234A (en) | Processing program, processing method, and processing apparatus | |
JP7462869B2 (en) | Information processing method, information processing device, and program | |
JP2021105850A (en) | Image processing device and method, and imaging device | |
JP7416736B2 (en) | Photography support device, photography support method, and photography support program | |
EP3182367A1 (en) | Apparatus and method for generating and visualizing a 3d model of an object | |
US20230177767A1 (en) | Image processing apparatus, image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210910 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7047176 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |