JP2023175557A - Information processing program and information processing method - Google Patents
Information processing program and information processing method Download PDFInfo
- Publication number
- JP2023175557A JP2023175557A JP2022088059A JP2022088059A JP2023175557A JP 2023175557 A JP2023175557 A JP 2023175557A JP 2022088059 A JP2022088059 A JP 2022088059A JP 2022088059 A JP2022088059 A JP 2022088059A JP 2023175557 A JP2023175557 A JP 2023175557A
- Authority
- JP
- Japan
- Prior art keywords
- face
- person
- estimating
- exercise
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 93
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims abstract description 61
- 230000008921 facial expression Effects 0.000 claims abstract description 33
- 230000001815 facial effect Effects 0.000 claims abstract description 30
- 210000000056 organ Anatomy 0.000 claims abstract description 11
- 230000014509 gene expression Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 20
- 238000010801 machine learning Methods 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 210000001097 facial muscle Anatomy 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理プログラムおよび情報処理方法に関する。 The present invention relates to an information processing program and an information processing method.
ノンバーバルコミュニケーションにおいて、表情は重要な役割を果たしている。人を理解し人を支援するコンピュータを開発する上で、表情推定は必須の技術である。表情を推定するには、まず表情の記述方法を規定しなければならない。表情の記述方法として、AU(Action Unit:アクションユニット)が知られている。AUは、顔面筋の解剖学的知見に基づき定義された、表情表出に関与する顔面上の動作を示す。これまでAUを推定する技術も提案されている。 Facial expressions play an important role in nonverbal communication. Facial expression estimation is an essential technology for developing computers that understand and support people. In order to estimate facial expressions, we must first define a method for describing facial expressions. AU (Action Unit) is known as a method for describing facial expressions. AU indicates facial movements involved in facial expressions, which are defined based on anatomical knowledge of facial muscles. Techniques for estimating AU have also been proposed.
AUを推定するAU推定エンジンの代表的な形態は、大量の訓練データに基づく機械学習をベースとし、訓練データとして、顔表情の画像データと、表情の判定結果である各AUのOccurrence(発生の有無)やIntensity(発生強度)が用いられる。 A typical form of an AU estimation engine that estimates AUs is based on machine learning based on a large amount of training data. (presence/absence) and intensity (intensity of occurrence) are used.
また、例えば、AUによって運動中の人物の表情変化を推定し、当該表情変化により人物の運動強度を推定する技術がある。このような運動強度の推定ができれば、例えば、リハビリ運動やスポーツジムでの運動において、運動中の人物を撮影した動画から、人物が適切な負荷の運動を行っているかなどを判定できるようになる。 Furthermore, for example, there is a technique of estimating a change in the facial expression of a person during exercise using AU, and estimating the exercise intensity of the person based on the change in facial expression. If such exercise intensity can be estimated, it will be possible to determine whether a person is exercising with an appropriate load, for example, from a video of a person exercising during rehabilitation exercise or exercising at a gym. .
しかしながら、従来の運動強度の推定方法では、例えば、エアロバイク(登録商標)などのような、身体の動きがあまり大きくない運動に対する強度の推定はできるが、身体の動きが大きい運動に対する強度の推定ができない場合がある。 However, with conventional exercise intensity estimation methods, it is possible to estimate the intensity for exercises that do not involve large body movements, such as riding a stationary bike (registered trademark), but it is possible to estimate the intensity for exercises that involve large body movements. may not be possible.
例えば、身体の動きが大きい運動の一例であるスクワット運動の場合、身体が下がってから上がる時が、運動強度が現れるタイミングである。この運動強度が現れるタイミングが運動強度を計測したいタイミングであるが、このタイミングで運動強度を推定できず、推定精度が低下する場合がある。 For example, in the case of a squat exercise, which is an example of an exercise that involves large body movements, the timing at which the exercise intensity appears is when the body lowers and then rises. Although the timing at which this exercise intensity appears is the timing at which it is desired to measure the exercise intensity, the exercise intensity cannot be estimated at this timing, and the estimation accuracy may deteriorate.
1つの側面では、運動強度の推定精度をより向上させることを目的とする。 One aspect is to further improve the accuracy of estimating exercise intensity.
1つの態様において、情報処理プログラムは、人物の身体の動きを含む運動を撮影した映像を取得し、映像に含まれる人物の骨格情報に基づいて、運動の動きの状態を推定し、映像における人物の顔器官の位置情報に基づいて、人物の顔の向きを推定し、映像から顔の表情を推定し、推定された動きの状態と顔の向きとの関係に基づいて、顔の向きに対する第1の特徴量と、推定された表情に対する第2の特徴量とのそれぞれに重みを付与し、重みが付与された第1の特徴量と、重みが付与された第2の特徴量とに基づいて、運動の強度を推定する処理をコンピュータに実行させる。 In one aspect, the information processing program acquires a video of a person's exercise including body movements, estimates the state of the person's movement based on skeletal information of the person included in the video, and estimates the state of the person's movement in the video. The direction of the face of the person is estimated based on the position information of the facial organs of the person, the facial expression is estimated from the video, and the direction of the face is estimated based on the relationship between the estimated movement state and the direction of the face. 1 and a second feature for the estimated facial expression, and based on the weighted first feature and the weighted second feature. Then, the computer executes the process of estimating the intensity of the exercise.
1つの側面では、運動強度の推定精度をより向上させることができる。 In one aspect, the accuracy of estimating exercise intensity can be further improved.
以下に、本実施形態に係る情報処理プログラムおよび情報処理方法の実施例を図面に基づいて詳細に説明する。なお、この実施例により本実施形態が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。実施例は、AUを一例に説明されるが、これに限られるものではない。 Examples of the information processing program and information processing method according to the present embodiment will be described in detail below based on the drawings. Note that this embodiment is not limited to this example. Moreover, each embodiment can be combined as appropriate within a consistent range. The embodiment will be described using AU as an example, but is not limited thereto.
図1は、顔の向きとAU値との関係の一例を示す図である。図1は、既存技術を用いて、同一人物が無表情で顔の向きを変えて撮像された各画像から推定された9つのAU値の例を示すものである。真ん中の画像が顔を正面に向けた場合の例であり、周囲の画像がそれぞれ矢印の方向に顔を向けた場合の例である。また、各画像の下の数値がそれぞれの画像から推定されたAU値である。なお、AU値は0~5の値をとり、図1の各値は、全17種類のAUの平均である。 FIG. 1 is a diagram illustrating an example of the relationship between face orientation and AU value. FIG. 1 shows an example of nine AU values estimated using existing technology from images of the same person captured with an expressionless face while changing the direction of the face. The middle image is an example when the face is facing forward, and the surrounding images are examples when the face is facing in the direction of the arrow. Further, the numerical value below each image is the AU value estimated from each image. Note that the AU value takes a value from 0 to 5, and each value in FIG. 1 is the average of all 17 types of AU.
図1を参照すると、同じ無表情でも、顔の向きによってAU値が変化しており、顔の向きが正面の場合のAU値を正とすると、正面以外の場合のAU値の推定精度が劣化していることがわかる。そのため、運動中の人物の表情変化、すなわち、AU値を用いて運動強度を推定する場合に、顔の向きを考慮した推定を行うことで、運動強度の推定精度を向上させることができる。 Referring to Figure 1, even for the same expressionless expression, the AU value changes depending on the direction of the face, and if the AU value when the face is facing forward is assumed to be positive, the estimation accuracy of the AU value when the face is facing other than frontally deteriorates. I know what you're doing. Therefore, when estimating the exercise intensity using a change in the facial expression of a person during exercise, that is, the AU value, the estimation accuracy of the exercise intensity can be improved by performing the estimation in consideration of the direction of the face.
図2は、運動のタイミングによる顔の向きの違いの一例を示す図である。図2の例は、スクワット運動のタイミングによる顔の向きの違いを示すものである。図2の左側に示すように、スクワット運動でしゃがんでいる時は、人物の顔は下を向く。一方、図2の右側に示すように、スクワット運動で立ち上がる時は、人物の顔は上を向く。このように、同じ運動でもタイミングによって顔の向きが異なる。そこで、本実施形態では、運動強度が現れるタイミング、例えば、スクワット運動の場合は、身体が下がってから上がる時に人物の顔がどの方向を向いているかを判定し、顔の向きを考慮した運動強度の推定を行う。 FIG. 2 is a diagram illustrating an example of a difference in face orientation depending on the timing of movement. The example in FIG. 2 shows the difference in face orientation depending on the timing of the squat exercise. As shown on the left side of Figure 2, when a person is squatting in a squat exercise, the person's face is directed downward. On the other hand, as shown on the right side of FIG. 2, when a person stands up during a squat exercise, the person's face faces upward. In this way, even with the same exercise, the direction of the face differs depending on the timing. Therefore, in this embodiment, the timing at which the exercise intensity appears, for example, in the case of a squat exercise, determines which direction the person's face is facing when the body lowers and then rises, and the exercise intensity takes into account the direction of the face. Estimate.
次に、顔の向きを考慮した運動強度の推定を行うための情報処理システムの構成を説明する。図3は、本実施形態にかかる情報処理システムの構成例を示す図である。図3に示すように、情報処理システム1は、情報処理装置10と、カメラ装置100とが、ネットワーク50を介して相互に通信可能に接続されるシステムである。
Next, the configuration of an information processing system for estimating exercise intensity in consideration of the direction of the face will be described. FIG. 3 is a diagram showing a configuration example of an information processing system according to this embodiment. As shown in FIG. 3, the
ネットワーク50には、有線や無線を問わず、例えば、工場内で利用されるイントラネットなどの各種通信網を採用できる。また、ネットワーク50は、単一のネットワークではなく、例えば、イントラネットとインターネットとがゲートウェイなどネットワーク装置やその他の装置(図示せず)を介して構成されてよい。なお、情報処理装置10とカメラ装置100とが直接接続される場合、または情報処理装置10がカメラ装置100と同等のカメラ機能を内蔵する場合、ネットワーク50は情報処理システム1に含まれなくてよい。
For the
情報処理装置10は、例えば、デスクトップPC(Personal Computer)やノートPCなどであってもよいし、スマートフォンやタブレットPCなどのモバイル端末であってもよい。
The
情報処理装置10は、例えば、カメラ装置100によって人物の運動を撮影した映像を取得し、当該映像に含まれる人物の骨格情報に基づいて、運動の動きの状態を推定する。また、情報処理装置10は、例えば、映像における人物の顔器官の位置情報に基づいて、人物の顔の向きを推定する。また、情報処理装置10は、例えば、映像から人物のAUを推定して顔の表情を推定する。そして、情報処理装置10は、例えば、推定された運動の動きの状態と人物の顔の向きとの関係に基づいて、推定された顔の向きおよび表情に対するそれぞれの特徴量を重み付けし、重み付けされた特徴量に基づいて運動の強度を推定する。
For example, the
なお、図3では、情報処理装置10を1台のコンピュータとして示しているが、例えば、複数台のコンピュータで構成される分散型コンピューティングシステムであってもよい。また、情報処理装置10は、クラウドコンピューティングサービスを提供するサービス提供者によって管理されるクラウドコンピュータ装置であってもよい。
Note that although the
カメラ装置100は、例えば、人物を撮影するためのカメラである。カメラ装置100によって撮影された映像は、随時、または所定のタイミングで情報処理装置10に送信される。なお、上述したように、カメラ装置100は、情報処理装置10に内蔵されるカメラ機能であってもよい。
The
(情報処理装置10の機能構成)
次に、本実施形態の実行主体となる情報処理装置10の機能構成について説明する。図4は、本実施形態にかかる情報処理装置10の構成例を示すブロック図である。図4に示すように、情報処理装置10は、通信部20、記憶部30、および制御部40を有する。
(Functional configuration of information processing device 10)
Next, the functional configuration of the
通信部20は、カメラ装置100など、他の装置との間の通信を制御する処理部であり、例えば、ネットワークインタフェースカードなどの通信インタフェースや、USBインタフェースである。
The
記憶部30は、各種データや、制御部40が実行するプログラムを記憶する機能を有し、例えば、メモリやハードディスクなどの記憶装置により実現される。記憶部13は、例えば、映像情報31、運動解析モデル32、および表情筋推定モデル33を記憶する。
The
映像情報31は、例えば、カメラ装置100によって撮影された映像、すなわち、動画の一連のフレームである複数の撮像画像を記憶する。
The video information 31 stores, for example, a video shot by the
運動解析モデル32は、例えば、映像に映った人物の骨格情報から、人物が行っている運動の種類やタイミングを推定するための機械学習モデルに関する情報や、当該機械学習モデルを構築するためのモデルパラメータを記憶する。当該機械学習モデルは、例えば、人物の骨格情報を特徴量とし、当該人物が行っている運動の種類やタイミングを正解ラベルとして機械学習により生成される。なお、当該機械学習モデルは、情報処理装置10によって生成されてもよいし、別の情報処理装置によって訓練され生成されてもよい。
The
表情筋推定モデル33は、例えば、人物が映った映像からAUの発生強度を推定するための機械学習モデルに関する情報や、当該機械学習モデルを構築するためのモデルパラメータを記憶する。当該機械学習モデルは、例えば、カメラ装置100によって撮影される映像、すなわち、撮像画像を特徴量とし、AUの発生強度を正解ラベルとして機械学習により生成される。なお、当該機械学習モデルは、情報処理装置10によって生成されてもよいし、別の情報処理装置によって訓練され生成されてもよい。
The facial
なお、記憶部30に記憶される上記情報はあくまでも一例であり、記憶部30は、上記情報以外にも様々な情報を記憶できる。
Note that the above information stored in the
制御部40は、情報処理装置10全体を司る処理部であり、例えば、プロセッサなどである。制御部40は、運動解析部41、顔向き推定部42、表情筋推定部43、および顔エネルギー算出部44などを備える。なお、各処理部は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
The
運動解析部41は、例えば、既存技術を用いて、カメラ装置100によって撮影された映像に含まれる人物の骨格情報に基づいて、当該人物の身体の動きを含む運動の動きの状態を推定する。
The motion analysis unit 41 estimates the state of motion including the body movement of the person based on the skeletal information of the person included in the video captured by the
顔向き推定部42は、例えば、既存技術を用いて、カメラ装置100によって撮影された映像における人物の顔器官の各パーツの位置関係に基づいて、人物の顔の向きを推定する。
The face orientation estimating unit 42 estimates the orientation of the person's face based on the positional relationship of each part of the person's facial organs in the video captured by the
表情筋推定部43は、例えば、カメラ装置100によって撮影された映像から人物の顔の表情を推定する。これは、例えば、表情筋推定部43が、既存技術を用いて、顔面筋の解剖学的知見に基づき定義された、表情表出に関与する顔面上の動作を示すAUを推定し、推定されたAUに基づいて表情を推定する。
For example, the facial muscle estimating unit 43 estimates the facial expression of a person from an image captured by the
顔エネルギー算出部44は、例えば、推定された動きの状態と顔の向きとの関係に基づいて、顔の向きに対する第1の特徴量と、推定された表情に対する第2の特徴量とのそれぞれに重みを付与する。そして、顔エネルギー算出部44は、重みが付与された第1の特徴量と、重みが付与された第2の特徴量とに基づいて、運動の強度を推定する。 For example, the facial energy calculation unit 44 calculates a first feature amount for the facial orientation and a second feature amount for the estimated facial expression based on the relationship between the estimated movement state and the facial orientation. give weight to. Then, the facial energy calculation unit 44 estimates the intensity of the movement based on the weighted first feature amount and the weighted second feature amount.
次に、情報処理装置10を実行主体として実行される運動強度推定について、より具体的に説明する。図5は、本実施形態にかかる運動強度推定の一例を示す図である。
Next, the exercise intensity estimation executed by the
まず、図5に示すように、例えば、カメラ装置100によって撮像された映像が情報処理装置10に入力される(ステップS1)。入力された映像は、情報処理装置10によって映像情報31に記憶されてよい。
First, as shown in FIG. 5, for example, a video imaged by the
次に、情報処理装置10は、例えば、既存の物体検出アルゴリズムや、既存の骨格推定アルゴリズムを用いて、入力された映像から、人物を検出し、当該人物の骨格情報を生成し、人物が行っている運動を解析する(ステップS2)。なお、これら、人物の検出、骨格情報の生成、運動の解析は、入力された映像のフレームごとに実行されてよい。
Next, the
ここで、既存の物体検出アルゴリズムとは、例えば、YOLO(You Only Look Once)やSSD(Single Shot Multibox Detector)、および深層学習を用いたFaster R-CNN(Convolutional Neural Network)などの物体検出アルゴリズムであってよい。また、既存の骨格推定アルゴリズムとは、例えば、CPN(Cascaded Pyramid Network)などの既存の骨格推定アルゴリズムであってよい。 Here, existing object detection algorithms include object detection algorithms such as YOLO (You Only Look Once), SSD (Single Shot Multibox Detector), and Faster R-CNN (Convolutional Neural Network) using deep learning. It's good to be there. Further, the existing skeleton estimation algorithm may be, for example, an existing skeleton estimation algorithm such as CPN (Cascaded Pyramid Network).
また、人物が行っている運動の解析は、例えば、生成された骨格情報に基づいて、人物が行っている運動の種類やタイミングを推定する。これらの推定は、例えば、それぞれ、骨格情報を特徴量とし、運動の種類やタイミングを正解ラベルとして機械学習により生成された機械学習モデルを用いて行われてよい。なお、運動の種類が予め決定されている場合は、運動のタイミングだけ推定されてもよい。運動のタイミングの推定結果は、例えば、運動の後半になればなるほど値が大きくなる0~1のような正規化された値であってよい。これは、運動の後半になるほど、運動強度が表情に出易いことによる。より具体的には、運動のタイミングの推定結果(以下、「運動のタイミング値」という)は、例えば、スクワット運動の場合、10回のスクワットの内、1回目は0.1、2回目は0.2、・・・10回目は1という値であってよい。 Furthermore, the analysis of the movement performed by a person involves estimating the type and timing of the movement performed by the person, based on the generated skeletal information, for example. These estimations may be performed, for example, using a machine learning model generated by machine learning, using skeletal information as a feature amount and using the type and timing of movement as a correct label. Note that if the type of exercise is determined in advance, only the timing of the exercise may be estimated. The estimation result of the movement timing may be, for example, a normalized value such as 0 to 1 that increases as the movement progresses towards the latter half. This is because the intensity of the exercise is more likely to be expressed in facial expressions as the latter half of the exercise progresses. More specifically, the estimation result of exercise timing (hereinafter referred to as "exercise timing value") is, for example, in the case of a squat exercise, 0.1 for the first squat and 0 for the second squat. .2, . . . the 10th time may have a value of 1.
次に、情報処理装置10は、例えば、既存の顔向き推定アルゴリズムを用いて、入力された映像から、人物の顔の向きを推定する(ステップS3)。顔の向きの推定結果(以下、「顔の向きの値」という)は、例えば、正面の値を0として、顔の向きが上または下に向くにつれて値が大きくなる0~1のような正規化された値であってよい。または、顔の向きの値は、正面の値を0°とした場合の顔の向きの角度であってよい。これは、運動が苦しくなると人は上または下を向き易くなることによる。
Next, the
次に、情報処理装置10は、例えば、入力された映像から、人物の表情筋を推定する(ステップS4)。当該推定は、例えば、カメラ装置100によって撮影される映像、すなわち、撮像画像を特徴量とし、AUの発生強度を正解ラベルとして機械学習により生成された機械学習モデルを用いて行われてよい。AUの発生強度、すなわち、AU値は、図5に示すように全17種類あり、発生強度が低い方から0~5の値をとる。そして、各AUの値により、人物の表情が推定される。なお、必ずしもAUの個々の値のそれぞれが表情に対応しているわけではなく、AUの組み合わせと、組み合わせ内のAU値により表情が推定され得る。また、ステップS2~S4の運動解析、顔の向き推定、および表情筋推定の処理順は、図5に示された順番でなくてもよく、各処理の順番を入れ替えて、または各処理が並列に処理されてもよい。
Next, the
次に、情報処理装置10は、例えば、ステップS2~S4の運動解析、顔の向き推定、表情筋推定の結果に基づいて、人物が行っている運動の強度を推定する(ステップS5)。より具体的には、情報処理装置10は、例えば、次の式(1)により、人物が行っている運動の強度を算出する。
Next, the
式(1)により算出される運動強度は、映像のフレームごとに算出された運動強度の合計である。また、式(1)において、αは、例えば、ステップS2で推定される運動のタイミング値であってよい。また、βは、例えば、ステップS4で推定されるAUの値に対する重み係数であってよい。また、γは、ステップS3で算出される顔の向きの値に対する重み係数であってよい。なお、式(1)において用いられるAUの値は、例えば、全17種類のAUの値の平均などであってよい。また、重み係数βについて、例えば、顔の向きが正面の場合に、AUの値を用いるようにβを1に設定し、重みを付与してよい。また、重み係数γについて、例えば、顔の向きが運動の方向と同一の場合に、顔の向きの値を用いるようにγを1に設定し、重みを付与してよい。 The exercise intensity calculated by equation (1) is the sum of the exercise intensities calculated for each frame of the video. Further, in Equation (1), α may be, for example, the timing value of the movement estimated in step S2. Further, β may be, for example, a weighting coefficient for the value of AU estimated in step S4. Further, γ may be a weighting coefficient for the face orientation value calculated in step S3. Note that the AU value used in equation (1) may be, for example, the average of all 17 types of AU values. Further, regarding the weighting coefficient β, for example, when the face is facing forward, β may be set to 1 so as to use the value of AU, and a weight may be given. Further, regarding the weighting coefficient γ, for example, when the direction of the face is the same as the direction of movement, γ may be set to 1 so as to use the value of the direction of the face, and a weight may be assigned.
(処理の流れ)
次に、図6を用いて、情報処理装置10を実行主体とする運動強度の推定処理の流れを説明する。図6は、本実施形態にかかる運動強度推定処理の流れの一例を示すフローチャートである。図6に示す推定処理は、例えば、一定時間ごと、またはカメラ装置100から映像が受信される度に実行されてよい。
(Processing flow)
Next, the flow of exercise intensity estimation processing executed by the
まず、図6に示すように、情報処理装置10は、例えば、カメラ装置100によって人物が撮影され、情報処理装置10に入力された映像を映像情報31から取得する(ステップS101)。なお、図6に示す推定処理では、カメラ装置100によって撮影された映像をほぼリアルタイムに処理するため、映像はカメラ装置100から随時送信され、映像情報31に記憶される。
First, as shown in FIG. 6, the
次に、情報処理装置10は、例えば、ステップS101で取得された映像中の人物が行っている運動を解析する(ステップS102)。より具体的には、図5において説明したように、例えば、既存の物体検出アルゴリズムや、既存の骨格推定アルゴリズムを用いて、入力された映像から、人物を検出し、当該人物の骨格情報を生成し、人物が行っている運動が解析される。なお、ステップS102以降の処理は、入力された映像のフレームごとに実行されてよい。
Next, the
ステップS102の運動の解析により、推定された運動のタイミングが運動負荷の高いタイミングでない場合(ステップS103:No)、情報処理装置10は、例えば、タイミング値αに0を設定する(ステップS104)。このように、例えば、タイミング値αに0を設定することにより、運動負荷の高いタイミングでない場合のフレームでは、式(1)のαが0になり、当該フレームに対する運動強度は0となる。
If the estimated exercise timing is not a timing with a high exercise load according to the exercise analysis in step S102 (step S103: No), the
ステップS104の実行後、次のフレームがある場合(ステップS112:Yes)、次のフレームに対して、ステップS102から処理が繰り返される。 After execution of step S104, if there is a next frame (step S112: Yes), the process is repeated from step S102 for the next frame.
一方、推定された運動のタイミングが運動負荷の高いタイミングである場合(ステップS103:Yes)、情報処理装置10は、例えば、タイミング値αに0より大きく1以下の値を設定する(ステップS105)。より具体的には、情報処理装置10は、より運動負荷の高いタイミングの場合、例えば、10回のスクワット運動の場合は、後半になるにつれ、1に近づくようにタイミング値αを設定してよい。これにより、情報処理装置10は、式(1)による運動強度の算出の際に、運動負荷の高いタイミングの方が、運動負荷の低いタイミングの場合と比較して、より重み付けされて計算されるように制御できる。
On the other hand, if the estimated exercise timing is a timing with a high exercise load (step S103: Yes), the
次に、情報処理装置10は、例えば、ステップS101で取得された映像中の人物の顔の向きを、当該人物の顔器官の各パーツの位置関係に基づいて推定する(ステップS106)。そして、情報処理装置10は、例えば、ステップS106で推定された顔の向きが正面であるか否かを判定する。なお、ステップS106の推定結果は、例えば、正面の値を0として、顔の向きの角度が大きくなるほど1に近づくような値であってよく、情報処理装置10は、当該値が所定の閾値以下の場合に、正面を向いていると判定してよい。
Next, the
ステップS106で推定された顔の向きが正面であると判定された場合(ステップS107:Yes)、情報処理装置10は、例えば、重み係数βに1、γに0の値を設定する(ステップS108)。また、この際、情報処理装置10は、例えば、AUの値を算出する。これにより、顔の向きが正面でない場合、情報処理装置10は、式(1)による運動強度の算出の際に、AUの値を用い、顔の向きの値が用いないように制御できる。なお、AUの値は、例えば、全17種類のAUの値の平均などであってよい。ステップS108の実行後、ステップS112に進む。
If it is determined that the face direction estimated in step S106 is frontal (step S107: Yes), the
一方、ステップS106で推定された顔の向きが正面でないと判定された場合(ステップS107:No)、情報処理装置10は、例えば、顔の向きが運動方向と同一であるか否かを判定する(ステップS109)。なお、顔の向きが運動方向と同一であるか否かの判定は、それぞれの方向を示す値などが一致するか否かの判定に限られず、例えば、それぞれの方向を示す値など所定の範囲内にあるか否かの判定などであってよい。
On the other hand, if it is determined in step S106 that the estimated face orientation is not frontal (step S107: No), the
顔の向きが運動方向と同一でないと判定された場合(ステップS109:No)、情報処理装置10は、例えば、重み係数βに0、γに0の値を設定する(ステップS110)。この場合のフレームは運動強度の算出に用いるのは適切ではないため、情報処理装置10は、AUの値、および顔の向きの値ともに用いないように制御できる。ステップS110の実行後、ステップS112に進む。
If it is determined that the direction of the face is not the same as the direction of movement (step S109: No), the
一方、顔の向きが運動方向と同一であると判定された場合(ステップS109:Yes)、情報処理装置10は、例えば、重み係数βに0、γに1の値を設定する(ステップS111)。これにより、顔の向きが運動方向と同一でない場合、情報処理装置10は、式(1)による運動強度の算出の際に、顔の向きの値を用い、AUの値が用いないように制御できる。ステップS111の実行後、ステップS112に進む。
On the other hand, if it is determined that the direction of the face is the same as the direction of movement (step S109: Yes), the
次のフレームがある場合(ステップS112:Yes)、次のフレームに対して、ステップS102から処理が繰り返される。一方、次のフレームがない場合(ステップS112:No)、情報処理装置10は、例えば、式(1)、ならびに各フレームに対するタイミング値α、重み係数βおよびγを用いて、運動強度を算出する(ステップS113)。ステップS113の実行後、図6に示す運動強度推定処理は終了する。
If there is a next frame (step S112: Yes), the process is repeated from step S102 for the next frame. On the other hand, if there is no next frame (step S112: No), the
(効果)
上述したように、情報処理装置10は、人物の身体の動きを含む運動を撮影した映像を取得し、前記映像に含まれる前記人物の骨格情報に基づいて、前記運動の前記動きの状態を推定し、前記映像における前記人物の顔器官の位置情報に基づいて、前記人物の顔の向きを推定し、前記映像から前記顔の表情を推定し、推定された前記動きの状態と前記顔の向きとの関係に基づいて、前記顔の向きに対する第1の特徴量と、推定された前記表情に対する第2の特徴量とのそれぞれに重みを付与し、前記重みが付与された前記第1の特徴量と、前記重みが付与された前記第2の特徴量とに基づいて、前記運動の強度を推定する。
(effect)
As described above, the
これにより、情報処理装置10は、映像中の人物の運動の状態、顔の向き、およびAUを推定し、運動の状態と顔の向きとの関係に基づいて顔の向きとAUに重み付けして運動強度を推定する。これにより、情報処理装置10は、運動強度の推定精度をより向上させることができる。
As a result, the
また、情報処理装置10は、推定された前記顔の向きが正面か否かを判定する処理を前記コンピュータに実行させ、前記重みを付与する処理は、推定された前記顔の向きが正面であると判定された場合、前記第1の特徴量に、前記重みの付与として、重み係数を0に設定する処理を含む。
Further, the
これにより、情報処理装置10は、運動強度の推定精度をより向上させることができる。
Thereby, the
また、情報処理装置10は、推定された前記顔の向きが正面か否かを判定する処理を前記コンピュータに実行させ、推定された前記顔の向きが正面でないと判定された場合、前記顔の向きと前記運動の方向とが同一であるか否かを判定し、前記重みを付与する処理は、前記顔の向きと前記運動の方向とが同一であると判定された場合、前記第2の特徴量に、前記重みの付与として、重み係数を0に設定する処理を含む。
Further, the
これにより、情報処理装置10は、運動強度の推定精度をより向上させることができる。
Thereby, the
また、情報処理装置10は、映像から前記運動のタイミングを判定する処理を前記コンピュータに実行させ、前記強度を推定する処理は、前記運動のタイミングにさらに基づいて、前記強度を推定する処理を含む。
Further, the
これにより、情報処理装置10は、運動強度の推定精度をより向上させることができる。
Thereby, the
(システム)
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報は、特記する場合を除いて任意に変更されてもよい。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更されてもよい。
(system)
Information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings may be arbitrarily changed unless otherwise specified. Furthermore, the specific examples, distributions, numerical values, etc. described in the examples are merely examples, and may be changed arbitrarily.
また、各装置の構成要素の分散や統合の具体的形態は図示のものに限られない。例えば、図4の情報処理装置10の運動解析部41が複数の処理部に分散されたり、情報処理装置10の運動解析部41と顔向き推定部42とが1つの処理部に統合されたりしてもよい。つまり、その構成要素の全部または一部は、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合されてもよい。さらに、各装置の各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
Furthermore, the specific form of distribution and integration of the components of each device is not limited to what is illustrated. For example, the motion analysis unit 41 of the
図7は、本実施形態にかかる情報処理装置10のハードウェア構成例を示す図である。図7に示すように、情報処理装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図7に示した各部は、バスなどで相互に接続される。
FIG. 7 is a diagram showing an example of the hardware configuration of the
通信インタフェース10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図4などに示した各処理部や情報処理装置10の各機能を動作させるプログラムやDB(Data Base)を記憶する。
The communication interface 10a is a network interface card or the like, and communicates with other servers. The
プロセッサ10dは、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)などである。また、プロセッサ10dは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路により実現されるようにしてもよい。プロセッサ10dは、図4などに示した各処理部と同様の処理を実行するプログラムをHDD10bなどから読み出してメモリ10cに展開することで、図4などで説明した各機能を実現するプロセスを実行するハードウェア回路である。
The
また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、上記実施例が同様に適用されてよい。
Further, the
このプログラムは、インターネットなどのネットワークを介して配布されてもよい。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行されてもよい。 This program may be distributed via a network such as the Internet. In addition, this program is recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO (Magneto-Optical disk), or DVD (Digital Versatile Disc), and is read from the recording medium by the computer. It may also be executed by being read.
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。 Regarding the embodiments including the above examples, the following additional notes are further disclosed.
(付記1)人物の身体の動きを含む運動を撮影した映像を取得し、
前記映像に含まれる前記人物の骨格情報に基づいて、前記運動の前記動きの状態を推定し、
前記映像における前記人物の顔器官の位置情報に基づいて、前記人物の顔の向きを推定し、
前記映像から前記顔の表情を推定し、
推定された前記動きの状態と前記顔の向きとの関係に基づいて、前記顔の向きに対する第1の特徴量と、推定された前記表情に対する第2の特徴量とのそれぞれに重みを付与し、
前記重みが付与された前記第1の特徴量と、前記重みが付与された前記第2の特徴量とに基づいて、前記運動の強度を推定する
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(Additional note 1) Obtain a video of a person's exercise including body movements,
estimating the state of the movement of the movement based on skeletal information of the person included in the video;
Estimating the orientation of the person's face based on position information of facial organs of the person in the video,
estimating the facial expression from the video;
Based on the relationship between the estimated movement state and the face orientation, a weight is given to each of a first feature amount for the facial orientation and a second feature amount for the estimated facial expression. ,
Information characterized by causing a computer to perform a process of estimating the intensity of the exercise based on the first feature amount to which the weight is assigned and the second feature amount to which the weight is assigned. Processing program.
(付記2)推定された前記顔の向きが正面か否かを判定する
処理を前記コンピュータに実行させ、
前記重みを付与する処理は、
推定された前記顔の向きが正面であると判定された場合、前記第1の特徴量に、前記重みの付与として、重み係数を0に設定する
処理を含むことを特徴とする付記1に記載の情報処理プログラム。
(Additional note 2) causing the computer to execute a process of determining whether the estimated orientation of the face is frontal;
The process of assigning the weight is as follows:
As described in
(付記3)推定された前記顔の向きが正面か否かを判定する
処理を前記コンピュータに実行させ、
推定された前記顔の向きが正面でないと判定された場合、前記顔の向きと前記運動の方向とが同一であるか否かを判定し、
前記重みを付与する処理は、
前記顔の向きと前記運動の方向とが同一であると判定された場合、前記第2の特徴量に、前記重みの付与として、重み係数を0に設定する
処理を含むことを特徴とする付記1に記載の情報処理プログラム。
(Additional note 3) causing the computer to execute a process of determining whether the estimated orientation of the face is frontal;
If it is determined that the estimated orientation of the face is not frontal, determining whether or not the orientation of the face and the direction of the movement are the same;
The process of assigning the weight is as follows:
Supplementary note characterized in that, when it is determined that the direction of the face and the direction of the movement are the same, the weighting coefficient is set to 0 for the second feature amount as the weighting. 1. The information processing program described in 1.
(付記4)前記映像から前記運動のタイミングを判定する
処理を前記コンピュータに実行させ、
前記強度を推定する処理は、
前記運動のタイミングにさらに基づいて、前記強度を推定する
処理を含むことを特徴とする付記1に記載の情報処理プログラム。
(Additional note 4) causing the computer to execute a process of determining the timing of the movement from the video;
The process of estimating the strength is as follows:
The information processing program according to
(付記5)人物の身体の動きを含む運動を撮影した映像を取得し、
前記映像に含まれる前記人物の骨格情報に基づいて、前記運動の前記動きの状態を推定し、
前記映像における前記人物の顔器官の位置情報に基づいて、前記人物の顔の向きを推定し、
前記映像から前記顔の表情を推定し、
推定された前記動きの状態と前記顔の向きとの関係に基づいて、前記顔の向きに対する第1の特徴量と、推定された前記表情に対する第2の特徴量とのそれぞれに重みを付与し、
前記重みが付与された前記第1の特徴量と、前記重みが付与された前記第2の特徴量とに基づいて、前記運動の強度を推定する
処理をコンピュータが実行することを特徴とする情報処理方法。
(Additional note 5) Obtain a video of a person's exercise including body movements,
estimating the state of the movement of the movement based on skeletal information of the person included in the video;
Estimating the orientation of the person's face based on position information of facial organs of the person in the video,
estimating the facial expression from the video;
Based on the relationship between the estimated movement state and the face orientation, a weight is given to each of a first feature amount for the facial orientation and a second feature amount for the estimated facial expression. ,
Information characterized in that a computer executes a process of estimating the intensity of the exercise based on the first feature amount to which the weight is assigned and the second feature amount to which the weight is assigned. Processing method.
(付記6)推定された前記顔の向きが正面か否かを判定する
処理を前記コンピュータが実行し、
前記重みを付与する処理は、
推定された前記顔の向きが正面であると判定された場合、前記第1の特徴量に、前記重みの付与として、重み係数を0に設定する
処理を含むことを特徴とする付記5に記載の情報処理方法。
(Additional Note 6) The computer executes a process of determining whether the estimated direction of the face is frontal,
The process of assigning the weight is as follows:
According to appendix 5, the method includes a process of setting a weighting coefficient to 0 as the weighting to the first feature amount when it is determined that the estimated face direction is a frontal direction. information processing methods.
(付記7)推定された前記顔の向きが正面か否かを判定する
処理を前記コンピュータが実行し、
推定された前記顔の向きが正面でないと判定された場合、前記顔の向きと前記運動の方向とが同一であるか否かを判定し、
前記重みを付与する処理は、
前記顔の向きと前記運動の方向とが同一であると判定された場合、前記第2の特徴量に、前記重みの付与として、重み係数を0に設定する
処理を含むことを特徴とする付記5に記載の情報処理方法。
(Additional Note 7) The computer executes a process of determining whether the estimated direction of the face is frontal,
If it is determined that the estimated orientation of the face is not frontal, determining whether the orientation of the face and the direction of the movement are the same;
The process of assigning the weight is as follows:
A supplementary note characterized in that, when it is determined that the direction of the face and the direction of the movement are the same, a process of setting a weighting coefficient to 0 as the weighting to the second feature amount is included. 5. The information processing method described in 5.
(付記8)前記映像から前記運動のタイミングを判定する
処理を前記コンピュータが実行し、
前記強度を推定する処理は、
前記運動のタイミングにさらに基づいて、前記強度を推定する
処理を含むことを特徴とする付記5に記載の情報処理方法。
(Additional Note 8) The computer executes a process of determining the timing of the exercise from the video,
The process of estimating the strength is as follows:
The information processing method according to appendix 5, further comprising: estimating the intensity based on the timing of the exercise.
(付記9)プロセッサと、
前記プロセッサに動作可能に接続されたメモリと、
を備えた情報処理装置であって、前記プロセッサは、
人物の身体の動きを含む運動を撮影した映像を取得し、
前記映像に含まれる前記人物の骨格情報に基づいて、前記運動の前記動きの状態を推定し、
前記映像における前記人物の顔器官の位置情報に基づいて、前記人物の顔の向きを推定し、
前記映像から前記顔の表情を推定し、
推定された前記動きの状態と前記顔の向きとの関係に基づいて、前記顔の向きに対する第1の特徴量と、推定された前記表情に対する第2の特徴量とのそれぞれに重みを付与し、
前記重みが付与された前記第1の特徴量と、前記重みが付与された前記第2の特徴量とに基づいて、前記運動の強度を推定する
処理を実行することを特徴とする情報処理装置。
(Additional note 9) A processor,
a memory operably connected to the processor;
An information processing device comprising:
Obtain footage of a person's physical movements, including movement,
estimating the state of the movement of the movement based on skeletal information of the person included in the video;
Estimating the orientation of the person's face based on position information of facial organs of the person in the video,
estimating the facial expression from the video;
Based on the relationship between the estimated movement state and the face orientation, a weight is given to each of a first feature amount for the facial orientation and a second feature amount for the estimated facial expression. ,
An information processing device configured to perform a process of estimating the intensity of the exercise based on the first feature amount given the weight and the second feature amount given the weight. .
1 情報処理システム
10 情報処理装置
10a 通信インタフェース
10b HDD
10c メモリ
10d プロセッサ
20 通信部
30 記憶部
31 映像情報
32 運動解析モデル
33 表情筋推定モデル
40 制御部
41 運動解析部
42 顔向き推定部
43 表情筋推定部
44 顔エネルギー算出部
50 ネットワーク
100 カメラ装置
1
Claims (5)
前記映像に含まれる前記人物の骨格情報に基づいて、前記運動の前記動きの状態を推定し、
前記映像における前記人物の顔器官の位置情報に基づいて、前記人物の顔の向きを推定し、
前記映像から前記顔の表情を推定し、
推定された前記動きの状態と前記顔の向きとの関係に基づいて、前記顔の向きに対する第1の特徴量と、推定された前記表情に対する第2の特徴量とのそれぞれに重みを付与し、
前記重みが付与された前記第1の特徴量と、前記重みが付与された前記第2の特徴量とに基づいて、前記運動の強度を推定する
処理をコンピュータに実行させることを特徴とする情報処理プログラム。 Obtain footage of a person's physical movements, including movement,
estimating the state of the movement of the movement based on skeletal information of the person included in the video;
Estimating the orientation of the person's face based on position information of facial organs of the person in the video,
estimating the facial expression from the video;
Based on the relationship between the estimated movement state and the face orientation, a weight is given to each of a first feature amount for the facial orientation and a second feature amount for the estimated facial expression. ,
Information characterized by causing a computer to perform a process of estimating the intensity of the exercise based on the first feature amount to which the weight is assigned and the second feature amount to which the weight is assigned. Processing program.
処理を前記コンピュータに実行させ、
前記重みを付与する処理は、
推定された前記顔の向きが正面であると判定された場合、前記第1の特徴量に、前記重みの付与として、重み係数を0に設定する
処理を含むことを特徴とする請求項1に記載の情報処理プログラム。 causing the computer to execute a process of determining whether the estimated direction of the face is frontal;
The process of assigning the weight is as follows:
2. The method according to claim 1, further comprising a process of setting a weighting coefficient to 0 to give the weight to the first feature quantity when it is determined that the estimated direction of the face is a frontal direction. The information processing program described.
処理を前記コンピュータに実行させ、
推定された前記顔の向きが正面でないと判定された場合、前記顔の向きと前記運動の方向とが同一であるか否かを判定し、
前記重みを付与する処理は、
前記顔の向きと前記運動の方向とが同一であると判定された場合、前記第2の特徴量に、前記重みの付与として、重み係数を0に設定する
処理を含むことを特徴とする請求項1に記載の情報処理プログラム。 causing the computer to execute a process of determining whether the estimated direction of the face is frontal;
If it is determined that the estimated orientation of the face is not frontal, determining whether or not the orientation of the face and the direction of the movement are the same;
The process of assigning the weight is as follows:
A claim characterized in that, when it is determined that the direction of the face and the direction of the movement are the same, the weighting coefficient is set to 0 for the second feature amount as the weighting. The information processing program according to item 1.
処理を前記コンピュータに実行させ、
前記強度を推定する処理は、
前記運動のタイミングにさらに基づいて、前記強度を推定する
処理を含むことを特徴とする請求項1に記載の情報処理プログラム。 causing the computer to execute a process of determining the timing of the movement from the video;
The process of estimating the strength is as follows:
The information processing program according to claim 1, further comprising: estimating the intensity based on the timing of the exercise.
前記映像に含まれる前記人物の骨格情報に基づいて、前記運動の前記動きの状態を推定し、
前記映像における前記人物の顔器官の位置情報に基づいて、前記人物の顔の向きを推定し、
前記映像から前記顔の表情を推定し、
推定された前記動きの状態と前記顔の向きとの関係に基づいて、前記顔の向きに対する第1の特徴量と、推定された前記表情に対する第2の特徴量とのそれぞれに重みを付与し、
前記重みが付与された前記第1の特徴量と、前記重みが付与された前記第2の特徴量とに基づいて、前記運動の強度を推定する
処理をコンピュータが実行することを特徴とする情報処理方法。 Obtain footage of a person's physical movements, including movement,
estimating the state of the movement of the movement based on skeletal information of the person included in the video;
Estimating the orientation of the person's face based on position information of facial organs of the person in the video,
estimating the facial expression from the video;
Based on the relationship between the estimated movement state and the face orientation, a weight is given to each of a first feature amount for the facial orientation and a second feature amount for the estimated facial expression. ,
Information characterized in that a computer executes a process of estimating the intensity of the exercise based on the first feature amount to which the weight is assigned and the second feature amount to which the weight is assigned. Processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022088059A JP2023175557A (en) | 2022-05-30 | 2022-05-30 | Information processing program and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022088059A JP2023175557A (en) | 2022-05-30 | 2022-05-30 | Information processing program and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023175557A true JP2023175557A (en) | 2023-12-12 |
Family
ID=89121091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022088059A Pending JP2023175557A (en) | 2022-05-30 | 2022-05-30 | Information processing program and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023175557A (en) |
-
2022
- 2022-05-30 JP JP2022088059A patent/JP2023175557A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ma et al. | Group maximum differentiation competition: Model comparison with few samples | |
US11980790B2 (en) | Automated gait evaluation for retraining of running form using machine learning and digital video data | |
Peng et al. | Bag of events: An efficient probability-based feature extraction method for AER image sensors | |
CN108229262B (en) | Pornographic video detection method and device | |
JP7185805B2 (en) | Fall risk assessment system | |
CN112950581A (en) | Quality evaluation method and device and electronic equipment | |
JP6959898B2 (en) | Information processing equipment, support methods, and support systems | |
CN113822254B (en) | Model training method and related device | |
WO2021142904A1 (en) | Video analysis method and related model training method, device and apparatus therefor | |
CN112149602A (en) | Action counting method and device, electronic equipment and storage medium | |
CN117828320B (en) | Virtual digital person construction method and system | |
Wang et al. | Distortion recognition for image quality assessment with convolutional neural network | |
Tanigaki et al. | Predicting performance improvement of human activity recognition model by additional data collection | |
JP2023175557A (en) | Information processing program and information processing method | |
KR102566378B1 (en) | Method, computing device and computer program for providing home-training guide based on video analysis through artificial intelligence | |
CN118097765A (en) | Counting method, counting device, electronic equipment and storage medium | |
CN117010480A (en) | Model training method, device, equipment, storage medium and program product | |
CN113901514A (en) | Defense method for data attack and training method and system for model thereof | |
CN112446433A (en) | Method and device for determining accuracy of training posture and electronic equipment | |
CN114067429B (en) | Action recognition processing method, device and equipment | |
Trinh et al. | Design and Analysis of an FPGA-based CNN for Exercise Recognition | |
Mortazavi et al. | User-centric exergaming with fine-grain activity recognition: A dynamic optimization approach | |
CN115620392B (en) | Action counting method, device, medium and body-building equipment | |
CN115661935B (en) | Human body action accuracy determining method and device | |
Khandelwal et al. | Posture Classification Based on a Spine Shape Monitoring System |