JP2023179239A - Information processing program, information processing method, and information processing apparatus - Google Patents
Information processing program, information processing method, and information processing apparatus Download PDFInfo
- Publication number
- JP2023179239A JP2023179239A JP2022092433A JP2022092433A JP2023179239A JP 2023179239 A JP2023179239 A JP 2023179239A JP 2022092433 A JP2022092433 A JP 2022092433A JP 2022092433 A JP2022092433 A JP 2022092433A JP 2023179239 A JP2023179239 A JP 2023179239A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- abnormal
- data
- person
- skeletal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 91
- 238000003672 processing method Methods 0.000 title claims description 11
- 230000002159 abnormal effect Effects 0.000 claims abstract description 246
- 238000012549 training Methods 0.000 claims abstract description 213
- 238000000034 method Methods 0.000 claims abstract description 114
- 230000011218 segmentation Effects 0.000 claims description 92
- 239000013598 vector Substances 0.000 claims description 59
- 230000033001 locomotion Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 description 192
- 238000012545 processing Methods 0.000 description 82
- 102100025444 Gamma-butyrobetaine dioxygenase Human genes 0.000 description 26
- 101000934612 Homo sapiens Gamma-butyrobetaine dioxygenase Proteins 0.000 description 26
- 238000010801 machine learning Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 12
- 210000003423 ankle Anatomy 0.000 description 7
- 210000000988 bone and bone Anatomy 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000002683 foot Anatomy 0.000 description 3
- 210000001503 joint Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 210000000544 articulatio talocruralis Anatomy 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 102220168497 rs113022949 Human genes 0.000 description 1
- 102220049647 rs184898622 Human genes 0.000 description 1
- 102220008426 rs394105 Human genes 0.000 description 1
- 102220062248 rs568171603 Human genes 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理プログラム等に関する。 The present invention relates to an information processing program and the like.
体操などのスポーツ、ヘルスケアやエンターテイメントの分野において、骨格認識のニーズが高まっている。また、Deep Learning技術の向上により、画像方式によって、2次元(2D)または3次元(3D)の骨格認識の精度も向上しつつある。 The need for skeletal recognition is increasing in the fields of sports such as gymnastics, healthcare, and entertainment. Furthermore, with the improvement of deep learning technology, the accuracy of two-dimensional (2D) or three-dimensional (3D) skeleton recognition is also improving depending on the image method.
図16は、従来の骨格認識システムを説明するための図である。たとえば、従来の骨格認識システム1では、学習フェーズの処理と、推論フェーズの処理とが実行される。
FIG. 16 is a diagram for explaining a conventional skeleton recognition system. For example, in the conventional
学習フェーズにおいて、骨格認識システム1の関節位置学習部10は、訓練データセット5を基にして、関節位置推定モデル11を訓練する。訓練データセット5には、画像データと、正解ラベルとの組が含まれる。訓練データセット5の画像データは、カメラの画像フレームに含まれる人領域をバウンディングボックス(bounding box)で切り出した画像データである。訓練データセット5の正解ラベルは、人物の正解関節位置を示すラベルである。
In the learning phase, the joint position learning unit 10 of the
推論フェーズにおいて、骨格認識システム1の人検出部13は、カメラ12が撮影した画像フレームに対して人領域を検出し、画像フレームから人領域をバウンディングボックスで切り出した画像データ6を生成する。骨格認識システム1の関節位置推定部14は、訓練済みの関節位置推定モデル11に、画像データ6を入力することで、人物の関節位置推定結果7を得る。
In the inference phase, the
たとえば、図1に示した人検出部13は、人検出を行う場合に、機械学習モデルを利用する。人検出部13は、機械学習モデルが訓練不足であると、人領域を正確に検出できない場合がある。また、関節位置推定部14が、人領域を正確に検出できていない画像データを、関節位置推定モデル11に入力すると、人物の関節位置を精度よく推定できない場合がある。
For example, the
図17は、画像データに応じた関節位置推定結果の一例を示す図である。図17において、画像データ6aを関節位置推定モデル11に入力すると、関節位置推定結果7aが得られる。画像データ6aは、人領域をバウンディングボックスで切り出した正常な画像データであるため、関節位置推定結果7aは正常な推定結果となる。
FIG. 17 is a diagram showing an example of joint position estimation results according to image data. In FIG. 17, when image data 6a is input to the joint
画像データ6bを関節位置推定モデル11に入力すると、関節位置推定結果7bが得られる。画像データ6bは、左足の見切れが発生した画像データであるため、関節位置推定結果7bは正常な推定結果とならない。たとえば、左足の見切れの影響により、関節位置推定結果7bでは、右足の関節位置と、左足の関節位置とが重複している。
When the
画像データ6cを関節位置推定モデル11に入力すると、関節位置推定結果7cが得られる。画像データ6cは、人物以外に体操器具が含まれており、切り出された領域が、人領域よりも大きい画像データであるため、関節位置推定結果7cは正常な推定結果とならない。たとえば、画像データ6cに体操器具が含まれている影響により、関節位置推定結果7cでは、人物の関節位置の一部(左足首)が、体操器具上に配置されている。
When the
続いて、マルチカメラを用いた従来の3D骨格認識システムの一例について説明する。図18は、3D骨格認識システムの一例を示す図である。図18に示すように、この3D骨格認識システム2は、カメラ20a,20b,20c,20dと、人検出部21a,21b,21c,21dと、関節位置推定部22a,22b,22c,22dと、3D関節推定部23とを有する。
Next, an example of a conventional 3D skeleton recognition system using multiple cameras will be described. FIG. 18 is a diagram showing an example of a 3D skeleton recognition system. As shown in FIG. 18, this 3D skeleton recognition system 2 includes
カメラ20a~20dは、人物の画像をそれぞれ異なる方向から撮影し、撮影した画像フレームを、対応する人検出部21a,21b,21c,21dに出力する。以下の説明では、特に区別しない場合、カメラ20a~20dをまとめて、カメラ20と表記する。
The
人検出部21a~21dは、訓練済みの機械学習モデルを利用して、カメラ20が撮影した画像フレームから人領域を検出し、検出した人領域をバウンディングボックスで切り出した画像データを出力する。図18に示す例では、人検出部21aは、カメラ20aの画像フレームを基にして、画像データ8aを出力する。人検出部21bは、カメラ20bの画像フレームを基にして、画像データ8bを出力する。人検出部21cは、カメラ20cの画像フレームを基にして、画像データ8cを出力する。人検出部21dは、カメラ20dの画像フレームを基にして、画像データ8dを出力する。
The human detection units 21a to 21d detect human regions from the image frames captured by the camera 20 using trained machine learning models, and output image data in which the detected human regions are cut out using bounding boxes. In the example shown in FIG. 18, the person detection unit 21a outputs
図18に示す例では、画像データ8a,8dは、正常な画像データである。一方、画像データ8bは、左足首が見切れた画像データである。画像データ8cは、右足首が見切れた画像データである。
In the example shown in FIG. 18,
関節位置推定部22a~22dは、図16で説明した訓練済みの関節位置推定モデル11に、画像データ8a~8dをそれぞれ入力することで、ヒートマップ9a,9b,9c,9dを生成する。ヒートマップ9a~9dは、人物の各関節位置を示す情報である。
The joint
たとえば、ヒートマップ9a~9dには、右足首の関節ヒートマップ、左足首の関節ヒートマップ、他関節の関節ヒートマップが含まれる。関節ヒートマップでは、座標と尤度とが対応付けられ、該当する関節位置の最も確からしい座標の尤度ほど、大きな尤度となる。
For example, the
ヒートマップ9a,9dは、正常な画像データ8a,8dを基に推定されたヒートマップであり、各関節ヒートマップに示される関節位置は適切なものとなっている。
The
ヒートマップ9bは、左足首が見切れた画像データ8bを基に推定されたヒートマップであり、左足首の関節ヒートマップに示される関節位置が、誤認識されている。ヒートマップ9cは、右足首が見切れた画像データ8cを基に推定されたヒートマップであり、右足首の関節ヒートマップに示される関節位置が、誤認識されている。
The
3D関節推定部23は、ヒートマップ9a~9dを基にして、3D骨格データ24を生成する。3D骨格データ24は、人物の3次元関節位置を有する。たとえば、ヒートマップ9b,9cのように、関節位置が誤認識されると、3D骨格データ24の3次元関節位置に乱れが発生する。
The 3D
上記の3D骨格認識システム2は、カメラ20から時系列に画像フレームが入力される度に、上記処理を繰り返し実行し、時系列に複数の3D骨格データを生成する。時系列の3D骨格データは、体操競技の採点を行う場合に利用される。 The 3D skeleton recognition system 2 described above repeatedly executes the above processing every time image frames are inputted in time series from the camera 20, and generates a plurality of 3D skeleton data in time series. Time-series 3D skeletal data is used when scoring gymnastics competitions.
ここで、図18に示した3D骨格データ24の3次元関節位置の乱れを抑止するための従来技術として、従来技術1および従来技術2がある。
Here, as conventional techniques for suppressing disturbances in the three-dimensional joint positions of the
従来技術1では、人検出部21a~21dが利用する機械学習モデルを訓練する際の訓練データセットとして、様々なサイズの画像データを準備する。たとえば、従来技術1では、バウンディングボックスのサイズを正常なサイズだけではなく、意図的に、ランダムに変更し、見切れの発生した画像データ、人領域以外の対象物を含む大きすぎる画像データ等を人工的に発生させ、係る画像データを用いて、機械学習モデルを訓練する。これによって、人検出部21a~21dから出力される画像データに、人領域が適切に含まれるようにし、3D骨格データ24の3次元関節位置の乱れを抑止する。
In
従来技術2では、3D関節推定部23から出力される複数の3D骨格データから、3次元関節位置に乱れが発生した3D骨格データを特定し、特定した3D骨格データを生成する基となった画像データ(バウンディングボックスのサイズが異常な画像データ)を抽出する。たとえば、図18の3D骨格データ24に乱れが発生している場合には、画像データ8b,8cを抽出する。従来技術2では、抽出した画像データ8b,8cを基にして、関節位置推定モデル11を再訓練することで、3D骨格データ24の3次元関節位置の乱れを抑止する。
In conventional technology 2, 3D skeletal data in which disturbances have occurred in the 3D joint positions are identified from a plurality of 3D skeletal data output from the 3D
上述した従来技術1では、ランダムに生成される画像データが、実際の人領域検出の誤りに対応する画像データと必ずしも同様になるわけではないため、機械学習モデルを適切に訓練できず、十分な効果を得ることができない。また、実際の人領域検出の誤りに対応しない画像データを用いて、機械学習モデルを再訓練すると、機械学習モデルの精度が低下する場合もあり得る。
In
従来技術2では、実際に3次元座標の乱れが発生している骨格データに応じた画像データを利用するものであるため、実際に異常が発生している画像データだけでは再訓練を行うための十分な訓練データを確保することが難しい。 Conventional technology 2 uses image data that corresponds to skeletal data in which disturbances in three-dimensional coordinates have actually occurred, so it is difficult to perform retraining using only image data in which abnormalities have actually occurred. It is difficult to secure sufficient training data.
すなわち、人物の骨格データを推論するモデルの精度を向上させるために有用な訓練データを確保し、モデルを訓練ことが求められている。 That is, in order to improve the accuracy of a model that infers human skeletal data, it is necessary to secure useful training data and train the model.
1つの側面では、本発明は、人物の骨格データを推論するモデルの精度を向上させることができる情報処理プログラム、情報処理方法および情報処理装置を提供することを目的とする。 In one aspect, the present invention aims to provide an information processing program, an information processing method, and an information processing device that can improve the accuracy of a model for inferring skeletal data of a person.
第1の案では、コンピュータに次の処理を実行させる。コンピュータは、複数の訓練用画像データから人物の領域を切り出した複数の画像データを、学習モデルに入力した結果を基にして、複数の画像データに含まれる人物の複数の骨格データを推論する。コンピュータは、複数の骨格データを基にして、異常な骨格データを検出する。コンピュータは、複数の訓練用画像データのうち、異常な骨格データに対応する異常訓練用画像データから特定される人物の領域と、異常な骨格データに対応する画像データの人物の領域とを基にして、異常な骨格データに対応する画像データが、人物の領域が異常な画像データであるか否かを判定する。コンピュータは、異常な骨格データに対応する画像データが異常な画像データである場合に、異常訓練用画像データから特定される人物の関節位置の特徴と類似する人物の関節位置の特徴を有する類似訓練用画像データを、複数の訓練用画像データから特定する。コンピュータは、異常訓練用画像データから特定される人物の領域に基づいて、類似訓練用画像データから特定される人物の領域を調整する。コンピュータは、類似訓練用画像データから、調整後の人物の領域を切り出した画像データを基にして、学習モデルを訓練する。 In the first plan, the computer executes the following process. The computer infers the plurality of skeletal data of the person included in the plurality of image data based on the result of inputting the plurality of image data obtained by cutting out the region of the person from the plurality of training image data into the learning model. The computer detects abnormal skeletal data based on a plurality of skeletal data. The computer performs a search based on a region of the person identified from the abnormal training image data corresponding to the abnormal skeletal data and a region of the person in the image data corresponding to the abnormal skeletal data among the plurality of training image data. Then, it is determined whether or not the image data corresponding to the abnormal skeletal data has an abnormal human area. When the image data corresponding to abnormal skeletal data is abnormal image data, the computer performs similar training that has joint position characteristics of a person similar to the joint position characteristics of the person identified from the abnormal training image data. training image data is identified from a plurality of training image data. The computer adjusts the region of the person specified from the similar training image data based on the region of the person specified from the abnormal training image data. The computer trains the learning model based on the image data obtained by cutting out the adjusted human region from the similar training image data.
人物の骨格データを推論するモデルの精度を向上させることができる。 The accuracy of a model that infers human skeletal data can be improved.
以下に、本願の開示する情報処理プログラム、情報処理方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of an information processing program, an information processing method, and an information processing apparatus disclosed in the present application will be described in detail below based on the drawings. Note that the present invention is not limited to this example.
図1は、本実施例に係る骨格認識システムの一例を示す図である。図1に示すように、この骨格認識システム30は、カメラ31a,31b,31c,31dと、情報処理装置100とを有する。カメラ31a~31dは、情報処理装置100に接続される。
FIG. 1 is a diagram showing an example of a skeleton recognition system according to this embodiment. As shown in FIG. 1, this
カメラ31a~31dは、それぞれ異なる位置に設置され、競技者の画像(RGB<Red Green Blue>画像)を撮影する。カメラ31a~31dは、撮影した画像のデータを、情報処理装置100に送信する。カメラ31a~31dが撮影した画像のデータを「画像フレーム」と表記する。カメラ31a~31dは、時系列で複数の画像フレームを、情報処理装置100に送信する。各画像フレームには、フレーム番号が昇順に付与される。以下の説明では、適宜、カメラ31a~31dをまとめて「カメラ31」と表記する。
The
情報処理装置100は、訓練データセット50に格納される訓練用画像データと正解ラベルと組を基にして、骨格推論モデル40を事前に訓練しておく。たとえば、骨格推論モデル40は、人領域をバウンディングボックスで切り出した画像データを入力とし、3D骨格データを出力とするモデルである。
The
情報処理装置100は、カメラ31から受信する画像フレームと、訓練済みの骨格推論モデル40とを基にして、競技者の骨格データを推論する。
The
ここで、情報処理装置100が、骨格推論モデル40を再訓練する場合の処理について説明する。たとえば、情報処理装置100は、訓練データセット50に格納された複数の訓練用画像データから人領域を切り出した複数の画像データを骨格推論モデル40に入力して、複数の骨格データを推論する。
Here, a process when the
情報処理装置100は、複数の骨格データから異常な骨格データを特定し、異常な骨格データの推論元となる画像データが異常な画像データであるか否かを判定する。情報処理装置100は、異常な画像データである場合に、係る異常な画像データに対応する訓練用画像データに含まれる人物特徴に類似する人物特徴を有する他の訓練用画像データを特定する。情報処理装置100は、特定した他の訓練用画像データの人領域を調整し、調整した人領域を切り出した画像データを、再訓練時に利用する。
The
これによって、実際の人領域検出の誤りに対応する画像データの人物特徴に類似する他の画像データによって、骨格推論モデル40を再訓練できる。また、実際に3次元座標の乱れが発生している骨格データに応じた画像データだけではなく、上記他の画像データを更に用いて、骨格推論モデル40を再訓練できる。すなわち、人物の骨格データを精度よく推定できるように骨格推論モデル40を再訓練することができる。
As a result, the
図2は、本実施例に係る情報処理装置の処理を説明するための図である。図2に示すように、情報処理装置100は、人検出部151、骨格推論部152、セグメンテーション部153を有する。また、情報処理装置100は、異常骨格データ検出部154、異常画像データ検出部155、類似姿勢検出部156、訓練用画像データ生成部157、機械学習実行部158を有する。
FIG. 2 is a diagram for explaining the processing of the information processing apparatus according to this embodiment. As shown in FIG. 2, the
人検出部151は、訓練用画像データ60から、人領域を検出し、バウンディングボックスで人領域を切り出した画像データ61を生成する。図3は、人検出部の処理を説明するための図である。人検出部151は、訓練済みの機械学習モデル151aを利用する。機械学習モデル151aは、YOLO(YOU Only Look Once)、SSD(Single Shot Multibox Detector)、RCNN(Region Based Convolutional Neural Networks)などである。
The
図3に示すように、人検出部151は、訓練用画像データ60を、機械学習モデル70に入力して、人領域A1を検出し、検出した人領域A1をバウンディングボックスで切り出した画像データ61を出力する。たとえば、訓練用画像データ60には、フレーム番号が付与されており、画像データ61には、訓練用画像データ60と同一のフレーム番号が付与される。
As shown in FIG. 3, the
人検出部151は、複数の訓練用画像データ60に対して、上記処理を繰り返し実行することで、複数の画像データ61を出力する。人検出部151は、複数の画像データ61を、骨格推論部152、異常画像データ検出部155に出力する。
The
図2の説明に戻る。骨格推論部152は、訓練済みの骨格推論モデル40に、画像データ61を入力することで、骨格データ62を推論する。骨格データ62には、人物の各関節について、3次元の関節位置のデータが設定される。骨格データ62には、推論元の画像データ61と同一のフレーム番号が付与される。これによって、骨格データ62に付与されたフレーム番号と、推論元となる画像データ61とのフレーム番号とが同一となる。
Returning to the explanation of FIG. 2. The
骨格推論部152は、複数の画像データ61に対して、上記処理を繰り返し実行することで、複数の骨格データ62を生成する。骨格推論部152は、複数の骨格データ62を、異常骨格データ検出部154に出力する。
The
セグメンテーション部153は、訓練用画像データ60に対して、セグメンテーションを実行することで、訓練用画像データ60に含まれる人物の各部位を抽出したセグメンテーションデータ63を生成する。たとえば、セグメンテーション部153は、BodyPix等を用いて、セグメンテーションを実行する。セグメンテーションデータ63には、訓練用画像データ60と同一のフレーム番号が付与される。
The
図4は、セグメンテーションの一例を示す図である。図4に示す例では、訓練用画像データ60に対して、セグメンテーションを実行することで、セグメンテーションデータ63が得られる。たとえば、訓練用画像データ60の人物h1が、セグメンテーションデータ63において、複数のセグメントp1,p2,p3,p4,p5,p6,p7,p8,p9,p10,p11,p12,p13,p14,p15に分割されている。各セグメントp1~p15には、人物の部位が割り当てられる。訓練用画像データ60に複数の人物が含まれる場合には、各人物が、複数のセグメントに分割される。
FIG. 4 is a diagram illustrating an example of segmentation. In the example shown in FIG. 4,
セグメンテーション部153は、複数の訓練用画像データ60に対して、上記処理を繰り返し実行することで、複数のセグメンテーションデータ63を生成する。セグメンテーション部153は、複数のセグメンテーションデータ63を、異常画像データ検出部155、類似姿勢検出部156、訓練用画像データ生成部157に出力する。
The
異常骨格データ検出部154は、骨格データ62の関節位置間の距離(骨の長さ)、関節角度、前後の骨格データの関節位置の移動距離を基にして、複数の骨格データ62から、異常な骨格データを検出する。以下の説明では、異常な骨格データを「異常骨格データ」と表記する。
The abnormal skeletal
異常骨格データ検出部154が、骨の長さを基にして、異常骨格データを検出する処理の一例について説明する。異常骨格データ検出部154は、対象の骨格データに含まれる複数の関節位置のうち、第1関節位置と、第1関節位置の隣の第2関節位置とを選択し、第1関節位置と、第2関節位置との距離を計算する。異常骨格データ検出部154は、第1関節位置を変更しながら、上記処理を繰り返し実行し、各関節位置間の距離(骨の長さ)を算出する。
An example of a process in which the abnormal skeletal
異常骨格データ検出部154は、対象の骨格データから算出した各関節位置間の距離の平均値が、閾値Th1以上である場合に、対象の骨格データを、異常骨格データとして検出する。
The abnormal skeletal
異常骨格データ検出部154が、関節角度を基にして、異常骨格データを検出する処理の一例について説明する。異常骨格データ検出部154は、対象の骨格データに含まれる複数の関節のうち、第1関節と、第1関節の隣の第2関節とを選択し、第1関節と第2関節との関節角度を計算する。異常骨格データ検出部154は、第1関節と第2関節との角度が、人体の最大関節可動域に応じた閾値Th2以上である場合に、対象の骨格データを、異常骨格データとして検出する。異常骨格データ検出部154は、第1関節を変更しながら、上記処理を繰り返し実行する。
An example of a process in which the abnormal skeletal
異常骨格データ検出部154が、前後の骨格データの関節位置の移動距離を基にして、異常骨格データを検出する処理の一例について説明する。異常骨格データ検出部154は、フレーム番号Nの骨格データの第1関節の第1関節位置(N)を選択し、フレーム番号N+1の骨格データの第1関節の第1関節位置(N+1)を選択する。Nは自然数である。異常骨格データ検出部154は、第1関節位置(N)と、第1関節位置(N+1)との距離(移動距離)を計算し、移動距離が、閾値Th3以上である場合に、対象の骨格データを、異常骨格データとして検出する。異常骨格データ検出部154は、第1関節を変更しながら、上記処理を繰り返し実行する。
An example of a process in which the abnormal skeletal
異常骨格データ検出部154は、複数の骨格データに対して、上記処理を実行することで、異常骨格データを検出し、異常骨格データに対応するフレーム番号を、異常画像データ検出部155に出力する。
The abnormal skeletal
異常画像データ検出部155は、異常骨格データのフレーム番号に対応する画像データ61と、異常骨格データのフレーム番号に対応するセグメンテーションデータ63を取得する。以下の異常画像データ検出部155の説明では、異常骨格データのフレーム番号に対応する画像データ61、セグメンテーションデータ63を、単に、画像データ61、セグメンテーションデータ63と表記する。
The abnormal image
異常画像データ検出部155は、画像データ61と、セグメンテーションデータ63とを基にして、画像データ61が、異常な画像データ61であるか否かを判定する。以下の説明では、異常な画像データを「異常画像データ」と表記する。
The abnormal image
図5は、異常画像データ検出部の処理を説明するための図である。異常画像データ検出部155の処理を、ケース1とケース2に分けて説明を行う。
FIG. 5 is a diagram for explaining the processing of the abnormal image data detection section. The processing of the abnormal image
ケース1について説明する。異常画像データ検出部155は、セグメンテーションデータ63の複数の部位からなる人領域の外接BBOX75aを検出する。異常画像データ検出部155は、画像データ61の矩形75bを、セグメンテーションデータ63上に設定する。画像データ61は、訓練用画像データ60から検出される人領域のBBOXに対応する画像データであるため、異常画像データ検出部155は、訓練用画像データ60から検出される人領域のBBOXの位置情報を用いて、画像データ61の矩形75bを、セグメンテーションデータ63上に設定してもよい。
異常画像データ検出部155は、外接BBOX75aと、矩形75bとを比較し、第1正常条件及び第2正常条件を満たす場合には、画像データ61を正常な画像データであると判定する。第1正常条件は、外接BBOX75aの辺と、矩形75bの辺とが交差しないという条件である。第2正常条件は、外接BBOX75aの辺と、係る辺に対応する矩形75bの辺との距離が閾値Th4未満であるという条件である。
The abnormal image
異常画像データ検出部155は、ケース1に示す外接BBOX75aと、矩形75bとを比較した結果、第1正常条件及び第2正常条件を満たさないため、画像データ61を正常な画像データと判定する。
As a result of comparing the circumscribed
ケース2について説明する。異常画像データ検出部155は、セグメンテーションデータ63の複数の部位からなる人領域の外接BBOX75aを検出する。異常画像データ検出部155は、画像データ61の矩形75cを、セグメンテーションデータ63上に設定する。
Case 2 will be explained. The abnormal image
異常画像データ検出部155は、外接BBOX75aと、矩形75bとを比較すると、外接BBOX75aの辺と、矩形75bの辺とが交差しており、第1正常条件を満たさない。このため、異常画像データ検出部155は、画像データ61を異常画像データと判定する。
When the abnormal image
なお、異常画像データ検出部155は、外接BBOX75aの辺と、矩形75bの辺とが交差している場合でも、各辺の距離が閾値Th5未満の場合には、第1正常条件を満たすと判定してもよい。
Note that even if the side of the circumscribed
異常画像データ検出部155は、上記処理を実行し、画像データ61が、異常画像データであると判定した場合には、異常画像データ(画像データ61)のフレーム番号を、類似姿勢検出部156に出力する。
The abnormal image
図2の説明に戻る。類似姿勢検出部156は、異常画像データ(画像データ61)のフレーム番号に対応するセグメンテーションデータ63(以下、基準データと表記する)を取得する。類似姿勢検出部156は、基準データと、セグメンテーションデータ63とを比較し、基準データの人物の姿勢、基準データのカメラアングルに類似するセグメンテーションデータ63を検出する。
Returning to the explanation of FIG. 2. The similar
図6及び図7は、類似姿勢検出部の処理を説明するための図である。図6について説明する。類似姿勢検出部156は、基準データ76の各部位の境界を基にして関節位置を特定し、隣り合う2つの関節位置の部分ベクトルを求める処理を繰り返すことで、基準ベクトル情報76aを生成する。図6に示す例では、人物の関節数を「15」とする。各関節をJ0~J14と定義し、関節の関節位置(関節座標)をJi(x、y)とする。たとえば、基準データ76の左上隅の画素の位置を(0、0)とする。xは、幅方向の画素位置、yは、高さ方向の画素位置である。
6 and 7 are diagrams for explaining the processing of the similar posture detection section. FIG. 6 will be explained. Similar
たとえば、類似姿勢検出部156は、部分ベクトルV0を「V0=J1-J0」によって算出する。類似姿勢検出部156は、部分ベクトルV1を「V1=J2-J1」によって、算出する。類似姿勢検出部156は、部分ベクトルV2を「V2=J3-J1」によって算出する。類似姿勢検出部156は、部分ベクトルV3を「V3=J4-J3」によって算出する。類似姿勢検出部156は、部分ベクトルV4を「V4=J5-J4」によって算出する。類似姿勢検出部156は、部分ベクトルV5を「V5=J6-J1」によって算出する。類似姿勢検出部156は、部分ベクトルV6を「V6=J7-J6」によって算出する。類似姿勢検出部156は、部分ベクトルV7を「V7=J8-J7」によって算出する。
For example, the similar
類似姿勢検出部156は、部分ベクトルV8を「V8=J9-J0」によって算出する。類似姿勢検出部156は、部分ベクトルV9を「V9=J10-J9」によって算出する。類似姿勢検出部156は、部分ベクトルV10を「V10=J11-J10」によって算出する。類似姿勢検出部156は、部分ベクトルV11を「V11=J12-J0」によって算出する。類似姿勢検出部156は、部分ベクトルV12を「V12=J13-J12」によって算出する。類似姿勢検出部156は、部分ベクトルV13を「V13=J14-J13」によって算出する。
The similar
類似姿勢検出部156は、上記の処理を実行することで、各部分ベクトルV0~V13を算出し、基準ベクトル情報76aを生成する。
The similar
類似姿勢検出部156は、式(1)を基にして、各部分ベクトルを正規化する。正規化後の部分ベクトルをV’iとする。正規化することで、同じ姿勢の場合には、画像内の人物の前後の位置(遠い、近い)に関わらず、部分ベクトルの大きさ、向きが同一となる。
The similar
図7の説明に移行する。類似姿勢検出部156は、図6で説明した処理を実行することで、基準データ76から、基準ベクトル情報76aを生成する。類似姿勢検出部156は、図6で説明した処理と同様の処理を、セグメンテーションデータ63に対して実行することで、各部分ベクトルを求め、ベクトル情報77を生成する。
Moving on to the explanation of FIG. The similar
類似姿勢検出部156は、基準ベクトル情報76aの各部分ベクトルと、ベクトル情報77の各部分ベクトルとの比較結果を基にして、基準ベクトル情報76aと、ベクトル情報77とが類似するか否かを判定する。たとえば、類似姿勢検出部156は、基準ベクトル情報76aの部分ベクトルV’iと、ベクトル情報77の部分ベクトルV’iとの差が閾値Th6未満であるか否かを判定する処理を、i=0~13についてそれぞれ実行する。類似姿勢検出部156は、差が閾値Th6未満となる部分ベクトルが存在しない場合に、基準ベクトル情報76aと、ベクトル情報77とが類似すると判定する。
The similar
類似姿勢検出部156は、基準ベクトル情報76aと、ベクトル情報77とが類似すると判定した場合には、ベクトル情報77の生成元となるセグメンテーションデータ63のフレーム番号を特定する。以下の説明では、基準ベクトル情報76aの生成元となるセグメンテーションデータ63のフレーム番号を、基準フレーム番号と表記する。基準ベクトル情報76aと類似するベクトル情報77の生成元となるセグメンテーションデータ63のフレーム番号を、類似フレーム番号と表記する。類似姿勢検出部156は、基準フレーム番号と、類似フレーム番号とを、訓練用画像データ生成部157に出力する。
When determining that the
類似姿勢検出部156は、複数のセグメンテーションデータ63に対して、上記処理を繰り返し実行することで、類似フレーム番号を特定し、基準フレーム番号と、類似フレーム番号とを、訓練用画像データ生成部157に出力する。
The similar
図2の説明に戻る。訓練用画像データ生成部157は、基準フレーム番号と、類似フレーム番号とを基にして、画像データ64を生成する。
Returning to the explanation of FIG. 2. The training image
図8は、訓練用画像データ生成部の処理を説明するための図である。訓練用画像データ生成部157は、基準フレーム番号に対応するセグメンテーションデータ(基準データ)を取得する。訓練用画像データ生成部157は、類似フレーム番号に対応するセグメンテーションデータ(以下、類似セグメンテーションデータ80)を取得する。
FIG. 8 is a diagram for explaining the processing of the training image data generation section. The training image
訓練用画像データ生成部157は、類似セグメンテーションデータ80の複数の部位からなる人領域の外接BBOX77aを検出する。訓練用画像データ生成部157は、基準データの複数の部位からなる人領域の外接BBOX77bを検出する。訓練用画像データ生成部157は、外接BBOX77bの縦横比率に合わせて、外接BBOX77aの縦横比率を調整したBBOX77cを生成する。
The training image
訓練用画像データ生成部157は、類似フレーム番号に対応する訓練用画像データ60を取得し、訓練用画像データ60を、BBOX77cで切り出すことで、画像データ64を生成する。訓練用画像データ生成部157は、基準フレーム番号と、類似フレーム番号との組について、上記処理をそれぞれ実行することで、複数の画像データ64を生成する。訓練用画像データ生成部157は、画像データ64に対応する正解ラベルとして、類似フレーム番号に対応する訓練用画像データ60の正解ラベルを設定することで、訓練データセットを生成する。
The training image
機械学習実行部158は、訓練用画像データ生成部157によって生成される訓練データセットおよび訓練用画像データ60(バウンディングボックスで切り出した画像データ61および正解ラベル)を用いて、骨格推論モデル40を再訓練する。たとえば、機械学習実行部158は、画像データを骨格推論モデル40に入力した際の出力が、正解ラベルに近づくように、骨格推論モデル40のパラメータを訓練する。
The machine
次に、本実施例に係る情報処理装置100の構成例について説明する。図9は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。図9に示すように、情報処理装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
Next, a configuration example of the
通信部110は、カメラ31から画像フレームを受信する。通信部110は、外部装置とデータ通信を実行し、訓練データセット50等を受信してもよい。 The communication unit 110 receives image frames from the camera 31. The communication unit 110 may perform data communication with an external device and receive the training data set 50 and the like.
入力部120は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部150に対して各種の情報を入力する。
The
表示部130は、液晶ディスプレイなどの表示装置等によって実現される。 The display unit 130 is realized by a display device such as a liquid crystal display.
記憶部140は、骨格推論モデル40および訓練データセット50を有する。図示を省略するが、記憶部140は、制御部150で利用される各種のデータも記憶する。記憶部140は、たとえば、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
The storage unit 140 includes a
骨格推論モデル40は、人領域をバウンディングボックスで切り出した画像データを入力とし、3D骨格データを出力とするモデルである。骨格推論モデル40は、NN(Neural Network)等である。
The
訓練データセット50は、訓練用画像データと正解ラベルとの組を複数格納する。訓練データセット50は、骨格推論モデル40を訓練する場合に利用される。
The training data set 50 stores a plurality of pairs of training image data and correct labels. The training data set 50 is used when training the
技認識テーブル141は、各骨格データに含まれる各関節位置の時系列変化と、技の種別とを対応付けるテーブルである。また、技認識テーブル141は、技の種別の組み合わせと、スコアとを対応付ける。スコアは、D(Difficulty)スコアとE(Execution)スコアとの合計で算出される。たとえば、Dスコアは、技の難易度に基づいて算出されるスコアである。Eスコアは、技の完成度に応じて、減点法により算出されるスコアである。 The technique recognition table 141 is a table that associates time-series changes in the positions of each joint included in each skeleton data with the type of technique. Further, the technique recognition table 141 associates combinations of technique types with scores. The score is calculated as the sum of the D (Difficulty) score and the E (Execution) score. For example, the D score is a score calculated based on the difficulty level of the technique. The E score is a score calculated by a point deduction method according to the degree of perfection of the technique.
制御部150は、人検出部151、骨格推論部152、セグメンテーション部153を有する。制御部150は、異常骨格データ検出部154、異常画像データ検出部155、類似姿勢検出部156、訓練用画像データ生成部157、機械学習実行部158、技認識部159を有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)により実現される。また、制御部150は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実行されてもよい。
The
制御部150の各処理部151~159は、推論フェーズ、学習フェーズにおいて、それぞれ異なる処理を実行する。
Each of the
制御部150の推論フェーズの処理について説明する。推論フェーズでは、人検出部151、骨格推論部152、技認識部159が処理を実行する。
The inference phase processing of the
人検出部151は、カメラ31から送信する画像フレームを受信し、画像フレームから、人領域を検出し、バウンディングボックスで人領域を切り出した画像データを生成する。人検出部151は、生成した画像データを、骨格推論部152に出力する。人検出部151は、時系列の画像フレームに対して、上記処理を繰り返し実行する。
The
骨格推論部152は、人検出部151から取得する画像データを、訓練済みの骨格推論モデル40に入力することで、競技者の骨格データを推論する。骨格推論部152は、推論した骨格データを、技認識部159に出力する。骨格推定部152は、時系列の画像データに対して、上記処理を繰り返し実行する。
The
技認識部159は、時系列の骨格データを基にして、各関節位置の時系列変化を特定する。技認識部159は、各関節位置の時系列変化と、技認識テーブルとを比較して、技の種別を特定する。また、技認識部159は、技の種別の組み合わせと、技認識テーブル141とを比較して、競技者の演技のスコアを算出する。
The
技認識部159は、演技のスコアと、演技の開始から終了までの骨格データとを基にして、画面情報を生成する。技認識部159は、生成した画面情報を、表示部130に出力して表示させる。
The
続いて、制御部150の学習フェーズの処理について説明する。学習フェーズでは、人検出部151、骨格推論部152、セグメンテーション部153、異常骨格データ検出部154、異常画像データ検出部155、類似姿勢検出部156、訓練用画像データ生成部157、機械学習実行部158が処理を実行する。制御部150の学習フェーズの処理は、図2で説明した処理に対応する。
Next, the learning phase processing of the
人検出部151は、訓練データセット50に格納された訓練用画像データ60を取得し、訓練用画像データ60から、人領域を検出し、バウンディングボックスで人領域を切り出した画像データ61を生成する。人検出部151は、複数の画像データ61を、骨格推論部152、異常画像データ検出部155に出力する。学習フェーズにおける、人検出部151のその他の処理は、図2で説明した人検出部151の処理と同様である。
The
骨格推定部152は、訓練済みの骨格推論モデル40に、画像データ61を入力することで、骨格データ62を推論する。骨格推論部152は、複数の骨格データ62を、異常骨格データ検出部154に出力する。骨格推定部152に関するその他の処理は、図2で説明した骨格推定部152の処理と同様である。
The
セグメンテーション部153は、訓練データセット50に格納された訓練用画像データ60を取得する。セグメンテーション部153は、訓練用画像データ60に対して、セグメンテーションを実行することで、訓練用画像データ60に含まれる人物の各部位を抽出したセグメンテーションデータ63を生成する。セグメンテーション部153は、複数のセグメンテーションデータ63を、異常画像データ検出部155、類似姿勢検出部156、訓練用画像データ生成部157に出力する。セグメンテーション部153に関するその他の処理は、図2で説明したセグメンテーション部153の処理と同様である。
The
異常骨格データ検出部154は、骨格データ62の関節位置間の距離(骨の長さ)、関節角度、前後の骨格データの関節位置の移動距離を基にして、複数の骨格データ62から、異常な骨格データ(異常骨格データ)を検出する。異常骨格データ検出部154は、異常骨格データに対応するフレーム番号を、異常画像データ検出部155に出力する。異常骨格データ検出部154に関するその他の処理は、図2で説明した異常骨格データ検出部154の処理と同様である。
The abnormal skeletal
異常画像データ検出部155は、異常骨格データのフレーム番号に対応する画像データ61と、異常骨格データのフレーム番号に対応するセグメンテーションデータ63を取得し、画像データ61が、異常画像データであるか否かを判定する。異常画像データ検出部155は、異常画像データ(画像データ61)のフレーム番号を、類似姿勢検出部156に出力する。異常画像データ検出部155に関するその他の処理は、図2で説明した異常画像データ検出部155の処理と同様である。
The abnormal image
類似姿勢検出部156は、異常画像データ(画像データ61)のフレーム番号に対応するセグメンテーションデータ63(以下、基準データと表記する)を取得する。類似姿勢検出部156は、基準データと、セグメンテーションデータ63とを比較し、基準データの人物の姿勢、基準データのカメラアングルに類似するセグメンテーションデータ63を検出する。類似姿勢検出部156は、基準データの基準フレーム番号と、基準データのカメラアングルに類似するセグメンテーションデータ63の類似フレーム番号とを、訓練用画像データ生成部157に出力する。類似姿勢検出部156に関するその他の処理は、図2で説明した類似姿勢検出部156の処理と同様である。
The similar
訓練用画像データ生成部157は、基準フレーム番号と、類似フレーム番号とを基にして、画像データ64を生成する。訓練用画像データ生成部157は、画像データ64に対応する正解ラベルとして、類似フレーム番号に対応する訓練用画像データ60の正解ラベルを設定することで、訓練データセットを生成する。訓練用画像データ生成部157は、生成した訓練データセットのデータを、訓練データセット50に追加登録する。訓練用画像データ生成部157に関するその他の処理は、図2で説明した訓練用画像データ生成部157の処理と同様である。
The training image
機械学習実行部158は、訓練データセット50を用いて、骨格推論モデル40を再訓練する。たとえば、機械学習実行部158は、画像データを骨格推論モデル40に入力した際の出力が、正解ラベルに近づくように、骨格推論モデル40のパラメータを訓練する。
The machine
次に、本実施例に係る情報処理装置100の処理手順の一例について説明する。図10は、本実施例に係る情報処理装置の処理手順を示すフローチャートである。図10に示すように、情報処理装置100の制御部150は、訓練データセット50から、訓練用画像データを取得する(ステップS101)。
Next, an example of a processing procedure of the
情報処理装置100の人検出部151は、訓練用画像データに対して、人検出を実行し、画像データを生成する(ステップS102)。情報処理装置100の骨格推論部152は、画像データを骨格推論モデル40に入力して、骨格データを推論する(ステップS103)。情報処理装置100のセグメンテーション部153は、訓練用画像データに対して、セグメンテーションを実行し、セグメンテーションデータを生成する(ステップS104)。
The
情報処理装置100の異常骨格データ検出部154は、異常骨格データ検出処理を実行する(ステップS105)。情報処理装置100の異常画像データ検出部155は、異常画像データ検出処理を実行する(ステップS106)。
The abnormal skeletal
情報処理装置100の類似姿勢検出部156は、類似姿勢検出処理を実行する(ステップS107)。情報処理装置100の訓練用画像データ生成部157は、訓練用画像データ生成処理を実行する(ステップS108)。
The similar
訓練用画像データ生成部157は、生成した訓練用画像データおよび正解ラベルを訓練データセット50に登録する(ステップS109)。情報処理装置100の機械学習実行部158は、訓練データセット50を用いて、骨格推論モデルを訓練する(ステップS110)。
The training image
情報処理装置100は、処理を継続する場合には(ステップS111,Yes)、ステップS101に移行する。情報処理装置100は、処理を継続しない場合には(ステップS111,No)、処理を終了する。
If the
続いて、図10のステップS105に示した異常骨格データ検出処理の処理手順の一例について説明する。図11は、異常骨格データ検出処理の処理手順を示すフローチャートである。情報処理装置100の異常骨格データ検出部154は、骨格データを取得する(ステップS201)。
Next, an example of the processing procedure of the abnormal skeleton data detection process shown in step S105 of FIG. 10 will be described. FIG. 11 is a flowchart showing the processing procedure of abnormal skeletal data detection processing. The abnormal skeletal
異常骨格データ検出部154は、骨格データを基にして、骨の長さを算出する(ステップS202)。異常骨格データ検出部154は、骨の長さが閾値Th1以上の場合には(ステップS203,Yes)、ステップS209に移行する。
The abnormal skeletal
一方、異常骨格データ検出部154は、骨の長さが閾値Th1以上でない場合には(ステップS203,No)、骨格データを基にして、関節角度を算出する(ステップS204)。異常骨格データ検出部154は、関節角度が閾値Th2以上の場合には(ステップS205,Yes)、ステップS209に移行する。
On the other hand, if the bone length is not equal to or greater than the threshold Th1 (step S203, No), the abnormal skeletal
異常骨格データ検出部154は、関節角度が閾値Th2以上でない場合には(ステップS205,No)、骨格データを基にして、移動距離を算出する(ステップS206)。異常骨格データ検出部154は、移動距離が閾値Th2以上でない場合には(ステップS207,No)、骨格データを正常と判定する(ステップS208)。
If the joint angle is not equal to or greater than the threshold Th2 (step S205, No), the abnormal skeleton
一方、異常骨格データ検出部154は、移動距離が閾値Th2以上の場合には(ステップS207,Yes)、骨格データを異常と判定する(ステップS209)。異常骨格データ検出部154は、異常骨格データのフレーム番号を出力する(ステップS210)。
On the other hand, if the moving distance is equal to or greater than the threshold Th2 (Step S207, Yes), the abnormal skeleton
続いて、図10のステップS106に示した異常画像データ検出処理の処理手順の一例について説明する。図12は、異常画像データ検出処理の処理手順を示すフローチャートである。図12に示すように、情報処理装置100の異常画像データ検出部155は、異常骨格データのフレーム番号に対応する画像データと、セグメンテーションデータとを取得する(ステップS301)。
Next, an example of the processing procedure of the abnormal image data detection process shown in step S106 of FIG. 10 will be described. FIG. 12 is a flowchart showing the processing procedure of abnormal image data detection processing. As shown in FIG. 12, the abnormal image
異常画像データ検出部155は、セグメンテーションデータの人領域の外接BBOXを検出する(ステップS302)。異常画像データ検出部155は、画像データの矩形と、外接BBOXとを比較する(ステップS303)。
The abnormal image
異常画像データ検出部155は、画像データの矩形と、外接BBOXとの関係が、第1正常条件を満たす場合には(ステップS304,Yes)、ステップS306に移行する。一方、異常画像データ検出部155は、第1正常条件を満たさない場合には(ステップS304,No)、画像データを異常(見切れ)と判定し(ステップS305)、ステップS308に移行する。
If the relationship between the rectangle of the image data and the circumscribed BBOX satisfies the first normal condition (step S304, Yes), the abnormal image
異常画像データ検出部155は、画像データの矩形と、外接BBOXとの関係が、第2正常条件を満たす場合には(ステップS306,Yes)、画像データを正常と判定する(ステップS309)。
If the relationship between the rectangle of the image data and the circumscribed BBOX satisfies the second normal condition (Step S306, Yes), the abnormal image
一方、異常画像データ検出部155は、第2正常条件を満たさない場合には(ステップS306,No)、画像データを異常(大きすぎ)と判定する(ステップS307)。異常画像データ検出部155は、異常画像データのフレーム番号を出力する(ステップS308)。
On the other hand, if the second normal condition is not satisfied (step S306, No), the abnormal image
続いて、図10のステップS107に示した類似姿勢検出処理の処理手順の一例について説明する。図13は、類似姿勢検出処理の処理手順を示すフローチャートである。情報処理装置100の類似姿勢検出部156は、異常画像データのフレーム番号に対応するセグメンテーションデータ(基準データ)を取得する(ステップS401)。類似姿勢検出部156は、基準データの各部分ベクトルを算出し、正規化する(ステップS402)。
Next, an example of the processing procedure of the similar posture detection processing shown in step S107 in FIG. 10 will be described. FIG. 13 is a flowchart showing the processing procedure of similar posture detection processing. The similar
類似姿勢検出部156は、未選択のセグメンテーションデータを取得する(ステップS403)。類似姿勢検出部156は、取得したセグメンテーションデータの各部分ベクトルを算出し、正規化する(ステップS404)。
The similar
類似姿勢検出部156は、基準データの各部分ベクトルと、セグメンテーションデータの各部分ベクトルとを比較する(ステップS405)。類似姿勢検出部156は、全ての部分ベクトルの角度およびサイズの差が閾値Th6未満でない場合には(ステップS406,No)、セグメンテーションデータを非類似フレームと判定し(ステップS407)、ステップS410に移行する。
The similar
一方、類似姿勢検出部156は、全ての部分ベクトルの角度およびサイズの差が閾値Th6未満となる場合は(ステップS406,Yes)、セグメンテーションデータを類似フレームと判定する(ステップS408)。類似姿勢検出部156は、類似フレームの類似フレーム番号を出力する(ステップS409)。
On the other hand, if the difference in angle and size of all partial vectors is less than the threshold Th6 (Step S406, Yes), the similar
類似姿勢検出部156は、全てのセグメンテーションデータを選択していない場合には(ステップS410,No)、ステップS403に移行する。類似姿勢検出部156は、全てのセグメンテーションデータを選択した場合には(ステップS410,Yes)、処理を終了する。
If the similar
続いて、図10のステップS108に示した訓練用画像データ生成処理の処理手順の一例について説明する。図14は、訓練用画像データ生成処理の処理手順を示すフローチャートである。図14に示すように、情報処理装置100の訓練用画像データ生成部157は、類似フレーム番号に対応する類似セグメンテーションデータを取得する(ステップS501)。
Next, an example of the processing procedure of the training image data generation process shown in step S108 of FIG. 10 will be described. FIG. 14 is a flowchart showing the processing procedure of training image data generation processing. As shown in FIG. 14, the training image
訓練用画像データ生成部157は、基準フレーム番号に対応するセグメンテーションデータ(基準データ)を取得する(ステップS502)。訓練用画像データ生成部157は、類似セグメンテーションデータの外接BBOXを検出する(ステップS503)。
The training image
訓練用画像データ生成部157は、基準データの外接BBOXを検出する(ステップS504)。訓練用画像データ生成部157は、基準データの外接BBOXの縦横比を基にして、類似セグメントテーションデータの外接BBOXを調整する(ステップS505)。
The training image
訓練用画像データ生成部157は、訓練用画像データを、調整後の外接BBOXで切り出すことで、画像データを生成する(ステップS506)。
The training image
次に、本実施例に係る情報処理装置100の効果について説明する。情報処理装置100は、複数の骨格データから異常な骨格データを特定し、異常な骨格データの推論元となる画像データが異常な画像データであるか否かを判定する。情報処理装置100は、異常な画像データである場合に、係る異常な画像データに対応する訓練用画像データに含まれる人物特徴に類似する人物特徴を有する他の訓練用画像データを特定する。情報処理装置100は、特定した他の訓練用画像データの人領域を調整し、調整した人領域を切り出した画像データを、再訓練時に利用する。
Next, the effects of the
これによって、実際の人領域検出の誤りに対応する画像データの人物特徴に類似する他の画像データによって、骨格推論モデル40を再訓練できる。また、実際に3次元座標の乱れが発生している骨格データに応じた画像データだけではなく、上記他の画像データを更に用いて、骨格推論モデル40を再訓練できる。すなわち、人物の骨格データを精度よく推定できるように骨格推論モデル40を再訓練することができる。
As a result, the
情報処理装置100は、骨格データに含まれる関節位置間の距離、関節角度、および、連続する骨格データの同一の関節位置の移動距離を基にして、異常な骨格データを検出する。これによって、実際に3次元座標の乱れが発生している骨格データを検出することができる。
The
情報処理装置100は、訓練用画像データに対してセグメンテーションを実行して、前記人物の複数の部位を特定し、複数の部位に外接する外接矩形を特定する。これによって、検出部151によって特定される人領域とは別に、セグメンテーション結果に基づいた人領域の外接矩形を特定することができる。
The
情報処理装置100は、画像データ61と、セグメンテーションデータに基づく外接矩形とを基にして、異常画像データを検出する。これによって、再訓練時に利用可能な候補となる画像データを特定することができる。
The
情報処理装置100は、異常画像データに含まれる人物の関節位置を基準とするベクトルと類似する人物の関節位置を基準とするベクトル有する画像データを検出する。これによって、再訓練時に利用可能な候補となる画像データであって、異常画像データに類似する画像データを検出することができる。
The
次に、上記実施例に示した情報処理装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図15は、実施例の情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
Next, an example of the hardware configuration of a computer that implements the same functions as the
図15に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行う通信装置204と、インタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201~207は、バス208に接続される。
As shown in FIG. 15, the
ハードディスク装置207は、人検出プログラム207a、骨格推論プログラム207b、セグメンテーションプログラム207c、異常骨格データ検出プログラム207d、異常画像データ検出プログラム207eを有する。ハードディスク装置207は、類似姿勢検出プログラム207f、訓練用画像データ生成プログラム207g、機械学習実行プログラム207h、技認識プログラム207iを有する。また、CPU201は、各プログラム207a~207iを読み出してRAM206に展開する。
The
人検出プログラム207aは、人検出プロセス206aとして機能する。骨格推論プログラム207bは、骨格推論プロセス206bとして機能する。セグメンテーションプログラム207cは、セグメンテーションプロセス206cとして機能する。異常骨格データ検出プログラム207dは、異常骨格データ検出プロセス206dとして機能する。異常画像データ検出プログラム207eは、異常画像データ検出プロセス206eとして機能する。類似姿勢検出プログラム207fは、類似姿勢検出プロセス206fとして機能する。訓練用画像データ生成プログラム207gは、訓練用画像データ生成プロセス207gとして機能する。機械学習実行プログラム207hは、機械学習実行プロセス206hとして機能する。技認識プログラム207iは、技認識プロセス206iとして機能する。
The
人検出プロセス206aの処理は、人検出部151の処理に対応する。骨格推論プロセス206bの処理は、骨格推定部152の処理に対応する。セグメンテーションプロセス206cの処理は、セグメンテーション部153の処理に対応する。異常骨格データ検出プロセス206dの処理は、異常骨格データ検出部154の処理に対応する。異常画像データ検出プロセス206eの処理は、異常画像データ検出部155の処理に対応する。類似姿勢検出プロセス206fの処理は、類似姿勢検出部156の処理に対応する。訓練用画像データ生成プロセス207gの処理は、訓練用画像データ生成部157の処理に対応する。機械学習実行プロセス206hの処理は、機械学習実行部158の処理に対応する。技認識プロセス206iの処理は、技認識部159の処理に対応する。
The processing of the
なお、各プログラム207a~207iについては、必ずしも最初からハードディスク装置307に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD-ROM、DVD、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a~207iを読み出して実行するようにしてもよい。
Note that each of the
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 Regarding the embodiments including each of the above examples, the following additional notes are further disclosed.
(付記1)複数の訓練用画像データから人物の領域を切り出した複数の画像データを、学習モデルに入力した結果を基にして、前記複数の画像データに含まれる人物の複数の骨格データを推論し、
前記複数の骨格データを基にして、異常な骨格データを検出し、
前記複数の訓練用画像データのうち、前記異常な骨格データに対応する異常訓練用画像データから特定される前記人物の領域と、前記異常な骨格データに対応する画像データの人物の領域とを基にして、前記異常な骨格データに対応する画像データが、人物の領域が異常な画像データであるか否かを判定し、
前記異常な骨格データに対応する画像データが異常な画像データである場合に、前記異常訓練用画像データから特定される前記人物の関節位置の特徴と類似する前記人物の関節位置の特徴を有する類似訓練用画像データを、前記複数の訓練用画像データから特定し、
前記異常訓練用画像データから特定される人物の領域に基づいて、前記類似訓練用画像データから特定される人物の領域を調整し、
前記類似訓練用画像データから、調整後の人物の領域を切り出した画像データを基にして、前記学習モデルを訓練する
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(Appendix 1) Based on the results of inputting a plurality of image data into a learning model into which a region of a person is extracted from a plurality of training image data, multiple pieces of skeletal data of a person included in the plurality of image data are inferred. death,
Detecting abnormal skeletal data based on the plurality of skeletal data,
Based on the region of the person identified from the abnormal training image data corresponding to the abnormal skeletal data among the plurality of training image data and the region of the person in the image data corresponding to the abnormal skeletal data. and determining whether or not the image data corresponding to the abnormal skeletal data has an abnormal human area,
When image data corresponding to the abnormal skeletal data is abnormal image data, similarity having characteristics of joint positions of the person similar to characteristics of joint positions of the person identified from the abnormal training image data. identifying training image data from the plurality of training image data;
adjusting the region of the person specified from the similar training image data based on the region of the person specified from the abnormal training image data;
An information processing program that causes a computer to execute a process of training the learning model based on image data obtained by cutting out a region of a person after adjustment from the similar training image data.
(付記2)前記異常な骨格データを検出する処理は、前記骨格データに含まれる関節位置間の距離、関節角度、および、連続する骨格データの同一の関節位置の移動距離を基にして、前記異常な骨格データを検出することを特徴とする付記1に記載の情報処理プログラム。
(Supplementary note 2) The process of detecting the abnormal skeletal data is based on the distance between joint positions included in the skeletal data, the joint angle, and the movement distance of the same joint position in consecutive skeletal data. The information processing program according to
(付記3)前記複数の訓練用画像データに対してセグメンテーションを実行して、前記人物の複数の部位を特定し、前記複数の部位に外接する外接矩形を、前記人物の領域として特定する処理を更にコンピュータに実行させることを特徴とする付記1に記載の情報処理プログラム。
(Additional note 3) A process of performing segmentation on the plurality of training image data to identify a plurality of parts of the person, and specifying a circumscribed rectangle that circumscribes the plurality of parts as an area of the person. The information processing program according to
(付記4)前記異常な画像データであるか否かを判定する処理は、前記異常訓練用画像データのセグメンテーション結果から得られる外接矩形と、前記異常な骨格データに対応する画像データの人物の領域との比較結果を基にして、前記異常な画像データを特定することを特徴とする付記3に記載の情報処理プログラム。 (Additional note 4) The process of determining whether the image data is abnormal includes a circumscribed rectangle obtained from the segmentation result of the abnormal training image data and a region of a person in the image data corresponding to the abnormal skeletal data. The information processing program according to appendix 3, characterized in that the abnormal image data is identified based on a comparison result with the above.
(付記5)前記類似訓練用画像データを特定する処理は、前記セグメンテーション結果を基にして、前記異常訓練用画像データに含まれる人物の第1関節位置と、比較対象の訓練用画像データに含まれる人物の第2関節位置とを特定し、前記第1関節位置に基づくベクトルと、前記第2関節位置に基づくベクトルとが類似する場合に、前記比較対象の訓練用画像データを、前記類似訓練用画像データとして特定することを特徴とする付記4に記載の情報処理プログラム。 (Additional Note 5) The process of identifying the similar training image data is based on the segmentation result, and the first joint position of the person included in the abnormal training image data and the training image data to be compared is determined based on the segmentation result. If the vector based on the first joint position and the vector based on the second joint position are similar, the training image data to be compared is used for the similar training. The information processing program according to appendix 4, characterized in that the information processing program is specified as image data for use.
(付記6)複数の訓練用画像データから人物の領域を切り出した複数の画像データを、学習モデルに入力した結果を基にして、前記複数の画像データに含まれる人物の複数の骨格データを推論し、
前記複数の骨格データを基にして、異常な骨格データを検出し、
前記複数の訓練用画像データのうち、前記異常な骨格データに対応する異常訓練用画像データから特定される前記人物の領域と、前記異常な骨格データに対応する画像データの人物の領域とを基にして、前記異常な骨格データに対応する画像データが、人物の領域が異常な画像データであるか否かを判定し、
前記異常な骨格データに対応する画像データが異常な画像データである場合に、前記異常訓練用画像データから特定される前記人物の関節位置の特徴と類似する前記人物の関節位置の特徴を有する類似訓練用画像データを、前記複数の訓練用画像データから特定し、
前記異常訓練用画像データから特定される人物の領域に基づいて、前記類似訓練用画像データから特定される人物の領域を調整し、
前記類似訓練用画像データから、調整後の人物の領域を切り出した画像データを基にして、前記学習モデルを訓練する
処理をコンピュータが実行することを特徴とする情報処理方法。
(Additional Note 6) Based on the results of inputting a plurality of image data into a learning model into which a region of a person is extracted from a plurality of training image data, multiple pieces of skeletal data of a person included in the plurality of image data are inferred. death,
Detecting abnormal skeletal data based on the plurality of skeletal data,
Based on the region of the person identified from the abnormal training image data corresponding to the abnormal skeletal data among the plurality of training image data and the region of the person in the image data corresponding to the abnormal skeletal data. and determining whether or not the image data corresponding to the abnormal skeletal data has an abnormal human area,
When image data corresponding to the abnormal skeletal data is abnormal image data, similarity having characteristics of joint positions of the person similar to characteristics of joint positions of the person identified from the abnormal training image data. identifying training image data from the plurality of training image data;
adjusting the region of the person specified from the similar training image data based on the region of the person specified from the abnormal training image data;
An information processing method characterized in that a computer executes a process of training the learning model based on image data obtained by cutting out a region of a person after adjustment from the similar training image data.
(付記7)前記異常な骨格データを検出する処理は、前記骨格データに含まれる関節位置間の距離、関節角度、および、連続する骨格データの同一の関節位置の移動距離を基にして、前記異常な骨格データを検出することを特徴とする付記6に記載の情報処理方法。 (Additional Note 7) The process of detecting the abnormal skeletal data is based on the distance between joint positions included in the skeletal data, the joint angle, and the movement distance of the same joint position in consecutive skeletal data. The information processing method according to appendix 6, characterized in that abnormal skeletal data is detected.
(付記8)前記複数の訓練用画像データに対してセグメンテーションを実行して、前記人物の複数の部位を特定し、前記複数の部位に外接する外接矩形を、前記人物の領域として特定する処理を更にコンピュータに実行させることを特徴とする付記6に記載の情報処理方法。 (Additional note 8) A process of performing segmentation on the plurality of training image data to identify a plurality of parts of the person, and specifying a circumscribed rectangle that circumscribes the plurality of parts as an area of the person. The information processing method according to appendix 6, further comprising causing a computer to execute the information processing method.
(付記9)前記異常な画像データであるか否かを判定する処理は、前記異常訓練用画像データのセグメンテーション結果から得られる外接矩形と、前記異常な骨格データに対応する画像データの人物の領域との比較結果を基にして、前記異常な画像データを特定することを特徴とする付記8に記載の情報処理方法。 (Additional Note 9) The process of determining whether the image data is abnormal includes a circumscribing rectangle obtained from the segmentation result of the abnormal training image data and a region of a person in the image data corresponding to the abnormal skeletal data. The information processing method according to appendix 8, characterized in that the abnormal image data is identified based on a comparison result between the image data and the image data.
(付記10)前記類似訓練用画像データを特定する処理は、前記セグメンテーション結果を基にして、前記異常訓練用画像データに含まれる人物の第1関節位置と、比較対象の訓練用画像データに含まれる人物の第2関節位置とを特定し、前記第1関節位置に基づくベクトルと、前記第2関節位置に基づくベクトルとが類似する場合に、前記比較対象の訓練用画像データを、前記類似訓練用画像データとして特定することを特徴とする付記9に記載の情報処理方法。 (Additional note 10) The process of identifying the similar training image data is based on the segmentation result, and the first joint position of the person included in the abnormal training image data and the training image data to be compared is determined based on the segmentation result. If the vector based on the first joint position and the vector based on the second joint position are similar, the training image data to be compared is used for the similar training. The information processing method according to appendix 9, characterized in that the information processing method is specified as image data for use.
(付記11)複数の訓練用画像データから人物の領域を切り出した複数の画像データを、学習モデルに入力した結果を基にして、前記複数の画像データに含まれる人物の複数の骨格データを推論し、
前記複数の骨格データを基にして、異常な骨格データを検出し、
前記複数の訓練用画像データのうち、前記異常な骨格データに対応する異常訓練用画像データから特定される前記人物の領域と、前記異常な骨格データに対応する画像データの人物の領域とを基にして、前記異常な骨格データに対応する画像データが、人物の領域が異常な画像データであるか否かを判定し、
前記異常な骨格データに対応する画像データが異常な画像データである場合に、前記異常訓練用画像データから特定される前記人物の関節位置の特徴と類似する前記人物の関節位置の特徴を有する類似訓練用画像データを、前記複数の訓練用画像データから特定し、
前記異常訓練用画像データから特定される人物の領域に基づいて、前記類似訓練用画像データから特定される人物の領域を調整し、
前記類似訓練用画像データから、調整後の人物の領域を切り出した画像データを基にして、前記学習モデルを訓練する
処理を実行する制御部を有する情報処理装置。
(Additional Note 11) Based on the results of inputting a plurality of image data into a learning model into which a region of a person is extracted from a plurality of training image data, multiple pieces of skeletal data of a person included in the plurality of image data are inferred. death,
Detecting abnormal skeletal data based on the plurality of skeletal data,
Based on the region of the person identified from the abnormal training image data corresponding to the abnormal skeletal data among the plurality of training image data and the region of the person in the image data corresponding to the abnormal skeletal data. and determining whether or not the image data corresponding to the abnormal skeletal data has an abnormal human area,
When image data corresponding to the abnormal skeletal data is abnormal image data, similarity having characteristics of joint positions of the person similar to characteristics of joint positions of the person identified from the abnormal training image data. identifying training image data from the plurality of training image data;
adjusting the region of the person specified from the similar training image data based on the region of the person specified from the abnormal training image data;
An information processing apparatus comprising a control unit that executes a process of training the learning model based on image data obtained by cutting out a region of a person after adjustment from the similar training image data.
(付記12)前記制御部が実行する前記異常な骨格データを検出する処理は、前記骨格データに含まれる関節位置間の距離、関節角度、および、連続する骨格データの同一の関節位置の移動距離を基にして、前記異常な骨格データを検出することを特徴とする付記11に記載の情報処理装置。
(Additional Note 12) The process of detecting the abnormal skeletal data executed by the control unit includes the distance between joint positions included in the skeletal data, the joint angle, and the movement distance of the same joint position in consecutive skeletal data. The information processing device according to
(付記13)前記制御部は、前記複数の訓練用画像データに対してセグメンテーションを実行して、前記人物の複数の部位を特定し、前記複数の部位に外接する外接矩形を、前記人物の領域として特定する処理を更に実行することを特徴とする付記11に記載の情報処理装置。
(Supplementary note 13) The control unit executes segmentation on the plurality of training image data to identify a plurality of parts of the person, and defines a circumscribing rectangle that circumscribes the plurality of parts as an area of the person. The information processing apparatus according to
(付記14)前記制御部が実行する前記異常な画像データであるか否かを判定する処理は、前記異常訓練用画像データのセグメンテーション結果から得られる外接矩形と、前記異常な骨格データに対応する画像データの人物の領域との比較結果を基にして、前記異常な画像データを特定することを特徴とする付記13に記載の情報処理装置。
(Additional Note 14) The process of determining whether the image data is abnormal, which is executed by the control unit, is based on a circumscribed rectangle obtained from the segmentation result of the abnormal training image data and corresponding to the abnormal skeletal data. The information processing device according to
(付記15)前記制御部が実行する前記類似訓練用画像データを特定する処理は、前記セグメンテーション結果を基にして、前記異常訓練用画像データに含まれる人物の第1関節位置と、比較対象の訓練用画像データに含まれる人物の第2関節位置とを特定し、前記第1関節位置に基づくベクトルと、前記第2関節位置に基づくベクトルとが類似する場合に、前記比較対象の訓練用画像データを、前記類似訓練用画像データとして特定することを特徴とする付記14に記載の情報処理装置。
(Additional Note 15) The process of identifying the similar training image data executed by the control unit is based on the segmentation result, and the first joint position of the person included in the abnormal training image data and the comparison target. A second joint position of the person included in the training image data is specified, and if a vector based on the first joint position and a vector based on the second joint position are similar, the comparison target training image The information processing device according to
100 情報処理装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 技認識テーブル
150 制御部
151 人検出部
152 骨格推論部
153 セグメンテーション部
154 異常骨格データ検出部
155 異常画像データ検出部
156 類似姿勢検出部
157 訓練用画像データ生成部
158 機械学習実行部
159 技認識部
100 Information processing device 110
Claims (7)
前記複数の骨格データを基にして、異常な骨格データを検出し、
前記複数の訓練用画像データのうち、前記異常な骨格データに対応する異常訓練用画像データから特定される前記人物の領域と、前記異常な骨格データに対応する画像データの人物の領域とを基にして、前記異常な骨格データに対応する画像データが、人物の領域が異常な画像データであるか否かを判定し、
前記異常な骨格データに対応する画像データが異常な画像データである場合に、前記異常訓練用画像データから特定される前記人物の関節位置の特徴と類似する前記人物の関節位置の特徴を有する類似訓練用画像データを、前記複数の訓練用画像データから特定し、
前記異常訓練用画像データから特定される人物の領域に基づいて、前記類似訓練用画像データから特定される人物の領域を調整し、
前記類似訓練用画像データから、調整後の人物の領域を切り出した画像データを基にして、前記学習モデルを訓練する
処理をコンピュータに実行させることを特徴とする情報処理プログラム。 Inferring a plurality of skeletal data of a person included in the plurality of image data based on the result of inputting a plurality of image data in which a region of a person is cut out from a plurality of training image data into a learning model,
Detecting abnormal skeletal data based on the plurality of skeletal data,
Based on the region of the person identified from the abnormal training image data corresponding to the abnormal skeletal data among the plurality of training image data and the region of the person in the image data corresponding to the abnormal skeletal data. and determining whether or not the image data corresponding to the abnormal skeletal data has an abnormal human area,
When image data corresponding to the abnormal skeletal data is abnormal image data, similarity having characteristics of joint positions of the person similar to characteristics of joint positions of the person identified from the abnormal training image data. identifying training image data from the plurality of training image data;
adjusting the region of the person specified from the similar training image data based on the region of the person specified from the abnormal training image data;
An information processing program that causes a computer to execute a process of training the learning model based on image data obtained by cutting out a region of a person after adjustment from the similar training image data.
前記複数の骨格データを基にして、異常な骨格データを検出し、
前記複数の訓練用画像データのうち、前記異常な骨格データに対応する異常訓練用画像データから特定される前記人物の領域と、前記異常な骨格データに対応する画像データの人物の領域とを基にして、前記異常な骨格データに対応する画像データが、人物の領域が異常な画像データであるか否かを判定し、
前記異常な骨格データに対応する画像データが異常な画像データである場合に、前記異常訓練用画像データから特定される前記人物の関節位置の特徴と類似する前記人物の関節位置の特徴を有する類似訓練用画像データを、前記複数の訓練用画像データから特定し、
前記異常訓練用画像データから特定される人物の領域に基づいて、前記類似訓練用画像データから特定される人物の領域を調整し、
前記類似訓練用画像データから、調整後の人物の領域を切り出した画像データを基にして、前記学習モデルを訓練する
処理をコンピュータが実行することを特徴とする情報処理方法。 Inferring a plurality of skeletal data of a person included in the plurality of image data based on the result of inputting a plurality of image data in which a region of a person is cut out from a plurality of training image data into a learning model,
Detecting abnormal skeletal data based on the plurality of skeletal data,
Based on the region of the person identified from the abnormal training image data corresponding to the abnormal skeletal data among the plurality of training image data and the region of the person in the image data corresponding to the abnormal skeletal data. and determining whether or not the image data corresponding to the abnormal skeletal data has an abnormal human area,
When image data corresponding to the abnormal skeletal data is abnormal image data, similarity having characteristics of joint positions of the person similar to characteristics of joint positions of the person identified from the abnormal training image data. identifying training image data from the plurality of training image data;
adjusting the region of the person specified from the similar training image data based on the region of the person specified from the abnormal training image data;
An information processing method characterized in that a computer executes a process of training the learning model based on image data obtained by cutting out a region of a person after adjustment from the similar training image data.
前記複数の骨格データを基にして、異常な骨格データを検出し、
前記複数の訓練用画像データのうち、前記異常な骨格データに対応する異常訓練用画像データから特定される前記人物の領域と、前記異常な骨格データに対応する画像データの人物の領域とを基にして、前記異常な骨格データに対応する画像データが、人物の領域が異常な画像データであるか否かを判定し、
前記異常な骨格データに対応する画像データが異常な画像データである場合に、前記異常訓練用画像データから特定される前記人物の関節位置の特徴と類似する前記人物の関節位置の特徴を有する類似訓練用画像データを、前記複数の訓練用画像データから特定し、
前記異常訓練用画像データから特定される人物の領域に基づいて、前記類似訓練用画像データから特定される人物の領域を調整し、
前記類似訓練用画像データから、調整後の人物の領域を切り出した画像データを基にして、前記学習モデルを訓練する
処理を実行する制御部を有する情報処理装置。 Inferring a plurality of skeletal data of a person included in the plurality of image data based on the result of inputting a plurality of image data in which a region of a person is cut out from a plurality of training image data into a learning model,
Detecting abnormal skeletal data based on the plurality of skeletal data,
Based on the region of the person identified from the abnormal training image data corresponding to the abnormal skeletal data among the plurality of training image data and the region of the person in the image data corresponding to the abnormal skeletal data. and determining whether or not the image data corresponding to the abnormal skeletal data has an abnormal human area,
When image data corresponding to the abnormal skeletal data is abnormal image data, similarity having characteristics of joint positions of the person similar to characteristics of joint positions of the person identified from the abnormal training image data. identifying training image data from the plurality of training image data;
adjusting the region of the person specified from the similar training image data based on the region of the person specified from the abnormal training image data;
An information processing apparatus comprising a control unit that executes a process of training the learning model based on image data obtained by cutting out a region of a person after adjustment from the similar training image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022092433A JP2023179239A (en) | 2022-06-07 | 2022-06-07 | Information processing program, information processing method, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022092433A JP2023179239A (en) | 2022-06-07 | 2022-06-07 | Information processing program, information processing method, and information processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023179239A true JP2023179239A (en) | 2023-12-19 |
Family
ID=89199478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022092433A Pending JP2023179239A (en) | 2022-06-07 | 2022-06-07 | Information processing program, information processing method, and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023179239A (en) |
-
2022
- 2022-06-07 JP JP2022092433A patent/JP2023179239A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109863535B (en) | Motion recognition device, storage medium, and motion recognition method | |
JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
US20180068461A1 (en) | Posture estimating apparatus, posture estimating method and storing medium | |
US9275276B2 (en) | Posture estimation device and posture estimation method | |
JP4894741B2 (en) | Information processing apparatus, information processing method, program, and recording medium | |
JP7230939B2 (en) | Information processing device, information processing method and information processing program | |
US11049259B2 (en) | Image tracking method | |
US9639950B2 (en) | Site estimation device, site estimation method, and site estimation program | |
US9183431B2 (en) | Apparatus and method for providing activity recognition based application service | |
JP5166102B2 (en) | Image processing apparatus and method | |
CN105512618B (en) | Video tracing method | |
WO2017161734A1 (en) | Correction of human body movements via television and motion-sensing accessory and system | |
JP6280020B2 (en) | Moving object tracking device | |
US11074713B2 (en) | Recognition device, recognition system, recognition method, and non-transitory computer readable recording medium | |
KR20130064039A (en) | Silhouette correction method and system and silhouette extraction method and system | |
JP6381368B2 (en) | Image processing apparatus, image processing method, and program | |
CN110910426A (en) | Action process and action trend identification method, storage medium and electronic device | |
CN113297963A (en) | Multi-person posture estimation method and device, electronic equipment and readable storage medium | |
EP3179446A1 (en) | Orientation estimation method, and orientation estimation device | |
US20230185845A1 (en) | Image selection apparatus, image selection method, and non-transitory computer-readable medium | |
JP7327494B2 (en) | Correction method, correction program and information processing system | |
CN110826495A (en) | Body left and right limb consistency tracking and distinguishing method and system based on face orientation | |
JP2023179239A (en) | Information processing program, information processing method, and information processing apparatus | |
US10636153B2 (en) | Image processing system, image processing apparatus, and image processing method for object tracking | |
JP7024876B2 (en) | Detection device, processing device, detection method, and processing program |