JP2021077177A - Operation recognition apparatus, operation recognition method, and operation recognition program - Google Patents
Operation recognition apparatus, operation recognition method, and operation recognition program Download PDFInfo
- Publication number
- JP2021077177A JP2021077177A JP2019204279A JP2019204279A JP2021077177A JP 2021077177 A JP2021077177 A JP 2021077177A JP 2019204279 A JP2019204279 A JP 2019204279A JP 2019204279 A JP2019204279 A JP 2019204279A JP 2021077177 A JP2021077177 A JP 2021077177A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- unit
- recognized
- tracking
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、動作認識装置、動作認識方法及び動作認識プログラムに関する。 The present invention relates to a motion recognition device, a motion recognition method, and a motion recognition program.
今日において、例えば人物、動物、作業機械等の監視対象の行動又は動作等をカメラ装置で撮像し、この撮像画像を解析することで、人物、動物、作業機械等の行動を可視化して認識可能とする行動認識装置が知られている。 Today, for example, by capturing the behavior or movement of a monitored object such as a person, animal, or work machine with a camera device and analyzing this captured image, it is possible to visualize and recognize the behavior of the person, animal, work machine, or the like. The behavior recognition device is known.
例えば、特許文献1(特開2011−100175号公報)には、映像処理のみで、混雑したシーンに含まれる人物の行動を判定可能とした人物行動判定装置が開示されている。この人物行動判定装置は、映像処理で同一と判別した人物の重心位置及び重心の軌跡に基づいて重心軌跡を特徴量として検出する。そして、検出した特徴量を、事前登録されている行動毎の軌跡特徴量と照合することで、人物の行動を判断する。 For example, Patent Document 1 (Japanese Unexamined Patent Publication No. 2011-100175) discloses a human behavior determining device capable of determining the behavior of a person included in a crowded scene only by video processing. This person behavior determination device detects the center of gravity locus as a feature amount based on the position of the center of gravity and the locus of the center of gravity of the person determined to be the same by the image processing. Then, the behavior of the person is determined by collating the detected feature amount with the previously registered locus feature amount for each action.
しかし、特許文献1に開示されている人物行動判定装置の場合、作業又は動作している監視対象が複数となった場合、同一の監視対象を連続して特定することが困難となり、監視対象の認識精度が低下する問題がある。特に、複数の監視対象同士が撮像画像上で重なった場合、又は、一旦、物陰に隠れて再登場した場合等では、同一の監視対象を連続して特定することが困難となり、監視対象の認識精度が顕著に低下する。
However, in the case of the person behavior determination device disclosed in
本発明は、上述の課題に鑑みてなされたものであり、複数の監視対象の認識精度の向上を図った動作認識装置、動作認識方法及び動作認識プログラムの提供を目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a motion recognition device, a motion recognition method, and a motion recognition program for improving the recognition accuracy of a plurality of monitored objects.
上述した課題を解決し、目的を達成するために、本発明は、撮像画像に基づいて、複数の監視対象を認識する認識部と、認識部で認識された各監視対象に識別番号を設定する識別番号設定部と、撮像画像で認識された各監視対象の領域に基づいて、撮像画像で認識される、識別番号が設定された各監視対象をそれぞれ追尾する追尾処理部と、各監視対象を追尾した撮像画像の結果領域で、各監視対象の動作を認識する動作認識処理部と、認識された各監視対象の動作の認識結果を出力する認識結果出力部とを有する。 In order to solve the above-mentioned problems and achieve the object, the present invention sets a recognition unit that recognizes a plurality of monitoring targets and an identification number for each monitoring target recognized by the recognition unit based on the captured image. Based on the identification number setting unit and the area of each monitoring target recognized in the captured image, the tracking processing unit that tracks each monitoring target with the identification number set recognized in the captured image, and each monitoring target In the result area of the tracked captured image, it has an operation recognition processing unit that recognizes the operation of each monitoring target and a recognition result output unit that outputs the recognition result of the recognized operation of each monitoring target.
本発明によれば、複数の監視対象の認識精度を向上させることができるという効果を奏する。 According to the present invention, there is an effect that the recognition accuracy of a plurality of monitored objects can be improved.
以下、動作認識装置、動作認識方法及び動作認識プログラムの適用例となる実施の形態の行動認識システムを説明する。 Hereinafter, the behavior recognition system of the embodiment as an application example of the motion recognition device, the motion recognition method, and the motion recognition program will be described.
(システム構成)
図1は、実施の形態の行動認識システムのシステム構成図である。この図1に示すように行動認識システムは、行動認識装置1及びカメラ装置2を有している。カメラ装置2は、例えば単数又は複数の人物、動物、ロボット等の監視対象を撮像する。
(System configuration)
FIG. 1 is a system configuration diagram of the behavior recognition system of the embodiment. As shown in FIG. 1, the behavior recognition system includes a
行動認識装置1は、入力インタフェース部3及び行動認識処理部4を有している。インタフェース3は、カメラ装置2からの監視対象の撮像画像を取得する。行動認識処理部4は、インタフェース3を介して取得した撮像画像に基づいて、監視対象の行動(動き)を認識し、この行動認識結果を例えば監視者が見るモニタ装置等の外部機器に出力する。
The
(行動認識装置のハードウェア構成)
図2は、行動認識装置1のハードウェア構成図である。この図2に示すように、行動認識装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、通信部14、HDD(Hard Disk Drive)15、入力インタフェース部3及び出力インタフェース部17を有している。これら各部3、11〜15及び17は、バスライン18を介して相互に接続されている。
(Hardware configuration of behavior recognition device)
FIG. 2 is a hardware configuration diagram of the
入力インタフェース部3には、上述のカメラ装置2の他、例えばキーボード装置及びマウス装置等の操作部20が接続されている。出力インタフェース部17には、行動認識結果を表示するためのモニタ装置(表示部)が記憶されている。出力インタフェース部17を介して、例えばHDD又は半導体メモリ等の外部記憶装置に行動認識結果を出力してもよい。
In addition to the camera device 2 described above, an
通信部14には、例えばインターネット等の広域網又はLAN(Local Area Network)等のプライベート網等のネットワークを介してサーバ装置22が接続されている。通信部14は、このサーバ装置22に対して行動認識結果を送信して記憶させる。これにより、管理者等は、例えばスマートホン、タブレット端末装置、パーソナルコンピュータ装置等の通信機器を介してサーバ装置22にアクセスして行動認識結果を取得でき、監視対象を遠隔監視できる。
The
HDD15には、監視対象の行動認識処理を行う行動認識プログラムが記憶されている。CPU11は、この行動認識プログラムを実行することで、以下に説明する各機能を実現し、監視対象の行動認識処理を実行する。
The
(行動認識機能)
図3は、CPU11が行動認識プログラムを実行することで実現される各機能の機能ブロック図である。この図3に示すように、CPU11は、行動認識プログラムを実行することで入力部31、認識部32、初期識別番号設定部(初期ID設定部)33、追尾処理部34、行動認識処理部35、認識結果出力部36、監視対象認識辞書入力部37及び行動認識辞書入力部38の各機能を実現する。初期ID設定部33は、識別番号設定部の一例である。行動認識処理部35は、動作認識処理部の一例である。
(Behavior recognition function)
FIG. 3 is a functional block diagram of each function realized by the CPU 11 executing the action recognition program. As shown in FIG. 3, the CPU 11 executes an action recognition program to execute an
なお、入力部31〜行動認識辞書入力部38は、ソフトウェアで実現することとしたが、これらのうち、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。
Although the
また、行動認識プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)などのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、行動認識プログラムは、CD−R、DVD(Digital Versatile Disk)、ブルーレイディスク(登録商標)、半導体メモリなどのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、行動認識プログラムは、インターネット等のネットワーク経由でインストールするかたちで提供してもよいし、機器内のROM等に予め組み込んで提供してもよい。 Further, the action recognition program may be provided by recording a file in an installable format or an executable format on a recording medium readable by a computer device such as a CD-ROM or a flexible disk (FD). Further, the action recognition program may be provided by recording on a recording medium readable by a computer device such as a CD-R, a DVD (Digital Versatile Disk), a Blu-ray disc (registered trademark), or a semiconductor memory. Further, the behavior recognition program may be provided in the form of being installed via a network such as the Internet, or may be provided by being incorporated in advance in a ROM or the like in the device.
(行動認識処理)
このような入力部31〜行動認識辞書入力部38による監視対象の行動認識処理を、図4のフローチャートを用いて説明する。CPU11は、行動認識プログラムを読み込むことで、この図4のフローチャートに示す各処理を実行する。
(Behavior recognition processing)
The behavior recognition process of the monitoring target by the
すなわち、まず、入力部31は、カメラ装置2からの撮像画像を取得する(ステップS1)。この撮像画像は、例えば監視対象の一例となる一人又は複数の作業者が、職場の商品を棚に入れる作業等の作業状況を撮像した撮像画像である。
That is, first, the
次に、監視対象認識辞書入力部37が、作業者を認識するための監視対象認識辞書を、認識部32に入力する(ステップS2)。この監視対象認識辞書は、認識部32の各階層の評価値を計算するための特徴量、重み係数及び各階層での評価値閾値を示す辞書(データ群)となっている。この監視対象認識辞書は、人の撮像画像及び人ではない物体の撮像画像に対して、以下に説明する特徴量を計算するための矩形の頂点位置座標、重み係数及び各階層での評価閾値を予め学習して形成される。
Next, the monitoring target recognition
次に、認識部32は、この監視対象認識辞書を参照し、入力部31により取得された撮像画像に写っている作業者を認識する(ステップS3)。図5は、認識部32による作業者の認識動作を説明するための図である。この図5に示すように、認識部32は、撮影画像50の範囲内で、例えば矩形状等の所定の形状のブロック51、52・・・を切り出す。ブロック51の左上の座標(Xs,Ys)と、ブロック51の右下の座標(Xe,Ye)は、撮像画像50内におけるブロック51の位置及び矩形の大きさで決定される。
Next, the
認識部32は、大きいサイズから小さいサイズの順に、ブロック51を選択して以下に説明する特徴量等の演算を行う。すなわち、大きいブロック及び小さいブロックの処理時間は同じである。また、撮像画像50内に存在するブロックとしては、大きいサイズのブロックの数は少なく、小さいサイズのブロック数は多い。このため、認識部32は、大きいサイズのブロックから小さいサイズのブロックの順に選択して特徴量等の演算を行う。これにより、オブジェクト(監視対象)の迅速な検出が可能となる。
The
図6(a)〜図6(b)は、特徴量の演算処理を説明するための図である。この図6(a)〜図6(b)に示すように、認識部32は、入力された監視対象認識辞書を参照して、ブロック内における白黒の矩形領域に白い領域内の画素値を加算処理し、黒い画素領域内の画素合計値との差を、ブロック内の特徴量h(x)として算出する。そして、認識部32は、この特徴量h(x)に、所定の重みを付け処理を行うことで、評価値f(x)を算出する。
6 (a) to 6 (b) are diagrams for explaining the arithmetic processing of the feature amount. As shown in FIGS. 6 (a) to 6 (b), the
以下の(1)式が、このような評価値f(x)の演算式である。 The following equation (1) is an arithmetic expression of such an evaluation value f (x).
ここで、認識部32は、図7に示すように第1の階層〜第nの階層(nは自然数)等の階層毎に評価値f(x)を算出する。算出した評価値f(x)が、監視対象認識辞書で示される、予め設定した閾値よりも小さい場合、認識部32は、人以外の物体として判断し(非人ブロック)、そのブロックの評価を中止する。これに対して、算出した評価値f(x)が、監視対象認識辞書で示される、予め設定した閾値以上の場合、認識部32は、そのブロックは、人が写っているブロックとして判断する。
Here, as shown in FIG. 7, the
このように人が写っているブロックが認識されると、初期ID設定部33は、各ブロックに対して識別番号を設定する(ステップS4)。図8の例は、人が写っているブロックとして、3つのブロックが認識され、初期ID設定部33が、各ブロック(初期領域)に対して、ID1、ID2及びID3の識別番号を設定した例である。
When the block in which a person is shown is recognized in this way, the initial
次に、追尾処理部34は、各ブロックに写っている作業者を追尾する(ステップS5)。具体的には、追尾処理部34には、図9に示すように、最初のフレームF0が供給され、Δt時間後に次のフレームF1が供給される等のように、入力部31を介して取得された撮像画像が、順次(時系列に)供給される。
Next, the
追尾処理部34は、最初のフレームで、作業者の状態「S(x,y,vx,vy,Hx,Hy,M)」を定義する。x,yは、図9に矩形の枠で囲んで示す作業者(追尾対象)が写っているブロックの左上の点Aの座標値である。Hx、Hyは作業者が写っているブロックの横のサイズ及び縦のサイズを示す。vx,vyは、ブロック内の作業者が横方向及び縦方向に動く速度(初期値は0に設定)を示す。Mは、ブロック内の作業者の変倍率変化(前フレームに対する作業者のサイズ変化率:初期値は0に設定)である。
The
追尾処理部34は、図10及び図11に示すように、作業者の状態の予測→観測→修正を繰り返し行うことで、作業者を追尾する。図11に示す「St」は、時間tにおける作業者(追尾対象)状態を示し、「Yt」は、時間tの観測結果を示す。
As shown in FIGS. 10 and 11, the
追尾処理部34は、以下の(2)式の演算により、作業者の状態Sk-1から状態Skまでの状態変化を算出する。
追尾処理部34は、以下の(3)式〜(9)式の演算を行うことで、k−1の作業者の状態から次のkの作業者の状態を予測する。
The
次に、追尾処理部34は、以下の(10)式の演算を行うことで、作業者の状態Skの観測データZkを算出する。
Next, tracking
観測データは、作業者の図9に示したブロック内(追尾対象が写っている領域内)のカラーヒストグラムとなっている。追尾処理部34は、以下の(11)式の演算を行うことで、カラーヒストグラムを算出する。(11)式において、k()は、カラーヒストグラムを計算するカーネルである。また、(11)式において、aは変倍率、h(xi)はカラー画素値である。Pはカラーヒストグラムの頻度である。
The observation data is a color histogram in the block (in the area where the tracking target is shown) shown in FIG. 9 of the operator. The
この(11)式におけるカーネルkは、以下の(12)式で算出される。 The kernel k in the equation (11) is calculated by the following equation (12).
この12式で算出されるカーネルkを用いることで、ブロック(被写体領域)の中心部の値は大きな値が算出され、ブロックの周辺に近くなるほど、小さな値が算出されるようになる。これにより、ブロック(被写体領域)の周辺の影響を軽減することができる。 By using the kernel k calculated by these 12 equations, a large value is calculated for the central portion of the block (subject area), and a smaller value is calculated as the value is closer to the periphery of the block. This makes it possible to reduce the influence of the periphery of the block (subject area).
次に、追尾処理部34は、以下の(13)式の演算を行うことで、予測状態Sk (i)を観測し、観測結果評価の重み加重平均を計算する。この際、追尾処理部34は、図12に複数の枠で示すようにN個の予測領域の特徴量を評価し、重み係数を求める。この求めた重み係数の加重平均が追尾結果となる。
Next, the tracking processing unit 34 observes the predicted state Sk (i) by performing the calculation of the following equation (13), and calculates the weighted average of the observation result evaluation. At this time, the
具体的には、追尾処理部34は、上述の式(3)式〜(9)式にランダム変数を加えた、以下の式(14)式〜(20)式の演算を行うことで、作業者の状態Skを予測する。r1〜r7としては、例えばガウシアン(Gaussian)ランダム変数を用いることができる。
Specifically, the
次に、追尾処理部34は、予測した状態の重み係数πiを、以下のように計算する。すなわち、まず、追尾処理部34は、作業者の追尾領域から計算したヒストグラムPをモデルとして使用し、予測したN個の予測領域のカラーヒストグラムqとして、以下の(21)式の演算を行うことで、バタチャリア(Bhattacharyya)係数を算出する。
Next, the
なお、(22)式における「d」は、以下の(23)式で算出される。 In addition, "d" in the formula (22) is calculated by the following formula (23).
追尾処理部34は、このように算出した重み係数πi、及び、予測した状態Si kを用いて、上述の(13)式の演算を行うことで、作業者の追尾結果を算出する。
次に、追尾処理部34は、上述の(21)式の演算を行うことで算出したバタチャリア係数で示される追尾結果の類似度ρ[p,q]を、作業者追尾の確信度とする。この確信度の値は、0〜1.0の範囲の値となる。ρ[p,q]の値が高くなるほど、確信度が高いことを示す。
Next, the
追尾処理部34は、この確信度が、予め設定されている所定の閾値以上の値であれば、追尾成功と判断し、図8に示した各作業者のIDを、そのまま維持する。また、追尾処理部34は、例えば追尾成功と判断した作業者の位置情報(=矩形情報)及び作業者の矩形領域の画像データを作業者情報として記憶部に保存する。次のフレームの画像情報が入力されると、追尾処理部34は、上述の追尾処理を行い、追尾成功した場合に、作業者のIDを維持すると共に、記憶部に保存した作業者情報を更新する。
If the certainty level is equal to or higher than a predetermined threshold value set in advance, the
次に、このような作業者の追尾中において、作業者同士が重なり、物陰に移動し、又は、カメラ装置2の撮像範囲外に移動することで、追尾していた作業者が撮像画像上から消失又は検出困難となり、作業者の追尾が困難となる場合がある。このような場合、消失又は検出困難となったIDの作業者のデータを取得することも困難となる。 Next, during the tracking of such workers, the workers overlap each other and move to the shadow of the object, or move out of the imaging range of the camera device 2, so that the worker who was tracking can move from the captured image. It may disappear or become difficult to detect, making it difficult for the operator to track. In such a case, it becomes difficult to acquire the data of the worker whose ID is lost or difficult to detect.
なお、「追尾が困難となる場合」とは、「追尾ができない場合」、「追尾が非継続となった場合」、又は、「追尾不良となった場合」等と同義語である。 In addition, "when tracking becomes difficult" is a synonym for "when tracking is not possible", "when tracking is discontinued", "when tracking becomes poor", and the like.
作業者の追尾に成功している場合、上述のように、追尾処理部34は、追尾している作業者のIDを維持し、記憶部の作業者情報を更新する。これに対して、追尾困難となった場合、追尾処理部34は、最後に追尾が成功したフレームで検出された追尾困難となった作業者のID及び作業者情報を維持する。例えば、図8の例において、ID3の作業者の追尾が困難となった場合、追尾処理部34は、追尾が最後に成功したフレームで検出された作業者のID3及び作業者情報を維持する。
When the tracking of the worker is successful, as described above, the
作業者の追尾が困難となった場合、認識部32は、再度、各作業者の認識処理を行い、各作業者に対してIDを再設定する。このIDの再設定の際、再認識した各作業者のうち、追尾困難となった作業者の類似度に最も近似する類似度を有する作業者に対して、追尾困難となった作業者のIDを設定する。これにより、同一の作業者に対して同じIDを設定できる。
When it becomes difficult to track the worker, the
このようなIDの再設定動作を具体的に説明すると、作業者の追尾が困難となった場合、認識部32は、入力部31を介して取得された撮像画像に基づいて、再度、作業者の再認識処理を行う。この再認識処理により、例えばA,B,Cの3人の作業者が認識されたものとする。
To specifically explain such an ID resetting operation, when it becomes difficult to track the operator, the
初期ID設定部33は、再認識したA,B,Cの3人の作業者の類似度、及び、追尾困難となった際に維持した例えばID3の作業者の類似度(バタチャリア係数)を、上述の(21)式の演算を行うことで、それぞれ算出する。そして、初期ID設定部33は、A,B,Cの3人の作業者のうち、追尾困難となった際に維持したID3の作業者の類似度に最も近い類似度を有する作業者に対して「ID3」を設定する。これにより、一旦、追尾困難となった作業者が、再度検出可能な状態となった際に、追尾困難となった際に設定されていたIDと同じIDを設定して、追尾を継続することができる。
The initial
同様に、例えばID1及びID2の2人の作業者の追尾が困難となった場合、初期ID設定部33は、A,B,Cの3人の作業者のうち、追尾困難となった際に維持したID1の作業者の類似度に最も近い類似度を有する作業者に対して「ID1」を設定する。また、初期ID設定部33は、A,B,Cの3人の作業者のうち、追尾困難となった際に維持したID2の作業者の類似度に最も近い類似度を有する作業者に対して「ID2」を設定する。再認識後も、同じIDで各作業者を追尾可能とすることができる。
Similarly, for example, when it becomes difficult to track two workers with ID1 and ID2, the initial
次に、行動認識処理部35は、図4のフローチャートのステップS6において行動認識辞書入力部38から入力される、作業者の行動を認識するための行動認識辞書に基づいて、作業者の行動認識処理を行う(ステップS7)。
Next, the action
具体的には、行動認識処理部35は、図13に示すように、入力部31を介して入力される複数フレームにおける作業者の矩形領域の時空間特徴を抽出する。なお、図13に示す各フレームの横軸x、縦軸yは空間座標である。また、この図13は、フレームF1、F2・・・が時間軸tに沿って時系列で並んでいる様子を示している。すなわち、各フレームは、時空間(x,y,t)画像データである。また、時空間の一つ画素値I(x,y,t)は、空間座標(x,y)と時間tの関数である。
Specifically, as shown in FIG. 13, the action
作業者が動くと、図13に示す時空間画像データに変化点が発生する。行動認識処理部35は、この変化点(=時空間の特徴点)に基づいて、作業者の特定行動を認識する。行動認識処理部35は、この変化点(時空間の特徴点)を、以下のようにして検出する。
When the worker moves, a change point occurs in the spatiotemporal image data shown in FIG. The action
すなわち、図14に、時空間画像データを示す。この図14に示す大きな立方体が時空間画像データである。横軸は空間座標x(画素)を示し、縦軸は空間座標y(画素)を示す。時間軸tは、例えば毎秒30フレーム等の所定のフレームレートで入力される撮像画像の時系列軸である。 That is, FIG. 14 shows spatiotemporal image data. The large cube shown in FIG. 14 is spatiotemporal image data. The horizontal axis represents the spatial coordinates x (pixels), and the vertical axis represents the spatial coordinates y (pixels). The time axis t is a time series axis of the captured image input at a predetermined frame rate such as 30 frames per second.
行動認識処理部35は、図14に示す時空間画像データを、x方向がM画素、y方向がN画素、t方向がTフレームのサイズ(M×N×T)のブロックに分割する。作業者が特定の動作をすると、時空間画像データ中における、作業者の動作に対応するブロックの特徴量が大きくなる(時空間に大きな変化量が発生する)。行動認識処理部35は、以下に説明するように、変化量の大きいブロックを特徴点として抽出する。
The action
行動認識処理部35は、時空間画像データから特徴点を抽出する場合、まず、空間方向(x、y)方向のノイズを除去するために、以下の(24)式の演算を行うことで、時空間画像データに平滑化処理を施す。
When the action
この(24)式に示すI(x,y,t)は、時間tのフレームにおけるxy座標の画素値を示している。また、(24)式に示すg(x,y)は、平滑化処理のためのカーネルである。「*」の記号は、畳み込み処理が行われることを意味する。平滑化処理は、画素を平均化することで行ってもよいし、ガウシアン(Gaussian)平滑化フィルタを用いて行ってもよい。 I (x, y, t) shown in the equation (24) indicates the pixel value of the xy coordinate in the frame at time t. Further, g (x, y) shown in Eq. (24) is a kernel for smoothing processing. The "*" symbol means that the convolution process is performed. The smoothing process may be performed by averaging the pixels, or may be performed using a Gaussian smoothing filter.
次に、行動認識処理部35は、平滑化処理を施した時空間画像データに対して、時間軸でフィルタリング処理を施す。このフィルタリング処理としては、以下の(25)式に示すガボール(Gabor)フィルタリング処理が行われる。
Next, the action
この(25)式に示す「gev」及び「god」は、それぞれ以下の(26)式及び(27)式に示す、ガボールフィルタのカーネルである。「*」の記号は、畳み込み処理が行われることを意味する。「τ」及び「ω」は、ガボールフィルタのカーネルのパラメータである。 The (25) "g ev" and "g od" in the expression, respectively in the following (26) and (27), a kernel Gabor filter. The "*" symbol means that the convolution process is performed. “Τ” and “ω” are parameters of the Gabor filter kernel.
次に、行動認識処理部35は、図13に示した時空間画像データの全画素に対して、上述の(2)式で示したフィルタリング処理を施した後、図14に示したように分割したブロックの平均値を、以下の(28)式の演算で算出する。
Next, the action
行動認識処理部35は、(28)式の演算で算出されたブロックの平均値(M(x,y,t))が、以下の(29)式に示すように所定の閾値(Thre)以上の値である場合、このブロックを特徴点として抽出する。
In the action
次に、行動認識処理部35は、時空間画像データから抽出した特徴点となるブロックの画素の時空間エッジ情報を、以下の(30)式の微分演算を行うことで算出する。
Next, the action
図14に示す例の場合、1つのブロックは、M×N×T個の画素を有するため、M×N×T×3個の微分値を得ることができる。従って、各ブロックを、MxNxTx3個の微分値のベクトルで記述できる。すなわち、特徴点をM×N×T×3次元のベクトルで記述できる。 In the case of the example shown in FIG. 14, since one block has M × N × T pixels, it is possible to obtain M × N × T × 3 differential values. Therefore, each block can be described by a vector of three differential values of MxNxTx. That is, the feature points can be described by a vector of M × N × T × 3 dimensions.
図3に示した行動認識辞書入力部38から行動認識処理部35に入力される行動認識辞書は、例えば作業者が荷物を担ぐ、歩く及び荷物を棚に置く等の特定の行動を撮像したNフレームの撮像画像から検出した特徴点に基づいて、(30)式の演算を行うことで予め算出(学習)されたM×N×T×3次元のベクトル情報である。
The action recognition dictionary input from the action recognition
行動認識辞書を作成する場合、行動認識辞書入力部38は、例えばK平均法(k-means clustering)等を用いて、M×N×T×3次元のベクトルである特徴点を、例えばK種類の特徴点に分類する。この分類処理を行うことで、近似する特徴を有する特徴点同士を、同じ種類の特徴点として分類することができる。
When creating an action recognition dictionary, the action recognition
次に、行動認識辞書入力部38は、分類処理したK種類の特徴点について、同じ種類の特徴点のM×N×T×3次元のエッジベクトルを平均化し、K個の平均ベクトルVkを算出する。各ベクトルは、その種類の特徴点を代表する認識ベクトルである。作業者の特定行動の撮像画像から得られた特徴点は、同じ特定行動の学習データで得られた平均ベクトルVkの近くに分布する。
Next, the action recognition
この特性を利用し、行動認識辞書入力部38は、K種類の各特徴点グループのブロック合計数を計算し、特徴点グループの頻度である認識ヒストグラムH(k)を算出する。上述のように、認識対象特徴点の分布は、学習データの特徴点の分布と近似している。このため、認識対象となる例えば作業者の認識ヒストグラムは、作業者の同じ行動(動作)の学習データの学習ヒストグラムと近似する。このため、学習データから求めたヒストグラムH(k)で、作業者等の特定行動を認識するための行動認識辞書を作成することができる。
Utilizing this characteristic, the behavior recognition
一例ではあるが、行動認識辞書は、SVM(Support Vector Machine)の機械学習方法を用いて作成できる。この機械学習方法で行動認識辞書を作成する場合、認識対象となる作業者の特定行動の撮像画像から学習した正の学習データと、特定行動とは異なる作業者の行動の撮像画像から学習した負の学習データで、行動認識辞書を作成する。 As an example, the behavior recognition dictionary can be created by using the machine learning method of SVM (Support Vector Machine). When creating a behavior recognition dictionary by this machine learning method, positive learning data learned from the captured image of the specific behavior of the worker to be recognized and negative learning from the captured image of the behavior of the worker different from the specific behavior. Create a behavior recognition dictionary with the learning data of.
なお、行動認識辞書は、SVM機械学習方法以外でも、例えばK近傍法(K Nearest Neighbor)又は多層パーセプトロン(Multilayer Perceptron)等の他の機械学習方法を用いて作成してもよい。 The behavior recognition dictionary may be created by using other machine learning methods such as K Nearest Neighbor or Multilayer Perceptron, in addition to the SVM machine learning method.
以上説明した行動認識処理部35の行動認識動作をまとめると、行動認識処理部35は、認識対象となる作業者の撮像画像(動画)として入力されたNフレームの時空間画像データから上述の時空間特徴点を抽出する。行動認識処理部35は、各特徴点ブロックのM×N×T×3次元の微分ベクトルを求める。この微分ベクトル及び入力された学習データから求めたK個の学習平均ベクトルVkとの距離を計算し、特徴点ブロックの種類を、最も距離が近い学習平均ベクトルVkの種類に分類する。この方法で特徴点ブロックを分類することで、特徴点ブロックをK種類に分類できる。行動認識処理部35は、各種類の特徴点ブロックの出現頻度に基づいて、認識対象の撮像画像(動画)の特徴点ヒストグラムT(k)を作成する。
Summarizing the behavior recognition operations of the behavior
そして、行動認識処理部35は、行動認識辞書入力部38から入力された行動認識辞書、及び、認識対象の撮像画像の特徴点ヒストグラムT(k)に基づき、上述のSVM機械学習法を用いて、作業者の特定行動の認識処理を行う。SVM機械学習法を用いたSVM認識処理では、作業者の特定行動と特定行動以外の認識結果を出力する。
Then, the behavior
図3に示す認識結果出力部36は、作業者の特定行動と特定行動以外の認識結果を、例えば出力インタフェース部17を介してモニタ装置23に出力する(ステップS8)。これにより、モニタ装置23を介して作業者等の監視対象の監視を可能とすることができる。図4のフローチャートのステップS9では、CPU11が、このような認識処理が終了したか否かを判別する。認識処理が終了していないと判別された場合(ステップS9:No)、処理がステップS1に戻り、上述の作業者の特定行動の認識処理が繰り返し行われる。認識処理が終了したと判別された場合(ステップS9:Yes)、図4のフローチャートの全処理が終了する。
The recognition
なお、認識結果出力部36は、認識結果を通信部14及びネットワーク21を介してサーバ装置22に送信してもよい。この場合、管理者等は、スマートホン、タブレット端末装置又はパーソナルコンピュータ装置等の通信機器を介してサーバ装置22にアクセスし、認識結果を取得する。これにより、作業者等の監視対象の遠隔監視を可能とすることができる。
The recognition
次に、作業者が歩行して棚の位置まで移動し、商品を抱えて棚入れする行動を、認識対象例として用いて、認識結果出力部36による認識結果の出力形態を説明する。この場合、認識結果出力部36は、図15に示すように、行動認識処理部35で認識された作業者の行動の認識結果に基づいて、行動の開始時間及び持続時間を出力する。歩行終了時間t2と歩行開始時間t1の差(t2−t1)は、歩行時間である。
Next, the recognition result output form of the recognition
また、棚入れ行動の終了時間t3と棚入れ行動の開始時間t2の差(t3−t2)は棚入れ行動の時間となる。棚入れの作業時間は、作業者の歩行時間と棚入れの作業時間との合計時間となり、棚入れ終了時間t3と歩行開始時間t1の差(t3−t1)の時間である。認識結果出力部36は、各作業者の歩行時間、棚入れ行動時間、及び、棚入れ作業全体の時間を出力する。
Further, the difference (t3-t2) between the end time t3 of the shelving action and the start time t2 of the shelving action is the time of the shelving action. The shelving work time is the total time of the worker's walking time and the shelving work time, and is the time of the difference (t3-t1) between the shelving end time t3 and the walking start time t1. The recognition
次に、例えば作業者が他の作業者と重なり合い、また、作業者の姿勢が変化することで、作業者が認識困難となると、行動認識処理部35による作業者の認識処理が中断される。図16は、作業者が商品の棚入れ作業を行う際に、歩行途中で、作業者を認識することが困難となった例を示している。図16に示す時間t3と時間t2との間が、歩行中の作業者の認識が困難となった時間を示している。
Next, for example, when the worker overlaps with another worker and the posture of the worker changes, which makes it difficult for the worker to recognize, the behavior
このような場合、行動認識処理部35は、歩行中の作業者の認識が困難となった時間t3−時間t2の時間差は、所定の閾値Thre_w以下であるか否かを判別する。歩行中の作業者が他の作業者と重なり合うことで、例えば2秒間又は5秒間等のように、一時的に認識困難となることは多々ある。このため、行動認識処理部35は、例えば閾値Thre_wを、例えば2秒間又は5秒間等とし、歩行中の作業者の認識が困難となった時間t3−時間t2の時間差が、この2秒以下又は5秒以下であった場合に、時間t3−時間t2の間は、作業者が歩行状態であったものと認識する。
In such a case, the behavior
すなわち、行動認識処理部35は、作業者の認識が困難となった時間が所定時間以下であれば、その間、認識が困難となる前に認識されていた行動(動作)が継続して行われていたものと認識する。これにより、図16に示す歩行開始時間t1から棚入れ開始時間t4までの間は、途中、作業者が認識困難となった場合でも、作業者は連続して歩行状態にあったものと認識される。
That is, if the time when the worker's recognition becomes difficult is less than a predetermined time, the action
図17は、棚入れの途中に作業者が一時的に認識困難となった例である。図17に示す時間t3〜時間t4が、棚入れの途中に作業者が一時的に認識困難となっていた時間である。この場合も上述と同様に、行動認識処理部35は、作業者が認識困難となっていた時間が例えば2秒間又は5秒間等の閾値Thre_wとなる時間以下であれば、作業者が認識困難となっていた時間も、作業者は継続して棚入れ作業を行っていたものと認識する。これにより、図17に示す棚入れ開始時間t2から棚入れ終了時間t5までの間は、途中、作業者が認識困難となった場合でも、作業者は連続して棚入れ作業中であったものと認識される。 FIG. 17 shows an example in which the worker temporarily becomes difficult to recognize during shelving. Times t3 to time t4 shown in FIG. 17 are times during which the worker was temporarily difficult to recognize during shelving. In this case as well, as described above, if the time during which the worker has difficulty in recognizing is less than or equal to the time at which the threshold value Thr_w is reached, for example, 2 seconds or 5 seconds, the worker is difficult to recognize. It is recognized that the worker continued to carry out the shelving work even during the time that had been reached. As a result, during the period from the shelving start time t2 to the shelving end time t5 shown in FIG. 17, even if the worker becomes difficult to recognize on the way, the worker is continuously carrying out the shelving work. Is recognized.
このように、作業者の認識が困難となった時間が所定時間以下であれば、その間、認識が困難となる前に認識されていた行動(動作)が継続して行われていたものと認識することで、途中、作業者が認識困難となった場合でも、正しい作業時間の測定等を可能とすることができる。 In this way, if the time when the worker's recognition becomes difficult is less than a predetermined time, it is recognized that the action (movement) that was recognized before the recognition became difficult was continuously performed during that time. By doing so, even if the worker becomes difficult to recognize on the way, it is possible to measure the correct working time and the like.
認識結果出力部36は、作業者毎に、行動の認識結果となる作業開始時間、作業終了時間及び作業時間(一連の作業(動作)の開始から終了までの時間=所要時間)等を、各作業者の行動認識結果として出力する。
The recognition
(実施の形態の効果)
以上の説明から明らかなように、実施の形態の行動認識システムは、複数の作業者等の監視対象の撮像画像に基づいて各監視対象を認識して、それぞれIDを設定する。設定したIDに基づいて各監視対象を追尾するが、監視対象が認識困難となった場合、認識困難となった監視対象のID及び関連情報(位置情報及び画像データ)を維持する。この状態で、上述の(21)式の演算を行い、認識困難となった監視対象の類似度、及び、再認識した各監視対象の類似度を算出する。そして、再認識した各監視対象のうち、認識困難となった監視対象の類似度に最も近似する類似度を有する監視対象に対して、認識困難となった監視対象のIDを設定する。
(Effect of embodiment)
As is clear from the above description, the behavior recognition system of the embodiment recognizes each monitoring target based on the captured images of the monitoring targets of a plurality of workers and the like, and sets an ID for each. Each monitoring target is tracked based on the set ID, but when the monitoring target becomes difficult to recognize, the ID and related information (position information and image data) of the monitoring target that has become difficult to recognize are maintained. In this state, the above-mentioned calculation of the equation (21) is performed to calculate the similarity of the monitored objects that have become difficult to recognize and the similarity of each monitored object that has been re-recognized. Then, among the re-recognized monitoring targets, the ID of the monitoring target that has become difficult to recognize is set for the monitoring target that has the similarity that most closely resembles the similarity of the monitoring target that has become difficult to recognize.
これにより、複数の監視対象を同時に認識し、一部又は全部の監視対象が一時的に認識困難となった場合でも、監視対象の再認識を行った際に、認識困難となる前及び後で、同じIDを監視対象に設定して追尾可能とすることができる。このため、複数の監視対象を精度よく監視可能とすることができる。 As a result, even if multiple monitoring targets are recognized at the same time and some or all of the monitoring targets are temporarily difficult to recognize, when the monitoring targets are re-recognized, before and after the recognition becomes difficult. , The same ID can be set as a monitoring target so that it can be tracked. Therefore, it is possible to accurately monitor a plurality of monitoring targets.
また、実施の形態の行動認識システムは、複数フレームの撮像画像から監視対象領域の時空間特徴点を抽出し、抽出した時空間特徴点に基づいて、各監視対象の行動(動作)に対応する特徴量を検出する。そして、この特徴量に基づいて、各監視対象の行動(動作)を認識し、各監視対象の例えば行動開始時間、行動終了時間、及び、所要時間等を認証結果として出力する。これにより、複数の監視対象の行動をそれぞれ可視化することができる。 Further, the action recognition system of the embodiment extracts spatiotemporal feature points of the monitored area from the captured images of a plurality of frames, and responds to the actions (movements) of each monitored target based on the extracted spatiotemporal feature points. Detect feature quantity. Then, based on this feature amount, the action (behavior) of each monitoring target is recognized, and for example, the action start time, the action end time, the required time, etc. of each monitoring target are output as the authentication result. As a result, the behaviors of a plurality of monitored objects can be visualized respectively.
最後に、上述の実施の形態は、一例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。 Finally, the embodiments described above are presented as an example and are not intended to limit the scope of the invention. Each of the novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention.
例えば、上述の実施の形態の説明では、監視対象は作業者であることとして説明したが、これは、動物、道路上の通行人、特定の場所に集まった人、又は、ロボット等の他の監視対象でもよい。この場合も、上述と同じ効果を得ることができる。 For example, in the description of the above-described embodiment, the monitoring target is described as a worker, but this may be an animal, a passerby on a road, a person gathered at a specific place, or another robot or the like. It may be a monitoring target. In this case as well, the same effect as described above can be obtained.
また、実施の形態及び実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Further, the embodiment and the modification of the embodiment are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.
1 行動認識装置
2 カメラ装置
3 インタフェース部
11 CPU
15 HDD
31 入力部
32 認識部
33 初期ID設定部
34 追尾処理部
35 行動認識処理部
36 認識結果出力部
37 監視対象認識辞書入力部
38 行動認識辞書入力部
1 Action recognition device 2
15 HDD
31
Claims (8)
前記認識部で認識された各前記監視対象に識別番号を設定する識別番号設定部と、
前記撮像画像で認識された各前記監視対象の領域に基づいて、前記撮像画像で認識される、識別番号が設定された各前記監視対象をそれぞれ追尾する追尾処理部と、
各前記監視対象を追尾した前記撮像画像の結果領域で、各前記監視対象の動作を認識する動作認識処理部と、
認識された各前記監視対象の動作の認識結果を出力する認識結果出力部と
を有する動作認識装置。 A recognition unit that recognizes multiple monitoring targets based on the captured image,
An identification number setting unit that sets an identification number for each of the monitoring targets recognized by the recognition unit,
Based on the region of each monitoring target recognized in the captured image, a tracking processing unit that tracks each monitoring target recognized in the captured image and for which an identification number is set, and a tracking processing unit.
An operation recognition processing unit that recognizes the operation of each of the monitored objects in the result area of the captured image that tracks each of the monitored objects.
An operation recognition device having a recognition result output unit that outputs a recognition result of each recognized operation of the monitored object.
を特徴とする請求項1に記載の動作認識装置。 The motion recognition device according to claim 1, wherein the recognition result output unit outputs the start time of the operation of each monitoring target and the time from the start to the end of a series of operations as the recognition result.
を特徴とする請求項1又は請求項2に記載の動作認識装置。 Claim 1 or claim, wherein the tracking processing unit maintains the identification number, position information, and image information of each monitoring target, and updates the position information and image information each time the tracking is successful. Item 2. The motion recognition device according to item 2.
前記識別番号設定部は、追尾が困難となった前記監視対象の類似度を算出すると共に、追尾が困難となることで、前記認識部により再認識された各監視対象の類似度をそれぞれ算出し、前記認識部により再認識された各監視対象の類似度のうち、追尾が困難となった前記監視対象の類似度に最近似する類似度を有する監視対象に対して、追尾が困難となった前記監視対象に対して設定されていた識別番号と同じ識別番号を設定すること
を特徴とする請求項3に記載の動作認識装置。 The tracking processing unit maintains the identification number, position information, and image information of the monitoring target whose tracking has become difficult.
The identification number setting unit calculates the similarity of the monitored object for which tracking has become difficult, and also calculates the similarity of each monitored object re-recognized by the recognition unit due to the difficulty in tracking. Of the similarities of each monitored object re-recognized by the recognition unit, it became difficult to track a monitored object having a similarity closest to the similarity of the monitored object for which tracking became difficult. The motion recognition device according to claim 3, wherein the same identification number as the identification number set for the monitoring target is set.
を特徴とする請求項1から請求項4のうち、いずれか一項に記載の動作認識装置。 From claim 1, the motion recognition processing unit extracts spatiotemporal feature points from the captured images of a plurality of frames, and recognizes the motion of each monitoring target based on the extracted spatiotemporal feature points. The motion recognition device according to any one of claims 4.
を特徴とする請求項1から請求項5のうち、いずれか一項に記載の動作認識装置。 When the time during which the tracking target is difficult to track by the tracking processing unit during a series of operations of the monitoring target is less than or equal to a predetermined time, the recognition result output unit continues the series even during the time during which the tracking becomes difficult. 1 to any one of claims 1 to 5, characterized in that the time information corresponding to the operation of the monitored object is output as the recognition result by recognizing that the operation of the above has been performed. The described motion recognition device.
識別番号設定部が、認識された各前記監視対象に識別番号を設定する識別番号設定ステップと、
追尾処理部が、前記撮像画像で認識された各前記監視対象の領域に基づいて、前記撮像画像で認識される、識別番号が設定された各前記監視対象をそれぞれ追尾する追尾処理ステップと、
動作認識処理部が、各前記監視対象を追尾した前記撮像画像の結果領域で、各前記監視対象の動作を認識する動作認識処理ステップと、
認識結果出力部が、認識された各前記監視対象の動作の認識結果を出力する認識結果出力ステップと
を有する動作認識方法。 A recognition step in which the recognition unit recognizes a plurality of monitoring targets based on the captured image,
An identification number setting step in which the identification number setting unit sets an identification number for each of the recognized monitoring targets, and
A tracking processing step in which the tracking processing unit tracks each of the monitoring targets recognized in the captured image and having an identification number set based on the region of each monitoring target recognized in the captured image.
A motion recognition processing step in which the motion recognition processing unit recognizes the motion of each monitoring target in the result area of the captured image that tracks each monitoring target.
An operation recognition method in which a recognition result output unit has a recognition result output step for outputting a recognition result of each recognized operation of the monitored object.
撮像画像に基づいて、複数の監視対象を認識する認識部と、
前記認識部で認識された各前記監視対象に識別番号を設定する識別番号設定部と、
前記撮像画像で認識された各前記監視対象の領域に基づいて、前記撮像画像で認識される、識別番号が設定された各前記監視対象をそれぞれ追尾する追尾処理部と、
各前記監視対象を追尾した前記撮像画像の結果領域で、各前記監視対象の動作を認識する動作認識処理部と、
認識された各前記監視対象の動作の認識結果を出力する認識結果出力部として機能させること
を特徴とする動作認識プログラム。 Computer,
A recognition unit that recognizes multiple monitoring targets based on the captured image,
An identification number setting unit that sets an identification number for each of the monitoring targets recognized by the recognition unit,
Based on the region of each monitoring target recognized in the captured image, a tracking processing unit that tracks each monitoring target recognized in the captured image and for which an identification number is set, and a tracking processing unit.
An operation recognition processing unit that recognizes the operation of each of the monitored objects in the result area of the captured image that tracks each of the monitored objects.
An operation recognition program characterized in that it functions as a recognition result output unit that outputs the recognition result of each recognized operation of the monitored object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019204279A JP2021077177A (en) | 2019-11-11 | 2019-11-11 | Operation recognition apparatus, operation recognition method, and operation recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019204279A JP2021077177A (en) | 2019-11-11 | 2019-11-11 | Operation recognition apparatus, operation recognition method, and operation recognition program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021077177A true JP2021077177A (en) | 2021-05-20 |
Family
ID=75898031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019204279A Pending JP2021077177A (en) | 2019-11-11 | 2019-11-11 | Operation recognition apparatus, operation recognition method, and operation recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021077177A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023276332A1 (en) * | 2021-06-28 | 2023-01-05 | パナソニックIpマネジメント株式会社 | Work analysis device and method |
-
2019
- 2019-11-11 JP JP2019204279A patent/JP2021077177A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023276332A1 (en) * | 2021-06-28 | 2023-01-05 | パナソニックIpマネジメント株式会社 | Work analysis device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970559B2 (en) | People flow estimation device, people flow estimation method, and recording medium | |
JP4763863B1 (en) | Articulated region detection apparatus and method | |
JP6950692B2 (en) | People flow estimation device, people flow estimation method and program | |
EP1859411B1 (en) | Tracking objects in a video sequence | |
EP2858008B1 (en) | Target detecting method and system | |
JP5528151B2 (en) | Object tracking device, object tracking method, and object tracking program | |
US8989448B2 (en) | Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program | |
US8340357B2 (en) | Moving object detection method and moving object detection apparatus | |
JP6525545B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM | |
US8706663B2 (en) | Detection of people in real world videos and images | |
CN104599287B (en) | Method for tracing object and device, object identifying method and device | |
US8363902B2 (en) | Moving object detection method and moving object detection apparatus | |
JP2016099941A (en) | System and program for estimating position of object | |
US11244506B2 (en) | Tracking rigged polygon-mesh models of articulated objects | |
JPWO2012127815A1 (en) | Moving body detection apparatus and moving body detection method | |
US20120269393A1 (en) | Articulation region display apparatus, articulation region detecting apparatus, articulation region belongingness calculating apparatus, articulated object region belongingness calculating apparatus, and articulation region display method | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
KR101681104B1 (en) | A multiple object tracking method with partial occlusion handling using salient feature points | |
Ali et al. | Deep Learning Algorithms for Human Fighting Action Recognition. | |
CN110910426A (en) | Action process and action trend identification method, storage medium and electronic device | |
KR101542206B1 (en) | Method and system for tracking with extraction object using coarse to fine techniques | |
CN113297963A (en) | Multi-person posture estimation method and device, electronic equipment and readable storage medium | |
CN107665495B (en) | Object tracking method and object tracking device | |
JP2021077177A (en) | Operation recognition apparatus, operation recognition method, and operation recognition program | |
JP2021081804A (en) | State recognition device, state recognition method, and state recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230929 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231017 |