JP2020135099A - State recognition device - Google Patents
State recognition device Download PDFInfo
- Publication number
- JP2020135099A JP2020135099A JP2019024371A JP2019024371A JP2020135099A JP 2020135099 A JP2020135099 A JP 2020135099A JP 2019024371 A JP2019024371 A JP 2019024371A JP 2019024371 A JP2019024371 A JP 2019024371A JP 2020135099 A JP2020135099 A JP 2020135099A
- Authority
- JP
- Japan
- Prior art keywords
- information
- state recognition
- recognition
- target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims abstract description 85
- 230000003993 interaction Effects 0.000 claims abstract description 78
- 238000012545 processing Methods 0.000 claims abstract description 36
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 89
- 230000008569 process Effects 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 32
- 238000009434 installation Methods 0.000 claims description 10
- 230000002159 abnormal effect Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 206010000117 Abnormal behaviour Diseases 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 206010000210 abortion Diseases 0.000 description 1
- 231100000176 abortion Toxicity 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000005282 vitamin D3 Nutrition 0.000 description 1
- 239000011647 vitamin D3 Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、計測装置の出力に基づいて計測対象の状態を認識する状態認識装置、及び、状態認識方法に関する。 The present invention relates to a state recognition device that recognizes the state of a measurement target based on the output of the measurement device, and a state recognition method.
近年、監視カメラや距離センサ等の計測装置が取得した画像データや距離データ等の情報に基づいて、計測装置の計測範囲内の状態や計測対象(人物や車両等)の状態を認識する状態認識技術へのニーズが高まっている。例えば、人流や交通流などの異常状態(渋滞等)を検知する技術や、異常行動の人物や車両(倒れた人物、暴れる人物、故障車両等)を検出する技術などが挙げられる。 In recent years, state recognition that recognizes the state within the measurement range of the measuring device and the state of the measurement target (person, vehicle, etc.) based on the information such as image data and distance data acquired by the measuring device such as a surveillance camera and a distance sensor. The need for technology is increasing. For example, there are technologies for detecting abnormal conditions (traffic jams, etc.) such as traffic flow and traffic flow, and technologies for detecting persons and vehicles with abnormal behavior (fallen person, rampage person, broken vehicle, etc.).
この種の状態認識技術では、計測範囲における大よその状態変化量などを検出するだけであれば処理リソースは少ないものの、高度なアルゴリズムを使用して人物や車両の詳細な行動などを認識する場合は多大な処理リソースを要するため、処理リソースを低減する施策が必要となる。そのため、通常は、広い計測範囲の一部を、状態認識を実行する認識エリアに予め設定しておくことで処理リソースを削減することが多い。 With this type of state recognition technology, processing resources are small if only the amount of change in state in the measurement range is detected, but when recognizing the detailed behavior of a person or vehicle using an advanced algorithm. Requires a large amount of processing resources, so measures to reduce the processing resources are required. Therefore, in general, processing resources are often reduced by setting a part of a wide measurement range in the recognition area for executing state recognition in advance.
しかし、公共の場に設置された監視カメラで異常状態を認識する場合は、どのエリアで異常が発生するかが不明であるため、予め設定した認識エリアが適切でない場合もある。そこで、高度なアルゴリズムを使用する状態認識技術においては、実情に応じた認識エリアを決定する技術への期待が高い。 However, when a surveillance camera installed in a public place recognizes an abnormal state, it is unclear in which area the abnormality occurs, so a preset recognition area may not be appropriate. Therefore, in the state recognition technology that uses an advanced algorithm, there are high expectations for a technology that determines a recognition area according to the actual situation.
実情に応じた認識エリアの決定方法として、特許文献1に記載された方法がある。同文献では、計測対象は車両であり、車両の移動量などの時間変化情報を解析することで、異常状態が発生していると推測される認識エリアを特定できる。そして、認識エリアの特定後に高度な画像解析による状態認識処理を実行することで、処理リソースを抑えつつ異常状態や計測範囲内の車両や人物の状況などを詳細に認識でき、段階的なアラーム発報や誤発報の削減など高精度な異常検知を実現できる。
As a method of determining the recognition area according to the actual situation, there is a method described in
しかしながら、特許文献1は、カメラの映像を解析して交通量の時間変化の緩急を検知することで交通流の異常が予想されるエリアを特定するものであるため、進行方向の自由度が低い車両に計測対象が限定されており、進行方向や行動が多様な人物を計測対象とする場合には、適切な認識エリアを設定することができないという問題がある。
However,
そこで、本発明は、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報を元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる状態認識装置を提供することを目的とする。 Therefore, according to the present invention, in a state recognition device that recognizes a measurement range and a state of a measurement target, a state recognition process is performed based on interaction information between measurement targets extracted from the general movement flow information of the measurement target. It is an object of the present invention to provide a state recognition device capable of executing advanced state recognition processing while reducing the processing resources of the entire device by selecting the measurement range and the measurement target to be executed in advance.
前記目的を達成するため、本発明の状態認識装置は、計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、該動き情報に基づいて、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、該相互作用情報に基づいて、状態認識処理を実行する認識対象を決定する認識対象決定部と、該認識対象に対し状態認識処理を実行する状態認識部と、を有するものとした。 In order to achieve the above object, the state recognition device of the present invention has a motion information generation unit that generates motion information of a measurement target based on the information acquired by the measurement device, and a space and the measurement object based on the motion information. The interaction extraction unit that extracts the interaction information of the above or the interaction information between the measurement targets, the recognition target determination unit that determines the recognition target that executes the state recognition process based on the interaction information, and the recognition target determination unit. It is assumed to have a state recognition unit that executes a state recognition process for the recognition target.
本発明の状態認識装置によれば、状態認識処理を実行する計測範囲や計測対象を事前に選定して、装置全体の処理リソースを削減しつつ、高度な状態認識処理を実行できる。 According to the state recognition device of the present invention, a measurement range and a measurement target for executing the state recognition process can be selected in advance, and advanced state recognition processing can be executed while reducing the processing resources of the entire device.
以下、本発明の状態認識装置の具体的な実施形態について、図面を参照しながら説明する。 Hereinafter, specific embodiments of the state recognition device of the present invention will be described with reference to the drawings.
まず、図1の機能ブロック図を用いて、本発明の実施例1に係る状態認識装置1の概要を説明する。本実施例では、接続する計測装置を単眼のカメラ2とし、計測対象を人物Hとした、状態認識装置1について説明するが、本発明の適用対象はこれらの計測装置、計測対象に限定されるものではなく、計測装置はステレオカメラや距離センサなどの他のセンサであっても良いし、計測対象は車両等であっても良い。なお、状態認識装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えた計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、後述する各機能を実現するが、以下では、このような周知技術を適宜省略しながら説明する。
First, the outline of the
状態認識装置1は、カメラ2が撮像した画像データPの計測範囲全体の人流情報Ihから相互作用情報Iiを抽出し、これに基づき、高度な状態認識処理を適応する狭い認識エリアAを予め決定した後、決定した認識エリアAに対して高度な状態認識処理を実行することで、処理リソースの軽減を図る装置である。なお、図1では、状態認識装置1とカメラ2を別体の構成としているが、カメラ2に状態認識装置1を組み込んで、両者を一体化した構成としてもよい。
The
図1に示すように、本実施例の状態認識装置1は、カメラ2が撮像した画像データPを解析することで人流情報Ihを取得する人流情報取得部3、人流情報取得部3より出力される人流情報Ihから人流の変化量などを算出して状態認識処理を実行する候補となる認識エリア候補Cを選定する認識エリア候補選定部4、人流情報取得部3により取得した人流情報Ihを元に、認識エリア候補選定部4により選択された認識エリア候補Cや認識エリア候補C内にいる人物Hとその他人物間の相互作用情報Iiを抽出する人流相互作用抽出部5、人流相互作用抽出部5により取得した相互作用情報Iiから認識エリアAを決定する認識エリア決定部6、決定された認識エリアAに対して状態認識処理を実行する状態認識部7、を備えている。以下、各部の詳細について説明する。
<人流情報取得部3>
図2に示す機能ブロック図を用いて、計測対象が人物である場合の動き情報である人流情報Ihを生成する人流情報取得部3(動き情報生成部)の詳細について説明する。ここに示すように、人流情報取得部3は、カメラ2から画像データPを取得する映像取得部31、取得した画像データPに対して画像解析などを実行することで人物Hの位置を計測する人物位置計測部32、計測した人物Hの位置情報から動線Lを作成する動線作成部33、人物位置計測部32と動線作成部33から取得した人物Hの位置情報と動線情報から人流情報Ihを生成する人流情報生成部34を備える。以下、人物位置計測部32、動線作成部33、人流情報生成部34の各部について順次説明する。
<人物位置計測部32>
まず、図3を用いて、人物位置計測部32について説明する。図3において、Pはカメラ2より取得した画像データ、Hは計測対象の人物、Fは人物Hを囲む矩形の人物領域、Bは画像座標上での人物Hの足元位置、S3は3次元空間、B3は3次元空間S3上での人物Hの足元位置、S2は3次元空間S3上のy=0の位置でのxz平面、B2はxz平面S2上での人物Hの足元位置を示している。
As shown in FIG. 1, the
<People flow
The details of the human flow information acquisition unit 3 (movement information generation unit) that generates the human flow information Ih, which is the movement information when the measurement target is a person, will be described with reference to the functional block diagram shown in FIG. As shown here, the flow
<Person
First, the person
人物位置計測部32では、まず、画像データPに対して、人物検出などの画像処理アルゴリズムを実行することで画像内の人物Hを検出する。人物検出の手法としては、人物Hの大量のサンプル画像を予め保存しておき、取得した映像中にサンプル画像と類似した部分が存在するか否かを検索するなどの周知の人物検出手法で良く、特に限定しない。また、人物全体を検出するのではなく、例えば顔検出など人物Hの一部の領域を画像中から検出できる手法でも良い。次に、人物検出により抽出した画像中の人物領域Fから画像座標上の人物Hの足元位置B(u,v)を決定する。決定方法としては、人物領域Fの外接矩形の最下部中央を足元位置とする方法や、顔検出により検出された人物Hの頭部領域の最頂点の画像座標(u’,v’)からv方向に一定値h加算した画像座標(u’,v’−h)を足元位置とする方法などがあり、特に限定しない。その後、画像データPにおける足元位置Bの画像座標(u,v)を3次元空間S3での足元位置B3(x,y,z)に変換し、y=0のxz平面S2上での足元位置B2(x,z)を人物Hの位置として計測する。足元位置B(u,v)から足元位置B3(x,y,z)への変換は、内部パラメータ(焦点距離等)や外部パラメータ(設置位置や設置角度等)のカメラパラメータを用いる一般的な方法を活用する。なお、カメラパラメータの導出方法としては一般的なカメラキャリブレーションをしようすれば良く、予め画像座標に対応する世界座標を手動で与えることで、カメラパラメータを推定できる。
<動線作成部33>
図4は、動線作成部33により人物Hの動線Lを生成する処理フローを示している。動線作成部33では、人物位置計測部32によって計測した同一人物の位置28を結合することで動線Lを生成する。
The person
<Flow
FIG. 4 shows a processing flow in which the flow
例えば、人物Hが時刻Tよりt秒間カメラ2により撮像された場合、各時刻における人物Hの足元位置B2を同一のxz平面S2にプロットし繋ぎ合わせることで動線Lを生成することができる。なお、本例以外にも、ある時間帯での人物Hの位置情報と進行方向が把握可能な動線Lを生成できる手法であれば、上記の手法以外を用いてもよい。
<人流情報生成部34>
次に、図5を用いて、人流情報生成部34について説明する。人流情報生成部34は動線作成部33により作成した人物Ha、Hb、…、Hnごとの動線La、Lb、…、Lnを用いて、計測範囲内における人流情報Ihを生成する。
For example, when the person H is imaged by the
<People flow
Next, the human flow
人流情報Ihの作成方法について具体的に述べる。まず、図5上段に示すように、計測範囲のxz平面S2を複数のエリア(例えば、4×4の16エリア)に分割する。そして、動線情報から各エリアにおける人物Hの移動方向を図5中段に示す8方向に分類し、最後に全ての人物Hにおける移動方向の統計を算出してエリア毎の人流方向D(各エリアで頻出する移動方向)を取得することで、図5下段に示す計測範囲の人流情報Ihを得る。この人流情報Ihにおいて、人流方向Dが存在しないエリアは人が通過していないエリアであることを示しており、人流情報Ihからは計測範囲内の人物Hの移動方向だけでなく、人物Hが通行しないエリアも把握することができる。なお、人流情報Ihの生成手法としては、本例以外にも大まかな人流情報Ihを把握できる手法であれば他の方法を用いてもよい。また、人流情報Ihとしては、人流方向だけでなく、各エリアを通過した人物Hの数を計数して、エリア毎の人流量などを追加しても良い。
<認識エリア候補選定部4>
図6は認識エリア候補選定部4の機能ブロック図である。認識エリア候補選定部4は、人流情報取得部3から取得した人流情報Ihを、人流情報履歴データベース42に保存する人流情報保存部41と、人流情報取得部3より取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdとを比較する人流情報比較部43と、人流情報比較部43の比較結果から人流の変化量がある領域を認識エリア候補Cとして出力する認識エリア候補出力部44を備える。以下、人流情報比較部43と認識エリア候補出力部44について詳細に説明する。
<人流情報比較部43、認識エリア候補出力部44>
図7を用いて人流情報比較部43について説明する。人流情報比較部43では、人流情報取得部3から取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdを比較し、人流変化量ΔIhを算出する。
The method of creating the human flow information Ih will be specifically described. First, as shown in the upper part of FIG. 5, the xz plane S 2 of the measurement range is divided into a plurality of areas (for example, 16 areas of 4 × 4). Then, the movement directions of the person H in each area are classified into the eight directions shown in the middle of FIG. 5 from the flow line information, and finally, the statistics of the movement directions of all the people H are calculated and the flow direction D (each area) for each area. By acquiring the moving direction (moving direction that frequently appears in), the human flow information Ih in the measurement range shown in the lower part of FIG. 5 is obtained. In this person flow information Ih, the area where the person flow direction D does not exist indicates that the area is not passed by a person, and from the person flow information Ih, not only the movement direction of the person H within the measurement range but also the person H is It is possible to grasp areas that do not pass. In addition to this example, as a method for generating the human flow information Ih, another method may be used as long as it is a method capable of grasping a rough human flow information Ih. Further, as the person flow information Ih, not only the person flow direction but also the number of persons H who have passed through each area may be counted and the person flow rate for each area may be added.
<Recognition area
FIG. 6 is a functional block diagram of the recognition area
<People flow
The human flow
人流情報比較部43で用いる比較方法としては、例えば、人流情報Ihの各エリアの人流方向を数値化し、各数値の出現頻度同士を新旧比較する方法がある。具体的には、図7の上段に例示するように、人流情報Ihを数値化した人流情報Ih’を作成した後、この人流情報Ih’に基づいて計測範囲全体における人流方向毎の出現頻度を表したヒストグラム(図7(a))を作成する。そして、最新の人流情報Ih’newに基づくヒストグラムと、過去の人流情報Ih’oldに基づくヒストグラムの差分を算出することで人流変化量ΔIhを算出する方法である。
As a comparison method used in the human flow
また、人流情報比較部43で用いる他の比較方法としては、例えば、各エリアの人流方向を数値化した人流情報Ih’同士を新旧比較する方法がある。具体的には、図7(b)に示すように、最新の人流情報Ih’newと過去の人流情報Ih’oldを比較して、人流に変化があるエリアを1、変化が無いエリアを0とした人流変化量ΔIhを算出する方法である。
Further, as another comparison method used by the person flow
認識エリア候補出力部44では、人流情報比較部43により計算した人流変化量ΔIhを用いて、人流に変化のある領域を認識エリア候補Cとして出力する。例えば、図7(b)の人流変化量ΔIhを用いる場合は、左上のC1と、右下のC2の2エリアが認識エリア候補Cとして出力される。
The recognition area
なお、人流情報履歴データベース42から取得する過去の人流情報Iholdとしては、過去の中で最も新しい情報をそのまま使用する方法や、人流情報取得部3から人流情報Ihを取得する毎に平均を計算するなどして更新した人流情報Ihaveを使用する方法や、一定時間毎の人流情報Ihの平均を使用する方法などがあり、特に限定しない。また、人流方向だけでなく人流量も用いて人流情報Ihを表現しても良く、例えば、図7(a)の場合、各人流方向に対する人流量を重み係数として、各人流方向の頻度に掛け合わせた値をヒストグラムとして使用する方法などでも良い。なお、本例で述べた手法以外にも、人流情報Ihを比較できる手法であれば他の手法を用いてもよい。また、本例のように人物Hの位置をベースとした人流情報Ihを比較する方法以外にも、人流変化が生じたと予想されるエリアを大よそ検知可能な手法であれば他の手法を用いてもよい。例えば、画像全体のオプティカルフローを比較するなどの方法でも良い。
<人流相互作用抽出部5>
図8に人流相互作用抽出部5のブロック構成を示す。ここに示すように、人流相互作用抽出部5は、人流情報取得部3から取得した最新の人流情報Ihnewと、認識エリア候補選定部4から出力された認識エリア候補Cの位置情報から、認識エリア候補Cに対する人流相互作用を算出する人流相互作用算出部51と、算出した人流相互作用を出力する人流相互作用出力部52と、を備える。また、人流相互作用算出部51は、人流相互作用を算出するために、位置関係算出部51a、動線変化算出部51b、注目度算出部51cを備える。以下、人流相互作用算出部51の各機能、および、人流相互作用出力部52について説明する。
<位置関係算出部51a>
図9を用いて位置関係算出部51aについて説明する。図9において、B3a、B3b、B3cは、3次元空間S3における人物Ha、Hb、Hcの最新の足元位置、B2a、B2b、B2cは、xz平面S2における人物Ha、Hb、Hcの最新の足元位置、C1、C2は認識エリア候補、O1、O2は各認識エリア候補の中心、O1Ha、O1Hb、O1Hcは各人物の足元位置B2a、B2b、B2cと認識エリア候補C1の中心O1のユークリッド距離、thはユークリッド距離の閾値の一例を示している。
As the past human flow information Ih old acquired from the human flow
<Human flow
FIG. 8 shows the block configuration of the human flow
<Positional relationship calculation unit 51a>
The positional relationship calculation unit 51a will be described with reference to FIG. In FIG. 9, B 3 a, B 3 b, B 3 c are the latest foot positions of the persons Ha, H b, H c in the three-dimensional space S 3 , and B 2 a, B 2 b, B 2 c are the xz planes. The latest foot positions of people Ha, Hb, and Hc in S 2 , C 1 , C 2 are recognition area candidates, O 1 , O 2 are the centers of each recognition area candidate, and O 1 Ha, O 1 Hb, and O 1 Hc are The foot positions B 2 a, B 2 b, B 2 c of each person, the Euclidean distance of the center O 1 of the recognition area candidate C 1 , and th indicate an example of the Euclidean distance threshold.
位置関係算出部51aでは、ある時刻における各人物と各認識エリア候補の中心間のユークリッド距離を算出して蓄積し、図9(c)に示すようなグラフを生成する。例えば、図9(c)の実線で示すように、人物Haと認識エリア候補C1の中心O1間のユークリッド距離O1Haが閾値th以下となる期間があるため、人物Haは中心O1にかなり近づいた期間があることが分かる。また、一点鎖線で示すように、人物Hbと認識エリア候補C1の中心O1間のユークリッド距離O1Hbが0となる点があるため、人物Hbは認識エリア候補C1の中心O1を通過したことが分かる。
The positional relationship calculation unit 51a calculates and accumulates the Euclidean distance between each person and the center of each recognition area candidate at a certain time, and generates a graph as shown in FIG. 9C. For example, as shown by the solid line in FIG. 9C, since there is a period in which the Euclidean distance O 1 Ha between the person Ha and the center O 1 of the recognition area candidate C 1 is equal to or less than the threshold value th, the person Ha is the center O 1. It can be seen that there is a period that is quite close to. Further, as indicated by a dashed line, since the
位置関係算出部51aでは、これらのユークリッド距離の変異情報から人物Hと認識エリア候補間の位置関係を算出する。算出方法としては、認識エリア候補Cに対する人物Hの接近具合を定量的に表現できる値を算出できる方法であれば、特に限定しない。例えば、予め定めたユークリッド距離の閾値thより小さい位置にプロットされた点数をそのまま接近具合として使用する方法がある。その他にも、一定のプロット間におけるグラフの傾き情報を利用する方法がある。図9(c)のO1Ha、O1Hbに例示するように、グラフの傾きの正負を求めることで人物Hが認識エリア候補Cに近づいているか否かを判定でき、傾きの大きさから人物Hの移動速度を算出することで認識エリア候補Cに対する人物Hの移動が積極的か否かを判定できるため、その総和を接近具合の判定基準として使用できる。また、各人物のグラフにおいて全てのプロットを使用するのではなく、前述の閾値thとは別の閾値を複数設定し、接近具合を算出する際にある閾値以上のプロット点は使用しない、あるいは2つの閾値間のプロット点のみ使用するなどの方法を用いても良い。
<動線変化算出部51b>
動線変化算出部51bでは、人流情報取得部3から取得した動線情報から認識エリア候補Cに対する人物Hの動線Lの変化量を算出する。動線Lの変化の算出方法としては、図5中段に示すような動線Lの向きを活用する方法がある。例えば、各人物の動線Lの向きを毎時刻保持しておき、認識エリア候補C付近での動線Lの向きの変化具合を動線Lの変化量とし、奥方向に移動していた人物Hの移動方向が奥方向のままであれば変化量は0、移動方向が真逆の手間方向に変化すれば変化量は最大値を取るような値域を設定することで、人物Hに関する動線Lの変化量を算出できる。また、計測範囲における過去の人流情報Iholdも使用して良く、認識エリア候補Cの遠方にいる場合は過去の人流情報Iholdと同一の向きに移動していた人物Hが、認識エリア候補Cの近傍では過去の人流情報Iholdの向きと大きく異なる方向に移動した場合は動線Lの変化量は大きくなるといった判定基準を利用する方法もある。
<注目度算出部51c>
注目度算出部51cは、認識エリア候補Cに対する人物Hの視線方向の情報から、認識エリア候補Cへの注目度を算出する機能である。視線方向情報の取得方法としては、画像データPから視線方向を推定する方法や視線センサなどを用いる方法など、特に限定しない。
The positional relationship calculation unit 51a calculates the positional relationship between the person H and the recognition area candidate from the mutation information of these Euclidean distances. The calculation method is not particularly limited as long as it can calculate a value that can quantitatively express the degree of approach of the person H to the recognition area candidate C. For example, there is a method in which the points plotted at a position smaller than the predetermined Euclidean distance threshold th are used as they are as the approach condition. Another method is to use the slope information of the graph between certain plots. As illustrated in O 1 Ha and O 1 Hb of FIG. 9 (c), it can be determined whether or not the person H is approaching the recognition area candidate C by finding the positive or negative of the slope of the graph, and from the magnitude of the slope. Since it is possible to determine whether or not the movement of the person H with respect to the recognition area candidate C is positive by calculating the movement speed of the person H, the sum total can be used as a criterion for determining the degree of approach. Also, instead of using all plots in the graph of each person, set multiple thresholds different from the above-mentioned threshold th, and do not use plot points above a certain threshold when calculating the degree of approach, or 2 A method such as using only plot points between two thresholds may be used.
<Flow line
The flow line
<
The attention
画像データPから視線方向を推定する方法としては、例えば画像に対して頭部検出を実行し頭部領域を抽出し、頭部領域に対する黒色の割合から推定する方法を使用しても良く、頭部領域に対する黒色領域が極めて少なければカメラのある方向、黒色領域が多ければカメラと反対の方向、黒色領域が左側に多く含まれていれば右方向、右側に多く含まれていれば左方向といった視点方向の推定が可能である。 As a method of estimating the line-of-sight direction from the image data P, for example, a method of executing head detection on the image, extracting the head region, and estimating from the ratio of black to the head region may be used. If the black area is extremely small, the direction is the direction of the camera, if the black area is large, the direction is opposite to the camera, if the black area is large on the left side, the direction is right, if the black area is large on the right side, the direction is left. It is possible to estimate the viewpoint direction.
このように、注目度算出部51cでは、推定した視点方向が人物Hに対する認識エリア候補Cの方向である程、該当人物Hが認識エリア候補Cに注目していると判定することで、人物Hの認識エリア候補Cへの注目度を定量的に算出できる。
<人流相互作用出力部52>
人流相互作用出力部52は、人流相互作用算出部51により算出した各認識エリア候補に対する人流相互作用情報Iiを集約して、認識エリア候補Cごとの最終的な人流の相互作用度合を出力する。
In this way, the attention
<Human flow
The human flow
相互作用度合の算出方法としては、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれが算出した相互作用情報Iiを全てあるいは一部の情報のみ使用して算出する。例えば、位置関係算出部51aからは認識エリア候補Cと計測範囲内にいる人物Hのユークリッド距離の総和、動線変化算出部51bからは認識エリア候補C付近での各人物の移動方向の変化度合の総和、注目度算出部51cからは認識エリア候補Cに対する人物Hの注目度の総和を受け取り、各々の総和を予め設定した値域などから0〜5の値に丸め込み、単純にそれらの値の和あるいは重み係数などを利用して求めた和を認識エリア候補Cに対する人流の相互作用度合として決定する方法がある。
As a method of calculating the degree of interaction, the interaction information Ii calculated by each of the positional relationship calculation unit 51a, the flow line
また、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれから出力された人流相互作用の相関性を利用し最終的な相互作用情報Iiを決定しても良く、例えば、基本的に人物Hは進行方向と同じ方向に視線があると仮定し、位置関係算出部51aや動線変化算出部51bの情報から人物Hが近付かないと推測される認識エリア候補Cにも関わらず、注目度算出部51cから出力される注目度が高い認識エリア候補Cは、最終的な人流相互作用度合を高くする方法などを利用しても良い。
<認識エリア決定部6>
認識エリア決定部6は、状態認識部7での状態認識処理の実行対象を決定する処理対象決定部であり、本実施例のように状態認識処理の対象がエリアである場合は、人流相互作用出力部52が出力した人流相互作用度合の高い認識エリア候補Cを、状態認識部7の処理対象である認識エリアAとして決定する。なお、認識エリア決定部6が決定する認識エリアAは、1つに限定されず、最大の人流相互作用度合の認識エリア候補Cのみだけでなく、それに続く人流相互作用度合の複数の認識エリア候補Cを認識エリアAに決定しても良く、一方で、最大の人流相互作用度合が予め定めた閾値よりも小さい場合は認識エリアAを決定しなくても良い。また、出力する認識エリア候補数を、状態認識装置1のCPUやメモリなどのスペック情報を参照して設定しても良い。
<状態認識部7>
状態認識部7は、認識エリア決定部6が決定した認識エリアAに対し、高度な状態認識処理を実行する。これにより、状態認識部7の処理対象エリアが計測範囲全体から認識エリアAに狭まるので、高度なアルゴリズムを用いる場合であっても状態認識に要する処理リソースを大幅に削減することができる。なお、状態認識処理の内容は、計測範囲の異常状態(渋滞等)を検知する処理、計測対象の異常行動(倒れた人物、暴れる人物、故障車両等)を検知する処理、計測対象周囲にある物体を検知して属性(人物の年齢や性別、人物の所持物等)を決定する処理のいずれかであるが、これらの処理自体は従来同等であるので、詳細説明は省略する。
Further, the final interaction information Ii may be determined by using the correlation of the human-flow interaction output from each of the positional relationship calculation unit 51a, the flow line
<Recognition
The recognition
<State recognition unit 7>
The state recognition unit 7 executes advanced state recognition processing on the recognition area A determined by the recognition
以上の実施例では、人流相互作用抽出部5と認識エリア決定部6において、認識エリア候補Cと人物H間の相互作用度合を抽出して、状態認識部7を実行する認識エリアAを決定する方法について述べたが、人物同士の相互作用度合を抽出することで、状態認識部7を実行する人物Hを決定しても良い。例えば、認識エリア候補選定部4において、人流の変化が検知された直後に認識エリア候補C内にいる人物Hを中心位置として、人流相互作用抽出部5により認識エリア候補C内の人物Hと周囲の人物Hとの相互作用度合を算出し、最終的な相互作用度合の和が閾値より高い人物Hを状態認識部7の実行対象として出力する方法を採用しても良い。本手法では、人流相互作用抽出部5の中心位置となる人物Hは常に認識エリア候補C内に居る必要は無く、最終的に認識エリア決定部6にて出力する認識エリアAが認識エリア候補選定部4により選択されたエリアではなく、人流相互作用抽出部5の中心位置となる人物Hから一定距離以内の範囲を最終的な認識エリアAとして出力しても良い。また、人流相互作用算出部51において、全ての人物Hに対して相互作用情報Iiを出力する必要は無く、新たに複数人物が同時に検知された場合に、予め定めた人数以内に収まるようランダムで人物Hを選択する方法などを利用しても良い。
In the above embodiment, the human flow
本発明の実施例1では、以上で説明した構成により、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。 In the first embodiment of the present invention, in the state recognition device that recognizes the measurement range and the state of the measurement target according to the configuration described above, the mutual measurement targets extracted from the general movement flow information of the measurement target. By selecting in advance the measurement range and measurement target for executing the state recognition process based on the action information Ii, it is possible to execute the advanced state recognition process while reducing the processing resources of the entire device.
なお、実施例1において、状態認識部7が実行する状態認識処理としては、計測範囲の異常状態を認識する機能、計測対象の異常行動を認識する機能、高精度の顔認識などに加え、人物Hの属性を認識する機能など特に限定せず、計測範囲全体に実行するには装置全体の処理リソースが不足するような高度な処理に限定されるものではない。 In the first embodiment, the state recognition process executed by the state recognition unit 7 includes a function of recognizing an abnormal state in the measurement range, a function of recognizing an abnormal behavior of a measurement target, a highly accurate face recognition, and the like, as well as a person. The function of recognizing the attribute of H is not particularly limited, and is not limited to advanced processing in which the processing resources of the entire device are insufficient to execute the entire measurement range.
次に、図10の機能ブロック図を用いて、本発明の実施例2に係る状態認識装置1Aを説明する。なお、実施例1との共通点は重複説明を省略する。 Next, the state recognition device 1A according to the second embodiment of the present invention will be described with reference to the functional block diagram of FIG. It should be noted that the common points with the first embodiment will be omitted.
図10に示す状態認識装置1Aは、複数のカメラ2が取得した人流情報Ihから抽出した相互作用情報Iiに基づき、高度な状態認識処理を実行する認識エリアAとその際に利用するカメラ2を予め選定する装置である。
The state recognition device 1A shown in FIG. 10 includes a recognition area A that executes advanced state recognition processing and a
図10の状態認識装置1Aにおいて、実施例1の状態認識装置1との相違点は、人流情報取得部3から状態認識部7までのユニットをカメラ2の数と同数備えている点と、情報共有部8と、状態認識司令部9と、を備えた点である。
The state recognition device 1A of FIG. 10 differs from the
情報共有部8は、複数カメラの設置位置情報を保存する設置位置情報データベース81、各カメラ映像から取得した人流情報Ihを保存する人流情報データベース82、各カメラにおける認識エリア決定部6から出力される認識エリア情報を保存する認識エリア情報データベース83、認識対象情報を保存する認識対象情報データベース84を備え、また、状態認識指令部9は、情報共有部8の情報から各カメラに対して状態認識処理を実行するか否かを指令する。以下、情報共有部8と状態認識指令部9の詳細について説明する。
<情報共有部8>
情報共有部8では、複数のカメラ2の情報及びカメラ映像の解析結果を共有し保持する。各情報について詳細に述べる。
The
<
The
設置位置情報データベース81は、計測範囲におけるカメラの設置位置や画角の情報を保持する。ここで保持する情報は、例えば、予め計測範囲全体の2次元マップのような図面を用意しておき、カメラが設置されている位置とカメラの向きや画角からカメラの撮影エリアを把握できる情報であれば、特に限定しない。
The installation
人流情報データベース82は、各カメラ映像において、人流情報取得部3により取得した各人物の動線Lや計測範囲の人流の向きの情報を保持する。これらの情報を共有し、カメラ間の結果を繋ぎ合わせることで、後段の認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6における人物Hの動線情報などを使用した解析を高精度に実行することができる。
The person flow
認識エリア情報データベース83と認識対象情報データベース84は、認識エリア決定部6が決定した認識エリアAや認識対象である人物H等の位置情報を保持する。
<状態認識指令部9>
状態認識指令部9では、情報共有部8から入手した情報に基づいて、状態認識処理を実行するカメラ2を決定する。決定方法としては、認識エリアAや認識対象に最も近いカメラを選定する方法などや、設置位置情報データベース81や人流情報データベース82から得た情報も考慮して決定する方法などがあり、特に限定しない。後者の方法について例を挙げると、カメラ2の設置位置、撮影方向、最新の人流情報Ihnewから、カメラ2と認識エリアAまたは認識対象の間に人物Hなどが要因となる遮蔽が生じているか否かを判定し、遮蔽が生じていないと予想されるカメラに対して、状態認識処理の実行を指令する方法などがある。
The recognition
<State
The state
以上で説明した、本発明の実施例2では、複数の計測装置(カメラ2)を用いた計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲、計測対象、計測装置を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。 In the second embodiment of the present invention described above, in a state recognition device that recognizes a measurement range and a state of a measurement target using a plurality of measurement devices (cameras 2), the general flow of movement of the measurement target. By selecting the measurement range, measurement target, and measurement device to execute the state recognition process in advance based on the interaction information Ii between the measurement targets extracted from the information, the processing resources of the entire device are reduced and the advanced state is achieved. Recognition processing can be executed.
なお、実施例2において、各カメラが認識エリアAや認識対象を選定する機能と高度な状態認識処理を実行する機能を保持する例について述べたが、カメラ毎に機能を割り当てても良い。例えば、2台のカメラを使用する場合、1台のカメラは人流情報取得部3、認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6の機能を実行して認識対象を決定する専用のカメラとし、他方のカメラは高度な状態認識処理のみ実行する専用のカメラとすることで、後者のカメラの処理リソースを削減してより高度な状態認識処理を適用できるような構成としても良い。
Although the second embodiment has described an example in which each camera retains a function of selecting a recognition area A and a recognition target and a function of executing advanced state recognition processing, a function may be assigned to each camera. For example, when two cameras are used, one camera executes the functions of the human flow
また、実施例2において、情報共有部8にて人流相互作用抽出部5から出力される相互作用情報Iiも保持して各カメラにて共有しても良い。例えば、認識エリア決定部6にて認識対象を決定する際に、1台目のカメラでは人流と認識対象との間の相互作用度合が小さく最終的な認識対象とは決定できなかった場合に、相互作用度合をカメラ間で引き継ぐことで、2台目のカメラにおける相互作用度合との和などにより、最終的な相互作用度合が閾値を超過することで、1台のカメラのみでは見落としていた認識対象に対して、2台目のカメラ以降にて状態認識処理を実行することができる。
Further, in the second embodiment, the
1、1A 状態認識装置、
2 カメラ、
3 人流情報取得部、
31 映像取得部、
32 人物位置計測部、
33 動線作成部、
34 人流情報生成部、
4 認識エリア候補選定部、
41 人流情報保存部、
42 人流情報履歴データベース、
43 人流情報比較部、
44 認識エリア候補出力部、
5 人流相互作用抽出部、
51 人流相互作用算出部、
51a 位置関係算出部、
51b 動線変化算出部、
51c 注目度算出部、
52 人流相互作用出力部、
6 認識エリア決定部、
7 状態認識部、
8 情報共有部、
81 設置位置情報データベース、
82 人流情報データベース、
83 認識エリア情報データベース、
84 認識対象情報データベース、
9 状態認識指令部
1,1A state recognition device,
2 cameras,
3 person flow information acquisition department,
31 Video acquisition department,
32 Person position measurement unit,
33 Flow line creation department,
34 Abortion Information Generation Department,
4 Recognition area candidate selection department,
41 Personnel Information Storage Department,
42 people flow information history database,
43 Personnel Information Comparison Department,
44 Recognition area candidate output unit,
5 Human-flow interaction extraction unit,
51 Human-flow interaction calculation unit,
51a Positional relationship calculation unit,
51b Flow line change calculation unit,
51c Attention calculation unit,
52 Human-flow interaction output unit,
6 Recognition area determination unit,
7 State recognition unit,
8 Information Sharing Department,
81 Installation location information database,
82 people flow information database,
83 Recognition area information database,
84 Recognized information database,
9 State recognition command unit
Claims (10)
該動き情報に基づいて、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を決定する認識対象決定部と、
該認識対象に対し状態認識処理を実行する状態認識部と、
を有することを特徴とする状態認識装置。 A motion information generator that generates motion information for the measurement target based on the information acquired by the measuring device,
An interaction extraction unit that extracts interaction information between the space and the measurement target or interaction information between the measurement targets based on the motion information.
Based on the interaction information, a recognition target determination unit that determines a recognition target to execute the state recognition process,
A state recognition unit that executes state recognition processing for the recognition target,
A state recognition device characterized by having.
さらに、前記動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定する認識対象候補選定部を有しており、
前記相互作用抽出部は、前記相互作用情報を抽出する際に、前記動き情報と前記認識対象候補の関係を利用することを特徴とする状態認識装置。 In the state recognition device according to claim 1,
Further, it has a recognition target candidate selection unit that selects recognition target candidates from the entire measurement range of the measuring device based on the motion information.
The interaction extraction unit is a state recognition device that utilizes the relationship between the motion information and the recognition target candidate when extracting the interaction information.
前記状態認識部で実行される状態認識処理が、前記計測装置の計測範囲の異常状態を検知する処理、前記計測対象の異常行動を検知する処理、前記計測対象の属性を検知する処理の何れかであることを特徴とする状態認識装置。 In the state recognition device according to claim 1 or 2.
The state recognition process executed by the state recognition unit is any one of a process of detecting an abnormal state in the measurement range of the measuring device, a process of detecting an abnormal behavior of the measurement target, and a process of detecting an attribute of the measurement target. A state recognition device characterized by being.
前記計測装置を複数備えており、該複数の計測装置が取得した情報を共有した共有情報に基づいて、前記状態認識処理を実行する際に利用する計測装置を決定することを特徴とする状態認識装置。 In the state recognition device according to any one of claims 1 to 3.
A state recognition characterized by having a plurality of the measuring devices and determining a measuring device to be used when executing the state recognition process based on the shared information shared by the plurality of measuring devices. apparatus.
前記共有情報が、前記計測装置の設置位置情報、前記計測対象の動き情報、または、前記認識対象の情報の何れかであることを特徴とする状態認識装置。 In claim 4,
A state recognition device characterized in that the shared information is any of the installation position information of the measurement device, the movement information of the measurement target, or the information of the recognition target.
前記複数の計測装置には、状態認識処理を実行する専用の計測装置が少なくとも1台含まれることを特徴とする状態認識装置。 In the state recognition device according to claim 4 or 5.
The state recognition device is characterized in that the plurality of measuring devices include at least one dedicated measuring device that executes a state recognition process.
前記動き情報が、前記計測対象の位置と移動方向の情報であることを特徴とする状態認識装置。 In the state recognition device according to any one of claims 1 to 6.
A state recognition device characterized in that the motion information is information on the position and movement direction of the measurement target.
前記相互作用抽出部が抽出する前記相互作用情報が、
空間と前記計測対象の距離、前記計測対象同士の距離、または、前記計測対象の移動速度、動線、動線変化量、視線の何れかの情報であることを特徴とする状態認識装置。 In the state recognition device according to any one of claims 1 to 7.
The interaction information extracted by the interaction extraction unit is
A state recognition device characterized in that it is information on any one of the distance between the space and the measurement target, the distance between the measurement targets, or the movement speed, flow line, flow line change amount, and line of sight of the measurement target.
前記計測装置は、単眼のカメラ、ステレオカメラ、距離センサの何れかであることを特徴とする状態認識装置。 In the state recognition device according to any one of claims 1 to 8.
The measuring device is a state recognition device characterized by being any one of a monocular camera, a stereo camera, and a distance sensor.
該動き情報に基づいて、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出し、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を決定し、
該認識対象に対し状態認識処理を実行することを特徴とする状態認識方法。 Based on the information acquired by the measuring device, the motion information of the measurement target is generated, and
Based on the motion information, the interaction information between the space and the measurement target or the interaction information between the measurement targets is extracted.
Based on the interaction information, the recognition target to execute the state recognition process is determined.
A state recognition method, characterized in that a state recognition process is executed on the recognition target.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024371A JP7208051B2 (en) | 2019-02-14 | 2019-02-14 | State recognition device |
PCT/JP2019/039802 WO2020166129A1 (en) | 2019-02-14 | 2019-10-09 | State recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024371A JP7208051B2 (en) | 2019-02-14 | 2019-02-14 | State recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135099A true JP2020135099A (en) | 2020-08-31 |
JP7208051B2 JP7208051B2 (en) | 2023-01-18 |
Family
ID=72043894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019024371A Active JP7208051B2 (en) | 2019-02-14 | 2019-02-14 | State recognition device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7208051B2 (en) |
WO (1) | WO2020166129A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024105766A1 (en) * | 2022-11-15 | 2024-05-23 | 富士通株式会社 | Information processing program, information processing method, and information processing device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013179335A1 (en) * | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | Monitoring camera control device and visual monitoring system |
JP2016024651A (en) * | 2014-07-22 | 2016-02-08 | 沖電気工業株式会社 | State determination system, state determination method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6406241B2 (en) * | 2013-02-15 | 2018-10-17 | 日本電気株式会社 | Information processing system, information processing method, and program |
JP6898165B2 (en) * | 2017-07-18 | 2021-07-07 | パナソニック株式会社 | People flow analysis method, people flow analyzer and people flow analysis system |
-
2019
- 2019-02-14 JP JP2019024371A patent/JP7208051B2/en active Active
- 2019-10-09 WO PCT/JP2019/039802 patent/WO2020166129A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013179335A1 (en) * | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | Monitoring camera control device and visual monitoring system |
JP2016024651A (en) * | 2014-07-22 | 2016-02-08 | 沖電気工業株式会社 | State determination system, state determination method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7208051B2 (en) | 2023-01-18 |
WO2020166129A1 (en) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755080B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
US10007850B2 (en) | System and method for event monitoring and detection | |
JP2021036437A (en) | Movement situation estimation device, movement situation estimation method and program recording medium | |
JP5297078B2 (en) | Method for detecting moving object in blind spot of vehicle, and blind spot detection device | |
EP3518146B1 (en) | Image processing apparatus and image processing method | |
KR20190128500A (en) | Method and apparatus for detecting garbage dumping action in real time on video surveillance system | |
US12046044B2 (en) | Information processing apparatus, control method, and program | |
KR101116273B1 (en) | Apparatus and Method for Traffic Accident Recognition | |
WO2019220589A1 (en) | Video analysis device, video analysis method, and program | |
KR101380628B1 (en) | Method and apparatus for object tracking using multiple cameras | |
JP2009143722A (en) | Person tracking apparatus, person tracking method and person tracking program | |
KR101360349B1 (en) | Method and apparatus for object tracking based on feature of object | |
US9317765B2 (en) | Human image tracking system, and human image detection and human image tracking methods thereof | |
JP2014093023A (en) | Object detection device, object detection method and program | |
KR101840042B1 (en) | Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System | |
US20240135552A1 (en) | Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium | |
WO2020032944A1 (en) | System and method for detecting, tracking and counting human objects of interest with an improved height calculation | |
US11157728B1 (en) | Person detection and identification using overhead depth images | |
JP2013069045A (en) | Image recognition device, image recognition method, and image recognition program | |
JP7208051B2 (en) | State recognition device | |
JP2021047538A (en) | Image processing device, image processing method, and program | |
KR101771655B1 (en) | Device and method for action recognition | |
Meyer et al. | Improving face detection with depth | |
JP2018195872A (en) | Information processing device, information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7208051 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |