JP7208051B2 - State recognition device - Google Patents

State recognition device Download PDF

Info

Publication number
JP7208051B2
JP7208051B2 JP2019024371A JP2019024371A JP7208051B2 JP 7208051 B2 JP7208051 B2 JP 7208051B2 JP 2019024371 A JP2019024371 A JP 2019024371A JP 2019024371 A JP2019024371 A JP 2019024371A JP 7208051 B2 JP7208051 B2 JP 7208051B2
Authority
JP
Japan
Prior art keywords
information
recognition
state recognition
measurement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019024371A
Other languages
Japanese (ja)
Other versions
JP2020135099A (en
Inventor
聡 笹谷
亮祐 三木
誠也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019024371A priority Critical patent/JP7208051B2/en
Priority to PCT/JP2019/039802 priority patent/WO2020166129A1/en
Publication of JP2020135099A publication Critical patent/JP2020135099A/en
Application granted granted Critical
Publication of JP7208051B2 publication Critical patent/JP7208051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled

Description

本発明は、計測装置の出力に基づいて計測対象の状態を認識する状態認識装置、及び、状態認識方法に関する。 The present invention relates to a state recognition device and a state recognition method for recognizing the state of an object to be measured based on the output of a measuring device.

近年、監視カメラや距離センサ等の計測装置が取得した画像データや距離データ等の情報に基づいて、計測装置の計測範囲内の状態や計測対象(人物や車両等)の状態を認識する状態認識技術へのニーズが高まっている。例えば、人流や交通流などの異常状態(渋滞等)を検知する技術や、異常行動の人物や車両(倒れた人物、暴れる人物、故障車両等)を検出する技術などが挙げられる。 In recent years, based on information such as image data and distance data acquired by measurement devices such as surveillance cameras and distance sensors, state recognition recognizes the state within the measurement range of the measurement device and the state of the measurement target (person, vehicle, etc.) Demand for technology is increasing. For example, technology for detecting abnormal conditions (such as traffic jams) in the flow of people and traffic, and technology for detecting abnormal behavior of people and vehicles (fallen people, violent people, broken down vehicles, etc.).

この種の状態認識技術では、計測範囲における大よその状態変化量などを検出するだけであれば処理リソースは少ないものの、高度なアルゴリズムを使用して人物や車両の詳細な行動などを認識する場合は多大な処理リソースを要するため、処理リソースを低減する施策が必要となる。そのため、通常は、広い計測範囲の一部を、状態認識を実行する認識エリアに予め設定しておくことで処理リソースを削減することが多い。 With this type of state recognition technology, processing resources are small if only the amount of state change in the measurement range is roughly detected, but if advanced algorithms are used to recognize the detailed behavior of people and vehicles. requires a large amount of processing resources, it is necessary to take measures to reduce the processing resources. Therefore, processing resources are often reduced by setting a part of a wide measurement range in advance as a recognition area for executing state recognition.

しかし、公共の場に設置された監視カメラで異常状態を認識する場合は、どのエリアで異常が発生するかが不明であるため、予め設定した認識エリアが適切でない場合もある。そこで、高度なアルゴリズムを使用する状態認識技術においては、実情に応じた認識エリアを決定する技術への期待が高い。 However, when recognizing an abnormal state with a surveillance camera installed in a public place, it is unclear in which area the abnormality will occur, so the preset recognition area may not be appropriate. Therefore, in state recognition technology using advanced algorithms, there are high expectations for technology that determines a recognition area according to the actual situation.

実情に応じた認識エリアの決定方法として、特許文献1に記載された方法がある。同文献では、計測対象は車両であり、車両の移動量などの時間変化情報を解析することで、異常状態が発生していると推測される認識エリアを特定できる。そして、認識エリアの特定後に高度な画像解析による状態認識処理を実行することで、処理リソースを抑えつつ異常状態や計測範囲内の車両や人物の状況などを詳細に認識でき、段階的なアラーム発報や誤発報の削減など高精度な異常検知を実現できる。 As a method of determining the recognition area according to the actual situation, there is a method described in Patent Document 1. In this document, the object to be measured is a vehicle, and by analyzing time change information such as the amount of movement of the vehicle, it is possible to specify a recognition area where an abnormal state is assumed to occur. By executing state recognition processing using advanced image analysis after identifying the recognition area, it is possible to recognize in detail abnormal states and the conditions of vehicles and people within the measurement range while reducing processing resources, and issue alarms in stages. It is possible to realize highly accurate anomaly detection such as reduction of alarms and false alarms.

特開2002-190090号公報Japanese Patent Application Laid-Open No. 2002-190090

しかしながら、特許文献1は、カメラの映像を解析して交通量の時間変化の緩急を検知することで交通流の異常が予想されるエリアを特定するものであるため、進行方向の自由度が低い車両に計測対象が限定されており、進行方向や行動が多様な人物を計測対象とする場合には、適切な認識エリアを設定することができないという問題がある。 However, Patent Literature 1 identifies an area where an abnormality in traffic flow is expected by analyzing video from a camera and detecting time-varying changes in traffic volume. In the case where measurement targets are limited to vehicles and people with various traveling directions and actions are to be measured, there is a problem that an appropriate recognition area cannot be set.

そこで、本発明は、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報を元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる状態認識装置を提供することを目的とする。 Therefore, the present invention provides a state recognition apparatus for recognizing a measurement range and a state of a measurement object, based on interaction information between the measurement objects extracted from the general flow information of the movement of the measurement object. It is an object of the present invention to provide a state recognition device capable of executing advanced state recognition processing while reducing the processing resources of the entire device by selecting in advance a measurement range and a measurement target for executing the above.

前記目的を達成するため、本発明の状態認識装置は、計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定する認識対象候補選定部と、前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定する認識対象決定部と、該認識対象に対し状態認識処理を実行する状態認識部と、を有するものとした。 In order to achieve the above object, the state recognition apparatus of the present invention includes a motion information generation unit that generates motion information of a measurement target based on information acquired by a measurement device, a recognition target candidate selection unit that selects recognition target candidates from the entire range; an interaction extraction unit for extracting action information; a recognition target determination unit for determining a recognition target for which state recognition processing is to be executed based on the interaction information from the recognition target candidates ; and a state recognizing unit for execution.

本発明の状態認識装置によれば、状態認識処理を実行する計測範囲や計測対象を事前に選定して、装置全体の処理リソースを削減しつつ、高度な状態認識処理を実行できる。 According to the state recognition device of the present invention, it is possible to select in advance a measurement range and a measurement target for executing state recognition processing, and to execute advanced state recognition processing while reducing the processing resources of the entire device.

実施例1の状態認識装置の機能ブロック図Functional block diagram of the state recognition device of the first embodiment 人流情報取得部の機能ブロック図Functional block diagram of the people flow information acquisition unit 人物位置計測部での処理を説明する図Diagram for explaining processing in the human position measurement unit 動線作成部での処理を説明する図Diagram explaining the processing in the flow line creation part 人流情報生成部での処理を説明する図Diagram for explaining the processing in the people flow information generation unit 認識エリア候補選定部の機能ブロック図Functional block diagram of recognition area candidate selection unit 人流情報比較部での処理を説明する図Diagram for explaining the processing in the people flow information comparison unit 人流相互作用抽出部の機能ブロック図Functional block diagram of human flow interaction extraction unit 位置関係算出部での処理を説明する図Diagram for explaining the processing in the positional relationship calculation unit 実施例2の状態認識装置の機能ブロック図Functional block diagram of the state recognition device of the second embodiment

以下、本発明の状態認識装置の具体的な実施形態について、図面を参照しながら説明する。 Hereinafter, specific embodiments of the state recognition device of the present invention will be described with reference to the drawings.

まず、図1の機能ブロック図を用いて、本発明の実施例1に係る状態認識装置1の概要を説明する。本実施例では、接続する計測装置を単眼のカメラ2とし、計測対象を人物Hとした、状態認識装置1について説明するが、本発明の適用対象はこれらの計測装置、計測対象に限定されるものではなく、計測装置はステレオカメラや距離センサなどの他のセンサであっても良いし、計測対象は車両等であっても良い。なお、状態認識装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えた計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、後述する各機能を実現するが、以下では、このような周知技術を適宜省略しながら説明する。 First, using the functional block diagram of FIG. 1, the outline of the state recognition device 1 according to the first embodiment of the present invention will be explained. In the present embodiment, a monocular camera 2 is used as a measuring device to be connected, and a state recognition device 1 in which a person H is used as an object to be measured will be described. Instead, the measuring device may be another sensor such as a stereo camera or a distance sensor, and the measurement target may be a vehicle or the like. The state recognition device 1 is actually a computer including hardware such as an arithmetic device such as a CPU, a main storage device such as a semiconductor memory, an auxiliary storage device such as a hard disk, and a communication device. Then, while referring to the database recorded in the auxiliary storage device, the arithmetic unit executes the program loaded in the main storage device, thereby realizing each function described later. Description will be made while omitting it as appropriate.

状態認識装置1は、カメラ2が撮像した画像データPの計測範囲全体の人流情報Ihから相互作用情報Iiを抽出し、これに基づき、高度な状態認識処理を適応する狭い認識エリアAを予め決定した後、決定した認識エリアAに対して高度な状態認識処理を実行することで、処理リソースの軽減を図る装置である。なお、図1では、状態認識装置1とカメラ2を別体の構成としているが、カメラ2に状態認識装置1を組み込んで、両者を一体化した構成としてもよい。 The state recognition device 1 extracts the interaction information Ii from the people flow information Ih of the entire measurement range of the image data P captured by the camera 2, and based on this, determines in advance a narrow recognition area A to which advanced state recognition processing is applied. After that, by executing advanced state recognition processing on the determined recognition area A, the device aims to reduce processing resources. In FIG. 1, the state recognition device 1 and the camera 2 are configured separately, but the state recognition device 1 may be incorporated into the camera 2 to integrate the two.

図1に示すように、本実施例の状態認識装置1は、カメラ2が撮像した画像データPを解析することで人流情報Ihを取得する人流情報取得部3、人流情報取得部3より出力される人流情報Ihから人流の変化量などを算出して状態認識処理を実行する候補となる認識エリア候補Cを選定する認識エリア候補選定部4、人流情報取得部3により取得した人流情報Ihを元に、認識エリア候補選定部4により選択された認識エリア候補Cや認識エリア候補C内にいる人物Hとその他人物間の相互作用情報Iiを抽出する人流相互作用抽出部5、人流相互作用抽出部5により取得した相互作用情報Iiから認識エリアAを決定する認識エリア決定部6、決定された認識エリアAに対して状態認識処理を実行する状態認識部7、を備えている。以下、各部の詳細について説明する。
<人流情報取得部3>
図2に示す機能ブロック図を用いて、計測対象が人物である場合の動き情報である人流情報Ihを生成する人流情報取得部3(動き情報生成部)の詳細について説明する。ここに示すように、人流情報取得部3は、カメラ2から画像データPを取得する映像取得部31、取得した画像データPに対して画像解析などを実行することで人物Hの位置を計測する人物位置計測部32、計測した人物Hの位置情報から動線Lを作成する動線作成部33、人物位置計測部32と動線作成部33から取得した人物Hの位置情報と動線情報から人流情報Ihを生成する人流情報生成部34を備える。以下、人物位置計測部32、動線作成部33、人流情報生成部34の各部について順次説明する。
<人物位置計測部32>
まず、図3を用いて、人物位置計測部32について説明する。図3において、Pはカメラ2より取得した画像データ、Hは計測対象の人物、Fは人物Hを囲む矩形の人物領域、Bは画像座標上での人物Hの足元位置、Sは3次元空間、Bは3次元空間S上での人物Hの足元位置、Sは3次元空間S上のy=0の位置でのxz平面、Bはxz平面S上での人物Hの足元位置を示している。
As shown in FIG. 1, the state recognition apparatus 1 of the present embodiment includes a people flow information acquisition unit 3 that acquires people flow information Ih by analyzing image data P captured by a camera 2, and a people flow information acquisition unit 3 outputs Based on the people flow information Ih acquired by the recognition area candidate selection unit 4 and the people flow information acquisition unit 3, the recognition area candidate selection unit 4 selects the recognition area candidate C as a candidate for executing the state recognition processing by calculating the amount of change in the people flow from the people flow information Ih. a human flow interaction extraction unit 5 for extracting the recognition area candidate C selected by the recognition area candidate selection unit 4 or the interaction information Ii between the person H in the recognition area candidate C and other persons; A recognition area determination unit 6 that determines the recognition area A from the interaction information Ii acquired by 5, and a state recognition unit 7 that performs state recognition processing on the determined recognition area A. The details of each unit will be described below.
<People Flow Information Acquisition Unit 3>
The details of the people flow information acquisition unit 3 (motion information generation unit) that generates the people flow information Ih, which is the movement information when the measurement target is a person, will be described with reference to the functional block diagram shown in FIG. 2 . As shown here, the people flow information acquisition unit 3 measures the position of the person H by executing an image analysis or the like on the image acquisition unit 31 that acquires the image data P from the camera 2 and the acquired image data P. A person position measurement unit 32, a flow line creation unit 33 that creates a flow line L from the measured position information of the person H, and from the position information of the person H and the flow line information acquired from the person position measurement unit 32 and the flow line creation unit 33 A people flow information generator 34 is provided to generate people flow information Ih. Hereinafter, each part of the person position measurement part 32, the flow line creation part 33, and the people flow information generation part 34 will be described in order.
<Human Position Measuring Unit 32>
First, the human position measuring unit 32 will be described with reference to FIG. In FIG. 3, P is the image data acquired from the camera 2, H is the person to be measured, F is the rectangular person area surrounding the person H, B is the foot position of the person H on the image coordinates, and S3 is the three -dimensional image. Space, B3 is the foot position of the person H on the three - dimensional space S3 , S2 is the xz plane at the position of y = 0 on the three - dimensional space S3, B2 is the person on the xz plane S2 The foot position of H is shown.

人物位置計測部32では、まず、画像データPに対して、人物検出などの画像処理アルゴリズムを実行することで画像内の人物Hを検出する。人物検出の手法としては、人物Hの大量のサンプル画像を予め保存しておき、取得した映像中にサンプル画像と類似した部分が存在するか否かを検索するなどの周知の人物検出手法で良く、特に限定しない。また、人物全体を検出するのではなく、例えば顔検出など人物Hの一部の領域を画像中から検出できる手法でも良い。次に、人物検出により抽出した画像中の人物領域Fから画像座標上の人物Hの足元位置B(u,v)を決定する。決定方法としては、人物領域Fの外接矩形の最下部中央を足元位置とする方法や、顔検出により検出された人物Hの頭部領域の最頂点の画像座標(u’,v’)からv方向に一定値h加算した画像座標(u’,v’-h)を足元位置とする方法などがあり、特に限定しない。その後、画像データPにおける足元位置Bの画像座標(u,v)を3次元空間Sでの足元位置B(x,y,z)に変換し、y=0のxz平面S上での足元位置B(x,z)を人物Hの位置として計測する。足元位置B(u,v)から足元位置B(x,y,z)への変換は、内部パラメータ(焦点距離等)や外部パラメータ(設置位置や設置角度等)のカメラパラメータを用いる一般的な方法を活用する。なお、カメラパラメータの導出方法としては一般的なカメラキャリブレーションをしようすれば良く、予め画像座標に対応する世界座標を手動で与えることで、カメラパラメータを推定できる。
<動線作成部33>
図4は、動線作成部33により人物Hの動線Lを生成する処理フローを示している。動線作成部33では、人物位置計測部32によって計測した同一人物の位置28を結合することで動線Lを生成する。
First, the person position measuring unit 32 detects the person H in the image by executing an image processing algorithm such as person detection on the image data P. FIG. As a person detection method, a well-known person detection method such as storing a large number of sample images of the person H in advance and searching whether or not there is a part similar to the sample image in the acquired image may be used. , is not particularly limited. Alternatively, instead of detecting the entire person, a method such as face detection that can detect a partial area of the person H from the image may be used. Next, the foot position B(u, v) of the person H on the image coordinates is determined from the person area F in the image extracted by the person detection. As a determination method, there is a method in which the bottom center of the circumscribing rectangle of the person region F is set as the foot position, or a method in which v There is a method of setting the image coordinates (u', v'-h) obtained by adding a constant value h to the direction as the foot position, and the like, but there is no particular limitation. After that, the image coordinates (u, v) of the foot position B in the image data P are converted to the foot position B 3 (x, y, z) in the three-dimensional space S 3 , and on the xz plane S 2 of y = 0 is measured as the position of the person H. Conversion from the foot position B (u, v) to the foot position B 3 (x, y, z) is generally performed using camera parameters such as internal parameters (focal length, etc.) and external parameters (installation position, installation angle, etc.). method. As a method for deriving camera parameters, general camera calibration may be used, and camera parameters can be estimated by manually giving world coordinates corresponding to image coordinates in advance.
<Flow line creation unit 33>
FIG. 4 shows a processing flow for generating the flow line L of the person H by the flow line generation unit 33. As shown in FIG. The flow line creation unit 33 generates a flow line L by combining the positions 28 of the same person measured by the person position measurement unit 32 .

例えば、人物Hが時刻Tよりt秒間カメラ2により撮像された場合、各時刻における人物Hの足元位置Bを同一のxz平面Sにプロットし繋ぎ合わせることで動線Lを生成することができる。なお、本例以外にも、ある時間帯での人物Hの位置情報と進行方向が把握可能な動線Lを生成できる手法であれば、上記の手法以外を用いてもよい。
<人流情報生成部34>
次に、図5を用いて、人流情報生成部34について説明する。人流情報生成部34は動線作成部33により作成した人物Ha、Hb、…、Hnごとの動線La、Lb、…、Lnを用いて、計測範囲内における人流情報Ihを生成する。
For example, when the person H is imaged by the camera 2 for t seconds from the time T, the flow line L can be generated by plotting the foot position B2 of the person H at each time on the same xz plane S2 and joining them together. can. In addition to this example, any method other than the above method may be used as long as it is possible to generate a flow line L that enables the position information and traveling direction of the person H to be grasped in a certain time period.
<People Flow Information Generation Unit 34>
Next, the people flow information generator 34 will be described with reference to FIG. The people flow information generator 34 uses the flow lines La, Lb, . . . , Ln for each person Ha, Hb, .

人流情報Ihの作成方法について具体的に述べる。まず、図5上段に示すように、計測範囲のxz平面Sを複数のエリア(例えば、4×4の16エリア)に分割する。そして、動線情報から各エリアにおける人物Hの移動方向を図5中段に示す8方向に分類し、最後に全ての人物Hにおける移動方向の統計を算出してエリア毎の人流方向D(各エリアで頻出する移動方向)を取得することで、図5下段に示す計測範囲の人流情報Ihを得る。この人流情報Ihにおいて、人流方向Dが存在しないエリアは人が通過していないエリアであることを示しており、人流情報Ihからは計測範囲内の人物Hの移動方向だけでなく、人物Hが通行しないエリアも把握することができる。なお、人流情報Ihの生成手法としては、本例以外にも大まかな人流情報Ihを把握できる手法であれば他の方法を用いてもよい。また、人流情報Ihとしては、人流方向だけでなく、各エリアを通過した人物Hの数を計数して、エリア毎の人流量などを追加しても良い。
<認識エリア候補選定部4>
図6は認識エリア候補選定部4の機能ブロック図である。認識エリア候補選定部4は、人流情報取得部3から取得した人流情報Ihを、人流情報履歴データベース42に保存する人流情報保存部41と、人流情報取得部3より取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdとを比較する人流情報比較部43と、人流情報比較部43の比較結果から人流の変化量がある領域を認識エリア候補Cとして出力する認識エリア候補出力部44を備える。以下、人流情報比較部43と認識エリア候補出力部44について詳細に説明する。
<人流情報比較部43、認識エリア候補出力部44>
図7を用いて人流情報比較部43について説明する。人流情報比較部43では、人流情報取得部3から取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdを比較し、人流変化量ΔIhを算出する。
A method for creating the people flow information Ih will be specifically described. First, as shown in the upper part of FIG. 5, the xz plane S2 of the measurement range is divided into a plurality of areas (for example, 4×4=16 areas). Then, from the flow line information, the movement direction of the person H in each area is classified into eight directions shown in the middle of FIG. ), the people flow information Ih in the measurement range shown in the lower part of FIG. 5 is obtained. In this people flow information Ih, an area where the direction of people flow D does not exist indicates an area where no person passes through. It is also possible to identify areas that do not pass through. Note that, as a method for generating the people flow information Ih, other methods may be used other than this example as long as the method is capable of roughly grasping the people flow information Ih. As the people flow information Ih, the number of people H who have passed through each area may be counted in addition to the direction of the people flow, and the number of people H passing through each area may be added.
<Recognition area candidate selection unit 4>
FIG. 6 is a functional block diagram of the recognition area candidate selection unit 4. As shown in FIG. The recognition area candidate selection unit 4 includes a people flow information storage unit 41 that stores the people flow information Ih acquired from the people flow information acquisition unit 3 in a people flow information history database 42, and a people flow information storage unit 41 that stores the latest people flow information Ih acquired from the people flow information acquisition unit 3. and the past people flow information Ihold stored in the people flow information history database 42, and based on the comparison result of the people flow information comparison unit 43, an area with a change in people flow is output as a recognition area candidate C. A recognition area candidate output unit 44 is provided. The people flow information comparison unit 43 and the recognition area candidate output unit 44 will be described in detail below.
<People Flow Information Comparing Unit 43, Recognition Area Candidate Output Unit 44>
The people flow information comparison unit 43 will be described with reference to FIG. The people flow information comparison unit 43 compares the latest people flow information Ih new acquired from the people flow information acquisition unit 3 with the past people flow information Ihold stored in the people flow information history database 42 to calculate the amount of change in people flow ΔIh.

人流情報比較部43で用いる比較方法としては、例えば、人流情報Ihの各エリアの人流方向を数値化し、各数値の出現頻度同士を新旧比較する方法がある。具体的には、図7の上段に例示するように、人流情報Ihを数値化した人流情報Ih’を作成した後、この人流情報Ih’に基づいて計測範囲全体における人流方向毎の出現頻度を表したヒストグラム(図7(a))を作成する。そして、最新の人流情報Ih’newに基づくヒストグラムと、過去の人流情報Ih’oldに基づくヒストグラムの差分を算出することで人流変化量ΔIhを算出する方法である。 As a comparison method used by the people flow information comparison unit 43, for example, there is a method of digitizing the direction of people flow in each area of the people flow information Ih and comparing the frequency of appearance of each numerical value. Specifically, as illustrated in the upper part of FIG. 7, after creating people flow information Ih′ that is a numerical representation of people flow information Ih, the appearance frequency for each direction of people flow in the entire measurement range is calculated based on this people flow information Ih′. A histogram (FIG. 7(a)) is created. Then, it is a method of calculating the amount of change in people flow ΔIh by calculating the difference between the histogram based on the latest people flow information Ih'new and the histogram based on the past people flow information Ih'old .

また、人流情報比較部43で用いる他の比較方法としては、例えば、各エリアの人流方向を数値化した人流情報Ih’同士を新旧比較する方法がある。具体的には、図7(b)に示すように、最新の人流情報Ih’newと過去の人流情報Ih’oldを比較して、人流に変化があるエリアを1、変化が無いエリアを0とした人流変化量ΔIhを算出する方法である。 As another comparison method used by the people flow information comparison unit 43, for example, there is a method of comparing new and old people flow information Ih' obtained by digitizing the direction of people flow in each area. Specifically, as shown in FIG. 7B, the latest people flow information Ih'new and the past people flow information Ih'old are compared, and 1 is assigned to areas where there is a change in people flow, and 0 is assigned to areas where there is no change. This is a method for calculating the amount of change in the flow of people ΔIh.

認識エリア候補出力部44では、人流情報比較部43により計算した人流変化量ΔIhを用いて、人流に変化のある領域を認識エリア候補Cとして出力する。例えば、図7(b)の人流変化量ΔIhを用いる場合は、左上のCと、右下のCの2エリアが認識エリア候補Cとして出力される。 The recognition area candidate output unit 44 uses the people flow change amount ΔIh calculated by the people flow information comparison unit 43 to output an area where the people flow changes as a recognition area candidate C. FIG. For example, when using the amount of change in the flow of people ΔIh in FIG .

なお、人流情報履歴データベース42から取得する過去の人流情報Iholdとしては、過去の中で最も新しい情報をそのまま使用する方法や、人流情報取得部3から人流情報Ihを取得する毎に平均を計算するなどして更新した人流情報Ihaveを使用する方法や、一定時間毎の人流情報Ihの平均を使用する方法などがあり、特に限定しない。また、人流方向だけでなく人流量も用いて人流情報Ihを表現しても良く、例えば、図7(a)の場合、各人流方向に対する人流量を重み係数として、各人流方向の頻度に掛け合わせた値をヒストグラムとして使用する方法などでも良い。なお、本例で述べた手法以外にも、人流情報Ihを比較できる手法であれば他の手法を用いてもよい。また、本例のように人物Hの位置をベースとした人流情報Ihを比較する方法以外にも、人流変化が生じたと予想されるエリアを大よそ検知可能な手法であれば他の手法を用いてもよい。例えば、画像全体のオプティカルフローを比較するなどの方法でも良い。
<人流相互作用抽出部5>
図8に人流相互作用抽出部5のブロック構成を示す。ここに示すように、人流相互作用抽出部5は、人流情報取得部3から取得した最新の人流情報Ihnewと、認識エリア候補選定部4から出力された認識エリア候補Cの位置情報から、認識エリア候補Cに対する人流相互作用を算出する人流相互作用算出部51と、算出した人流相互作用を出力する人流相互作用出力部52と、を備える。また、人流相互作用算出部51は、人流相互作用を算出するために、位置関係算出部51a、動線変化算出部51b、注目度算出部51cを備える。以下、人流相互作用算出部51の各機能、および、人流相互作用出力部52について説明する。
<位置関係算出部51a>
図9を用いて位置関係算出部51aについて説明する。図9において、Ba、Bb、Bcは、3次元空間Sにおける人物Ha、Hb、Hcの最新の足元位置、Ba、Bb、Bcは、xz平面Sにおける人物Ha、Hb、Hcの最新の足元位置、C、Cは認識エリア候補、O、Oは各認識エリア候補の中心、OHa、OHb、OHcは各人物の足元位置Ba、Bb、Bcと認識エリア候補Cの中心Oのユークリッド距離、thはユークリッド距離の閾値の一例を示している。
As the past people flow information Ih old acquired from the people flow information history database 42, the most recent information in the past can be used as it is, or the average can be calculated each time the people flow information Ih is acquired from the people flow information acquisition unit 3. There are a method of using the people flow information Ih ave updated by, for example, a method of using the average of the people flow information Ih at regular time intervals, etc., and there is no particular limitation. Also, the people flow information Ih may be expressed using not only the direction of people flow but also the flow of people. For example, in the case of FIG. A method of using the combined values as a histogram may also be used. In addition to the method described in this example, other methods may be used as long as they can compare the people flow information Ih. In addition to the method of comparing the people flow information Ih based on the position of the person H as in this example, other methods may be used as long as they are capable of roughly detecting an area where a change in people flow is expected. may For example, a method such as comparing the optical flow of the entire image may be used.
<Human flow interaction extraction unit 5>
FIG. 8 shows a block configuration of the human flow interaction extraction unit 5. As shown in FIG. As shown here, the people flow interaction extraction unit 5 uses the latest people flow information Ih new acquired from the people flow information acquisition unit 3 and the position information of the recognition area candidate C output from the recognition area candidate selection unit 4 to perform recognition. A people flow interaction calculation unit 51 that calculates people flow interaction for area candidate C, and a people flow interaction output unit 52 that outputs the calculated people flow interaction are provided. The people flow interaction calculation unit 51 also includes a positional relationship calculation unit 51a, a flow line change calculation unit 51b, and an attention level calculation unit 51c in order to calculate people flow interaction. Each function of the people flow interaction calculator 51 and the people flow interaction output unit 52 will be described below.
<Positional relationship calculator 51a>
The positional relationship calculator 51a will be described with reference to FIG. In FIG. 9, B 3 a, B 3 b, and B 3 c are the latest foot positions of the persons Ha, Hb, and Hc in the three-dimensional space S 3 , and B 2 a, B 2 b, and B 2 c are the xz plane. The latest foot positions of persons Ha, Hb, and Hc in S2, C1 and C2 are recognition area candidates, O1 and O2 are the centers of the respective recognition area candidates, and O1Ha , O1Hb and O1Hc are The Euclidean distance between the foot positions B 2 a, B 2 b, and B 2 c of each person and the center O 1 of the recognition area candidate C 1 , th, is an example of the Euclidean distance threshold.

位置関係算出部51aでは、ある時刻における各人物と各認識エリア候補の中心間のユークリッド距離を算出して蓄積し、図9(c)に示すようなグラフを生成する。例えば、図9(c)の実線で示すように、人物Haと認識エリア候補Cの中心O間のユークリッド距離OHaが閾値th以下となる期間があるため、人物Haは中心Oにかなり近づいた期間があることが分かる。また、一点鎖線で示すように、人物Hbと認識エリア候補Cの中心O間のユークリッド距離OHbが0となる点があるため、人物Hbは認識エリア候補Cの中心Oを通過したことが分かる。 The positional relationship calculator 51a calculates and accumulates Euclidean distances between the centers of each person and each recognition area candidate at a certain time, and generates a graph as shown in FIG. 9(c). For example, as shown by the solid line in FIG. 9C, there is a period in which the Euclidean distance O 1 Ha between the person Ha and the center O 1 of the recognition area candidate C 1 is equal to or less than the threshold value th . It can be seen that there is a period that is quite close to . Also, as indicated by the dashed line, there is a point where the Euclidean distance O 1 Hb between the person Hb and the center O 1 of the recognition area candidate C 1 is 0, so the person Hb moves the center O 1 of the recognition area candidate C 1 to I know you passed.

位置関係算出部51aでは、これらのユークリッド距離の変異情報から人物Hと認識エリア候補間の位置関係を算出する。算出方法としては、認識エリア候補Cに対する人物Hの接近具合を定量的に表現できる値を算出できる方法であれば、特に限定しない。例えば、予め定めたユークリッド距離の閾値thより小さい位置にプロットされた点数をそのまま接近具合として使用する方法がある。その他にも、一定のプロット間におけるグラフの傾き情報を利用する方法がある。図9(c)のOHa、OHbに例示するように、グラフの傾きの正負を求めることで人物Hが認識エリア候補Cに近づいているか否かを判定でき、傾きの大きさから人物Hの移動速度を算出することで認識エリア候補Cに対する人物Hの移動が積極的か否かを判定できるため、その総和を接近具合の判定基準として使用できる。また、各人物のグラフにおいて全てのプロットを使用するのではなく、前述の閾値thとは別の閾値を複数設定し、接近具合を算出する際にある閾値以上のプロット点は使用しない、あるいは2つの閾値間のプロット点のみ使用するなどの方法を用いても良い。
<動線変化算出部51b>
動線変化算出部51bでは、人流情報取得部3から取得した動線情報から認識エリア候補Cに対する人物Hの動線Lの変化量を算出する。動線Lの変化の算出方法としては、図5中段に示すような動線Lの向きを活用する方法がある。例えば、各人物の動線Lの向きを毎時刻保持しておき、認識エリア候補C付近での動線Lの向きの変化具合を動線Lの変化量とし、奥方向に移動していた人物Hの移動方向が奥方向のままであれば変化量は0、移動方向が真逆の手間方向に変化すれば変化量は最大値を取るような値域を設定することで、人物Hに関する動線Lの変化量を算出できる。また、計測範囲における過去の人流情報Iholdも使用して良く、認識エリア候補Cの遠方にいる場合は過去の人流情報Iholdと同一の向きに移動していた人物Hが、認識エリア候補Cの近傍では過去の人流情報Iholdの向きと大きく異なる方向に移動した場合は動線Lの変化量は大きくなるといった判定基準を利用する方法もある。
<注目度算出部51c>
注目度算出部51cは、認識エリア候補Cに対する人物Hの視線方向の情報から、認識エリア候補Cへの注目度を算出する機能である。視線方向情報の取得方法としては、画像データPから視線方向を推定する方法や視線センサなどを用いる方法など、特に限定しない。
The positional relationship calculator 51a calculates the positional relationship between the person H and the recognition area candidate based on the Euclidean distance variation information. The calculation method is not particularly limited as long as it can calculate a value that can quantitatively express the degree of approach of the person H to the recognition area candidate C. FIG. For example, there is a method of directly using the points plotted at positions smaller than a predetermined Euclidean distance threshold th as the degree of proximity. In addition, there is a method of using graph inclination information between certain plots. As exemplified by O 1 Ha and O 1 Hb in FIG. 9C, it is possible to determine whether or not the person H is approaching the recognition area candidate C by obtaining the positive/negative of the slope of the graph. By calculating the moving speed of the person H, it is possible to determine whether or not the person H is actively moving with respect to the recognition area candidate C. Therefore, the sum of the moving speeds can be used as a criterion for determining the degree of approach. In addition, instead of using all plots in the graph of each person, a plurality of thresholds other than the threshold th described above are set, and plot points above a certain threshold are not used when calculating the degree of approach, or 2 A method such as using only plot points between two thresholds may be used.
<Flow line change calculation unit 51b>
The flow line change calculation unit 51 b calculates the amount of change in the flow line L of the person H with respect to the recognition area candidate C from the flow line information acquired from the people flow information acquisition unit 3 . As a method of calculating the change in the line of flow L, there is a method of utilizing the direction of the line of flow L as shown in the middle of FIG. For example, the direction of the flow line L of each person is stored every time, and the degree of change in the direction of the flow line L near the recognition area candidate C is set as the amount of change in the flow line L. By setting a value range in which the amount of change is 0 if the moving direction of H remains in the depth direction, and that the amount of change takes the maximum value if the moving direction changes to the opposite hand direction, the flow line of the person H can be obtained. The amount of change in L can be calculated. In addition, the past people flow information Ihold in the measurement range may also be used . There is also a method of using a determination criterion such that the amount of change in the flow line L increases when the person moves in a direction that is significantly different from the direction of the past people flow information Ihold in the vicinity of .
<Attention degree calculation unit 51c>
The attention degree calculation unit 51c is a function of calculating the degree of attention to the recognition area candidate C from the information of the line-of-sight direction of the person H with respect to the recognition area candidate C. FIG. The method of acquiring the line-of-sight direction information is not particularly limited, such as a method of estimating the line-of-sight direction from the image data P, a method of using a line-of-sight sensor, or the like.

画像データPから視線方向を推定する方法としては、例えば画像に対して頭部検出を実行し頭部領域を抽出し、頭部領域に対する黒色の割合から推定する方法を使用しても良く、頭部領域に対する黒色領域が極めて少なければカメラのある方向、黒色領域が多ければカメラと反対の方向、黒色領域が左側に多く含まれていれば右方向、右側に多く含まれていれば左方向といった視点方向の推定が可能である。 As a method of estimating the line-of-sight direction from the image data P, for example, a method of performing head detection on the image, extracting the head region, and estimating from the ratio of black to the head region may be used. If there are very few black areas with respect to the inner area, the direction of the camera, if there are many black areas, the direction opposite to the camera, if there are many black areas on the left side, the right direction, and if there are many black areas on the right side, the left direction. It is possible to estimate the viewing direction.

このように、注目度算出部51cでは、推定した視点方向が人物Hに対する認識エリア候補Cの方向である程、該当人物Hが認識エリア候補Cに注目していると判定することで、人物Hの認識エリア候補Cへの注目度を定量的に算出できる。
<人流相互作用出力部52>
人流相互作用出力部52は、人流相互作用算出部51により算出した各認識エリア候補に対する人流相互作用情報Iiを集約して、認識エリア候補Cごとの最終的な人流の相互作用度合を出力する。
In this way, the attention degree calculation unit 51c determines that the person H is paying more attention to the recognition area candidate C when the estimated viewpoint direction is the direction of the recognition area candidate C with respect to the person H. The degree of attention to the recognition area candidate C can be quantitatively calculated.
<People Flow Interaction Output Unit 52>
The people flow interaction output unit 52 aggregates the people flow interaction information Ii for each recognition area candidate calculated by the people flow interaction calculation unit 51, and outputs the final degree of people flow interaction for each recognition area candidate C. FIG.

相互作用度合の算出方法としては、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれが算出した相互作用情報Iiを全てあるいは一部の情報のみ使用して算出する。例えば、位置関係算出部51aからは認識エリア候補Cと計測範囲内にいる人物Hのユークリッド距離の総和、動線変化算出部51bからは認識エリア候補C付近での各人物の移動方向の変化度合の総和、注目度算出部51cからは認識エリア候補Cに対する人物Hの注目度の総和を受け取り、各々の総和を予め設定した値域などから0~5の値に丸め込み、単純にそれらの値の和あるいは重み係数などを利用して求めた和を認識エリア候補Cに対する人流の相互作用度合として決定する方法がある。 As a method of calculating the degree of interaction, all or part of the interaction information Ii calculated by each of the positional relationship calculation unit 51a, flow line change calculation unit 51b, and attention level calculation unit 51c is used. For example, from the positional relationship calculation unit 51a, the sum of Euclidean distances between the recognition area candidate C and the person H in the measurement range, and from the flow line change calculation unit 51b, the degree of change in the movement direction of each person near the recognition area candidate C and the sum of the attention degrees of the person H to the recognition area candidate C from the attention degree calculation unit 51c. Alternatively, there is a method of determining the sum obtained using a weighting factor or the like as the interaction degree of the human flow with respect to the recognition area candidate C. FIG.

また、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれから出力された人流相互作用の相関性を利用し最終的な相互作用情報Iiを決定しても良く、例えば、基本的に人物Hは進行方向と同じ方向に視線があると仮定し、位置関係算出部51aや動線変化算出部51bの情報から人物Hが近付かないと推測される認識エリア候補Cにも関わらず、注目度算出部51cから出力される注目度が高い認識エリア候補Cは、最終的な人流相互作用度合を高くする方法などを利用しても良い。
<認識エリア決定部6>
認識エリア決定部6は、状態認識部7での状態認識処理の実行対象を決定する処理対象決定部であり、本実施例のように状態認識処理の対象がエリアである場合は、人流相互作用出力部52が出力した人流相互作用度合の高い認識エリア候補Cを、状態認識部7の処理対象である認識エリアAとして決定する。なお、認識エリア決定部6が決定する認識エリアAは、1つに限定されず、最大の人流相互作用度合の認識エリア候補Cのみだけでなく、それに続く人流相互作用度合の複数の認識エリア候補Cを認識エリアAに決定しても良く、一方で、最大の人流相互作用度合が予め定めた閾値よりも小さい場合は認識エリアAを決定しなくても良い。また、出力する認識エリア候補数を、状態認識装置1のCPUやメモリなどのスペック情報を参照して設定しても良い。
<状態認識部7>
状態認識部7は、認識エリア決定部6が決定した認識エリアAに対し、高度な状態認識処理を実行する。これにより、状態認識部7の処理対象エリアが計測範囲全体から認識エリアAに狭まるので、高度なアルゴリズムを用いる場合であっても状態認識に要する処理リソースを大幅に削減することができる。なお、状態認識処理の内容は、計測範囲の異常状態(渋滞等)を検知する処理、計測対象の異常行動(倒れた人物、暴れる人物、故障車両等)を検知する処理、計測対象周囲にある物体を検知して属性(人物の年齢や性別、人物の所持物等)を決定する処理のいずれかであるが、これらの処理自体は従来同等であるので、詳細説明は省略する。
Further, the final interaction information Ii may be determined using the correlation of the human flow interaction output from each of the positional relationship calculation unit 51a, the flow line change calculation unit 51b, and the attention level calculation unit 51c. , basically, it is assumed that the line of sight of the person H is in the same direction as the traveling direction, and from the information of the positional relationship calculation unit 51a and the flow line change calculation unit 51b, it is estimated that the person H does not approach the recognition area candidate C Regardless, for the recognition area candidate C with a high degree of attention output from the attention degree calculation unit 51c, a method of increasing the final degree of human interaction may be used.
<Recognition area determination unit 6>
The recognition area determination unit 6 is a processing target determination unit that determines an execution target of the state recognition processing in the state recognition unit 7. When the target of the state recognition processing is an area as in the present embodiment, human flow interaction The recognition area candidate C output by the output unit 52 and having a high degree of human interaction is determined as the recognition area A to be processed by the state recognition unit 7 . Note that the recognition area A determined by the recognition area determination unit 6 is not limited to one, and not only the recognition area candidate C with the maximum degree of human flow interaction, but also a plurality of subsequent recognition area candidates with the degree of human flow interaction. C may be determined as the recognition area A. On the other hand, if the maximum human flow interaction degree is smaller than a predetermined threshold value, the recognition area A may not be determined. Also, the number of recognition area candidates to be output may be set by referring to specification information such as the CPU and memory of the state recognition device 1 .
<State Recognition Unit 7>
The state recognition unit 7 performs advanced state recognition processing on the recognition area A determined by the recognition area determination unit 6 . As a result, the area to be processed by the state recognizing unit 7 is narrowed from the entire measurement range to the recognition area A, so that processing resources required for state recognition can be greatly reduced even when an advanced algorithm is used. The content of the state recognition processing includes processing for detecting abnormal conditions (traffic jams, etc.) in the measurement range, processing for detecting abnormal behavior of the measurement target (fallen person, violent person, broken vehicle, etc.), and processing for detecting abnormal behavior around the measurement target. This is one of the processes of detecting an object and determining its attributes (person's age, gender, person's belongings, etc.), but since these processes themselves are the same as conventional processes, detailed description thereof will be omitted.

以上の実施例では、人流相互作用抽出部5と認識エリア決定部6において、認識エリア候補Cと人物H間の相互作用度合を抽出して、状態認識部7を実行する認識エリアAを決定する方法について述べたが、人物同士の相互作用度合を抽出することで、状態認識部7を実行する人物Hを決定しても良い。例えば、認識エリア候補選定部4において、人流の変化が検知された直後に認識エリア候補C内にいる人物Hを中心位置として、人流相互作用抽出部5により認識エリア候補C内の人物Hと周囲の人物Hとの相互作用度合を算出し、最終的な相互作用度合の和が閾値より高い人物Hを状態認識部7の実行対象として出力する方法を採用しても良い。本手法では、人流相互作用抽出部5の中心位置となる人物Hは常に認識エリア候補C内に居る必要は無く、最終的に認識エリア決定部6にて出力する認識エリアAが認識エリア候補選定部4により選択されたエリアではなく、人流相互作用抽出部5の中心位置となる人物Hから一定距離以内の範囲を最終的な認識エリアAとして出力しても良い。また、人流相互作用算出部51において、全ての人物Hに対して相互作用情報Iiを出力する必要は無く、新たに複数人物が同時に検知された場合に、予め定めた人数以内に収まるようランダムで人物Hを選択する方法などを利用しても良い。 In the above embodiment, the human flow interaction extraction unit 5 and the recognition area determination unit 6 extract the degree of interaction between the recognition area candidate C and the person H, and determine the recognition area A in which the state recognition unit 7 is executed. Although the method has been described, the person H who executes the state recognition section 7 may be determined by extracting the degree of interaction between persons. For example, in the recognition area candidate selection unit 4, immediately after the change in the flow of people is detected, the person H in the recognition area candidate C is set as the center position, and the people flow interaction extraction unit 5 detects the person H in the recognition area candidate C and the surrounding area. A method of calculating the degree of interaction with the person H and outputting the person H whose final sum of the degrees of interaction is higher than a threshold value as an object to be executed by the state recognition unit 7 may be employed. In this method, it is not necessary for the person H, who is the central position of the human flow interaction extractor 5, to always be in the recognition area candidate C. Instead of the area selected by the unit 4, a range within a certain distance from the person H serving as the central position of the human flow interaction extraction unit 5 may be output as the final recognition area A. In addition, it is not necessary for the people flow interaction calculation unit 51 to output the interaction information Ii for all persons H, and when a plurality of persons are newly detected at the same time, the information is randomly generated so that the number of persons is within a predetermined number. A method of selecting the person H may be used.

本発明の実施例1では、以上で説明した構成により、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。 In the first embodiment of the present invention, with the configuration described above, the state recognition apparatus that recognizes the measurement range and the state of the measurement object detects the mutual interaction between the measurement objects extracted from the flow information of the general movement of the measurement object. By selecting in advance the measurement range and the measurement target for executing the state recognition processing based on the action information Ii, it is possible to execute advanced state recognition processing while reducing the processing resources of the entire apparatus.

なお、実施例1において、状態認識部7が実行する状態認識処理としては、計測範囲の異常状態を認識する機能、計測対象の異常行動を認識する機能、高精度の顔認識などに加え、人物Hの属性を認識する機能など特に限定せず、計測範囲全体に実行するには装置全体の処理リソースが不足するような高度な処理に限定されるものではない。 In the first embodiment, the state recognition processing executed by the state recognition unit 7 includes a function for recognizing an abnormal state in a measurement range, a function for recognizing abnormal behavior of a measurement target, a high-precision face recognition function, and a person recognition process. The function of recognizing the attribute of H is not particularly limited, and the processing is not limited to advanced processing such that the processing resources of the entire apparatus are insufficient to execute the entire measurement range.

次に、図10の機能ブロック図を用いて、本発明の実施例2に係る状態認識装置1Aを説明する。なお、実施例1との共通点は重複説明を省略する。 Next, a state recognition device 1A according to a second embodiment of the present invention will be described using the functional block diagram of FIG. Duplicate descriptions of common points with the first embodiment will be omitted.

図10に示す状態認識装置1Aは、複数のカメラ2が取得した人流情報Ihから抽出した相互作用情報Iiに基づき、高度な状態認識処理を実行する認識エリアAとその際に利用するカメラ2を予め選定する装置である。 The state recognition device 1A shown in FIG. 10 selects a recognition area A for executing advanced state recognition processing and the cameras 2 to be used at that time based on interaction information Ii extracted from people flow information Ih acquired by a plurality of cameras 2. It is a pre-selected device.

図10の状態認識装置1Aにおいて、実施例1の状態認識装置1との相違点は、人流情報取得部3から状態認識部7までのユニットをカメラ2の数と同数備えている点と、情報共有部8と、状態認識司令部9と、を備えた点である。 The state recognition device 1A of FIG. 10 is different from the state recognition device 1 of the first embodiment in that the units from the people flow information acquisition unit 3 to the state recognition unit 7 are provided in the same number as the cameras 2, and that the information The point is that the shared unit 8 and the state recognition command unit 9 are provided.

情報共有部8は、複数カメラの設置位置情報を保存する設置位置情報データベース81、各カメラ映像から取得した人流情報Ihを保存する人流情報データベース82、各カメラにおける認識エリア決定部6から出力される認識エリア情報を保存する認識エリア情報データベース83、認識対象情報を保存する認識対象情報データベース84を備え、また、状態認識指令部9は、情報共有部8の情報から各カメラに対して状態認識処理を実行するか否かを指令する。以下、情報共有部8と状態認識指令部9の詳細について説明する。
<情報共有部8>
情報共有部8では、複数のカメラ2の情報及びカメラ映像の解析結果を共有し保持する。各情報について詳細に述べる。
The information sharing unit 8 includes an installation position information database 81 that stores installation position information of a plurality of cameras, a people flow information database 82 that stores people flow information Ih acquired from each camera image, and output from the recognition area determination unit 6 in each camera. A recognition area information database 83 that stores recognition area information and a recognition target information database 84 that stores recognition target information are provided. command whether or not to execute Details of the information sharing unit 8 and the state recognition command unit 9 will be described below.
<Information sharing unit 8>
The information sharing unit 8 shares and holds the information of the plurality of cameras 2 and the analysis results of the camera images. Each piece of information is described in detail.

設置位置情報データベース81は、計測範囲におけるカメラの設置位置や画角の情報を保持する。ここで保持する情報は、例えば、予め計測範囲全体の2次元マップのような図面を用意しておき、カメラが設置されている位置とカメラの向きや画角からカメラの撮影エリアを把握できる情報であれば、特に限定しない。 The installation position information database 81 holds information on the installation position and angle of view of the camera in the measurement range. The information held here is, for example, a drawing such as a two-dimensional map of the entire measurement range that is prepared in advance, and information that allows the camera's shooting area to be grasped from the position where the camera is installed, the direction of the camera, and the angle of view. If so, it is not particularly limited.

人流情報データベース82は、各カメラ映像において、人流情報取得部3により取得した各人物の動線Lや計測範囲の人流の向きの情報を保持する。これらの情報を共有し、カメラ間の結果を繋ぎ合わせることで、後段の認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6における人物Hの動線情報などを使用した解析を高精度に実行することができる。 The people flow information database 82 holds information on the flow line L of each person acquired by the people flow information acquisition unit 3 and the direction of the people flow within the measurement range in each camera image. By sharing this information and connecting the results between cameras, analysis using the flow line information of the person H in the recognition area candidate selection unit 4, the human flow interaction extraction unit 5, and the recognition area determination unit 6 in the latter stage can be executed with high accuracy.

認識エリア情報データベース83と認識対象情報データベース84は、認識エリア決定部6が決定した認識エリアAや認識対象である人物H等の位置情報を保持する。
<状態認識指令部9>
状態認識指令部9では、情報共有部8から入手した情報に基づいて、状態認識処理を実行するカメラ2を決定する。決定方法としては、認識エリアAや認識対象に最も近いカメラを選定する方法などや、設置位置情報データベース81や人流情報データベース82から得た情報も考慮して決定する方法などがあり、特に限定しない。後者の方法について例を挙げると、カメラ2の設置位置、撮影方向、最新の人流情報Ihnewから、カメラ2と認識エリアAまたは認識対象の間に人物Hなどが要因となる遮蔽が生じているか否かを判定し、遮蔽が生じていないと予想されるカメラに対して、状態認識処理の実行を指令する方法などがある。
The recognition area information database 83 and the recognition target information database 84 hold position information such as the recognition area A determined by the recognition area determining unit 6 and the person H who is the recognition target.
<State recognition command unit 9>
Based on the information obtained from the information sharing section 8, the state recognition commanding section 9 determines the camera 2 for executing the state recognition processing. As the determination method, there are a method of selecting the camera closest to the recognition area A and the recognition target, a method of determining by considering information obtained from the installation position information database 81 and the people flow information database 82, etc., and there is no particular limitation. . To give an example of the latter method, from the installation position of the camera 2, the shooting direction, and the latest crowd flow information Ih new , it is possible to determine whether or not there is an obstruction caused by a person H or the like between the camera 2 and the recognition area A or the recognition target. There is a method of determining whether or not there is any obstruction, and instructing the execution of state recognition processing to a camera that is expected to be unoccluded.

以上で説明した、本発明の実施例2では、複数の計測装置(カメラ2)を用いた計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲、計測対象、計測装置を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。 In the second embodiment of the present invention described above, in the state recognition device that recognizes the measurement range using a plurality of measurement devices (camera 2) and the state of the measurement target, the flow of the approximate movement of the measurement target Based on the interaction information Ii between the measurement targets extracted from the information, by selecting in advance the measurement range, the measurement target, and the measurement device for executing the state recognition processing, it is possible to reduce the processing resources of the entire device and achieve an advanced state. Recognition processing can be performed.

なお、実施例2において、各カメラが認識エリアAや認識対象を選定する機能と高度な状態認識処理を実行する機能を保持する例について述べたが、カメラ毎に機能を割り当てても良い。例えば、2台のカメラを使用する場合、1台のカメラは人流情報取得部3、認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6の機能を実行して認識対象を決定する専用のカメラとし、他方のカメラは高度な状態認識処理のみ実行する専用のカメラとすることで、後者のカメラの処理リソースを削減してより高度な状態認識処理を適用できるような構成としても良い。 In the second embodiment, an example has been described in which each camera has the function of selecting the recognition area A and the recognition target and the function of executing advanced state recognition processing, but the function may be assigned to each camera. For example, when two cameras are used, one camera executes the functions of the people flow information acquisition unit 3, the recognition area candidate selection unit 4, the people flow interaction extraction unit 5, and the recognition area determination unit 6 to determine the recognition target. By making the camera dedicated to determining and the other camera dedicated to executing only advanced state recognition processing, the processing resources of the latter camera can be reduced and more advanced state recognition processing can be applied. Also good.

また、実施例2において、情報共有部8にて人流相互作用抽出部5から出力される相互作用情報Iiも保持して各カメラにて共有しても良い。例えば、認識エリア決定部6にて認識対象を決定する際に、1台目のカメラでは人流と認識対象との間の相互作用度合が小さく最終的な認識対象とは決定できなかった場合に、相互作用度合をカメラ間で引き継ぐことで、2台目のカメラにおける相互作用度合との和などにより、最終的な相互作用度合が閾値を超過することで、1台のカメラのみでは見落としていた認識対象に対して、2台目のカメラ以降にて状態認識処理を実行することができる。 In the second embodiment, the interaction information Ii output from the human flow interaction extraction unit 5 may also be held by the information sharing unit 8 and shared by each camera. For example, when the recognition area determining unit 6 determines the recognition target, if the interaction between the flow of people and the recognition target is too small for the first camera to determine the final recognition target, By handing over the degree of interaction between cameras, the final degree of interaction exceeds the threshold due to the sum of the degree of interaction with the second camera, etc., and recognition that was overlooked with only one camera. A state recognition process can be executed on the target by the second camera and subsequent cameras.

1、1A 状態認識装置、
2 カメラ、
3 人流情報取得部、
31 映像取得部、
32 人物位置計測部、
33 動線作成部、
34 人流情報生成部、
4 認識エリア候補選定部、
41 人流情報保存部、
42 人流情報履歴データベース、
43 人流情報比較部、
44 認識エリア候補出力部、
5 人流相互作用抽出部、
51 人流相互作用算出部、
51a 位置関係算出部、
51b 動線変化算出部、
51c 注目度算出部、
52 人流相互作用出力部、
6 認識エリア決定部、
7 状態認識部、
8 情報共有部、
81 設置位置情報データベース、
82 人流情報データベース、
83 認識エリア情報データベース、
84 認識対象情報データベース、
9 状態認識指令部
1, 1A state recognition device,
2 cameras,
3 people flow information acquisition unit,
31 video acquisition unit,
32 human position measurement unit,
33 flow line creation unit,
34 people flow information generation unit,
4 recognition area candidate selection unit,
41 people flow information storage unit,
42 people flow information history database,
43 People Flow Information Comparison Department,
44 recognition area candidate output unit,
5 human flow interaction extraction unit,
51 People Flow Interaction Calculation Unit,
51a positional relationship calculator,
51b flow line change calculation unit,
51c attention degree calculation unit,
52 people flow interaction output unit,
6 recognition area determination unit,
7 state recognition unit,
8 Information sharing unit;
81 installation location information database,
82 people flow information database,
83 recognition area information database,
84 recognition target information database,
9 State recognition command part

Claims (9)

計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、
該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定する認識対象候補選定部と、
前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定する認識対象決定部と、
該認識対象に対し状態認識処理を実行する状態認識部と、
を有することを特徴とする状態認識装置。
a motion information generation unit that generates motion information of a measurement target based on information acquired by the measurement device;
a recognition target candidate selection unit that selects a recognition target candidate from the entire measurement range of the measuring device based on the motion information;
an interaction extraction unit that extracts interaction information between the space and the measurement target or interaction information between the measurement targets using the relationship between the motion information and the recognition target candidate ;
a recognition target determination unit that determines, from the recognition target candidates, a recognition target for executing state recognition processing based on the interaction information;
a state recognition unit that executes state recognition processing on the recognition target;
A state recognition device characterized by comprising:
請求項に記載の状態認識装置において、
前記状態認識部で実行される状態認識処理が、前記計測装置の計測範囲の異常状態を検知する処理、前記計測対象の異常行動を検知する処理、前記計測対象の属性を検知する処理の何れかであることを特徴とする状態認識装置。
In the state recognition device according to claim 1 ,
The state recognition processing executed by the state recognition unit is any of processing for detecting an abnormal state in the measurement range of the measuring device, processing for detecting abnormal behavior of the measurement target, and processing for detecting an attribute of the measurement target. A state recognition device characterized by:
請求項1または請求項に記載の状態認識装置において、
前記計測装置を複数備えており、該複数の計測装置が取得した情報を共有した共有情報に基づいて、前記状態認識処理を実行する際に利用する計測装置を決定することを特徴とする状態認識装置。
In the state recognition device according to claim 1 or claim 2 ,
State recognition characterized by comprising a plurality of the measuring devices, and determining a measuring device to be used when executing the state recognition process based on shared information in which information acquired by the plurality of measuring devices is shared. Device.
請求項3に記載の状態認識装置において、
前記共有情報が、前記計測装置の設置位置情報、前記計測対象の動き情報、または、前記認識対象の情報の何れかであることを特徴とする状態認識装置。
In the state recognition device according to claim 3 ,
The state recognition device, wherein the shared information is any one of installation position information of the measurement device, movement information of the measurement target, or information of the recognition target.
請求項または請求項に記載の状態認識装置において、
前記複数の計測装置には、状態認識処理を実行する専用の計測装置が少なくとも1台含まれることを特徴とする状態認識装置。
In the state recognition device according to claim 3 or claim 4 ,
The state recognition device, wherein the plurality of measurement devices include at least one dedicated measurement device for executing state recognition processing.
請求項1から請求項の何れか一項に記載の状態認識装置において、
前記動き情報が、前記計測対象の位置と移動方向の情報であることを特徴とする状態認識装置。
In the state recognition device according to any one of claims 1 to 5 ,
The state recognition device, wherein the motion information is information on the position and movement direction of the object to be measured.
請求項1から請求項の何れか一項に記載の状態認識装置において、
前記相互作用抽出部が抽出する前記相互作用情報が、
空間と前記計測対象の距離、前記計測対象同士の距離、または、前記計測対象の移動速度、動線、動線変化量、視線の何れかの情報であることを特徴とする状態認識装置。
In the state recognition device according to any one of claims 1 to 6 ,
The interaction information extracted by the interaction extraction unit is
A state recognition apparatus characterized by being information on any one of a distance between a space and said object to be measured, a distance between said objects to be measured, a moving speed of said object to be measured, a line of flow, an amount of change in line of flow, and a line of sight.
請求項1から請求項の何れか一項に記載の状態認識装置において、
前記計測装置は、単眼のカメラ、ステレオカメラ、距離センサの何れかであることを特徴とする状態認識装置。
In the state recognition device according to any one of claims 1 to 7 ,
The state recognition device, wherein the measurement device is one of a monocular camera, a stereo camera, and a distance sensor.
計測装置が取得した情報に基づき、計測対象の動き情報を生成し、
該動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定し、
前記動き情報と前記認識対象候補の関係を利用して、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出し、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を前記認識対象候補から決定し、
該認識対象に対し状態認識処理を実行することを特徴とする状態認識方法。
Based on the information acquired by the measurement device, generate motion information of the measurement target,
selecting a recognition target candidate from the entire measurement range of the measurement device based on the motion information;
extracting interaction information between the space and the measurement target or interaction information between the measurement targets using the relationship between the motion information and the recognition target candidate ;
determining a recognition target for executing state recognition processing from the recognition target candidates based on the interaction information;
A state recognition method characterized by executing state recognition processing on the recognition target.
JP2019024371A 2019-02-14 2019-02-14 State recognition device Active JP7208051B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019024371A JP7208051B2 (en) 2019-02-14 2019-02-14 State recognition device
PCT/JP2019/039802 WO2020166129A1 (en) 2019-02-14 2019-10-09 State recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024371A JP7208051B2 (en) 2019-02-14 2019-02-14 State recognition device

Publications (2)

Publication Number Publication Date
JP2020135099A JP2020135099A (en) 2020-08-31
JP7208051B2 true JP7208051B2 (en) 2023-01-18

Family

ID=72043894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024371A Active JP7208051B2 (en) 2019-02-14 2019-02-14 State recognition device

Country Status (2)

Country Link
JP (1) JP7208051B2 (en)
WO (1) WO2020166129A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179335A1 (en) 2012-05-30 2013-12-05 株式会社 日立製作所 Monitoring camera control device and visual monitoring system
JP2016024651A (en) 2014-07-22 2016-02-08 沖電気工業株式会社 State determination system, state determination method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014125882A1 (en) * 2013-02-15 2014-08-21 日本電気株式会社 Information processing system, information processing method, and program
JP6898165B2 (en) * 2017-07-18 2021-07-07 パナソニック株式会社 People flow analysis method, people flow analyzer and people flow analysis system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179335A1 (en) 2012-05-30 2013-12-05 株式会社 日立製作所 Monitoring camera control device and visual monitoring system
JP2016024651A (en) 2014-07-22 2016-02-08 沖電気工業株式会社 State determination system, state determination method, and program

Also Published As

Publication number Publication date
JP2020135099A (en) 2020-08-31
WO2020166129A1 (en) 2020-08-20

Similar Documents

Publication Publication Date Title
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
CN108933925B (en) Information processing apparatus, information processing method, and storage medium
CN109076198B (en) Video-based object tracking occlusion detection system, method and equipment
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
JP6700752B2 (en) Position detecting device, position detecting method and program
JP6013241B2 (en) Person recognition apparatus and method
JP5763965B2 (en) Information processing apparatus, information processing method, and program
Chattopadhyay et al. Frontal gait recognition from incomplete sequences using RGB-D camera
JP2016099941A (en) System and program for estimating position of object
US10063843B2 (en) Image processing apparatus and image processing method for estimating three-dimensional position of object in image
KR101380628B1 (en) Method and apparatus for object tracking using multiple cameras
KR101360349B1 (en) Method and apparatus for object tracking based on feature of object
KR100824757B1 (en) Gait recognition method
WO2019220589A1 (en) Video analysis device, video analysis method, and program
JP6255944B2 (en) Image analysis apparatus, image analysis method, and image analysis program
Zhang et al. Robust Real-Time Human Perception with Depth Camera.
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP7208051B2 (en) State recognition device
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2008140093A (en) Abnormal event extraction device, abnormal event extraction method, program for the method, and storage medium recording the program
JPWO2018037479A1 (en) Image processing apparatus, stereo camera apparatus, and image processing method
JP3946927B2 (en) Target determination system and determination method
JP2015165433A (en) Information processing device, information processing method, and program
JP2014203133A (en) Image processing device and image processing method
Meyer et al. Improving face detection with depth

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R150 Certificate of patent or registration of utility model

Ref document number: 7208051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150