JP2020135099A - State recognition device - Google Patents

State recognition device Download PDF

Info

Publication number
JP2020135099A
JP2020135099A JP2019024371A JP2019024371A JP2020135099A JP 2020135099 A JP2020135099 A JP 2020135099A JP 2019024371 A JP2019024371 A JP 2019024371A JP 2019024371 A JP2019024371 A JP 2019024371A JP 2020135099 A JP2020135099 A JP 2020135099A
Authority
JP
Japan
Prior art keywords
information
state recognition
recognition
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019024371A
Other languages
Japanese (ja)
Other versions
JP7208051B2 (en
Inventor
聡 笹谷
So Sasatani
聡 笹谷
亮祐 三木
Ryosuke MIKI
亮祐 三木
誠也 伊藤
Seiya Ito
誠也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019024371A priority Critical patent/JP7208051B2/en
Priority to PCT/JP2019/039802 priority patent/WO2020166129A1/en
Publication of JP2020135099A publication Critical patent/JP2020135099A/en
Application granted granted Critical
Publication of JP7208051B2 publication Critical patent/JP7208051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a state recognition device which can select beforehand a measurement range or a measurement target of state recognition processing to be executed and can execute high-level state recognition processing while reducing the processing resources of the entire device.SOLUTION: The state recognition device includes: a motion information generation unit for generating motion information of measurement targets on the basis of information acquired by a measuring device; an interaction extraction unit for extracting interaction information of a space and a measurement target or interaction information of measurement targets on the basis of the motion information; a recognition target determination unit for determining a recognition target on which the state recognition processing is to be executed, on the basis of the interaction information; and a state recognition unit of executing the state recognition processing on the recognition target.SELECTED DRAWING: Figure 1

Description

本発明は、計測装置の出力に基づいて計測対象の状態を認識する状態認識装置、及び、状態認識方法に関する。 The present invention relates to a state recognition device that recognizes the state of a measurement target based on the output of the measurement device, and a state recognition method.

近年、監視カメラや距離センサ等の計測装置が取得した画像データや距離データ等の情報に基づいて、計測装置の計測範囲内の状態や計測対象(人物や車両等)の状態を認識する状態認識技術へのニーズが高まっている。例えば、人流や交通流などの異常状態(渋滞等)を検知する技術や、異常行動の人物や車両(倒れた人物、暴れる人物、故障車両等)を検出する技術などが挙げられる。 In recent years, state recognition that recognizes the state within the measurement range of the measuring device and the state of the measurement target (person, vehicle, etc.) based on the information such as image data and distance data acquired by the measuring device such as a surveillance camera and a distance sensor. The need for technology is increasing. For example, there are technologies for detecting abnormal conditions (traffic jams, etc.) such as traffic flow and traffic flow, and technologies for detecting persons and vehicles with abnormal behavior (fallen person, rampage person, broken vehicle, etc.).

この種の状態認識技術では、計測範囲における大よその状態変化量などを検出するだけであれば処理リソースは少ないものの、高度なアルゴリズムを使用して人物や車両の詳細な行動などを認識する場合は多大な処理リソースを要するため、処理リソースを低減する施策が必要となる。そのため、通常は、広い計測範囲の一部を、状態認識を実行する認識エリアに予め設定しておくことで処理リソースを削減することが多い。 With this type of state recognition technology, processing resources are small if only the amount of change in state in the measurement range is detected, but when recognizing the detailed behavior of a person or vehicle using an advanced algorithm. Requires a large amount of processing resources, so measures to reduce the processing resources are required. Therefore, in general, processing resources are often reduced by setting a part of a wide measurement range in the recognition area for executing state recognition in advance.

しかし、公共の場に設置された監視カメラで異常状態を認識する場合は、どのエリアで異常が発生するかが不明であるため、予め設定した認識エリアが適切でない場合もある。そこで、高度なアルゴリズムを使用する状態認識技術においては、実情に応じた認識エリアを決定する技術への期待が高い。 However, when a surveillance camera installed in a public place recognizes an abnormal state, it is unclear in which area the abnormality occurs, so a preset recognition area may not be appropriate. Therefore, in the state recognition technology that uses an advanced algorithm, there are high expectations for a technology that determines a recognition area according to the actual situation.

実情に応じた認識エリアの決定方法として、特許文献1に記載された方法がある。同文献では、計測対象は車両であり、車両の移動量などの時間変化情報を解析することで、異常状態が発生していると推測される認識エリアを特定できる。そして、認識エリアの特定後に高度な画像解析による状態認識処理を実行することで、処理リソースを抑えつつ異常状態や計測範囲内の車両や人物の状況などを詳細に認識でき、段階的なアラーム発報や誤発報の削減など高精度な異常検知を実現できる。 As a method of determining the recognition area according to the actual situation, there is a method described in Patent Document 1. In this document, the measurement target is a vehicle, and by analyzing time change information such as the amount of movement of the vehicle, it is possible to identify a recognition area in which an abnormal state is presumed to occur. Then, by executing the state recognition process by advanced image analysis after identifying the recognition area, it is possible to recognize the abnormal state and the situation of the vehicle or person within the measurement range in detail while suppressing the processing resources, and issue a stepwise alarm. Highly accurate abnormality detection such as reduction of reports and false alarms can be realized.

特開2002−190090号公報JP-A-2002-190090

しかしながら、特許文献1は、カメラの映像を解析して交通量の時間変化の緩急を検知することで交通流の異常が予想されるエリアを特定するものであるため、進行方向の自由度が低い車両に計測対象が限定されており、進行方向や行動が多様な人物を計測対象とする場合には、適切な認識エリアを設定することができないという問題がある。 However, Patent Document 1 has a low degree of freedom in the direction of travel because it identifies an area where an abnormality in the traffic flow is expected by analyzing the image of the camera and detecting the gradual change of the traffic volume over time. When the measurement target is limited to the vehicle and the measurement target is a person with various traveling directions and actions, there is a problem that an appropriate recognition area cannot be set.

そこで、本発明は、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報を元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる状態認識装置を提供することを目的とする。 Therefore, according to the present invention, in a state recognition device that recognizes a measurement range and a state of a measurement target, a state recognition process is performed based on interaction information between measurement targets extracted from the general movement flow information of the measurement target. It is an object of the present invention to provide a state recognition device capable of executing advanced state recognition processing while reducing the processing resources of the entire device by selecting the measurement range and the measurement target to be executed in advance.

前記目的を達成するため、本発明の状態認識装置は、計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、該動き情報に基づいて、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、該相互作用情報に基づいて、状態認識処理を実行する認識対象を決定する認識対象決定部と、該認識対象に対し状態認識処理を実行する状態認識部と、を有するものとした。 In order to achieve the above object, the state recognition device of the present invention has a motion information generation unit that generates motion information of a measurement target based on the information acquired by the measurement device, and a space and the measurement object based on the motion information. The interaction extraction unit that extracts the interaction information of the above or the interaction information between the measurement targets, the recognition target determination unit that determines the recognition target that executes the state recognition process based on the interaction information, and the recognition target determination unit. It is assumed to have a state recognition unit that executes a state recognition process for the recognition target.

本発明の状態認識装置によれば、状態認識処理を実行する計測範囲や計測対象を事前に選定して、装置全体の処理リソースを削減しつつ、高度な状態認識処理を実行できる。 According to the state recognition device of the present invention, a measurement range and a measurement target for executing the state recognition process can be selected in advance, and advanced state recognition processing can be executed while reducing the processing resources of the entire device.

実施例1の状態認識装置の機能ブロック図Functional block diagram of the state recognition device of the first embodiment 人流情報取得部の機能ブロック図Functional block diagram of the human flow information acquisition unit 人物位置計測部での処理を説明する図The figure explaining the process in the person position measurement part 動線作成部での処理を説明する図The figure explaining the process in the flow line creation part 人流情報生成部での処理を説明する図The figure explaining the process in the person flow information generation part 認識エリア候補選定部の機能ブロック図Functional block diagram of the recognition area candidate selection unit 人流情報比較部での処理を説明する図The figure explaining the processing in the person flow information comparison part 人流相互作用抽出部の機能ブロック図Functional block diagram of the human flow interaction extraction unit 位置関係算出部での処理を説明する図The figure explaining the process in the positional relationship calculation part 実施例2の状態認識装置の機能ブロック図Functional block diagram of the state recognition device of the second embodiment

以下、本発明の状態認識装置の具体的な実施形態について、図面を参照しながら説明する。 Hereinafter, specific embodiments of the state recognition device of the present invention will be described with reference to the drawings.

まず、図1の機能ブロック図を用いて、本発明の実施例1に係る状態認識装置1の概要を説明する。本実施例では、接続する計測装置を単眼のカメラ2とし、計測対象を人物Hとした、状態認識装置1について説明するが、本発明の適用対象はこれらの計測装置、計測対象に限定されるものではなく、計測装置はステレオカメラや距離センサなどの他のセンサであっても良いし、計測対象は車両等であっても良い。なお、状態認識装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えた計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、後述する各機能を実現するが、以下では、このような周知技術を適宜省略しながら説明する。 First, the outline of the state recognition device 1 according to the first embodiment of the present invention will be described with reference to the functional block diagram of FIG. In the present embodiment, the state recognition device 1 in which the connected measuring device is the monocular camera 2 and the measurement target is the person H will be described, but the application target of the present invention is limited to these measuring devices and the measurement target. The measuring device may be another sensor such as a stereo camera or a distance sensor, and the measurement target may be a vehicle or the like. The state recognition device 1 is actually a computer including a computing device such as a CPU, a main storage device such as a semiconductor memory, an auxiliary storage device such as a hard disk, and hardware such as a communication device. Then, while referring to the database recorded in the auxiliary storage device, the arithmetic unit executes the program loaded in the main storage device to realize each function described later. In the following, such a well-known technique will be used. The description will be omitted as appropriate.

状態認識装置1は、カメラ2が撮像した画像データPの計測範囲全体の人流情報Ihから相互作用情報Iiを抽出し、これに基づき、高度な状態認識処理を適応する狭い認識エリアAを予め決定した後、決定した認識エリアAに対して高度な状態認識処理を実行することで、処理リソースの軽減を図る装置である。なお、図1では、状態認識装置1とカメラ2を別体の構成としているが、カメラ2に状態認識装置1を組み込んで、両者を一体化した構成としてもよい。 The state recognition device 1 extracts the interaction information Ii from the human flow information Ih of the entire measurement range of the image data P captured by the camera 2, and based on this, determines in advance a narrow recognition area A to which advanced state recognition processing is applied. After that, it is a device that reduces processing resources by executing advanced state recognition processing for the determined recognition area A. Although the state recognition device 1 and the camera 2 are separately configured in FIG. 1, the state recognition device 1 may be incorporated into the camera 2 to integrate the two.

図1に示すように、本実施例の状態認識装置1は、カメラ2が撮像した画像データPを解析することで人流情報Ihを取得する人流情報取得部3、人流情報取得部3より出力される人流情報Ihから人流の変化量などを算出して状態認識処理を実行する候補となる認識エリア候補Cを選定する認識エリア候補選定部4、人流情報取得部3により取得した人流情報Ihを元に、認識エリア候補選定部4により選択された認識エリア候補Cや認識エリア候補C内にいる人物Hとその他人物間の相互作用情報Iiを抽出する人流相互作用抽出部5、人流相互作用抽出部5により取得した相互作用情報Iiから認識エリアAを決定する認識エリア決定部6、決定された認識エリアAに対して状態認識処理を実行する状態認識部7、を備えている。以下、各部の詳細について説明する。
<人流情報取得部3>
図2に示す機能ブロック図を用いて、計測対象が人物である場合の動き情報である人流情報Ihを生成する人流情報取得部3(動き情報生成部)の詳細について説明する。ここに示すように、人流情報取得部3は、カメラ2から画像データPを取得する映像取得部31、取得した画像データPに対して画像解析などを実行することで人物Hの位置を計測する人物位置計測部32、計測した人物Hの位置情報から動線Lを作成する動線作成部33、人物位置計測部32と動線作成部33から取得した人物Hの位置情報と動線情報から人流情報Ihを生成する人流情報生成部34を備える。以下、人物位置計測部32、動線作成部33、人流情報生成部34の各部について順次説明する。
<人物位置計測部32>
まず、図3を用いて、人物位置計測部32について説明する。図3において、Pはカメラ2より取得した画像データ、Hは計測対象の人物、Fは人物Hを囲む矩形の人物領域、Bは画像座標上での人物Hの足元位置、Sは3次元空間、Bは3次元空間S上での人物Hの足元位置、Sは3次元空間S上のy=0の位置でのxz平面、Bはxz平面S上での人物Hの足元位置を示している。
As shown in FIG. 1, the state recognition device 1 of this embodiment is output from the human flow information acquisition unit 3 and the human flow information acquisition unit 3 that acquire the human flow information Ih by analyzing the image data P captured by the camera 2. Based on the human flow information Ih acquired by the recognition area candidate selection unit 4 and the human flow information acquisition unit 3, which selects the recognition area candidate C as a candidate for executing the state recognition process by calculating the amount of change in the human flow from the human flow information Ih. In addition, the human flow interaction extraction unit 5 and the human flow interaction extraction unit that extract the interaction information Ii between the recognition area candidate C selected by the recognition area candidate selection unit 4 and the person H in the recognition area candidate C and other persons. A recognition area determination unit 6 that determines the recognition area A from the interaction information Ii acquired in 5 and a state recognition unit 7 that executes a state recognition process for the determined recognition area A are provided. The details of each part will be described below.
<People flow information acquisition department 3>
The details of the human flow information acquisition unit 3 (movement information generation unit) that generates the human flow information Ih, which is the movement information when the measurement target is a person, will be described with reference to the functional block diagram shown in FIG. As shown here, the flow information acquisition unit 3 measures the position of the person H by executing image analysis or the like on the image acquisition unit 31 that acquires the image data P from the camera 2 and the acquired image data P. From the person position measurement unit 32, the flow line creation unit 33 that creates the flow line L from the measured position information of the person H, the position information and the flow line information of the person H acquired from the person position measurement unit 32 and the flow line creation unit 33. The person flow information generation unit 34 for generating the person flow information Ih is provided. Hereinafter, each unit of the person position measurement unit 32, the flow line creation unit 33, and the person flow information generation unit 34 will be sequentially described.
<Person position measurement unit 32>
First, the person position measuring unit 32 will be described with reference to FIG. In FIG. 3, P is image data acquired from the camera 2, H is a person to be measured, F is a rectangular person area surrounding the person H, B is the foot position of the person H on image coordinates, and S 3 is three-dimensional. Space, B 3 is the foot position of the person H on the three-dimensional space S 3 , S 2 is the xz plane at the position of y = 0 on the three-dimensional space S 3 , and B 2 is the person on the xz plane S 2. The foot position of H is shown.

人物位置計測部32では、まず、画像データPに対して、人物検出などの画像処理アルゴリズムを実行することで画像内の人物Hを検出する。人物検出の手法としては、人物Hの大量のサンプル画像を予め保存しておき、取得した映像中にサンプル画像と類似した部分が存在するか否かを検索するなどの周知の人物検出手法で良く、特に限定しない。また、人物全体を検出するのではなく、例えば顔検出など人物Hの一部の領域を画像中から検出できる手法でも良い。次に、人物検出により抽出した画像中の人物領域Fから画像座標上の人物Hの足元位置B(u,v)を決定する。決定方法としては、人物領域Fの外接矩形の最下部中央を足元位置とする方法や、顔検出により検出された人物Hの頭部領域の最頂点の画像座標(u’,v’)からv方向に一定値h加算した画像座標(u’,v’−h)を足元位置とする方法などがあり、特に限定しない。その後、画像データPにおける足元位置Bの画像座標(u,v)を3次元空間Sでの足元位置B(x,y,z)に変換し、y=0のxz平面S上での足元位置B(x,z)を人物Hの位置として計測する。足元位置B(u,v)から足元位置B(x,y,z)への変換は、内部パラメータ(焦点距離等)や外部パラメータ(設置位置や設置角度等)のカメラパラメータを用いる一般的な方法を活用する。なお、カメラパラメータの導出方法としては一般的なカメラキャリブレーションをしようすれば良く、予め画像座標に対応する世界座標を手動で与えることで、カメラパラメータを推定できる。
<動線作成部33>
図4は、動線作成部33により人物Hの動線Lを生成する処理フローを示している。動線作成部33では、人物位置計測部32によって計測した同一人物の位置28を結合することで動線Lを生成する。
The person position measuring unit 32 first detects the person H in the image by executing an image processing algorithm such as person detection on the image data P. As a person detection method, a well-known person detection method such as saving a large number of sample images of person H in advance and searching for whether or not a part similar to the sample image exists in the acquired video may be used. , Not particularly limited. Further, instead of detecting the entire person, a method capable of detecting a part of the area of the person H from the image, such as face detection, may be used. Next, the foot position B (u, v) of the person H on the image coordinates is determined from the person area F in the image extracted by the person detection. As a determination method, a method in which the lowermost center of the circumscribing rectangle of the person area F is set as the foot position, or v from the image coordinates (u', v') of the highest apex of the head area of the person H detected by face detection. There is a method of using the image coordinates (u', v'-h) obtained by adding a constant value h in the direction as the foot position, and the present invention is not particularly limited. After that, the image coordinates (u, v) of the foot position B in the image data P are converted into the foot position B 3 (x, y, z) in the three-dimensional space S 3 , and on the xz plane S 2 where y = 0. The foot position B 2 (x, z) of is measured as the position of the person H. Conversion from foot position B (u, v) to foot position B 3 (x, y, z) generally uses camera parameters of internal parameters (focal length, etc.) and external parameters (installation position, installation angle, etc.). Utilize various methods. As a method of deriving the camera parameters, general camera calibration may be used, and the camera parameters can be estimated by manually giving the world coordinates corresponding to the image coordinates in advance.
<Flow line creation unit 33>
FIG. 4 shows a processing flow in which the flow line creating unit 33 generates the flow line L of the person H. The flow line creating unit 33 generates the flow line L by combining the positions 28 of the same person measured by the person position measuring unit 32.

例えば、人物Hが時刻Tよりt秒間カメラ2により撮像された場合、各時刻における人物Hの足元位置Bを同一のxz平面Sにプロットし繋ぎ合わせることで動線Lを生成することができる。なお、本例以外にも、ある時間帯での人物Hの位置情報と進行方向が把握可能な動線Lを生成できる手法であれば、上記の手法以外を用いてもよい。
<人流情報生成部34>
次に、図5を用いて、人流情報生成部34について説明する。人流情報生成部34は動線作成部33により作成した人物Ha、Hb、…、Hnごとの動線La、Lb、…、Lnを用いて、計測範囲内における人流情報Ihを生成する。
For example, when the person H is imaged by the camera 2 for t seconds from the time T, the flow line L can be generated by plotting the foot position B 2 of the person H at each time on the same xz plane S 2 and connecting them. it can. In addition to this example, any method other than the above may be used as long as it can generate a flow line L capable of grasping the position information and the traveling direction of the person H in a certain time zone.
<People flow information generation unit 34>
Next, the human flow information generation unit 34 will be described with reference to FIG. The human flow information generation unit 34 generates the human flow information Ih within the measurement range by using the flow lines La, Lb, ..., Ln for each person Ha, Hb, ..., Hn created by the flow line creation unit 33.

人流情報Ihの作成方法について具体的に述べる。まず、図5上段に示すように、計測範囲のxz平面Sを複数のエリア(例えば、4×4の16エリア)に分割する。そして、動線情報から各エリアにおける人物Hの移動方向を図5中段に示す8方向に分類し、最後に全ての人物Hにおける移動方向の統計を算出してエリア毎の人流方向D(各エリアで頻出する移動方向)を取得することで、図5下段に示す計測範囲の人流情報Ihを得る。この人流情報Ihにおいて、人流方向Dが存在しないエリアは人が通過していないエリアであることを示しており、人流情報Ihからは計測範囲内の人物Hの移動方向だけでなく、人物Hが通行しないエリアも把握することができる。なお、人流情報Ihの生成手法としては、本例以外にも大まかな人流情報Ihを把握できる手法であれば他の方法を用いてもよい。また、人流情報Ihとしては、人流方向だけでなく、各エリアを通過した人物Hの数を計数して、エリア毎の人流量などを追加しても良い。
<認識エリア候補選定部4>
図6は認識エリア候補選定部4の機能ブロック図である。認識エリア候補選定部4は、人流情報取得部3から取得した人流情報Ihを、人流情報履歴データベース42に保存する人流情報保存部41と、人流情報取得部3より取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdとを比較する人流情報比較部43と、人流情報比較部43の比較結果から人流の変化量がある領域を認識エリア候補Cとして出力する認識エリア候補出力部44を備える。以下、人流情報比較部43と認識エリア候補出力部44について詳細に説明する。
<人流情報比較部43、認識エリア候補出力部44>
図7を用いて人流情報比較部43について説明する。人流情報比較部43では、人流情報取得部3から取得した最新の人流情報Ihnewと人流情報履歴データベース42に保存された過去の人流情報Iholdを比較し、人流変化量ΔIhを算出する。
The method of creating the human flow information Ih will be specifically described. First, as shown in the upper part of FIG. 5, the xz plane S 2 of the measurement range is divided into a plurality of areas (for example, 16 areas of 4 × 4). Then, the movement directions of the person H in each area are classified into the eight directions shown in the middle of FIG. 5 from the flow line information, and finally, the statistics of the movement directions of all the people H are calculated and the flow direction D (each area) for each area. By acquiring the moving direction (moving direction that frequently appears in), the human flow information Ih in the measurement range shown in the lower part of FIG. 5 is obtained. In this person flow information Ih, the area where the person flow direction D does not exist indicates that the area is not passed by a person, and from the person flow information Ih, not only the movement direction of the person H within the measurement range but also the person H is It is possible to grasp areas that do not pass. In addition to this example, as a method for generating the human flow information Ih, another method may be used as long as it is a method capable of grasping a rough human flow information Ih. Further, as the person flow information Ih, not only the person flow direction but also the number of persons H who have passed through each area may be counted and the person flow rate for each area may be added.
<Recognition area candidate selection unit 4>
FIG. 6 is a functional block diagram of the recognition area candidate selection unit 4. The recognition area candidate selection unit 4 stores the person flow information Ih acquired from the person flow information acquisition unit 3 in the person flow information history database 42, and the latest person flow information Ih new acquired from the person flow information acquisition unit 3. And the past human flow information Ih old stored in the human flow information history database 42 are compared with the human flow information comparison unit 43, and from the comparison result of the human flow information comparison unit 43, the area where the amount of change in the human flow is present is output as the recognition area candidate C. The recognition area candidate output unit 44 is provided. Hereinafter, the human flow information comparison unit 43 and the recognition area candidate output unit 44 will be described in detail.
<People flow information comparison unit 43, recognition area candidate output unit 44>
The human flow information comparison unit 43 will be described with reference to FIG. 7. The person flow information comparison unit 43 compares the latest person flow information Ih new acquired from the person flow information acquisition unit 3 with the past person flow information Ih old stored in the person flow information history database 42, and calculates the amount of change in person flow ΔIh.

人流情報比較部43で用いる比較方法としては、例えば、人流情報Ihの各エリアの人流方向を数値化し、各数値の出現頻度同士を新旧比較する方法がある。具体的には、図7の上段に例示するように、人流情報Ihを数値化した人流情報Ih’を作成した後、この人流情報Ih’に基づいて計測範囲全体における人流方向毎の出現頻度を表したヒストグラム(図7(a))を作成する。そして、最新の人流情報Ih’newに基づくヒストグラムと、過去の人流情報Ih’oldに基づくヒストグラムの差分を算出することで人流変化量ΔIhを算出する方法である。 As a comparison method used in the human flow information comparison unit 43, for example, there is a method of quantifying the human flow direction of each area of the human flow information Ih and comparing the appearance frequency of each numerical value between old and new. Specifically, as illustrated in the upper part of FIG. 7, after creating the human flow information Ih'which is a numerical value of the human flow information Ih, the appearance frequency for each human flow direction in the entire measurement range is calculated based on the human flow information Ih'. A represented histogram (FIG. 7 (a)) is created. Then, a method of calculating 'and the histogram based on the new, the past of the people flow information Ih' latest pedestrian flow information Ih the people flow amount of change ΔIh by calculating the difference between the histogram based on the old.

また、人流情報比較部43で用いる他の比較方法としては、例えば、各エリアの人流方向を数値化した人流情報Ih’同士を新旧比較する方法がある。具体的には、図7(b)に示すように、最新の人流情報Ih’newと過去の人流情報Ih’oldを比較して、人流に変化があるエリアを1、変化が無いエリアを0とした人流変化量ΔIhを算出する方法である。 Further, as another comparison method used by the person flow information comparison unit 43, for example, there is a method of comparing old and new people flow information Ih'in which the direction of people flow in each area is quantified. Specifically, as shown in FIG. 7 (b), by comparing the latest human stream information Ih 'new new and past human stream information Ih' old, 1 the area there is a change in the human stream, a change is no area 0 This is a method of calculating the amount of change in human flow ΔIh.

認識エリア候補出力部44では、人流情報比較部43により計算した人流変化量ΔIhを用いて、人流に変化のある領域を認識エリア候補Cとして出力する。例えば、図7(b)の人流変化量ΔIhを用いる場合は、左上のCと、右下のCの2エリアが認識エリア候補Cとして出力される。 The recognition area candidate output unit 44 outputs a region where there is a change in the human flow as the recognition area candidate C by using the human flow change amount ΔIh calculated by the human flow information comparison unit 43. For example, when the human flow change amount ΔIh shown in FIG. 7B is used, two areas, C 1 on the upper left and C 2 on the lower right, are output as recognition area candidates C.

なお、人流情報履歴データベース42から取得する過去の人流情報Iholdとしては、過去の中で最も新しい情報をそのまま使用する方法や、人流情報取得部3から人流情報Ihを取得する毎に平均を計算するなどして更新した人流情報Ihaveを使用する方法や、一定時間毎の人流情報Ihの平均を使用する方法などがあり、特に限定しない。また、人流方向だけでなく人流量も用いて人流情報Ihを表現しても良く、例えば、図7(a)の場合、各人流方向に対する人流量を重み係数として、各人流方向の頻度に掛け合わせた値をヒストグラムとして使用する方法などでも良い。なお、本例で述べた手法以外にも、人流情報Ihを比較できる手法であれば他の手法を用いてもよい。また、本例のように人物Hの位置をベースとした人流情報Ihを比較する方法以外にも、人流変化が生じたと予想されるエリアを大よそ検知可能な手法であれば他の手法を用いてもよい。例えば、画像全体のオプティカルフローを比較するなどの方法でも良い。
<人流相互作用抽出部5>
図8に人流相互作用抽出部5のブロック構成を示す。ここに示すように、人流相互作用抽出部5は、人流情報取得部3から取得した最新の人流情報Ihnewと、認識エリア候補選定部4から出力された認識エリア候補Cの位置情報から、認識エリア候補Cに対する人流相互作用を算出する人流相互作用算出部51と、算出した人流相互作用を出力する人流相互作用出力部52と、を備える。また、人流相互作用算出部51は、人流相互作用を算出するために、位置関係算出部51a、動線変化算出部51b、注目度算出部51cを備える。以下、人流相互作用算出部51の各機能、および、人流相互作用出力部52について説明する。
<位置関係算出部51a>
図9を用いて位置関係算出部51aについて説明する。図9において、Ba、Bb、Bcは、3次元空間Sにおける人物Ha、Hb、Hcの最新の足元位置、Ba、Bb、Bcは、xz平面Sにおける人物Ha、Hb、Hcの最新の足元位置、C、Cは認識エリア候補、O、Oは各認識エリア候補の中心、OHa、OHb、OHcは各人物の足元位置Ba、Bb、Bcと認識エリア候補Cの中心Oのユークリッド距離、thはユークリッド距離の閾値の一例を示している。
As the past human flow information Ih old acquired from the human flow information history database 42, a method of using the latest information in the past as it is or an average is calculated every time the human flow information Ih is acquired from the human flow information acquisition unit 3. There is a method of using the personal flow information Ih ave updated by doing so, a method of using the average of the personal flow information Ih at regular intervals, and the like, and there is no particular limitation. Further, the human flow information Ih may be expressed not only by the human flow direction but also by using the human flow direction. For example, in the case of FIG. 7A, the human flow for each human flow direction is used as a weighting coefficient and multiplied by the frequency of each human flow direction. A method of using the combined values as a histogram may also be used. In addition to the method described in this example, another method may be used as long as it can compare the human flow information Ih. In addition to the method of comparing the person flow information Ih based on the position of the person H as in this example, another method is used as long as it is a method that can roughly detect the area where the person flow change is expected to occur. You may. For example, a method such as comparing the optical flow of the entire image may be used.
<Human flow interaction extraction unit 5>
FIG. 8 shows the block configuration of the human flow interaction extraction unit 5. As shown here, the human flow interaction extraction unit 5 recognizes from the latest human flow information Ih new acquired from the human flow information acquisition unit 3 and the position information of the recognition area candidate C output from the recognition area candidate selection unit 4. It includes a human flow interaction calculation unit 51 that calculates the human flow interaction with respect to the area candidate C, and a human flow interaction output unit 52 that outputs the calculated human flow interaction. Further, the human flow interaction calculation unit 51 includes a positional relationship calculation unit 51a, a flow line change calculation unit 51b, and an attention level calculation unit 51c in order to calculate the human flow interaction. Hereinafter, each function of the human flow interaction calculation unit 51 and the human flow interaction output unit 52 will be described.
<Positional relationship calculation unit 51a>
The positional relationship calculation unit 51a will be described with reference to FIG. In FIG. 9, B 3 a, B 3 b, B 3 c are the latest foot positions of the persons Ha, H b, H c in the three-dimensional space S 3 , and B 2 a, B 2 b, B 2 c are the xz planes. The latest foot positions of people Ha, Hb, and Hc in S 2 , C 1 , C 2 are recognition area candidates, O 1 , O 2 are the centers of each recognition area candidate, and O 1 Ha, O 1 Hb, and O 1 Hc are The foot positions B 2 a, B 2 b, B 2 c of each person, the Euclidean distance of the center O 1 of the recognition area candidate C 1 , and th indicate an example of the Euclidean distance threshold.

位置関係算出部51aでは、ある時刻における各人物と各認識エリア候補の中心間のユークリッド距離を算出して蓄積し、図9(c)に示すようなグラフを生成する。例えば、図9(c)の実線で示すように、人物Haと認識エリア候補Cの中心O間のユークリッド距離OHaが閾値th以下となる期間があるため、人物Haは中心Oにかなり近づいた期間があることが分かる。また、一点鎖線で示すように、人物Hbと認識エリア候補Cの中心O間のユークリッド距離OHbが0となる点があるため、人物Hbは認識エリア候補Cの中心Oを通過したことが分かる。 The positional relationship calculation unit 51a calculates and accumulates the Euclidean distance between each person and the center of each recognition area candidate at a certain time, and generates a graph as shown in FIG. 9C. For example, as shown by the solid line in FIG. 9C, since there is a period in which the Euclidean distance O 1 Ha between the person Ha and the center O 1 of the recognition area candidate C 1 is equal to or less than the threshold value th, the person Ha is the center O 1. It can be seen that there is a period that is quite close to. Further, as indicated by a dashed line, since the Euclidean distance O 1 Hb between the center O 1 of the person Hb recognition area candidate C 1 there is a point where the 0, the center O 1 of the person Hb recognition area candidates C 1 You can see that it has passed.

位置関係算出部51aでは、これらのユークリッド距離の変異情報から人物Hと認識エリア候補間の位置関係を算出する。算出方法としては、認識エリア候補Cに対する人物Hの接近具合を定量的に表現できる値を算出できる方法であれば、特に限定しない。例えば、予め定めたユークリッド距離の閾値thより小さい位置にプロットされた点数をそのまま接近具合として使用する方法がある。その他にも、一定のプロット間におけるグラフの傾き情報を利用する方法がある。図9(c)のOHa、OHbに例示するように、グラフの傾きの正負を求めることで人物Hが認識エリア候補Cに近づいているか否かを判定でき、傾きの大きさから人物Hの移動速度を算出することで認識エリア候補Cに対する人物Hの移動が積極的か否かを判定できるため、その総和を接近具合の判定基準として使用できる。また、各人物のグラフにおいて全てのプロットを使用するのではなく、前述の閾値thとは別の閾値を複数設定し、接近具合を算出する際にある閾値以上のプロット点は使用しない、あるいは2つの閾値間のプロット点のみ使用するなどの方法を用いても良い。
<動線変化算出部51b>
動線変化算出部51bでは、人流情報取得部3から取得した動線情報から認識エリア候補Cに対する人物Hの動線Lの変化量を算出する。動線Lの変化の算出方法としては、図5中段に示すような動線Lの向きを活用する方法がある。例えば、各人物の動線Lの向きを毎時刻保持しておき、認識エリア候補C付近での動線Lの向きの変化具合を動線Lの変化量とし、奥方向に移動していた人物Hの移動方向が奥方向のままであれば変化量は0、移動方向が真逆の手間方向に変化すれば変化量は最大値を取るような値域を設定することで、人物Hに関する動線Lの変化量を算出できる。また、計測範囲における過去の人流情報Iholdも使用して良く、認識エリア候補Cの遠方にいる場合は過去の人流情報Iholdと同一の向きに移動していた人物Hが、認識エリア候補Cの近傍では過去の人流情報Iholdの向きと大きく異なる方向に移動した場合は動線Lの変化量は大きくなるといった判定基準を利用する方法もある。
<注目度算出部51c>
注目度算出部51cは、認識エリア候補Cに対する人物Hの視線方向の情報から、認識エリア候補Cへの注目度を算出する機能である。視線方向情報の取得方法としては、画像データPから視線方向を推定する方法や視線センサなどを用いる方法など、特に限定しない。
The positional relationship calculation unit 51a calculates the positional relationship between the person H and the recognition area candidate from the mutation information of these Euclidean distances. The calculation method is not particularly limited as long as it can calculate a value that can quantitatively express the degree of approach of the person H to the recognition area candidate C. For example, there is a method in which the points plotted at a position smaller than the predetermined Euclidean distance threshold th are used as they are as the approach condition. Another method is to use the slope information of the graph between certain plots. As illustrated in O 1 Ha and O 1 Hb of FIG. 9 (c), it can be determined whether or not the person H is approaching the recognition area candidate C by finding the positive or negative of the slope of the graph, and from the magnitude of the slope. Since it is possible to determine whether or not the movement of the person H with respect to the recognition area candidate C is positive by calculating the movement speed of the person H, the sum total can be used as a criterion for determining the degree of approach. Also, instead of using all plots in the graph of each person, set multiple thresholds different from the above-mentioned threshold th, and do not use plot points above a certain threshold when calculating the degree of approach, or 2 A method such as using only plot points between two thresholds may be used.
<Flow line change calculation unit 51b>
The flow line change calculation unit 51b calculates the amount of change in the flow line L of the person H with respect to the recognition area candidate C from the flow line information acquired from the flow line information acquisition unit 3. As a method of calculating the change of the flow line L, there is a method of utilizing the direction of the flow line L as shown in the middle part of FIG. For example, the direction of the flow line L of each person is held every time, and the change in the direction of the flow line L in the vicinity of the recognition area candidate C is defined as the amount of change in the flow line L, and the person moving in the back direction. By setting a value range in which the amount of change is 0 if the moving direction of H remains in the back direction, and the maximum value is taken if the moving direction changes in the opposite direction, the flow line related to the person H. The amount of change in L can be calculated. Further, the past human flow information Ih old in the measurement range may also be used, and when the recognition area candidate C is far away, the person H who has moved in the same direction as the past human flow information Ih old is the recognition area candidate C. There is also a method of using a criterion that the amount of change in the flow line L becomes large when the person moves in a direction significantly different from the direction of the past human flow information Ih old in the vicinity of.
<Attention calculation unit 51c>
The attention level calculation unit 51c is a function of calculating the attention level to the recognition area candidate C from the information in the line-of-sight direction of the person H with respect to the recognition area candidate C. The method of acquiring the line-of-sight direction information is not particularly limited, such as a method of estimating the line-of-sight direction from the image data P or a method of using a line-of-sight sensor.

画像データPから視線方向を推定する方法としては、例えば画像に対して頭部検出を実行し頭部領域を抽出し、頭部領域に対する黒色の割合から推定する方法を使用しても良く、頭部領域に対する黒色領域が極めて少なければカメラのある方向、黒色領域が多ければカメラと反対の方向、黒色領域が左側に多く含まれていれば右方向、右側に多く含まれていれば左方向といった視点方向の推定が可能である。 As a method of estimating the line-of-sight direction from the image data P, for example, a method of executing head detection on the image, extracting the head region, and estimating from the ratio of black to the head region may be used. If the black area is extremely small, the direction is the direction of the camera, if the black area is large, the direction is opposite to the camera, if the black area is large on the left side, the direction is right, if the black area is large on the right side, the direction is left. It is possible to estimate the viewpoint direction.

このように、注目度算出部51cでは、推定した視点方向が人物Hに対する認識エリア候補Cの方向である程、該当人物Hが認識エリア候補Cに注目していると判定することで、人物Hの認識エリア候補Cへの注目度を定量的に算出できる。
<人流相互作用出力部52>
人流相互作用出力部52は、人流相互作用算出部51により算出した各認識エリア候補に対する人流相互作用情報Iiを集約して、認識エリア候補Cごとの最終的な人流の相互作用度合を出力する。
In this way, the attention degree calculation unit 51c determines that the more the estimated viewpoint direction is the direction of the recognition area candidate C with respect to the person H, the more the corresponding person H is paying attention to the recognition area candidate C. The degree of attention to the recognition area candidate C can be quantitatively calculated.
<Human flow interaction output unit 52>
The human flow interaction output unit 52 aggregates the human flow interaction information Ii for each recognition area candidate calculated by the human flow interaction calculation unit 51, and outputs the final degree of human flow interaction for each recognition area candidate C.

相互作用度合の算出方法としては、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれが算出した相互作用情報Iiを全てあるいは一部の情報のみ使用して算出する。例えば、位置関係算出部51aからは認識エリア候補Cと計測範囲内にいる人物Hのユークリッド距離の総和、動線変化算出部51bからは認識エリア候補C付近での各人物の移動方向の変化度合の総和、注目度算出部51cからは認識エリア候補Cに対する人物Hの注目度の総和を受け取り、各々の総和を予め設定した値域などから0〜5の値に丸め込み、単純にそれらの値の和あるいは重み係数などを利用して求めた和を認識エリア候補Cに対する人流の相互作用度合として決定する方法がある。 As a method of calculating the degree of interaction, the interaction information Ii calculated by each of the positional relationship calculation unit 51a, the flow line change calculation unit 51b, and the attention degree calculation unit 51c is calculated using all or part of the information. For example, from the positional relationship calculation unit 51a, the sum of the Euclidean distances of the recognition area candidate C and the person H in the measurement range, and from the movement line change calculation unit 51b, the degree of change in the movement direction of each person in the vicinity of the recognition area candidate C. The sum of the attention of the person H with respect to the recognition area candidate C is received from the attention calculation unit 51c, and the sum of each is rounded to a value of 0 to 5 from a preset range or the like, and the sum of those values is simply summed. Alternatively, there is a method of determining the sum obtained by using a weighting coefficient or the like as the degree of human flow interaction with the recognition area candidate C.

また、位置関係算出部51a、動線変化算出部51b、注目度算出部51cのそれぞれから出力された人流相互作用の相関性を利用し最終的な相互作用情報Iiを決定しても良く、例えば、基本的に人物Hは進行方向と同じ方向に視線があると仮定し、位置関係算出部51aや動線変化算出部51bの情報から人物Hが近付かないと推測される認識エリア候補Cにも関わらず、注目度算出部51cから出力される注目度が高い認識エリア候補Cは、最終的な人流相互作用度合を高くする方法などを利用しても良い。
<認識エリア決定部6>
認識エリア決定部6は、状態認識部7での状態認識処理の実行対象を決定する処理対象決定部であり、本実施例のように状態認識処理の対象がエリアである場合は、人流相互作用出力部52が出力した人流相互作用度合の高い認識エリア候補Cを、状態認識部7の処理対象である認識エリアAとして決定する。なお、認識エリア決定部6が決定する認識エリアAは、1つに限定されず、最大の人流相互作用度合の認識エリア候補Cのみだけでなく、それに続く人流相互作用度合の複数の認識エリア候補Cを認識エリアAに決定しても良く、一方で、最大の人流相互作用度合が予め定めた閾値よりも小さい場合は認識エリアAを決定しなくても良い。また、出力する認識エリア候補数を、状態認識装置1のCPUやメモリなどのスペック情報を参照して設定しても良い。
<状態認識部7>
状態認識部7は、認識エリア決定部6が決定した認識エリアAに対し、高度な状態認識処理を実行する。これにより、状態認識部7の処理対象エリアが計測範囲全体から認識エリアAに狭まるので、高度なアルゴリズムを用いる場合であっても状態認識に要する処理リソースを大幅に削減することができる。なお、状態認識処理の内容は、計測範囲の異常状態(渋滞等)を検知する処理、計測対象の異常行動(倒れた人物、暴れる人物、故障車両等)を検知する処理、計測対象周囲にある物体を検知して属性(人物の年齢や性別、人物の所持物等)を決定する処理のいずれかであるが、これらの処理自体は従来同等であるので、詳細説明は省略する。
Further, the final interaction information Ii may be determined by using the correlation of the human-flow interaction output from each of the positional relationship calculation unit 51a, the flow line change calculation unit 51b, and the attention level calculation unit 51c. Basically, it is assumed that the person H has a line of sight in the same direction as the traveling direction, and the recognition area candidate C, which is presumed that the person H cannot approach from the information of the positional relationship calculation unit 51a and the flow line change calculation unit 51b, is also included. Regardless, the recognition area candidate C having a high degree of attention output from the attention degree calculation unit 51c may use a method of increasing the final degree of human flow interaction.
<Recognition area determination unit 6>
The recognition area determination unit 6 is a processing target determination unit that determines the execution target of the state recognition process in the state recognition unit 7, and when the target of the state recognition process is an area as in this embodiment, human flow interaction The recognition area candidate C having a high degree of human flow interaction output by the output unit 52 is determined as the recognition area A to be processed by the state recognition unit 7. The recognition area A determined by the recognition area determination unit 6 is not limited to one, and not only the recognition area candidate C having the maximum degree of human flow interaction but also a plurality of recognition area candidates having the subsequent degree of human flow interaction. C may be determined as the recognition area A, while the recognition area A may not be determined when the maximum degree of human-flow interaction is smaller than a predetermined threshold. Further, the number of recognition area candidates to be output may be set with reference to spec information such as the CPU and memory of the state recognition device 1.
<State recognition unit 7>
The state recognition unit 7 executes advanced state recognition processing on the recognition area A determined by the recognition area determination unit 6. As a result, the processing target area of the state recognition unit 7 is narrowed from the entire measurement range to the recognition area A, so that the processing resources required for state recognition can be significantly reduced even when an advanced algorithm is used. The contents of the state recognition process are the process of detecting an abnormal state (congestion, etc.) in the measurement range, the process of detecting an abnormal behavior of the measurement target (fallen person, rampaging person, broken vehicle, etc.), and the surroundings of the measurement target. It is one of the processes of detecting an object and determining the attributes (age and gender of the person, belongings of the person, etc.), but since these processes themselves are the same in the past, detailed description thereof will be omitted.

以上の実施例では、人流相互作用抽出部5と認識エリア決定部6において、認識エリア候補Cと人物H間の相互作用度合を抽出して、状態認識部7を実行する認識エリアAを決定する方法について述べたが、人物同士の相互作用度合を抽出することで、状態認識部7を実行する人物Hを決定しても良い。例えば、認識エリア候補選定部4において、人流の変化が検知された直後に認識エリア候補C内にいる人物Hを中心位置として、人流相互作用抽出部5により認識エリア候補C内の人物Hと周囲の人物Hとの相互作用度合を算出し、最終的な相互作用度合の和が閾値より高い人物Hを状態認識部7の実行対象として出力する方法を採用しても良い。本手法では、人流相互作用抽出部5の中心位置となる人物Hは常に認識エリア候補C内に居る必要は無く、最終的に認識エリア決定部6にて出力する認識エリアAが認識エリア候補選定部4により選択されたエリアではなく、人流相互作用抽出部5の中心位置となる人物Hから一定距離以内の範囲を最終的な認識エリアAとして出力しても良い。また、人流相互作用算出部51において、全ての人物Hに対して相互作用情報Iiを出力する必要は無く、新たに複数人物が同時に検知された場合に、予め定めた人数以内に収まるようランダムで人物Hを選択する方法などを利用しても良い。 In the above embodiment, the human flow interaction extraction unit 5 and the recognition area determination unit 6 extract the degree of interaction between the recognition area candidate C and the person H, and determine the recognition area A to execute the state recognition unit 7. Although the method has been described, the person H who executes the state recognition unit 7 may be determined by extracting the degree of interaction between the persons. For example, in the recognition area candidate selection unit 4, the person H in the recognition area candidate C immediately after the change in the human flow is detected is set as the center position, and the person H in the recognition area candidate C and the surroundings are set by the human flow interaction extraction unit 5. A method may be adopted in which the degree of interaction with the person H is calculated, and the person H whose final sum of the degree of interaction is higher than the threshold value is output as the execution target of the state recognition unit 7. In this method, the person H, which is the central position of the human flow interaction extraction unit 5, does not always have to be in the recognition area candidate C, and the recognition area A finally output by the recognition area determination unit 6 selects the recognition area candidate. Instead of the area selected by the unit 4, a range within a certain distance from the person H, which is the central position of the human flow interaction extraction unit 5, may be output as the final recognition area A. Further, it is not necessary for the human flow interaction calculation unit 51 to output the interaction information Ii for all the persons H, and when a plurality of persons are newly detected at the same time, the interaction information Ii is randomly detected so as to be within a predetermined number of persons. A method of selecting the person H or the like may be used.

本発明の実施例1では、以上で説明した構成により、計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲や計測対象を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。 In the first embodiment of the present invention, in the state recognition device that recognizes the measurement range and the state of the measurement target according to the configuration described above, the mutual measurement targets extracted from the general movement flow information of the measurement target. By selecting in advance the measurement range and measurement target for executing the state recognition process based on the action information Ii, it is possible to execute the advanced state recognition process while reducing the processing resources of the entire device.

なお、実施例1において、状態認識部7が実行する状態認識処理としては、計測範囲の異常状態を認識する機能、計測対象の異常行動を認識する機能、高精度の顔認識などに加え、人物Hの属性を認識する機能など特に限定せず、計測範囲全体に実行するには装置全体の処理リソースが不足するような高度な処理に限定されるものではない。 In the first embodiment, the state recognition process executed by the state recognition unit 7 includes a function of recognizing an abnormal state in the measurement range, a function of recognizing an abnormal behavior of a measurement target, a highly accurate face recognition, and the like, as well as a person. The function of recognizing the attribute of H is not particularly limited, and is not limited to advanced processing in which the processing resources of the entire device are insufficient to execute the entire measurement range.

次に、図10の機能ブロック図を用いて、本発明の実施例2に係る状態認識装置1Aを説明する。なお、実施例1との共通点は重複説明を省略する。 Next, the state recognition device 1A according to the second embodiment of the present invention will be described with reference to the functional block diagram of FIG. It should be noted that the common points with the first embodiment will be omitted.

図10に示す状態認識装置1Aは、複数のカメラ2が取得した人流情報Ihから抽出した相互作用情報Iiに基づき、高度な状態認識処理を実行する認識エリアAとその際に利用するカメラ2を予め選定する装置である。 The state recognition device 1A shown in FIG. 10 includes a recognition area A that executes advanced state recognition processing and a camera 2 used at that time based on the interaction information Ii extracted from the human flow information Ih acquired by the plurality of cameras 2. This is a device that is selected in advance.

図10の状態認識装置1Aにおいて、実施例1の状態認識装置1との相違点は、人流情報取得部3から状態認識部7までのユニットをカメラ2の数と同数備えている点と、情報共有部8と、状態認識司令部9と、を備えた点である。 The state recognition device 1A of FIG. 10 differs from the state recognition device 1 of the first embodiment in that the number of units from the human flow information acquisition unit 3 to the state recognition unit 7 is the same as the number of cameras 2 and information. The point is that the common unit 8 and the state recognition command unit 9 are provided.

情報共有部8は、複数カメラの設置位置情報を保存する設置位置情報データベース81、各カメラ映像から取得した人流情報Ihを保存する人流情報データベース82、各カメラにおける認識エリア決定部6から出力される認識エリア情報を保存する認識エリア情報データベース83、認識対象情報を保存する認識対象情報データベース84を備え、また、状態認識指令部9は、情報共有部8の情報から各カメラに対して状態認識処理を実行するか否かを指令する。以下、情報共有部8と状態認識指令部9の詳細について説明する。
<情報共有部8>
情報共有部8では、複数のカメラ2の情報及びカメラ映像の解析結果を共有し保持する。各情報について詳細に述べる。
The information sharing unit 8 is output from the installation position information database 81 that stores the installation position information of a plurality of cameras, the person flow information database 82 that stores the person flow information Ih acquired from each camera image, and the recognition area determination unit 6 in each camera. The recognition area information database 83 for storing the recognition area information and the recognition target information database 84 for storing the recognition target information are provided, and the state recognition command unit 9 performs state recognition processing for each camera from the information of the information sharing unit 8. Command whether or not to execute. The details of the information sharing unit 8 and the state recognition command unit 9 will be described below.
<Information Sharing Department 8>
The information sharing unit 8 shares and holds the information of the plurality of cameras 2 and the analysis results of the camera images. Each information will be described in detail.

設置位置情報データベース81は、計測範囲におけるカメラの設置位置や画角の情報を保持する。ここで保持する情報は、例えば、予め計測範囲全体の2次元マップのような図面を用意しておき、カメラが設置されている位置とカメラの向きや画角からカメラの撮影エリアを把握できる情報であれば、特に限定しない。 The installation position information database 81 holds information on the installation position and angle of view of the camera in the measurement range. The information held here is, for example, information in which a drawing such as a two-dimensional map of the entire measurement range is prepared in advance, and the shooting area of the camera can be grasped from the position where the camera is installed and the orientation and angle of view of the camera. If so, there is no particular limitation.

人流情報データベース82は、各カメラ映像において、人流情報取得部3により取得した各人物の動線Lや計測範囲の人流の向きの情報を保持する。これらの情報を共有し、カメラ間の結果を繋ぎ合わせることで、後段の認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6における人物Hの動線情報などを使用した解析を高精度に実行することができる。 The person flow information database 82 holds information on the flow line L of each person acquired by the person flow information acquisition unit 3 and the direction of the person flow in the measurement range in each camera image. By sharing this information and connecting the results between the cameras, analysis using the flow line information of the person H in the recognition area candidate selection unit 4, the human flow interaction extraction unit 5, and the recognition area determination unit 6 in the latter stage. Can be executed with high accuracy.

認識エリア情報データベース83と認識対象情報データベース84は、認識エリア決定部6が決定した認識エリアAや認識対象である人物H等の位置情報を保持する。
<状態認識指令部9>
状態認識指令部9では、情報共有部8から入手した情報に基づいて、状態認識処理を実行するカメラ2を決定する。決定方法としては、認識エリアAや認識対象に最も近いカメラを選定する方法などや、設置位置情報データベース81や人流情報データベース82から得た情報も考慮して決定する方法などがあり、特に限定しない。後者の方法について例を挙げると、カメラ2の設置位置、撮影方向、最新の人流情報Ihnewから、カメラ2と認識エリアAまたは認識対象の間に人物Hなどが要因となる遮蔽が生じているか否かを判定し、遮蔽が生じていないと予想されるカメラに対して、状態認識処理の実行を指令する方法などがある。
The recognition area information database 83 and the recognition target information database 84 hold position information such as the recognition area A determined by the recognition area determination unit 6 and the person H to be recognized.
<State recognition command unit 9>
The state recognition command unit 9 determines the camera 2 to execute the state recognition process based on the information obtained from the information sharing unit 8. The determination method includes a method of selecting the camera closest to the recognition area A and the recognition target, a method of determining by considering the information obtained from the installation position information database 81 and the human flow information database 82, and the like, and is not particularly limited. .. To give an example of the latter method, is there a shield between the camera 2 and the recognition area A or the recognition target due to a person H or the like from the installation position of the camera 2, the shooting direction, and the latest human flow information Ih new ? There is a method of determining whether or not the camera is shielded and instructing the camera that is not expected to be shielded to execute the state recognition process.

以上で説明した、本発明の実施例2では、複数の計測装置(カメラ2)を用いた計測範囲や計測対象の状態を認識するような状態認識装置において、計測対象の大よその動きの流れ情報から抽出した計測対象間の相互作用情報Iiを元に、状態認識処理を実行する計測範囲、計測対象、計測装置を事前に選定することで、装置全体の処理リソースを削減しつつ高度な状態認識処理を実行することができる。 In the second embodiment of the present invention described above, in a state recognition device that recognizes a measurement range and a state of a measurement target using a plurality of measurement devices (cameras 2), the general flow of movement of the measurement target. By selecting the measurement range, measurement target, and measurement device to execute the state recognition process in advance based on the interaction information Ii between the measurement targets extracted from the information, the processing resources of the entire device are reduced and the advanced state is achieved. Recognition processing can be executed.

なお、実施例2において、各カメラが認識エリアAや認識対象を選定する機能と高度な状態認識処理を実行する機能を保持する例について述べたが、カメラ毎に機能を割り当てても良い。例えば、2台のカメラを使用する場合、1台のカメラは人流情報取得部3、認識エリア候補選定部4、人流相互作用抽出部5、認識エリア決定部6の機能を実行して認識対象を決定する専用のカメラとし、他方のカメラは高度な状態認識処理のみ実行する専用のカメラとすることで、後者のカメラの処理リソースを削減してより高度な状態認識処理を適用できるような構成としても良い。 Although the second embodiment has described an example in which each camera retains a function of selecting a recognition area A and a recognition target and a function of executing advanced state recognition processing, a function may be assigned to each camera. For example, when two cameras are used, one camera executes the functions of the human flow information acquisition unit 3, the recognition area candidate selection unit 4, the human flow interaction extraction unit 5, and the recognition area determination unit 6 to set the recognition target. By using a dedicated camera for determining and the other camera as a dedicated camera that executes only advanced state recognition processing, the processing resources of the latter camera can be reduced and more advanced state recognition processing can be applied. Is also good.

また、実施例2において、情報共有部8にて人流相互作用抽出部5から出力される相互作用情報Iiも保持して各カメラにて共有しても良い。例えば、認識エリア決定部6にて認識対象を決定する際に、1台目のカメラでは人流と認識対象との間の相互作用度合が小さく最終的な認識対象とは決定できなかった場合に、相互作用度合をカメラ間で引き継ぐことで、2台目のカメラにおける相互作用度合との和などにより、最終的な相互作用度合が閾値を超過することで、1台のカメラのみでは見落としていた認識対象に対して、2台目のカメラ以降にて状態認識処理を実行することができる。 Further, in the second embodiment, the information sharing unit 8 may also hold the interaction information Ii output from the human flow interaction extraction unit 5 and share it with each camera. For example, when the recognition area determination unit 6 determines the recognition target, when the degree of interaction between the human flow and the recognition target is too small for the first camera, the final recognition target cannot be determined. Recognition that was overlooked by only one camera because the final degree of interaction exceeds the threshold due to the sum of the degree of interaction with the degree of interaction in the second camera by inheriting the degree of interaction between cameras. The state recognition process can be executed on the target by the second and subsequent cameras.

1、1A 状態認識装置、
2 カメラ、
3 人流情報取得部、
31 映像取得部、
32 人物位置計測部、
33 動線作成部、
34 人流情報生成部、
4 認識エリア候補選定部、
41 人流情報保存部、
42 人流情報履歴データベース、
43 人流情報比較部、
44 認識エリア候補出力部、
5 人流相互作用抽出部、
51 人流相互作用算出部、
51a 位置関係算出部、
51b 動線変化算出部、
51c 注目度算出部、
52 人流相互作用出力部、
6 認識エリア決定部、
7 状態認識部、
8 情報共有部、
81 設置位置情報データベース、
82 人流情報データベース、
83 認識エリア情報データベース、
84 認識対象情報データベース、
9 状態認識指令部
1,1A state recognition device,
2 cameras,
3 person flow information acquisition department,
31 Video acquisition department,
32 Person position measurement unit,
33 Flow line creation department,
34 Abortion Information Generation Department,
4 Recognition area candidate selection department,
41 Personnel Information Storage Department,
42 people flow information history database,
43 Personnel Information Comparison Department,
44 Recognition area candidate output unit,
5 Human-flow interaction extraction unit,
51 Human-flow interaction calculation unit,
51a Positional relationship calculation unit,
51b Flow line change calculation unit,
51c Attention calculation unit,
52 Human-flow interaction output unit,
6 Recognition area determination unit,
7 State recognition unit,
8 Information Sharing Department,
81 Installation location information database,
82 people flow information database,
83 Recognition area information database,
84 Recognized information database,
9 State recognition command unit

Claims (10)

計測装置が取得した情報に基づき、計測対象の動き情報を生成する動き情報生成部と、
該動き情報に基づいて、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出する相互作用抽出部と、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を決定する認識対象決定部と、
該認識対象に対し状態認識処理を実行する状態認識部と、
を有することを特徴とする状態認識装置。
A motion information generator that generates motion information for the measurement target based on the information acquired by the measuring device,
An interaction extraction unit that extracts interaction information between the space and the measurement target or interaction information between the measurement targets based on the motion information.
Based on the interaction information, a recognition target determination unit that determines a recognition target to execute the state recognition process,
A state recognition unit that executes state recognition processing for the recognition target,
A state recognition device characterized by having.
請求項1に記載の状態認識装置において、
さらに、前記動き情報に基づいて、前記計測装置の計測範囲全体から、認識対象候補を選定する認識対象候補選定部を有しており、
前記相互作用抽出部は、前記相互作用情報を抽出する際に、前記動き情報と前記認識対象候補の関係を利用することを特徴とする状態認識装置。
In the state recognition device according to claim 1,
Further, it has a recognition target candidate selection unit that selects recognition target candidates from the entire measurement range of the measuring device based on the motion information.
The interaction extraction unit is a state recognition device that utilizes the relationship between the motion information and the recognition target candidate when extracting the interaction information.
請求項1または請求項2に記載の状態認識装置において、
前記状態認識部で実行される状態認識処理が、前記計測装置の計測範囲の異常状態を検知する処理、前記計測対象の異常行動を検知する処理、前記計測対象の属性を検知する処理の何れかであることを特徴とする状態認識装置。
In the state recognition device according to claim 1 or 2.
The state recognition process executed by the state recognition unit is any one of a process of detecting an abnormal state in the measurement range of the measuring device, a process of detecting an abnormal behavior of the measurement target, and a process of detecting an attribute of the measurement target. A state recognition device characterized by being.
請求項1から請求項3の何れか一項に記載の状態認識装置において、
前記計測装置を複数備えており、該複数の計測装置が取得した情報を共有した共有情報に基づいて、前記状態認識処理を実行する際に利用する計測装置を決定することを特徴とする状態認識装置。
In the state recognition device according to any one of claims 1 to 3.
A state recognition characterized by having a plurality of the measuring devices and determining a measuring device to be used when executing the state recognition process based on the shared information shared by the plurality of measuring devices. apparatus.
請求項4において、
前記共有情報が、前記計測装置の設置位置情報、前記計測対象の動き情報、または、前記認識対象の情報の何れかであることを特徴とする状態認識装置。
In claim 4,
A state recognition device characterized in that the shared information is any of the installation position information of the measurement device, the movement information of the measurement target, or the information of the recognition target.
請求項4または請求項5に記載の状態認識装置において、
前記複数の計測装置には、状態認識処理を実行する専用の計測装置が少なくとも1台含まれることを特徴とする状態認識装置。
In the state recognition device according to claim 4 or 5.
The state recognition device is characterized in that the plurality of measuring devices include at least one dedicated measuring device that executes a state recognition process.
請求項1から請求項6の何れか一項に記載の状態認識装置において、
前記動き情報が、前記計測対象の位置と移動方向の情報であることを特徴とする状態認識装置。
In the state recognition device according to any one of claims 1 to 6.
A state recognition device characterized in that the motion information is information on the position and movement direction of the measurement target.
請求項1から請求項7の何れか一項に記載の状態認識装置において、
前記相互作用抽出部が抽出する前記相互作用情報が、
空間と前記計測対象の距離、前記計測対象同士の距離、または、前記計測対象の移動速度、動線、動線変化量、視線の何れかの情報であることを特徴とする状態認識装置。
In the state recognition device according to any one of claims 1 to 7.
The interaction information extracted by the interaction extraction unit is
A state recognition device characterized in that it is information on any one of the distance between the space and the measurement target, the distance between the measurement targets, or the movement speed, flow line, flow line change amount, and line of sight of the measurement target.
請求項1から請求項8の何れか一項に記載の状態認識装置において、
前記計測装置は、単眼のカメラ、ステレオカメラ、距離センサの何れかであることを特徴とする状態認識装置。
In the state recognition device according to any one of claims 1 to 8.
The measuring device is a state recognition device characterized by being any one of a monocular camera, a stereo camera, and a distance sensor.
計測装置が取得した情報に基づき、計測対象の動き情報を生成し、
該動き情報に基づいて、空間と前記計測対象の相互作用情報、または、前記計測対象同士の相互作用情報を抽出し、
該相互作用情報に基づいて、状態認識処理を実行する認識対象を決定し、
該認識対象に対し状態認識処理を実行することを特徴とする状態認識方法。
Based on the information acquired by the measuring device, the motion information of the measurement target is generated, and
Based on the motion information, the interaction information between the space and the measurement target or the interaction information between the measurement targets is extracted.
Based on the interaction information, the recognition target to execute the state recognition process is determined.
A state recognition method, characterized in that a state recognition process is executed on the recognition target.
JP2019024371A 2019-02-14 2019-02-14 State recognition device Active JP7208051B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019024371A JP7208051B2 (en) 2019-02-14 2019-02-14 State recognition device
PCT/JP2019/039802 WO2020166129A1 (en) 2019-02-14 2019-10-09 State recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024371A JP7208051B2 (en) 2019-02-14 2019-02-14 State recognition device

Publications (2)

Publication Number Publication Date
JP2020135099A true JP2020135099A (en) 2020-08-31
JP7208051B2 JP7208051B2 (en) 2023-01-18

Family

ID=72043894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024371A Active JP7208051B2 (en) 2019-02-14 2019-02-14 State recognition device

Country Status (2)

Country Link
JP (1) JP7208051B2 (en)
WO (1) WO2020166129A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024105766A1 (en) * 2022-11-15 2024-05-23 富士通株式会社 Information processing program, information processing method, and information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179335A1 (en) * 2012-05-30 2013-12-05 株式会社 日立製作所 Monitoring camera control device and visual monitoring system
JP2016024651A (en) * 2014-07-22 2016-02-08 沖電気工業株式会社 State determination system, state determination method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6406241B2 (en) * 2013-02-15 2018-10-17 日本電気株式会社 Information processing system, information processing method, and program
JP6898165B2 (en) * 2017-07-18 2021-07-07 パナソニック株式会社 People flow analysis method, people flow analyzer and people flow analysis system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179335A1 (en) * 2012-05-30 2013-12-05 株式会社 日立製作所 Monitoring camera control device and visual monitoring system
JP2016024651A (en) * 2014-07-22 2016-02-08 沖電気工業株式会社 State determination system, state determination method, and program

Also Published As

Publication number Publication date
JP7208051B2 (en) 2023-01-18
WO2020166129A1 (en) 2020-08-20

Similar Documents

Publication Publication Date Title
US10755080B2 (en) Information processing apparatus, information processing method, and storage medium
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
US10007850B2 (en) System and method for event monitoring and detection
JP2021036437A (en) Movement situation estimation device, movement situation estimation method and program recording medium
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
EP3518146B1 (en) Image processing apparatus and image processing method
KR20190128500A (en) Method and apparatus for detecting garbage dumping action in real time on video surveillance system
KR101116273B1 (en) Apparatus and Method for Traffic Accident Recognition
WO2019220589A1 (en) Video analysis device, video analysis method, and program
KR101380628B1 (en) Method and apparatus for object tracking using multiple cameras
US12046044B2 (en) Information processing apparatus, control method, and program
JP2009143722A (en) Person tracking apparatus, person tracking method and person tracking program
KR101360349B1 (en) Method and apparatus for object tracking based on feature of object
US9317765B2 (en) Human image tracking system, and human image detection and human image tracking methods thereof
JP2014093023A (en) Object detection device, object detection method and program
KR101840042B1 (en) Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System
US20240135552A1 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
US11157728B1 (en) Person detection and identification using overhead depth images
WO2020032944A1 (en) System and method for detecting, tracking and counting human objects of interest with an improved height calculation
JP2013069045A (en) Image recognition device, image recognition method, and image recognition program
JP7208051B2 (en) State recognition device
JP2021047538A (en) Image processing device, image processing method, and program
KR20230004083A (en) Apparatus and method of managing safety of swimming pool
KR101771655B1 (en) Device and method for action recognition
Meyer et al. Improving face detection with depth

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R150 Certificate of patent or registration of utility model

Ref document number: 7208051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150