JP2019029747A - Image monitoring system - Google Patents

Image monitoring system Download PDF

Info

Publication number
JP2019029747A
JP2019029747A JP2017145218A JP2017145218A JP2019029747A JP 2019029747 A JP2019029747 A JP 2019029747A JP 2017145218 A JP2017145218 A JP 2017145218A JP 2017145218 A JP2017145218 A JP 2017145218A JP 2019029747 A JP2019029747 A JP 2019029747A
Authority
JP
Japan
Prior art keywords
monitoring
image
congestion
area
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017145218A
Other languages
Japanese (ja)
Other versions
JP7099809B2 (en
Inventor
文彦 高橋
Fumihiko Takahashi
文彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017145218A priority Critical patent/JP7099809B2/en
Publication of JP2019029747A publication Critical patent/JP2019029747A/en
Application granted granted Critical
Publication of JP7099809B2 publication Critical patent/JP7099809B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image monitoring system which allows a watchman or the like to efficiently monitor images of a space where congestion of people can occur.SOLUTION: Predetermined image acquisition means 30 successively acquires monitor images. Congestion degree estimation means 50 estimates a congestion degree expressing a degree of congestion of objects in a space on the basis of the monitor images. Monitor importance calculation means 51 calculates duration time of the congestion of the objects in an area of interest set to the space and calculates monitoring importance increased with an increase in the congestion degree and an increase in the duration time with respect to the area of interest.SELECTED DRAWING: Figure 2

Description

本発明は、人等の物体が混雑し得る空間を撮影した監視画像から、監視員等が物体について注視すべき度合いを表す情報を生成する画像監視システムに関する。   The present invention relates to an image monitoring system that generates information indicating the degree to which a monitor or the like should gaze about an object from a monitoring image obtained by capturing a space in which an object such as a person can be crowded.

イベント会場等の混雑が発生し得る空間においては事故防止等のために、混雑が発生している区域に警備員を多く配置するなどの対応が求められる。そこで、会場の各所に監視カメラを配置して撮影画像から群衆密度を推定し、監視範囲の混雑状況を表示することによって監視効率向上が期待できる。   In an event venue or other space where congestion can occur, countermeasures such as placing a large number of guards in the crowded area are required to prevent accidents. Therefore, monitoring efficiency can be expected to improve by arranging monitoring cameras at various locations in the venue, estimating crowd density from the captured images, and displaying the congestion status of the monitoring range.

解析した混雑状況の画像表現として、画素ごと或いは画像を区分したブロックごとに混雑度の高さに応じて色分け表示するヒートマップが挙げられる。例えば、下記非特許文献1には、画素ごとに当該画素における群衆密度の推定値に応じた色を設定したヒートマップ(Figure 2(e))とその元になった撮影画像(Figure 2(a))とが例示されている。この例では、群衆密度が特に高い領域は赤、人の居ない領域は青で表示され、その中間の群衆密度である領域は橙、黄、緑、水色で表示される。   As an image representation of the analyzed congestion situation, there is a heat map that displays colors according to the degree of congestion for each pixel or each block into which an image is divided. For example, in Non-Patent Document 1 below, a heat map (Figure 2 (e)) in which a color corresponding to an estimated value of the crowd density at each pixel is set for each pixel and a captured image (Figure 2 (a) )). In this example, an area with a particularly high crowd density is displayed in red, an area without people is displayed in blue, and an area having an intermediate crowd density is displayed in orange, yellow, green, and light blue.

V. Eiselein, H. Fradi, I. Keller, T. Sikora and J. L. Dugelay, "Enhancing human detection using crowd density measures and an adaptive correction filter," 2013 10th IEEE International Conference on Advanced Video and Signal Based Surveillance, Krakow, 2013, pp. 19-24.V. Eiselein, H. Fradi, I. Keller, T. Sikora and JL Dugelay, "Enhancing human detection using crowd density measures and an adaptive correction filter," 2013 10th IEEE International Conference on Advanced Video and Signal Based Surveillance, Krakow, 2013 , pp. 19-24.

しかしながら、ヒートマップ表示はフレームごとの推定結果をフレームごとに表示していただけであった。そのため、高い群衆密度が推定された各箇所のカメラの画像を都度確認する必要が生じ、必ずしも監視効率が高くなかった。   However, the heat map display only displays the estimation result for each frame for each frame. Therefore, it is necessary to check the images of the cameras at each location where a high crowd density is estimated, and the monitoring efficiency is not always high.

例えば、ヒートマップ表示を用いて或る瞬間の群衆密度が表示される場合、群衆密度が高い領域であっても次の瞬間に群衆密度が低下した領域、あるいは群衆密度が高い領域であっても人の流れが順調に進んでいる領域などは必ずしも危険な状態とは言えない。逆に、群衆密度が高い状態が長く続いている領域、あるいは人の流れが滞っている領域では不快に感じる人や体調を崩す人が多くなり危険な状態となり易い。よって、同じように群衆密度が高い領域であっても、一時的に群衆密度が高くなった領域よりも長時間群衆密度が高い領域を優先して確認すべきであり、人の流れが順調な領域よりも流れが滞った領域を優先して確認すべきである。従来技術ではこのような優先順位をつけることができず、監視効率が必ずしも高くなかった。   For example, when the crowd density at a certain moment is displayed using the heat map display, even if the crowd density is high, the crowd density is reduced at the next moment, or the crowd density is high. An area where the flow of people is proceeding smoothly is not necessarily a dangerous state. On the contrary, in a region where the crowd density state continues for a long time, or in a region where the flow of people is stagnant, there are many people who feel uncomfortable or those who are unwell, and are likely to be in a dangerous state. Therefore, even in areas where the crowd density is high as well, areas where the crowd density is high for a long time should be given priority over areas where the crowd density is temporarily high, and the flow of people is smooth. Priority should be given to areas where flow is delayed rather than areas. In the prior art, such priorities cannot be set, and the monitoring efficiency is not necessarily high.

本発明は上記問題を鑑みてなされたものであり、人等の物体が混雑し得る空間を監視員等が効率的に監視可能な画像監視システムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image monitoring system in which a monitor or the like can efficiently monitor a space in which an object such as a person can be crowded.

(1)本発明に係る画像監視システムは、所定の物体が混雑し得る空間を撮影した監視画像から前記物体について注視すべき度合いを表す情報を生成するシステムであって、前記監視画像を順次取得する画像取得手段と、前記監視画像から、前記空間における前記物体の混雑の度合いを表す混雑度を推定する混雑度推定手段と、前記空間に設定した注目領域における前記物体の混雑の継続時間を算出し、前記注目領域について前記混雑度が高いほど高く前記継続時間が長いほど高い監視重要度を算出する監視重要度算出手段と、を備える。   (1) The image monitoring system according to the present invention is a system that generates information representing a degree to which the object should be watched from a monitoring image obtained by photographing a space where a predetermined object may be crowded, and sequentially acquires the monitoring images. A congestion degree estimating means for estimating a degree of congestion representing the degree of congestion of the object in the space, and a duration of congestion of the object in the attention area set in the space from the monitoring image. And monitoring importance calculation means for calculating a higher monitoring importance for the attention area as the congestion level is higher and the duration is longer.

(2)上記(1)に記載する画像監視システムにおいて、前記監視重要度算出手段は、さらに、前記監視画像から前記注目領域における前記物体の動き量を算出し、前記注目領域について前記動き量が少ないほど高い監視重要度を算出する構成とすることができる。   (2) In the image monitoring system described in (1) above, the monitoring importance degree calculation unit further calculates a movement amount of the object in the attention area from the monitoring image, and the movement amount is calculated for the attention area. It can be set as the structure which calculates high monitoring importance, so that there are few.

(3)他の本発明に係る画像監視システムは、所定の物体が混雑し得る空間を撮影した監視画像から前記物体について注視すべき度合いを表す情報を生成するシステムであって、前記監視画像を順次取得する画像取得手段と、前記監視画像から、前記空間における前記物体の混雑の度合いを表す混雑度を推定する混雑度推定手段と、前記監視から前記空間に設定した注目領域における前記物体の動き量を算出し、前記注目領域について前記混雑度が高いほど高く前記動き量が少ないほど高い監視重要度を算出する監視重要度算出手段と、備える。   (3) Another image monitoring system according to the present invention is a system that generates information indicating a degree to which the object is to be watched from a monitoring image obtained by photographing a space in which a predetermined object may be crowded, wherein the monitoring image is Image acquisition means for sequentially acquiring, congestion degree estimation means for estimating the degree of congestion representing the degree of congestion of the object in the space from the monitoring image, and movement of the object in the region of interest set in the space from the monitoring Monitoring importance calculation means for calculating an amount, and calculating a higher monitoring importance for the attention area as the congestion degree is higher and the movement amount is smaller.

(4)上記(1)〜(3)に記載する画像監視システムにおいて、前記画像取得手段は、前記空間内に設定された互いに異なる複数の監視領域それぞれについて前記監視画像を順次取得し、前記各監視領域を前記注目領域とする構成とすることができる。   (4) In the image monitoring system according to (1) to (3), the image acquisition unit sequentially acquires the monitoring images for each of a plurality of different monitoring areas set in the space, and The monitoring area may be the attention area.

(5)上記(1)〜(3)に記載する画像監視システムにおいて、前記監視画像を区分した複数の画像区画それぞれに映る前記空間を前記注目領域とし、さらに、前記画像区画ごとに前記監視重要度を算出して前記監視画像上での分布を表現した分布画像を生成する分布画像生成手段を備えた構成とすることができる。   (5) In the image monitoring system described in (1) to (3) above, the space reflected in each of a plurality of image sections into which the monitor image is divided is set as the attention area, and the monitoring important for each image section A distribution image generation unit that calculates a degree and generates a distribution image expressing the distribution on the monitoring image can be provided.

本発明によれば、人等の物体が混雑し得る空間を監視員等が効率的に監視可能な画像監視システムを提供することができる。   According to the present invention, it is possible to provide an image monitoring system in which a monitor or the like can efficiently monitor a space in which an object such as a person can be crowded.

本発明の実施形態に係る画像監視システムの概略の構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image monitoring system according to an embodiment of the present invention. 本発明の実施形態に係る画像監視システムの機能を示す機能ブロック図である。It is a functional block diagram which shows the function of the image monitoring system which concerns on embodiment of this invention. 物体モデル記憶手段が記憶している物体モデルの情報の一例を示す模式図である。It is a schematic diagram which shows an example of the information of the object model which the object model memory | storage means has memorize | stored. 描画設定記憶手段が記憶している、監視重要度や混雑度の表示の仕方についての設定の例を示す模式図である。It is a schematic diagram which shows the example of the setting about the display method of the monitoring importance degree and congestion degree which the drawing setting memory | storage means has memorize | stored. 分布画像生成手段が生成する分布画像の例を示す模式図である。It is a schematic diagram which shows the example of the distribution image which a distribution image generation means produces | generates. 本発明の実施形態に係る画像監視システムにおける監視重要度を算出する処理の概略のフロー図である。It is a schematic flowchart of the process which calculates the monitoring importance in the image monitoring system which concerns on embodiment of this invention. 表示部に監視重要度を表示する処理の概略のフロー図である。It is a general | schematic flowchart of the process which displays monitoring importance on a display part. マルチ表示モードでの表示部の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the display part in multi display mode.

以下、本発明の実施の形態(以下実施形態という)に係る画像監視システム1について、図面に基づいて説明する。   Hereinafter, an image monitoring system 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.

図1は画像監視システム1の概略の構成を示すブロック図である。画像監視システム1は、撮影部2、通信部3、記憶部4、画像処理部5、操作部6、表示制御部7および表示部8からなる。   FIG. 1 is a block diagram showing a schematic configuration of the image monitoring system 1. The image monitoring system 1 includes a photographing unit 2, a communication unit 3, a storage unit 4, an image processing unit 5, an operation unit 6, a display control unit 7, and a display unit 8.

撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、所定の物体が混雑し得る空間(対象空間)を所定の時間間隔で撮影して監視画像を出力する撮影手段である。ここでは、対象空間のうち撮影部2が撮影する部分を監視領域と称する。本実施形態では対象空間には複数の監視領域が設定され、監視領域ごとに撮影部2が割り当てられる。すなわち、撮影部2は複数の撮影部2-1,2-2,…からなり、それら撮影部2は対象空間に設定された互いに異なる複数の監視領域を撮影する。各撮影部2は、当該撮影部2が撮影している監視領域を一意に識別する識別子(エリアID)を予め付与され、順次出力する監視画像とともにエリアIDを画像処理部5に入力する。   The imaging unit 2 is a monitoring camera, is connected to the image processing unit 5 via the communication unit 3, and captures a space (target space) in which a predetermined object can be crowded at predetermined time intervals and outputs a monitoring image. It is a photographing means. Here, the portion of the target space that is imaged by the imaging unit 2 is referred to as a monitoring area. In the present embodiment, a plurality of monitoring areas are set in the target space, and the imaging unit 2 is assigned to each monitoring area. That is, the imaging unit 2 includes a plurality of imaging units 2-1, 2-2,..., And the imaging unit 2 images a plurality of different monitoring areas set in the target space. Each imaging unit 2 is given in advance an identifier (area ID) that uniquely identifies the monitoring area captured by the imaging unit 2 and inputs the area ID to the image processing unit 5 together with the monitoring images to be sequentially output.

例えば、各撮影部2は、イベント会場に設置されたポールに監視領域を俯瞰する視野を有して設置される。その視野は固定されていてもよいし、予めのスケジュール或いは通信部3を介した外部からの指示に従って変更されてもよい。また、例えば、撮影部2は監視領域をフレーム周期1/5秒で撮影してカラー画像を生成する。カラー画像の代わりにモノクロ画像を生成してもよい。   For example, each photographing unit 2 is installed with a field of view overlooking a monitoring area on a pole installed at an event venue. The visual field may be fixed, or may be changed according to a schedule in advance or an instruction from the outside via the communication unit 3. For example, the imaging unit 2 captures the monitoring area with a frame period of 1/5 second to generate a color image. A monochrome image may be generated instead of the color image.

通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示制御部7と接続される。通信部3は、撮影部2から監視画像を取得して画像処理部5に入力し、画像処理部5から入力された情報を表示制御部7に出力する。   The communication unit 3 is a communication circuit, one end of which is connected to the image processing unit 5, and the other end is connected to the photographing unit 2 and the display control unit 7 via a communication network such as a coaxial cable, a LAN (Local Area Network), or the Internet. Connected. The communication unit 3 acquires a monitoring image from the photographing unit 2 and inputs it to the image processing unit 5, and outputs information input from the image processing unit 5 to the display control unit 7.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。   The storage unit 4 is a memory device such as a ROM (Read Only Memory) or a RAM (Random Access Memory), and stores various programs and various data. The storage unit 4 is connected to the image processing unit 5 and inputs / outputs such information to / from the image processing unit 5.

画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、また記憶部4から読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示制御部7とも接続され、通信部3経由で撮影部2から取得した監視画像を解析することにより、撮影されている人について注視すべき度合いを表す情報を生成し、生成した情報を通信部3経由で表示制御部7に出力する。   The image processing unit 5 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit). The image processing unit 5 is connected to the storage unit 4, operates as various processing units / control units by reading and executing a program from the storage unit 4, stores various data in the storage unit 4, and from the storage unit 4 read out. The image processing unit 5 is also connected to the photographing unit 2 and the display control unit 7 via the communication unit 3, and a person who is photographed by analyzing a monitoring image acquired from the photographing unit 2 via the communication unit 3. Is generated, and the generated information is output to the display control unit 7 via the communication unit 3.

操作部6は表示制御部7に対する入力機器であり、キーボード及びマウス等で構成される。操作部6は表示制御部7に接続され、監視員による指示操作を受け付け、当該指示操作を表示制御部7に出力する。   The operation unit 6 is an input device for the display control unit 7 and includes a keyboard and a mouse. The operation unit 6 is connected to the display control unit 7, receives an instruction operation by the monitor, and outputs the instruction operation to the display control unit 7.

表示制御部7はPC(Personal Computer)等で構成され、ROM、RAM等のメモリ装置等で構成される記憶部(不図示)、通信部3が接続されている通信網とのインターフェース回路である通信部(不図示)、および、CPU、MCU、IC等の演算装置等で構成される制御部(不図示)を備える。表示制御部7は通信網を介して通信部3に接続されるとともに、操作部6および表示部8と接続される。表示制御部7は画像処理部5からの情報を通信部3から受信して記憶するとともに、監視員による操作指示を操作部6から入力され、記憶した情報のうち操作指示に応じた情報を表示部8に出力する。   The display control unit 7 is constituted by a PC (Personal Computer) or the like, and is a storage unit (not shown) constituted by a memory device such as a ROM or RAM, and an interface circuit with a communication network to which the communication unit 3 is connected. A communication unit (not shown) and a control unit (not shown) configured by an arithmetic device such as a CPU, MCU, or IC are provided. The display control unit 7 is connected to the communication unit 3 via the communication network, and is also connected to the operation unit 6 and the display unit 8. The display control unit 7 receives information from the image processing unit 5 from the communication unit 3 and stores it, and receives an operation instruction from the monitoring person from the operation unit 6 and displays information corresponding to the operation instruction among the stored information. Output to unit 8.

表示部8は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3および表示制御部7を介して画像処理部5と接続され、画像処理部5により生成された情報を表示する表示手段である。監視員は表示された情報を視認して混雑の発生等を判断し、必要に応じて人員配置の変更等の対処を行う。   The display unit 8 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and is connected to the image processing unit 5 via the communication unit 3 and the display control unit 7, and information generated by the image processing unit 5. Is a display means for displaying. The monitor visually checks the displayed information to determine the occurrence of congestion, and takes measures such as changing the personnel assignment as necessary.

図2は画像監視システム1の機能を示す機能ブロック図である。通信部3は画像取得手段30および要注視情報出力手段31等として機能し、記憶部4は密度推定器記憶手段40、混雑度記憶手段41、動き量記憶手段42、物体モデル記憶手段43および描画設定記憶手段44等として機能する。画像処理部5は、混雑度推定手段50、監視重要度算出手段51、物体領域推定手段52および分布画像生成手段53等として機能する。   FIG. 2 is a functional block diagram showing functions of the image monitoring system 1. The communication unit 3 functions as an image acquisition unit 30 and a gaze information output unit 31 and the like, and the storage unit 4 has a density estimator storage unit 40, a congestion level storage unit 41, a motion amount storage unit 42, an object model storage unit 43, and a drawing. It functions as the setting storage means 44 and the like. The image processing unit 5 functions as a congestion level estimation unit 50, a monitoring importance level calculation unit 51, an object region estimation unit 52, a distribution image generation unit 53, and the like.

画像取得手段30は撮影手段である撮影部2-1,2-2,…から監視画像およびエリアIDを順次取得して、取得した監視画像をエリアIDとともに、混雑度推定手段50、監視重要度算出手段51および物体領域推定手段52に出力する。   The image acquisition unit 30 sequentially acquires the monitoring image and the area ID from the imaging units 2-1, 2-2,... That are the imaging unit, and the acquired monitoring image together with the area ID, the congestion degree estimation unit 50, and the monitoring importance level. It outputs to the calculation means 51 and the object area estimation means 52.

密度推定器記憶手段40は、所定の密度ごとに当該密度にて物体(人)が存在する空間を撮影した密度画像それぞれの画像特徴を学習した推定密度算出関数であって、画像の特徴量を入力されると当該画像に撮影されている物体の密度の推定値(推定密度)を算出して出力する推定器(密度推定器)を表す情報を予め記憶している。つまり密度推定器記憶手段40は上記推定密度算出関数の係数等のパラメータを密度推定器の情報として予め記憶している。   The density estimator storage unit 40 is an estimated density calculation function that learns the image features of each density image obtained by photographing a space where an object (person) exists at a predetermined density for each predetermined density. When input, information representing an estimator (density estimator) that calculates and outputs an estimated value (estimated density) of the density of an object photographed in the image is stored in advance. That is, the density estimator storage means 40 stores parameters such as the coefficient of the estimated density calculation function in advance as information on the density estimator.

混雑度推定手段50は、対象空間における物体の混雑の度合いを表す混雑度を監視画像に基づいて推定する。混雑度推定手段50は、画像取得手段30から入力される監視画像のそれぞれを複数の画像区画に区分して画像区画ごとに物体の混雑の度合いを表す混雑度を推定する。そして、推定した混雑度を、エリアIDと対応付けて時系列に混雑度記憶手段41に記憶させる。画像区画は例えば監視画像の各画素とすることができる。   The congestion degree estimation means 50 estimates a congestion degree that represents the degree of congestion of an object in the target space based on the monitoring image. The congestion degree estimation unit 50 divides each of the monitoring images input from the image acquisition unit 30 into a plurality of image sections, and estimates a congestion degree that represents the degree of object congestion for each image section. Then, the estimated congestion level is stored in the congestion level storage unit 41 in time series in association with the area ID. The image section can be, for example, each pixel of the monitoring image.

混雑度推定の処理および密度推定器について具体的に説明する。   The congestion degree estimation process and the density estimator will be specifically described.

混雑度推定手段50は、監視画像の各画素の位置に窓(推定用抽出窓)を設定し、各推定用抽出窓における監視画像から推定用特徴量を抽出する。推定用特徴量はGLCM(Gray Level Co-occurrence Matrix)特徴である。   The congestion degree estimation means 50 sets a window (estimation extraction window) at the position of each pixel of the monitoring image, and extracts an estimation feature amount from the monitoring image in each estimation extraction window. The estimation feature amount is a GLCM (Gray Level Co-occurrence Matrix) feature.

各推定用抽出窓に撮影されている対象空間内の領域は同一サイズであることが望ましい。すなわち、好適には混雑度推定手段50は撮影部2のカメラパラメータを用いたホモグラフィ変換により、監視画像の任意の画素に撮影されている監視空間内の領域が同一サイズとなるように監視画像を変形してから推定用特徴量を抽出する。なお、後述するように本実施形態ではカメラパラメータは物体モデル記憶手段43に記憶されており、混雑度推定手段50はこれを読み出して利用する。   It is desirable that the areas in the target space captured by each estimation extraction window have the same size. That is, preferably, the congestion degree estimation unit 50 performs monitoring image so that the area in the monitoring space captured by any pixel of the monitoring image has the same size by homography conversion using the camera parameters of the imaging unit 2. Then, the estimation feature quantity is extracted. As will be described later, in this embodiment, camera parameters are stored in the object model storage unit 43, and the congestion degree estimation unit 50 reads and uses them.

密度推定器は多クラスの画像を識別する識別器で実現することができ、多クラスSVM(Support Vector Machine)法で学習した識別関数とすることができる。   The density estimator can be realized by a classifier that identifies multi-class images, and can be a discrimination function learned by a multi-class SVM (Support Vector Machine) method.

密度は、例えば、人が存在しない「背景」クラス、0人/mより高く2人/m以下である「低密度」クラス、2人/mより高く4人/m以下である「中密度」クラス、4人/mより高い「高密度」クラスの4クラスと定義することができる。 Density, for example, there is no human "Background" class is 0 people / m higher than 2 is two / m 2 or less "low density" class, higher than two / m 2 4 persons / m 2 or less It can be defined as 4 classes of “medium density” class, “high density” class higher than 4 persons / m 2 .

すなわち、密度推定器は「背景」クラス、「低密度」クラス、「中密度」クラス、「高密度」クラスのそれぞれに帰属する多数の画像(密度画像)の特徴量に多クラスSVM法を適用して学習した、各クラスの画像を他のクラスと識別するための識別関数である。この学習により導出された識別関数のパラメータが密度推定器として記憶されている。なお、密度画像の特徴量は推定用特徴量と同種であり、GLCM特徴である。   That is, the density estimator applies the multi-class SVM method to the feature quantities of a large number of images (density images) belonging to the “background” class, “low density” class, “medium density” class, and “high density” class. This is an identification function for discriminating the images of each class from other classes. The parameters of the discriminant function derived by this learning are stored as a density estimator. The feature amount of the density image is the same type as the estimation feature amount and is a GLCM feature.

混雑度推定手段50は、各画素に対応して抽出した推定用特徴量のそれぞれを密度推定器に入力することによってその出力値である推定密度を取得する。なお、監視画像を変形させて推定用特徴量を抽出した場合、混雑度推定手段50は、カメラパラメータを用いたホモグラフィ変換により密度分布を元の監視画像の形状に変形させる。   The congestion degree estimation means 50 acquires the estimated density which is the output value by inputting each of the estimation feature quantities extracted corresponding to each pixel to the density estimator. In addition, when the monitoring image is deformed and the estimation feature amount is extracted, the congestion degree estimation unit 50 deforms the density distribution to the shape of the original monitoring image by homography conversion using the camera parameter.

混雑度は推定密度の各クラスに予め付与された値であり、本実施形態では各クラスに対応する値を「背景」、「低混雑度」、「中混雑度」、「高混雑度」と表記する。   The degree of congestion is a value given in advance to each class of estimated density, and in this embodiment, the values corresponding to each class are “background”, “low congestion”, “medium congestion”, and “high congestion”. write.

混雑度記憶手段41は、各監視画像と対応する混雑度を当該監視画像のエリアIDと対応付けて時系列に記憶する。本実施形態では、各監視画像に対応する混雑度は、当該監視画像の各画素の混雑度からなる。なお、混雑度記憶手段41は少なくとも、後述する過去の期間τの監視画像から得られた混雑度を記憶する。   The congestion degree storage means 41 stores the congestion degree corresponding to each monitoring image in time series in association with the area ID of the monitoring image. In the present embodiment, the degree of congestion corresponding to each monitoring image is composed of the degree of congestion of each pixel of the monitoring image. The congestion degree storage unit 41 stores at least a congestion degree obtained from a monitoring image in a past period τ described later.

監視重要度算出手段51は、監視画像を基にして、物体について監視員等が注視すべき度合いを表す情報である監視重要度を算出し、算出した監視重要度を分布画像生成手段53および要注視情報出力手段31に出力する。   The monitoring importance calculation means 51 calculates the monitoring importance, which is information indicating the degree to which the observer or the like should pay attention to the object on the basis of the monitoring image, and the calculated monitoring importance is obtained from the distribution image generation means 53 and the necessary elements. It outputs to the gaze information output means 31.

監視重要度の算出は、監視画像の画像区画ごとに行い、さらに監視領域ごと(すなわち撮影部2ごと)に行う。   The calculation of the monitoring importance is performed for each image section of the monitoring image, and further for each monitoring area (that is, for each photographing unit 2).

監視重要度は、混雑度、混雑の継続時間および物体の動き量を基に算出される。すなわち、混雑度が高いほど高く、混雑の継続時間が長いほど高く、物体の動き量が少ないほど高い監視重要度を監視画像の画像区画ごとに算出する。さらに、監視領域ごとに、混雑度が高いほど高く、混雑の継続時間が長いほど高く、物体の動き量が少ないほど高い監視重要度を算出する。   The monitoring importance level is calculated based on the congestion level, the congestion duration, and the amount of movement of the object. That is, the higher the degree of congestion, the higher the congestion duration, the higher the degree of monitoring, and the higher the importance of monitoring for each image section of the monitoring image. Further, for each monitoring area, the higher the congestion degree, the higher the congestion duration time, the higher the importance, and the lower the object movement amount, the higher the monitoring importance degree is calculated.

画像区画ごとに監視重要度を算出する例(すなわち対象空間に画像区画それぞれと対応して設定した注目領域ごとに監視重要度を算出する例)を説明する。ここでは、画像区画は画素であるとする。例えば、時刻t=Tの時点での各画素における監視重要度Sは、次式(1)〜(3)で示すように、当該時刻Tから過去に時間τ遡る期間[T−τ,T](つまりT−τ≦t≦T)の当該画素における混雑度の代表値dの平均値Dと、当該期間[T−τ,T]の当該画素における動きベクトルの大きさ(速さ)vの平均値Vとの重みづけ和とすることができる。 An example in which the monitoring importance is calculated for each image section (that is, an example in which the monitoring importance is calculated for each attention area set corresponding to each image section in the target space) will be described. Here, the image section is assumed to be a pixel. For example, as shown in the following equations (1) to (3), the monitoring importance S T at each time point at time t = T is a period [T−τ, T ] (That is, the average value D T of the representative values dt of the congestion degree in the pixel in question T−τ ≦ t ≦ T) and the magnitude (speed) of the motion vector in the pixel in the period [T−τ, T]. ) Weighted sum of v t and average value V T.

=α・D+β・V …(1)
=(1/τ)ΣT−τ≦t≦T …(2)
=(1/τ)ΣT−τ≦t≦T …(3)
S T = α · D T + β · V T (1)
D T = (1 / τ) Σ T−τ ≦ t ≦ T d t (2)
V T = (1 / τ) Σ T−τ ≦ t ≦ T v t (3)

ここで、重み係数αおよびβはそれぞれ0よりも大きな定数であり、例えば、事前実験に基づいて予め定められる。   Here, the weighting factors α and β are constants larger than 0, and are determined in advance based on, for example, preliminary experiments.

混雑度の代表値は密度で定義することとし、「背景」および「低混雑度」の代表値は0人/m、「中混雑度」の代表値は3人/m、「高混雑度」の代表値は6人/mなどとすることができる。なお、「背景」の代表値は0人/mとする一方、「低混雑度」の代表値は1人/mとしてもよい。 The representative value of the congestion level is defined by density, the representative value of “background” and “low congestion” is 0 person / m 2 , the representative value of “medium congestion degree” is 3 person / m 2 , and “high congestion” A representative value of “degree” may be 6 people / m 2 . The representative value of “background” may be 0 person / m 2 , while the representative value of “low congestion” may be 1 person / m 2 .

τは実験等を通じて予め定める。式(2)で算出されるDは基本的に、混雑度が高いほど高い値となり、また、期間[T−τ,T]内での混雑度の継続時間が長いほど高い値となる。つまり、上述の例では、時間τが監視重要度Sに対し影響を及ぼす継続時間の上限を設定しており、τはこの点を考慮して設定することができる。例えばτは1分間とすることができる。 τ is determined in advance through experiments and the like. The DT calculated by the equation (2) basically becomes a higher value as the degree of congestion is higher, and becomes a higher value as the duration of the degree of congestion within the period [T−τ, T] is longer. That is, in the example described above, which then sets an upper limit of the impact duration to severity S T monitoring time tau, tau can be set in consideration of this point. For example, τ can be 1 minute.

また、後述するように、画像区画ごとに算出した監視重要度の代表値を物体領域ごとに算出することによって、対象空間に物体領域それぞれと対応して設定した注目領域ごとに監視重要度を算出することもできる。   In addition, as described later, by calculating the representative value of the monitoring importance calculated for each image section for each object area, the monitoring importance is calculated for each attention area set corresponding to each object area in the target space. You can also

次に監視領域ごとに監視重要度を算出する例(すなわち対象空間に監視領域それぞれと対応して設定した注目領域ごとに監視重要度を算出する例)を説明する。各監視領域の監視重要度は、当該監視領域を撮影した監視画像における画像区画ごとに算出した監視重要度を統合して求めることができ、これにより監視領域ごとの監視重要度が算出される。   Next, an example of calculating the monitoring importance for each monitoring area (that is, an example of calculating the monitoring importance for each attention area set corresponding to each monitoring area in the target space) will be described. The monitoring importance of each monitoring area can be obtained by integrating the monitoring importance calculated for each image section in the monitoring image obtained by photographing the monitoring area, and thereby the monitoring importance for each monitoring area is calculated.

ここで、監視領域における監視重要度の統合の仕方として、画像区画ごとの監視重要度を監視画像全体で平均する構成とすることも可能であるが、一方、監視画像の一部の画像区画だけでも監視重要度が高ければ、対応する監視領域の監視重要度を高くして監視員等の注視を促すような構成とすることもでき、当該構成は監視漏れが抑制され易い点で好適である。具体的には、各監視領域に対応する監視画像の画像区画ごとの監視重要度のうち最大値を選出し、選出した最大値を閾値処理により3段階のレベル「低」、「中」、「高」のいずれかに区分して、区分したレベルを当該監視領域の監視重要度と定めることができる。また、各監視領域に対応する画像区画ごとの監視重要度のそれぞれを3段階のレベルに区分してから、複数の画像区画のうちの最大のレベルを当該監視領域の監視重要度と定めてもよい。   Here, as a method of integrating the monitoring importance in the monitoring area, it is possible to adopt a configuration in which the monitoring importance for each image section is averaged over the entire monitoring image. On the other hand, only a part of the image sections of the monitoring image is used. However, if the monitoring importance level is high, it is possible to increase the monitoring importance level of the corresponding monitoring area so as to encourage the monitoring staff to watch. This configuration is preferable in that monitoring omissions are easily suppressed. . Specifically, the maximum value is selected from the monitoring importance levels for each image section of the monitoring image corresponding to each monitoring area, and the selected maximum value is subjected to threshold processing to three levels “low”, “medium”, “ It is possible to determine the level of monitoring as the monitoring importance level of the monitoring area. Further, after the monitoring importance for each image section corresponding to each monitoring area is divided into three levels, the maximum level of the plurality of image sections may be determined as the monitoring importance of the monitoring area. Good.

上述の式(1)の監視重要度Sでは、物体の動き量が動きベクトルにより反映されている。この動き量の基礎情報である動きベクトルはオプティカルフロー分析によって検出することができる。例えば、オプティカルフロー分析によって、現画像と直前画像との間で動きベクトルが算出される。 The monitoring severity S T of the aforementioned formula (1), the movement amount of the object is reflected by the motion vector. The motion vector that is the basic information of the amount of motion can be detected by optical flow analysis. For example, a motion vector is calculated between the current image and the previous image by optical flow analysis.

監視重要度算出手段51は、現画像および直前画像のうち一方の画像(基準画像)上に複数の注目点を設定するとともに他方の画像(比較画像)において各注目点と画像特徴が最も類似する最類似点を対応点として検出し、注目点と対応点とを結ぶベクトルを動きベクトルとして算出する。ちなみに、注目点および対応点のうち直前画像側が動きベクトルの始点であり、現画像側が終点である。   The monitoring importance calculation means 51 sets a plurality of attention points on one image (reference image) of the current image and the immediately preceding image, and the image characteristics of each attention point are the most similar in the other image (comparison image). The most similar point is detected as a corresponding point, and a vector connecting the attention point and the corresponding point is calculated as a motion vector. Incidentally, of the attention point and the corresponding point, the immediately preceding image side is the start point of the motion vector, and the current image side is the end point.

注目点や対応点は、監視画像を予め定めた複数のブロックに区分してそれらの中央に設定することができる。ブロックの大きさは少なくとも対象物体である人よりも小さく設定する。また、撮影部2から物体までの距離を考慮し、当該距離が遠いほど小さく、当該距離が近いほど大きなブロックとしてもよい。また、画像区画を画素とする場合、ブロックそれぞれについて検出した動きベクトルが当該ブロックに含まれる各画素の動きベクトルとされる。   The point of interest and the corresponding point can be set at the center by dividing the monitoring image into a plurality of predetermined blocks. The size of the block is set at least smaller than the person who is the target object. Further, in consideration of the distance from the photographing unit 2 to the object, the block may be smaller as the distance is longer and larger as the distance is shorter. When an image section is a pixel, a motion vector detected for each block is used as a motion vector for each pixel included in the block.

例えば、監視重要度算出手段51は、比較画像上で候補点を移動させつつ、注目点との輝度分布の類似度を算出して、類似度が最も高い候補点を対応点に決定する。この探索にはルーカス・カナデ(Lucas-Kanade)法など種々の最急降下法が適用可能である。すなわち、各注目点と同一座標を候補点の初期値とし、輝度の差が小さくなる方向に候補点を順次移動させて探索を行う。   For example, the monitoring importance calculation means 51 calculates the similarity of the luminance distribution with the point of interest while moving the candidate point on the comparison image, and determines the candidate point with the highest similarity as the corresponding point. For this search, various steepest descent methods such as the Lucas-Kanade method can be applied. That is, the search is performed by sequentially moving the candidate points in the direction in which the difference in luminance is reduced, with the same coordinates as each point of interest as the initial value of the candidate points.

別の方法では、注目点の座標を含む所定の探索範囲の各座標を候補点に設定して探索を行う。この場合、探索範囲は比較画像全体とすることもできるが、物体が1時刻の間に移動し得る画像上の距離を予め見積もっておき、注目点の座標を中心として当該距離を半径とする円内を探索範囲とするのがよい。   In another method, each coordinate in a predetermined search range including the coordinates of the point of interest is set as a candidate point for searching. In this case, although the search range can be the entire comparison image, a distance on the image where the object can move in one time is estimated in advance, and a circle with the distance as a radius around the coordinates of the point of interest The inside should be the search range.

なお、動きベクトルとしてゼロベクトルも検出しておく。また、注目点に対して類似度が閾値以下の最類似点しか見つからない場合は、当該注目点に対応する動きベクトルは検出されないとすることができる。   A zero vector is also detected as a motion vector. In addition, when only the most similar point having a degree of similarity equal to or less than a threshold with respect to the attention point is found, it can be assumed that the motion vector corresponding to the attention point is not detected.

監視重要度算出手段51は、各監視画像から検出した画像区画ごとの動きベクトルと、各監視画像を動き量記憶手段42に記憶させる。動きベクトルは少なくとも過去に遡る期間τの分だけ、また監視画像は少なくとも1時刻前のものだけ記憶される。   The monitoring importance degree calculation unit 51 stores the motion vector for each image section detected from each monitoring image and each monitoring image in the motion amount storage unit 42. The motion vector is stored at least for the period τ that goes back in the past, and the monitoring image is stored at least one hour before.

物体モデル記憶手段43は、予め物体の形状を近似した物体モデルを記憶し、記憶している物体モデルを物体領域推定手段52に出力する。   The object model storage unit 43 stores an object model that approximates the shape of the object in advance, and outputs the stored object model to the object region estimation unit 52.

図3は物体モデル記憶手段43が記憶している物体モデルの情報の一例を示す模式図である。図3の例では物体モデルは、立位の人の頭部、胴部、脚部に対応する3つの回転楕円体から構成される立体モデルである。ちなみに、頭部重心を人の代表位置とする。なお、立体モデルはより単純化して人全体を1つの回転楕円体で表すものとすることもできるし、より詳細に例えば、人の頭部、胴部、両腕、両脚を別々の回転楕円体で表すものとすることもできる。   FIG. 3 is a schematic diagram showing an example of object model information stored in the object model storage unit 43. In the example of FIG. 3, the object model is a three-dimensional model composed of three spheroids corresponding to the head, torso, and legs of a standing person. By the way, the center of gravity of the head is the representative position of the person. The solid model can be simplified and the whole person can be represented by a single spheroid. For example, the human head, torso, both arms and both legs can be separated into separate spheroids. It can also be expressed as

さらに物体モデル記憶手段43は、立体モデルと併せて、立体モデルを監視画像の座標系に投影するために撮影部2のカメラパラメータを記憶している。カメラパラメータは、実際の監視空間における撮影部2の設置位置および撮像方向といった外部パラメータ、撮影部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む情報である。   Further, the object model storage unit 43 stores the camera parameters of the photographing unit 2 in order to project the stereoscopic model onto the coordinate system of the monitoring image together with the stereoscopic model. The camera parameters include external parameters such as the installation position and imaging direction of the imaging unit 2 in the actual monitoring space, internal parameters such as the focal length, field angle, lens distortion, and other lens characteristics of the imaging unit 2 and the number of pixels of the imaging device. Information.

描画設定記憶手段44は、画像処理部5により生成された情報を表示部8に表示する際における、当該情報に含まれる監視重要度や混雑度の表示の仕方についての設定を予め記憶している。図4は当該設定の例を示す模式図である。   The drawing setting storage unit 44 stores in advance settings regarding how to display the monitoring importance level and the congestion level included in the information when the information generated by the image processing unit 5 is displayed on the display unit 8. . FIG. 4 is a schematic diagram showing an example of the setting.

描画設定記憶手段44は、監視重要度のレベルと対応して、レベルごとに異ならせた図形(アイコン)を予め記憶している。図4(a)は当該アイコンの例を示す説明図であり、各レベルと対応して2種類ずつのアイコンが記憶されている。具体的には、2種類のアイコンは、表情の絵柄と、感情を表すイラストである。監視重要度のレベル「低」には、アイコンとして、安全な状態を想起させるものとして、笑顔の表情と、楽しい気分を表す際に漫符などで用いられる八分音符のイラストとが対応付けて記憶される。また、監視重要度のレベル「中」には、注意すべき状態を想起させるものとして、不満顔の表情と、もやもや感を表す際の漫符として知られる螺旋のイラストが対応付けて記憶され、監視重要度のレベル「高」には、危険な状態を想起させるものとして、困窮顔の表情と、漫符の十字型の怒りマークとして知られるイラストが対応付けて記憶されている。   The drawing setting storage means 44 stores in advance graphics (icons) that differ for each level in correspondence with the level of monitoring importance. FIG. 4A is an explanatory diagram showing an example of the icon, and two types of icons are stored corresponding to each level. Specifically, the two types of icons are facial expressions and emotions. The monitoring importance level “low” is associated with an icon that reminds you of a safe state, an expression of a smile, and an illustration of an eighth note used in comics or the like to express a pleasant mood. Remembered. In addition, the level of monitoring importance “medium” is stored in association with an unsatisfied facial expression and a spiral illustration known as a comic symbol when expressing a moist feeling, as a reminder of a state to watch out for, At the high level of importance of monitoring, an expression of a distressed face and an illustration known as a cross-shaped anger mark of a comic book are stored in association with each other as a reminder of a dangerous state.

また描画設定記憶手段44は、混雑度と対応して、混雑度ごとに異ならせた色を予め記憶している。図4(b)は当該色の設定例を示す説明図であり、混雑度「低」、「中」、「高」に対応する色は、表示部8における表示を目視した監視員がそれぞれを識別可能とするために異ならせて設定されている。混雑度が高まるほど危険が高まることを鑑み、混雑度「低」、「中」、「高」に対応してそれぞれ緑、黄、赤が設定されており、描画設定記憶手段44は混雑度「低」と対応して緑の色コード、混雑度「中」と対応して黄の色コード、混雑度「高」と対応して赤の色コードを記憶する。   In addition, the drawing setting storage unit 44 stores in advance colors that differ depending on the degree of congestion corresponding to the degree of congestion. FIG. 4B is an explanatory diagram showing an example of setting the color. The colors corresponding to the congestion levels “low”, “medium”, and “high” are displayed by the monitor who visually observes the display on the display unit 8. It is set differently so that it can be identified. Considering that the danger increases as the congestion level increases, green, yellow, and red are set corresponding to the congestion levels “low”, “medium”, and “high”, respectively, and the drawing setting storage unit 44 stores the congestion level “ A green color code corresponding to “low”, a yellow color code corresponding to “medium”, and a red color code corresponding to “high” are stored.

物体領域推定手段52は監視画像から個々の物体の領域(物体領域)を推定し、推定した物体領域を分布画像生成手段53に出力する。具体的には、物体領域推定手段52は物体領域として、撮影されている個々の人の領域を推定する。   The object area estimation unit 52 estimates the area (object area) of each object from the monitoring image, and outputs the estimated object area to the distribution image generation unit 53. Specifically, the object area estimation means 52 estimates the area of each person being photographed as the object area.

例えば、物体領域推定手段52は、撮影部2から得られる監視画像に対し、予め無人時の監視画像などから生成して記憶部4に記憶させてある背景画像を用いて背景差分処理を行い、画素値の差の絶対値が閾値以上である画素を検出し、検出した画素のまとまりを変化領域として抽出する。   For example, the object region estimation unit 52 performs background difference processing on the monitoring image obtained from the photographing unit 2 using a background image that is generated in advance from a monitoring image at the time of unattended and stored in the storage unit 4, A pixel whose absolute value of the difference between pixel values is equal to or greater than a threshold value is detected, and a group of detected pixels is extracted as a change area.

続いて、物体領域推定手段52はエッジ画像生成処理を行う。つまり、変化領域内における各画素の位置にて監視画像にエッジオペレータを適用し、画素ごとにエッジ強度を算出して所定の閾値で2値化することによりエッジ画像を生成する。   Subsequently, the object region estimation means 52 performs an edge image generation process. In other words, an edge operator is applied to the monitoring image at the position of each pixel in the change region, the edge intensity is calculated for each pixel, and binarized with a predetermined threshold value to generate an edge image.

続いて、物体領域推定手段52はモデルマッチングによる人物位置推定処理を行う。つまり、物体領域推定手段52は物体モデル記憶手段43に記憶されている立体モデルを監視画像の座標系に投影して人の形状を模した形状モデルを生成し、変化領域内に形状モデルを、複数通りの個数で複数通りに配置して、配置ごとにエッジ画像との一致度を算出し、一致度が最大の配置を特定する。そして、物体領域推定手段52は、特定した配置における形状モデルの各位置を人物位置と推定する。なお、一致度は形状モデルの輪郭画素とエッジ強度が所定の閾値以上であるエッジ画素との位置の一致割合とすることができる。   Subsequently, the object region estimation means 52 performs person position estimation processing by model matching. That is, the object region estimation unit 52 generates a shape model imitating a human shape by projecting the three-dimensional model stored in the object model storage unit 43 onto the coordinate system of the monitoring image, A plurality of patterns are arranged in a plurality of ways, the degree of coincidence with the edge image is calculated for each arrangement, and the arrangement having the maximum degree of coincidence is specified. Then, the object region estimation means 52 estimates each position of the shape model in the specified arrangement as a person position. Note that the degree of coincidence can be the coincidence ratio of the position of the contour pixel of the shape model and the edge pixel whose edge strength is equal to or greater than a predetermined threshold.

その際、物体領域推定手段52は監視画像に対応する混雑度の2次元情報(混雑度画像)を参照し、混雑度ごとに、当該混雑度が推定された領域において、変化領域内に当該混雑度が示す範囲内の個数の形状モデルを配置することで、形状モデルどうしの過度な重複を防止して人物位置の推定精度を向上させることができる。また、物体領域推定手段52は混雑度画像を参照し、低混雑度が推定された領域には人の全身の形状を模した形状モデルを配置し、中混雑度が推定された領域には人の上半身の形状を模した形状モデルを配置し、高混雑度が推定された領域には人の頭部から肩までの範囲の形状を模した形状モデルを配置することで、オクルージョンによる一致度低下を防止して人物位置の推定精度を向上させることもできる。   At that time, the object region estimation means 52 refers to the two-dimensional information (congestion degree image) of the congestion degree corresponding to the monitoring image, and for each congestion degree, in the area where the congestion degree is estimated, the congestion is included in the change area. By arranging the number of shape models within the range indicated by the degree, it is possible to prevent excessive duplication of the shape models and improve the estimation accuracy of the person position. Further, the object region estimation means 52 refers to the congestion degree image, and places a shape model imitating the shape of a person's whole body in the region where the low congestion degree is estimated, and the region where the medium congestion degree is estimated. Decrease the degree of coincidence due to occlusion by placing a shape model simulating the shape of the upper body of the body and locating a shape model simulating the shape of the range from the human head to the shoulder in an area where high congestion was estimated It is also possible to improve the estimation accuracy of the person position.

分布画像生成手段53は、監視重要度算出手段51から画像区画ごとの監視重要度を入力され、監視画像における監視重要度の分布を表現した分布画像を生成し、要注視情報出力手段31に出力する。   The distribution image generation unit 53 receives the monitoring importance for each image section from the monitoring importance calculation unit 51, generates a distribution image representing the distribution of the monitoring importance in the monitoring image, and outputs the distribution image to the gaze information output unit 31. To do.

例えば、分布画像生成手段53は物体領域推定手段52から入力された物体領域と、描画設定記憶手段44に記憶されている色設定およびアイコンとを参照し、混雑度に応じた色で各物体領域を描画するとともに、各物体領域に監視重要度に応じたアイコンを描画する。   For example, the distribution image generation unit 53 refers to the object region input from the object region estimation unit 52 and the color settings and icons stored in the drawing setting storage unit 44, and each object region is displayed in a color corresponding to the degree of congestion. And an icon corresponding to the monitoring importance level is drawn in each object area.

その際、分布画像生成手段53は、物体領域ごとに監視重要度を統合することで物体領域ごとの監視重要度を求める。例えば、各物体領域内に含まれる画像区画ごとの監視重要度の値の最大値を当該物体領域の監視重要度とする。また、各物体領域内に含まれる画像区画ごとの監視重要度のレベルの平均値または最頻値を当該物体領域の監視重要度とすることもできる。   At this time, the distribution image generating unit 53 obtains the monitoring importance for each object region by integrating the monitoring importance for each object region. For example, the maximum value of the monitoring importance value for each image section included in each object region is set as the monitoring importance of the object region. Further, the average value or the mode value of the monitoring importance level for each image section included in each object area can be set as the monitoring importance degree of the object area.

図5は分布画像の例を示す模式図である。分布画像200において、表現の都合上、緑色の塗り潰しを横線で、黄色の塗り潰しを斜線で、赤色の塗り潰しを網掛けで、それぞれ表している。   FIG. 5 is a schematic diagram showing an example of a distribution image. In the distribution image 200, for the convenience of expression, the green fill is represented by a horizontal line, the yellow fill is represented by a diagonal line, and the red fill is represented by shading.

分布画像200においては、混雑度「低」の領域内の人の像それぞれの推定位置に、形状モデル201が緑色で塗り潰されて表示される。混雑度「低」の領域では監視重要度は低くなりやすいため、図5の例では、当該領域の監視重要度は「低」であるとしており、形状モデル201の顔に相当する位置およびその近傍に、当該監視重要度を表すアイコンとして表情211とイラスト221とが描かれている。   In the distribution image 200, the shape model 201 is displayed in a green color at the estimated position of each of the human images in the area of “low” congestion. In the example of FIG. 5, the monitoring importance of the area is “low” because the monitoring importance is likely to be low in the area of the congestion level “low”, and the position corresponding to the face of the shape model 201 and its vicinity In addition, an expression 211 and an illustration 221 are drawn as icons representing the monitoring importance.

また、分布画像200における混雑度「中」の領域内の人の像それぞれの推定位置に、形状モデル202が黄色で塗り潰されて表示される。また当該領域について算出された監視重要度を表すアイコンが形状モデル202の顔に相当する位置およびその近傍に表示される。図5の例では、当該領域内では監視重要度は「中」であるとしており、これに対応する表情212とイラスト222とが描かれている。   In addition, the shape model 202 is displayed in yellow at the estimated position of each of the human images in the area of the congestion degree “medium” in the distribution image 200. In addition, an icon representing the monitoring importance calculated for the area is displayed at a position corresponding to the face of the shape model 202 and in the vicinity thereof. In the example of FIG. 5, it is assumed that the monitoring importance is “medium” in the area, and the facial expression 212 and the illustration 222 corresponding to this are drawn.

分布画像200における混雑度「高」の領域には、人の像それぞれの推定位置に形状モデル203が赤色で塗り潰されて表示される。また当該領域について算出された監視重要度を表すアイコンが形状モデル203の顔に相当する位置およびその近傍に表示される。図5の例では、当該領域内では監視重要度は「高」であるとしており、これに対応する表情213とイラスト223とが描かれている。   In the region of the congestion level “high” in the distribution image 200, the shape model 203 is displayed in red at the estimated position of each human image. In addition, an icon representing the monitoring importance calculated for the area is displayed at a position corresponding to the face of the shape model 203 and in the vicinity thereof. In the example of FIG. 5, it is assumed that the monitoring importance is “high” in the area, and a facial expression 213 and an illustration 223 corresponding to this are drawn.

分布画像200においては、人の像の各推定位置に対応して人の形状を模し、混雑度に応じた色で塗り潰された形状モデルが描画されることによって、人の像と混雑度の対応関係が直感的に把握し易くなっている。なお、図5の例では、形状モデルは図3に示した3つの回転楕円体からなる立体モデルよりも複雑な立体モデルに基づくものを示している。   In the distribution image 200, the shape of a person is simulated corresponding to each estimated position of the person's image, and a shape model filled with a color corresponding to the degree of congestion is drawn. The correspondence is easy to grasp intuitively. In the example of FIG. 5, the shape model is based on a three-dimensional model that is more complicated than the three-dimensional model composed of the three spheroids shown in FIG.

また、分布画像200においては、監視重要度が例えば、アイコンを用いて表示されるため、監視員等による監視効率の向上が図られる。   Further, in the distribution image 200, since the monitoring importance is displayed using, for example, an icon, the monitoring efficiency by a monitor or the like can be improved.

なお、好適には、分布画像として、図5について上述したような、形状モデルで表される物体領域とアイコンとを描画した画像を監視画像に透過合成したものを生成することができ、これにより、監視画像に基づく監視領域の具体的な状況と併せて混雑度、監視重要度の把握が可能となり、一層の監視効率の向上が図られる。   Preferably, the distribution image can be generated by transparently synthesizing the image in which the object region represented by the shape model and the icon are drawn as described above with reference to FIG. In addition to the specific situation of the monitoring area based on the monitoring image, the degree of congestion and the importance of monitoring can be grasped, and the monitoring efficiency can be further improved.

要注視情報出力手段31は、監視画像ごとに、当該監視画像から生成した監視重要度の分布画像、および当該監視領域の監視重要度を当該監視画像のエリアIDと対応付けた情報を表示制御部7宛に送信する。   The gaze information output means 31 displays, for each monitoring image, a distribution image of the monitoring importance generated from the monitoring image and information in which the monitoring importance of the monitoring area is associated with the area ID of the monitoring image. Send to 7 address.

次に、画像監視システム1の動作について説明する。図6は監視重要度を算出する処理の概略のフロー図である。   Next, the operation of the image monitoring system 1 will be described. FIG. 6 is a schematic flowchart of processing for calculating the monitoring importance.

画像監視システム1において通信部3が画像取得手段30として機能し、複数の撮影部2(2-1,2-2,…)から監視画像を取得する(ステップS100)。画像取得手段30は撮影部2-1,2-2,…のいずれかから監視画像を取得するたびに、当該監視画像を画像処理部5に入力し、画像処理部5は監視画像を取得するたびにステップS101〜S109の処理を行って当該監視画像から監視重要度を求める。ちなみに、監視画像はエリアIDとともに取得され、エリアIDから監視画像に撮影されている監視領域が特定される。   In the image monitoring system 1, the communication unit 3 functions as the image acquisition unit 30 and acquires monitoring images from the plurality of imaging units 2 (2-1, 2-2,...) (Step S100). The image acquisition unit 30 inputs the monitoring image to the image processing unit 5 every time the monitoring image is acquired from any of the imaging units 2-1, 2-2,..., And the image processing unit 5 acquires the monitoring image. Every time the processing of steps S101 to S109 is performed, the monitoring importance is obtained from the monitoring image. Incidentally, the monitoring image is acquired together with the area ID, and the monitoring area captured in the monitoring image is specified from the area ID.

監視画像を取得すると、まず、画像処理部5は混雑度推定手段50として、また記憶部4は密度推定器記憶手段40および混雑度記憶手段41としてそれぞれ機能し、画像区画ごとの混雑度の推定と当該混雑度の格納とを行う(ステップS101)。具体的には、混雑度推定手段50は密度推定器記憶手段40から密度推定器を読み出し、ステップS100で取得した現時刻の監視画像の各画素の位置に密度推定器を適用して画素ごとの混雑度を推定し、画素ごとの混雑度を混雑度記憶手段41に追加記憶させる。   When the monitoring image is acquired, first, the image processing unit 5 functions as the congestion level estimation unit 50, and the storage unit 4 functions as the density estimator storage unit 40 and the congestion level storage unit 41, respectively, and estimates the congestion level for each image section. And the degree of congestion is stored (step S101). Specifically, the congestion degree estimation unit 50 reads the density estimator from the density estimator storage unit 40, and applies the density estimator to the position of each pixel of the monitoring image at the current time acquired in step S100, for each pixel. The congestion degree is estimated, and the congestion degree for each pixel is additionally stored in the congestion degree storage unit 41.

次に、画像処理部5は監視重要度算出手段51として、また記憶部4は動き量記憶手段42としてそれぞれ機能し、画像区画ごとの動き量の検出と当該動き量の格納を行う(ステップS102)。具体的には、監視重要度算出手段51は、動き量記憶手段42から現時刻の監視画像とエリアIDが同一である1時刻前の監視画像を読み出し、現時刻の監視画像と1時刻前の監視画像との間で画素ごとのオプティカルフローを動き量として検出し、画素ごとの動き量および現時刻の監視画像をエリアIDと対応付けて動き量記憶手段42に追加記憶させる。なお、監視画像にて混雑度が「低」以上の領域が推定されていない場合(つまり背景クラスの密度のみの場合)は、全画素の動き量を0としてもよい。   Next, the image processing unit 5 functions as the monitoring importance calculation unit 51, and the storage unit 4 functions as the motion amount storage unit 42, and detects the motion amount for each image section and stores the motion amount (step S102). ). Specifically, the monitoring importance degree calculation unit 51 reads the monitoring image of the previous time from the movement amount storage unit 42 and the monitoring image of the previous time that has the same area ID as the monitoring image of the current time. The optical flow for each pixel is detected as a motion amount between the monitoring image and the motion amount for each pixel and the monitoring image at the current time are additionally stored in the motion amount storage unit 42 in association with the area ID. Note that if the area of the monitoring image where the degree of congestion is “low” or higher is not estimated (that is, only the density of the background class), the motion amount of all pixels may be set to zero.

続いて、監視重要度算出手段51は画像区画ごとの監視重要度を算出する(ステップS103)。具体的には、監視重要度算出手段51は、現時刻から過去の期間τにわたって推定された混雑度を混雑度記憶手段41から読み出すとともに、当該期間τにわたって検出した動き量を動き量記憶手段42から読み出し、画素ごとにこれら混雑度dおよび動き量vを用いて式(1)〜(3)により各画素の位置における監視重要度Sを算出する。 Subsequently, the monitoring importance calculation unit 51 calculates the monitoring importance for each image section (step S103). Specifically, the monitoring importance degree calculation means 51 reads out the congestion degree estimated over the past period τ from the current time from the congestion degree storage means 41, and the motion amount detected over the period τ is the movement amount storage means 42. read from, and calculates the importance S T monitor at the position of each pixel by expression (1) to (3) using these congestion d t and the amount of movement v t for each pixel.

続いて、画像処理部5は現時刻の監視画像において混雑度が「低」以上の領域が推定されていれば(ステップS104にて「YES」の場合)、物体領域推定手段52として機能し、物体領域の推定を行う(ステップS105)。その際、記憶部4は物体モデル記憶手段43として機能する。具体的には、物体領域推定手段52は、現時刻の監視画像からエッジ画像を生成するとともに、物体モデル記憶手段43から立体モデルとカメラパラメータとを読み出して、複数の位置に複数通りの位置の組み合わせでエッジ画像上に投影し、各組み合わせの投影像とエッジ画像との一致度を算出して最も一致度の高い組み合わせを特定する。そして、この特定した組み合わせにおいて立体モデルを投影した領域それぞれを物体領域と推定する。物体領域推定手段52は、推定した物体領域を監視重要度算出手段51に出力する。   Subsequently, the image processing unit 5 functions as the object region estimation unit 52 if a region having a congestion level of “low” or higher is estimated in the monitoring image at the current time (“YES” in step S104), The object area is estimated (step S105). At that time, the storage unit 4 functions as the object model storage unit 43. Specifically, the object region estimation unit 52 generates an edge image from the monitoring image at the current time, reads out the stereo model and camera parameters from the object model storage unit 43, and sets a plurality of positions at a plurality of positions. The combination is projected onto the edge image, the degree of coincidence between the projection image of each combination and the edge image is calculated, and the combination having the highest degree of coincidence is specified. And each area | region which projected the stereo model in this specified combination is estimated as an object area | region. The object region estimation unit 52 outputs the estimated object region to the monitoring importance degree calculation unit 51.

監視重要度算出手段51は、ステップS103にて求めた画像区画ごとの監視重要度を、物体領域推定手段52から入力された物体領域ごとに統合して、物体領域ごとの監視重要度を算出する(ステップS106)。   The monitoring importance calculation unit 51 integrates the monitoring importance for each image section obtained in step S103 for each object region input from the object region estimation unit 52, and calculates the monitoring importance for each object region. (Step S106).

なお、混雑度が「低」以上の領域が推定されておらず現時刻の監視画像の全体が背景と推定された場合(ステップS104にて「NO」の場合)は、ステップS105,S106はスキップされる。   If an area having a congestion level of “low” or higher is not estimated and the entire monitoring image at the current time is estimated as the background (in the case of “NO” in step S104), steps S105 and S106 are skipped. Is done.

ステップS106までの処理の後、画像処理部5は分布画像生成手段53として、また記憶部4は描画設定記憶手段44としてそれぞれ機能し、分布画像の生成を行う(ステップS107)。具体的には、分布画像生成手段53は、物体領域ごとの監視重要度が算出された場合は、各物体領域内の混雑度の最頻値を当該物体領域における混雑度として求め、物体領域ごとに当該物体領域の混雑度に応じた色コードを描画設定記憶手段44から読み出して各物体領域を色コードが示す色で描画する。また、各物体領域ごとに、当該物体領域の監視重要度を閾値処理してレベルを判定し、描画設定記憶手段44からレベルに応じたアイコンを読み出して当該物体領域内に描画する。   After the processing up to step S106, the image processing unit 5 functions as the distribution image generation unit 53 and the storage unit 4 functions as the drawing setting storage unit 44, and generates a distribution image (step S107). Specifically, when the monitoring importance degree for each object area is calculated, the distribution image generation unit 53 obtains the mode value of the congestion degree in each object area as the congestion degree in the object area, and for each object area. Further, a color code corresponding to the degree of congestion of the object area is read from the drawing setting storage means 44, and each object area is drawn with the color indicated by the color code. Further, for each object region, the level of the monitoring importance of the object region is determined by threshold processing, the level is determined, and an icon corresponding to the level is read from the drawing setting storage unit 44 and drawn in the object region.

分布画像生成手段53は、物体領域ごとの監視重要度が算出されなかった場合は、「低」以上の混雑度が推定された画素について、各画素の混雑度に応じた色コードを描画設定記憶手段44から読み出して各画素を色コードが示す色で描画する。また、「低」以上の監視重要度が算出された画素について、監視重要度が同一である隣接画素をまとめて統合領域とし、統合領域ごとに監視重要度を閾値処理してレベルを判定し、描画設定記憶手段44からレベルに応じたアイコンを読み出して当該統合領域内に描画する。   If the monitoring importance level for each object area is not calculated, the distribution image generation unit 53 draws and stores a color code corresponding to the congestion level of each pixel for pixels for which the congestion level of “low” or higher is estimated. Read from the means 44 and draw each pixel in the color indicated by the color code. In addition, for pixels for which the monitoring importance level of “low” or higher is calculated, adjacent pixels having the same monitoring importance level are combined into an integrated region, and the level of monitoring importance is determined for each integrated region to determine the level, An icon corresponding to the level is read from the drawing setting storage means 44 and drawn in the integrated area.

分布画像生成手段53は、上述の描画結果を現時刻の監視画像に透過合成して分布画像を生成し、生成した分布画像をエリアIDとともに通信部3に出力する。   The distribution image generation unit 53 generates a distribution image by transparently synthesizing the above drawing result with the monitoring image at the current time, and outputs the generated distribution image to the communication unit 3 together with the area ID.

一方、監視重要度算出手段51は、監視領域ごとの監視重要度を算出する(ステップS108)。具体的には、監視重要度算出手段51は、ステップS103にて現時刻の監視画像の画素ごとに算出した監視重要度のうちの最大値を、当該監視画像のエリアIDが示す監視領域の監視重要度として算出する。監視重要度算出手段51は、算出した監視重要度をエリアIDとともに通信部3に出力する。   On the other hand, the monitoring importance calculation means 51 calculates the monitoring importance for each monitoring area (step S108). Specifically, the monitoring importance level calculation unit 51 monitors the monitoring area indicated by the area ID of the monitoring image with the maximum value of the monitoring importance levels calculated for each pixel of the monitoring image at the current time in step S103. Calculated as importance. The monitoring importance level calculation means 51 outputs the calculated monitoring importance level to the communication unit 3 together with the area ID.

分布画像生成手段53から分布画像とエリアIDを入力され、監視重要度算出手段51から監視領域の監視重要度とエリアIDを入力された通信部3は、要注視情報出力手段31として機能し、入力された分布画像、監視重要度およびエリアIDを表示制御部7に出力する(ステップS109)。   The communication unit 3 to which the distribution image and the area ID are input from the distribution image generation unit 53 and the monitoring importance and area ID of the monitoring area are input from the monitoring importance calculation unit 51 functions as the gaze information output unit 31. The input distribution image, monitoring importance, and area ID are output to the display control unit 7 (step S109).

画像監視システム1はステップS100にて取得した監視画像について、監視重要度を求め、ステップS109にて表示制御部7に出力すると、ステップS100に戻り、次に取得される監視画像についてステップS100〜S109の処理を繰り返す。   When the image monitoring system 1 obtains the monitoring importance for the monitoring image acquired in step S100 and outputs it to the display control unit 7 in step S109, the image monitoring system 1 returns to step S100, and steps S100 to S109 for the next acquired monitoring image. Repeat the process.

図7は監視重要度を表示する処理の概略のフロー図である。   FIG. 7 is a schematic flowchart of processing for displaying the monitoring importance.

表示制御部7が有する記憶部には表示モードと、表示エリアと、過去に入力された監視重要度の情報とが格納されている。   A storage unit included in the display control unit 7 stores a display mode, a display area, and monitoring importance information input in the past.

表示モードは、1つの監視領域について表示するシングル表示モードと、複数の監視領域について表示するマルチ表示モードとのいずれかである。表示モードはこれらに予め設定されたモード識別子で特定され、記憶部には表示モードとしてモード識別子が記憶されている。   The display mode is either a single display mode for displaying one monitoring area or a multiple display mode for displaying a plurality of monitoring areas. The display mode is specified by a mode identifier set in advance, and the mode identifier is stored as a display mode in the storage unit.

表示エリアは、シングル表示モードであればエリアIDで特定され、マルチ表示モードであれば予め複数のエリアIDの組み合わせに対して設定されたグループIDで特定される。記憶部には、表示エリアの設定として、シングル表示モード用のエリアIDとマルチ表示モード用のグループIDとが記憶されている。なお、操作部6からの入力は表示モードと表示エリアのいずれかであるとする。   The display area is specified by an area ID in the single display mode, and is specified by a group ID set in advance for a combination of a plurality of area IDs in the multi display mode. The storage unit stores an area ID for a single display mode and a group ID for a multi display mode as display area settings. It is assumed that the input from the operation unit 6 is either the display mode or the display area.

通常時、操作部6による監視員からの操作入力の有無の確認(ステップS200)と、表示制御部7による通信部3からの監視重要度の情報の入力の有無の確認(ステップS201)とが繰り返されており、表示制御部7は操作入力が無く、かつ監視重要度の情報の入力が無い場合(ステップS200およびS201にて「NO」の場合)は、表示処理を行わない待機状態である。   In normal times, confirmation of the presence or absence of an operation input from the monitor by the operation unit 6 (step S200) and confirmation of the presence or absence of input of monitoring importance level information from the communication unit 3 by the display control unit 7 (step S201). The display control unit 7 is in a standby state in which display processing is not performed when there is no operation input and no monitoring importance level information is input (in the case of “NO” in steps S200 and S201). .

監視員による操作入力が行われると(ステップS200にて「YES」の場合)、表示制御部7は入力内容が表示モードであるか表示エリアであるかを確認する(ステップS202)。   When an operation input is performed by the monitor (in the case of “YES” in step S200), the display control unit 7 confirms whether the input content is the display mode or the display area (step S202).

表示モードの入力であれば(ステップS202にて「YES」の場合)、表示制御部7は記憶部に記憶されているモード識別子を、入力された値に更新し(ステップS203)、処理をステップS206に進める。   If it is an input of the display mode (in the case of “YES” in step S202), the display control unit 7 updates the mode identifier stored in the storage unit to the input value (step S203), and the process is performed. The process proceeds to S206.

一方、表示エリアの入力であれば(ステップS202にて「NO」の場合)、表示制御部7は記憶部に記憶されているエリアIDまたはグループIDを、入力された値に更新し(ステップS204)、処理をステップS206に進める。   On the other hand, if the input is a display area (NO in step S202), display control unit 7 updates the area ID or group ID stored in the storage unit to the input value (step S204). ), The process proceeds to step S206.

また、通信部3からの監視重要度の情報の入力があった場合は(ステップS201にて「YES」の場合)、表示制御部7は入力された監視重要度の情報を記憶部に格納し(ステップS205)、処理をステップS206に進める。   When the monitoring importance level information is input from the communication unit 3 (in the case of “YES” in step S201), the display control unit 7 stores the input monitoring importance level information in the storage unit. (Step S205), the process proceeds to Step S206.

こうして待機状態が解除されると、表示制御部7は記憶部の設定を確認し(ステップS206)、表示モードがマルチ表示モードである場合は(ステップS206にて「YES」の場合)、表示エリアの設定が示すグループIDに対応付けられている複数の監視領域の分布画像をそれらの監視重要度とともに表示部8に表示させる(ステップS207)。   When the standby state is released in this way, the display control unit 7 confirms the setting of the storage unit (step S206). If the display mode is the multi display mode ("YES" in step S206), the display area A distribution image of a plurality of monitoring areas associated with the group ID indicated by the setting is displayed on the display unit 8 together with their monitoring importance (step S207).

図8はマルチ表示モードでの表示部8の表示例を示す模式図である。図8において、グループIDを構成するエリアIDは1〜4であり、表示部8の画面にはそれら4つのエリアIDそれぞれについて分布画像とともに、監視境域の監視重要度を示すアイコンが表示される。「エリア1」、「エリア3」については監視領域の監視重要度が「低」である表情のアイコンが表示され、「エリア2」については監視重要度が「中」であるアイコンが表示され、「エリア4」については監視重要度が「高」であるアイコンが表示されている。この表示から、監視員は「エリア4」、「エリア2」の順に対処を行うべきであることを迅速に把握できる。   FIG. 8 is a schematic diagram illustrating a display example of the display unit 8 in the multi-display mode. In FIG. 8, the area IDs constituting the group ID are 1 to 4, and on the screen of the display unit 8, icons indicating the monitoring importance of the monitoring boundary are displayed along with the distribution images for each of the four area IDs. For “Area 1” and “Area 3”, an icon of a facial expression whose monitoring importance is “low” is displayed, and for “Area 2”, an icon whose monitoring importance is “medium” is displayed. For “Area 4”, an icon whose monitoring importance is “High” is displayed. From this display, the monitor can quickly grasp that the measures should be taken in the order of “Area 4” and “Area 2”.

他方、表示モードがシングル表示モードである場合は(ステップS206にて「NO」の場合)、表示エリアの設定が示すエリアIDに対応付けられている監視領域の分布画像を表示部8に表示させる(ステップS208)。監視員は表示している監視領域について分布画像から詳細な状況を確認でき、当該監視領域内のいずれの場所に警備員を急行させるか等を判断して対処できる。   On the other hand, when the display mode is the single display mode (in the case of “NO” in step S206), the distribution image of the monitoring area associated with the area ID indicated by the display area setting is displayed on the display unit 8. (Step S208). The monitoring person can confirm the detailed status of the displayed monitoring area from the distribution image, and can determine the location in the monitoring area where the security guard is to be dispatched, and the like.

こうして表示を更新すると、処理は再びステップS200に戻され、待機状態となる。   When the display is updated in this way, the process returns to step S200 again, and enters a standby state.

[変形例]
(1)上述の実施形態およびその変形例においては、監視重要度算出手段51が、監視画像の画像区画ごとに監視重要度を算出し、さらに監視領域ごとに監視重要度を算出する例を示したが、いずれか一方の監視重要度を算出してもよい。
[Modification]
(1) In the above-described embodiment and its modification, an example is shown in which the monitoring importance calculation unit 51 calculates the monitoring importance for each image section of the monitoring image and further calculates the monitoring importance for each monitoring region. However, either one of the monitoring importance levels may be calculated.

ここで、上述したように、混雑度推定手段50は、対象空間に複数設定した注目領域ごとに、物体の混雑の度合いを表す混雑度を監視画像に基づいて推定するが、監視領域ごとの監視重要度のみを算出する場合、当該監視領域が注目領域となる。   Here, as described above, the congestion degree estimation means 50 estimates the congestion degree indicating the degree of congestion of the object for each attention area set in the target space based on the monitoring image. When only the importance level is calculated, the monitoring area is the attention area.

監視領域ごとの監視重要度のみを算出する場合、混雑度推定手段50は、密度推定器を用いて混雑度を推定する代わりに、監視画像の縁部(監視画像が矩形なら四辺)に注目して監視領域に入った人数と監視領域から出た人数を計測し、入った人数から出た人数を減じた数から混雑度を推定することもできる。   When calculating only the monitoring importance level for each monitoring area, the congestion level estimation unit 50 pays attention to the edges of the monitoring image (four sides if the monitoring image is rectangular) instead of estimating the congestion level using the density estimator. The number of people entering the monitoring area and the number of people coming out of the monitoring area can be measured, and the degree of congestion can be estimated from the number obtained by subtracting the number of people who entered the monitoring area.

(2)監視重要度算出手段51は式(2),(3)に代えて次式(4),(5)を用い、逐次的にDおよびVを算出してもよい。なお、式(4),(5)では、監視画像の撮影周期で時刻および期間を定義しており、時刻t=Tは現画像が撮影された時刻であり、時刻t=T−1は直前画像が撮影された時刻を表す。また、期間τは監視画像の撮影回数で表される。 (2) The monitoring importance calculation means 51 may sequentially calculate D T and V T using the following expressions (4) and (5) instead of the expressions (2) and (3). In Expressions (4) and (5), the time and period are defined by the imaging cycle of the monitoring image, time t = T is the time when the current image was captured, and time t = T−1 is the immediately preceding time. Indicates the time when the image was taken. The period τ is represented by the number of times the monitoring image is captured.

=(τ−1)/τ・DT−1+1/τ・d …(4)
=(τ−1)/τ・VT−1+1/τ・v …(5)
D T = (τ−1) / τ · D T−1 + 1 / τ · d T (4)
V T = (τ−1) / τ · V T−1 + 1 / τ · v T (5)

この場合、混雑度記憶手段41はDT−1だけを記憶できればよく、また、動き量記憶手段42はVT−1、およびvの算出に必要な過去の監視画像だけを記憶できればよく、よって記憶部4の容量を減じることができる。 In this case, the congestion degree storage unit 41 only needs to store D T-1 , and the motion amount storage unit 42 only needs to store V T-1 and past monitoring images necessary for calculating v T. Therefore, the capacity of the storage unit 4 can be reduced.

(3)監視重要度算出手段51は、時間τを固定値とせずに、時刻Tから過去に向かって高密度クラスまたは中密度クラスが連続して推定された時間τを検出し、検出した時間τを式(2),(3)に適用してDおよびVを算出し、または検出した時間τを式(4),(5)に適用してDおよびVを算出することもできる。 (3) The monitoring importance calculation means 51 detects the time τ in which the high-density class or the medium-density class is continuously estimated from the time T toward the past without setting the time τ as a fixed value, and the detected time the τ equation (2), (3) applying to calculate the D T and V T are, or detected time τ wherein the (4), calculating the D T and V T is applied to (5) You can also.

(4)監視重要度算出手段51は、処理を単純化した態様として、時刻Tから過去に向かって高密度クラスまたは中密度クラスが連続して推定された時間τを求め、式(1)にてDに代えて当該時間の長さτを用いて監視重要度Sを算出してもよい。この態様は、混雑度の代表値dを、混雑度が中密度未満か中密度以上かによって2値化した値で定義することに相当し、当該態様でも混雑度が高いほど高い監視重要度Sが算出される。同様に、時刻Tから過去に向かって高密度クラスが連続して推定された時間τの長さそのものを式(1)にてDに代えて用いてもよい。 (4) As a mode in which the process is simplified, the monitoring importance calculation unit 51 obtains a time τ in which the high-density class or the medium-density class is continuously estimated from the time T toward the past. it may calculate the monitoring importance S T with τ length of the time instead of D T Te. This aspect corresponds to defining the representative value dt of the congestion level as a binarized value depending on whether the congestion level is less than the medium density or higher than the medium density. In this aspect, the higher the congestion level, the higher the monitoring importance level. ST is calculated. Similarly, the length of time τ in which high-density classes are continuously estimated from time T toward the past may be used in place of DT in equation (1).

(5)上述の実施形態およびその変形例においては、監視重要度算出手段51が、混雑度、混雑の継続時間および物体の動き量を基に監視重要度を算出する例を示したが、監視重要度算出手段51は、動き量を省略して混雑度と混雑の継続時間とから監視重要度を算出してもよいし、継続時間を省略して混雑度と物体の動き量とから監視重要度を算出してもよい。   (5) In the above-described embodiment and its modification, the monitoring importance calculation means 51 has shown an example in which the monitoring importance is calculated based on the congestion degree, the congestion duration, and the amount of movement of the object. The importance level calculation means 51 may calculate the monitoring importance level from the congestion level and the duration of the congestion by omitting the amount of movement, or monitor important from the congestion level and the amount of movement of the object by omitting the duration. The degree may be calculated.

(6)上述の実施形態およびその変形例においては、監視重要度算出手段51がオプティカルフロー分析によって動きベクトルを検出する例を示したが、混雑度が所定以上である領域(例えば高密度クラスが推定された領域)については、所定時間長に亘り順次撮影された監視画像からなる時系列画像に対する時空間セグメンテーションを行い、各セグメントにおける動きベクトルを検出することもできる。   (6) In the above-described embodiment and its modification, the example in which the monitoring importance calculation unit 51 detects a motion vector by optical flow analysis has been described. However, an area where the degree of congestion is greater than or equal to a predetermined level (for example, a high-density class) With respect to the estimated region), it is also possible to detect a motion vector in each segment by performing spatiotemporal segmentation on a time-series image composed of monitoring images sequentially taken over a predetermined time length.

ここで時空間セグメンテーションは、時系列画像が形成する時空間にて隣接・近傍関係にあり且つ互いに画素値(色または濃度)が類似する画素のまとまりである時空間セグメントを生成する処理である。ちなみに、時系列画像は、それを構成する各時刻の2次元画像(空間画像)の座標軸(x軸、y軸とする)と、時間軸(t軸とする)とで座標(x,y,t)を定義される時空間における3次元画像と考えることができ、画素の隣接・近傍関係は、x軸、y軸方向に関する空間的な画素の位置関係と、t軸方向に関する時間的な画素の位置関係との両面から把握される。   Here, the spatiotemporal segmentation is a process of generating a spatiotemporal segment that is a group of pixels that are adjacent to each other and have similar pixel values (color or density) in the spatiotemporal space formed by the time series image. Incidentally, a time-series image has coordinates (x, y, and y) on the coordinate axes (x-axis and y-axis) and the time-axis (t-axis) of a two-dimensional image (spatial image) at each time constituting the time-series image. t) can be considered as a three-dimensional image in the defined space-time, and the adjacent / neighbor relationship of the pixels is the spatial pixel positional relationship in the x-axis and y-axis directions and the temporal pixel in the t-axis direction. It is grasped from both sides of the positional relationship.

時空間セグメンテーションは、時刻が連続する空間画像間での移動物体の像の重なりを要するため、移動物体の動きが少ない領域に適用するのが好適であり、この点から、ここでは高混雑度の領域に適用することとしている。   Spatio-temporal segmentation requires the overlapping of moving object images between spatial images with continuous time, so it is preferable to apply it to areas where there is little movement of moving objects. It is supposed to be applied to the area.

時空間セグメンテーションを行う時系列画像の時間軸方向の範囲(分析区間)は処理負荷の観点から基本的に有限とし、その時間長(分析区間長)は予め設定される。例えば、時空間セグメンテーションを利用して高混雑領域における動きベクトルを算出する場合、分析区間長は5時刻とすることができ、この場合、監視重要度算出手段51は、記憶部4から過去4時刻(t=T−4〜T−1)の監視画像を読み出し、それらと現時刻(t=T)の監視画像を時刻順に並べた時空間画像の高混雑領域において、画素位置および撮影時刻が隣接する画素間にて画素値の相違度を算出し、相違度が小さければ同一セグメントとして結合させる、という処理を繰り返すことで、複数の時空間セグメントに分割する。   The range (analysis section) in the time axis direction of the time-series image for performing spatiotemporal segmentation is basically finite from the viewpoint of processing load, and the time length (analysis section length) is set in advance. For example, when calculating a motion vector in a highly congested area using spatio-temporal segmentation, the analysis interval length can be set to 5 hours. In this case, the monitoring importance level calculation unit 51 stores the past 4 times from the storage unit 4. In the highly congested region of the spatiotemporal image in which the monitoring images at (t = T−4 to T−1) are read and the monitoring images at the current time (t = T) are arranged in time order, the pixel position and the shooting time are adjacent. The pixel value difference degree is calculated between the pixels to be processed, and if the difference degree is small, the process of combining the same segment is repeated to divide the pixel value into a plurality of spatiotemporal segments.

そして、各時空間セグメントに含まれる画素のうち時刻が同じ画素のまとまりを切片と呼ぶことにすると、監視重要度算出手段51は例えば、各時空間セグメントにおける5時刻分の切片それぞれの重心を求め、時空間セグメントごとに重心位置の時間変化を直線近似して動きベクトルを算出する。   Then, assuming that a group of pixels having the same time among the pixels included in each spatiotemporal segment is called an intercept, the monitoring importance calculation means 51 obtains, for example, the centroid of each intercept for five times in each spatiotemporal segment. Then, a motion vector is calculated by linearly approximating the temporal change of the gravity center position for each spatiotemporal segment.

このように時間方向の隣接画素もまとめる時空間セグメンテーションを用いることで、照明変動による画素値の時間的揺らぎを原因とする動きベクトルの算出誤差を低減できる。   By using spatio-temporal segmentation in which adjacent pixels in the temporal direction are combined in this way, motion vector calculation errors caused by temporal fluctuations in pixel values due to illumination fluctuations can be reduced.

(7)上述の実施形態およびその変形例においては、分布画像生成手段53が物体領域ごとに監視重要度を統合して分布画像を生成する例を示したが、画像区画ごとの監視重要度そのものを示す分布画像を生成してもよい。その場合、例えば、監視重要度が同一で互いに隣接する画像区画を連結して、連結領域の重心にマークを重畳する、或いは連結領域内に等間隔にマークを重畳することができる。   (7) In the above-described embodiment and its modified example, the distribution image generating unit 53 generates the distribution image by integrating the monitoring importance for each object region. However, the monitoring importance for each image section itself is shown. May be generated. In this case, for example, the image sections having the same monitoring importance can be connected to each other and the marks can be superimposed on the center of gravity of the connection area, or the marks can be overlapped at equal intervals in the connection area.

(8)上述の実施形態およびその変形例においては、画像区画を各画素とし画素ごとに混雑度を推定する例を示したが、複数の画素からなる画像区画としてもよい。例えば、監視画像を複数のブロックに分割して各ブロックを画像区画とする。この場合、ブロックは推定用抽出窓よりも小さく予め定めるのが好適であり、混雑度推定手段50は、各ブロックの重心位置に推定用抽出窓を設定して画像区画ごとの混雑度を推定する。例えば、画像区画として3×3画素のブロックを設定し、3画素おきに推定用抽出窓を設定して推定用特徴量を抽出する。   (8) In the above-described embodiment and its modification, an example in which the image section is each pixel and the degree of congestion is estimated for each pixel has been described. However, an image section including a plurality of pixels may be used. For example, the monitoring image is divided into a plurality of blocks, and each block is used as an image section. In this case, it is preferable to predetermine that the block is smaller than the estimation extraction window, and the congestion degree estimation means 50 sets the estimation extraction window at the barycentric position of each block to estimate the congestion degree for each image section. . For example, a block of 3 × 3 pixels is set as an image section, an estimation extraction window is set every three pixels, and an estimation feature amount is extracted.

(9)上記各実施形態およびその変形例においては、検出対象の物体を人とする例を示したが、これに限らず、検出対象の物体を車両、牛や羊等の動物等とすることもできる。   (9) In each of the above-described embodiments and modifications thereof, an example in which the object to be detected is a person has been shown. However, the present invention is not limited thereto, and the object to be detected is a vehicle, an animal such as a cow or a sheep, or the like. You can also.

(10)上記各実施形態およびその各変形例においては、多クラスSVM法にて学習した密度推定器を例示したが、多クラスSVM法に代えて、決定木型のランダムフォレスト法、多クラスのアダブースト(AdaBoost)法または多クラスロジスティック回帰法などにて学習した密度推定器など種々の密度推定器とすることができる。   (10) In each of the above-described embodiments and modifications thereof, the density estimator learned by the multi-class SVM method is illustrated. However, instead of the multi-class SVM method, a decision tree-type random forest method, a multi-class Various density estimators such as a density estimator learned by the AdaBoost method or the multi-class logistic regression method can be used.

或いは識別型のCNN(Convolutional Neural Network)を用いた密度推定器とすることもできる。   Alternatively, a density estimator using a discriminating CNN (Convolutional Neural Network) may be used.

(11)上記各実施形態およびその各変形例においては、密度推定器が推定する背景以外の密度のクラスを3クラスとしたが、より細かくクラスを分けてもよい。   (11) In each of the above-described embodiments and modifications thereof, the classes of density other than the background estimated by the density estimator are set to three classes, but the classes may be divided more finely.

(12)上記各実施形態およびその各変形例においては、多クラスに分類する密度推定器を例示したがこれに代えて、特徴量から密度の値(推定密度)を回帰する回帰型の密度推定器とすることもできる。すなわち、リッジ回帰法、サポートベクターリグレッション法、回帰木型のランダムフォレスト法またはガウス過程回帰(Gaussian Process Regression)などによって、特徴量から推定密度を求めるための回帰関数のパラメータを学習した密度推定器とすることができる。   (12) In each of the above-described embodiments and modifications thereof, a density estimator that classifies into multiple classes is illustrated, but instead, a regression type density estimation that regresses a density value (estimated density) from a feature value. It can also be a container. That is, a density estimator that has learned the parameters of the regression function for obtaining the estimated density from the features by ridge regression method, support vector regression method, regression tree-type random forest method or Gaussian Process Regression, etc. can do.

或いは回帰型のCNNを用いた密度推定器とすることもできる。   Alternatively, a density estimator using a regression type CNN may be used.

(13)上記各実施形態およびその各変形例においては、密度推定器が学習する特徴量および推定用特徴量としてGLCM特徴を例示したが、これらはGLCM特徴に代えて、局所二値パターン(Local Binary Pattern:LBP)特徴量、ハールライク(Haar-like)特徴量、HOG特徴量、輝度パターンなどの種々の特徴量とすることができ、またはGLCM特徴とこれらのうちの複数を組み合わせた特徴量とすることもできる。   (13) In each of the above-described embodiments and modifications thereof, the GLCM feature is exemplified as the feature amount learned by the density estimator and the estimation feature amount. However, in place of the GLCM feature, the local binary pattern (Local Binary Pattern (LBP) feature value, Haar-like feature value, HOG feature value, luminance pattern, and other various feature values, or a combination of GLCM features and a plurality of them You can also

1 画像監視システム、2 撮影部、3 通信部、4 記憶部、5 画像処理部、6 操作部、7 表示制御部、8 表示部、30 画像取得手段、31 要注視情報出力手段、40 密度推定器記憶手段、41 混雑度記憶手段、42 動き量記憶手段、43 物体モデル記憶手段、44 描画設定記憶手段、50 混雑度推定手段、51 監視重要度算出手段、52 物体領域推定手段、53 分布画像生成手段。   DESCRIPTION OF SYMBOLS 1 Image monitoring system, 2 imaging | photography part, 3 communication part, 4 memory | storage part, 5 image processing part, 6 operation part, 7 display control part, 8 display part, 30 image acquisition means, 31 gaze information output means, 40 density estimation Device storage means, 41 congestion degree storage means, 42 motion amount storage means, 43 object model storage means, 44 drawing setting storage means, 50 congestion degree estimation means, 51 monitoring importance degree calculation means, 52 object area estimation means, 53 distribution image Generation means.

Claims (5)

所定の物体が混雑し得る空間を撮影した監視画像から前記物体について注視すべき度合いを表す情報を生成する画像監視システムであって、
前記監視画像を順次取得する画像取得手段と、
前記監視画像から、前記空間における前記物体の混雑の度合いを表す混雑度を推定する混雑度推定手段と、
前記空間に設定した注目領域における前記物体の混雑の継続時間を算出し、前記注目領域について前記混雑度が高いほど高く前記継続時間が長いほど高い監視重要度を算出する監視重要度算出手段と、
を備えたことを特徴とする画像監視システム。
An image monitoring system that generates information indicating a degree to which the object should be watched from a monitoring image obtained by capturing a space in which a predetermined object may be crowded,
Image acquisition means for sequentially acquiring the monitoring images;
A congestion degree estimating means for estimating a congestion degree representing a degree of congestion of the object in the space from the monitoring image;
Monitoring importance calculation means for calculating a duration of congestion of the object in the attention area set in the space, and calculating a higher monitoring importance as the congestion degree is higher and the duration is longer for the attention area;
An image monitoring system comprising:
前記監視重要度算出手段は、さらに、前記監視画像から前記注目領域における前記物体の動き量を算出し、前記注目領域について前記動き量が少ないほど高い監視重要度を算出することを特徴とする請求項1に記載の画像監視システム。   The monitoring importance calculation means further calculates a movement amount of the object in the attention area from the monitoring image, and calculates a higher monitoring importance as the movement amount is smaller for the attention area. Item 8. The image monitoring system according to Item 1. 所定の物体が混雑し得る空間を撮影した監視画像から前記物体について注視すべき度合いを表す情報を生成する画像監視システムであって、
前記監視画像を順次取得する画像取得手段と、
前記監視画像から、前記空間における前記物体の混雑の度合いを表す混雑度を推定する混雑度推定手段と、
前記監視画像から前記空間に設定した注目領域における前記物体の動き量を算出し、前記注目領域について前記混雑度が高いほど高く前記動き量が少ないほど高い監視重要度を算出する監視重要度算出手段と、
を備えたことを特徴とする画像監視システム。
An image monitoring system that generates information indicating a degree to which the object should be watched from a monitoring image obtained by capturing a space in which a predetermined object may be crowded,
Image acquisition means for sequentially acquiring the monitoring images;
A congestion degree estimating means for estimating a congestion degree representing a degree of congestion of the object in the space from the monitoring image;
A monitoring importance calculation unit that calculates the amount of motion of the object in the attention area set in the space from the monitoring image, and calculates a higher monitoring importance for the attention area as the congestion degree is higher and the movement amount is smaller. When,
An image monitoring system comprising:
前記画像取得手段は、前記空間内に設定された互いに異なる複数の監視領域それぞれについて前記監視画像を順次取得し、
前記各監視領域を前記注目領域とすること、
を特徴とする請求項1から請求項3のいずれか1つに記載の画像監視システム。
The image acquisition means sequentially acquires the monitoring images for each of a plurality of different monitoring areas set in the space,
Making each of the monitoring areas the attention area;
The image monitoring system according to any one of claims 1 to 3, wherein:
前記監視画像を区分した複数の画像区画それぞれに映る前記空間を前記注目領域とし、
さらに、前記画像区画ごとに前記監視重要度を算出して前記監視画像上での分布を表現した分布画像を生成する分布画像生成手段を備えたこと、
を特徴とする請求項1から請求項3のいずれか1つに記載の画像監視システム。
The space shown in each of a plurality of image sections into which the monitoring image is divided is the attention area,
Furthermore, the image processing apparatus further comprises distribution image generation means for generating a distribution image expressing the distribution on the monitoring image by calculating the monitoring importance for each image section.
The image monitoring system according to any one of claims 1 to 3, wherein:
JP2017145218A 2017-07-27 2017-07-27 Image monitoring system Active JP7099809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017145218A JP7099809B2 (en) 2017-07-27 2017-07-27 Image monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017145218A JP7099809B2 (en) 2017-07-27 2017-07-27 Image monitoring system

Publications (2)

Publication Number Publication Date
JP2019029747A true JP2019029747A (en) 2019-02-21
JP7099809B2 JP7099809B2 (en) 2022-07-12

Family

ID=65478777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017145218A Active JP7099809B2 (en) 2017-07-27 2017-07-27 Image monitoring system

Country Status (1)

Country Link
JP (1) JP7099809B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059223A1 (en) * 2020-09-15 2022-03-24 株式会社日立製作所 Video analyzing system and video analyzing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134004A (en) * 2009-12-22 2011-07-07 Panasonic Electric Works Co Ltd Building situation monitoring system and monitor
WO2016002408A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing device, surveillance system, image processing method, and program
JP2016154341A (en) * 2016-03-08 2016-08-25 パナソニックIpマネジメント株式会社 Activity status analysis system and activity status analysis method
JP2017045438A (en) * 2015-08-27 2017-03-02 株式会社東芝 Image analyzer, image analysis method, image analysis program and image analysis system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134004A (en) * 2009-12-22 2011-07-07 Panasonic Electric Works Co Ltd Building situation monitoring system and monitor
WO2016002408A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing device, surveillance system, image processing method, and program
JP2017045438A (en) * 2015-08-27 2017-03-02 株式会社東芝 Image analyzer, image analysis method, image analysis program and image analysis system
JP2016154341A (en) * 2016-03-08 2016-08-25 パナソニックIpマネジメント株式会社 Activity status analysis system and activity status analysis method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059223A1 (en) * 2020-09-15 2022-03-24 株式会社日立製作所 Video analyzing system and video analyzing method

Also Published As

Publication number Publication date
JP7099809B2 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
KR101337060B1 (en) Imaging processing device and imaging processing method
JP4876687B2 (en) Attention level measuring device and attention level measuring system
JP6597609B2 (en) Image processing apparatus, monitoring system, image processing method, and program
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
EP2362351A1 (en) Image processing apparatus, image processing method, and air conditioning control apparatus
US10181075B2 (en) Image analyzing apparatus,image analyzing, and storage medium
CN109299658B (en) Face detection method, face image rendering device and storage medium
JP2009245338A (en) Face image collating apparatus
JP6779410B2 (en) Video analyzer, video analysis method, and program
US20170053172A1 (en) Image processing apparatus, and image processing method
JP6851221B2 (en) Image monitoring device
CN112633217A (en) Human face recognition living body detection method for calculating sight direction based on three-dimensional eyeball model
CN112950254A (en) Information processing method and device, electronic equipment and storage medium
JP7099809B2 (en) Image monitoring system
JP6851246B2 (en) Object detector
WO2012153868A1 (en) Information processing device, information processing method and information processing program
JP6920949B2 (en) Object distribution estimator
JP6893812B2 (en) Object detector
JP2005269473A (en) Monitoring system
JP6920944B2 (en) Object detector
JP6767788B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP6851233B2 (en) Object position estimation device
JP7152651B2 (en) Program, information processing device, and information processing method
US11361511B2 (en) Method, mixed reality system and recording medium for detecting real-world light source in mixed reality
JP6594919B2 (en) Distribution image generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220630

R150 Certificate of patent or registration of utility model

Ref document number: 7099809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150