JP6920949B2 - Object distribution estimator - Google Patents

Object distribution estimator Download PDF

Info

Publication number
JP6920949B2
JP6920949B2 JP2017188324A JP2017188324A JP6920949B2 JP 6920949 B2 JP6920949 B2 JP 6920949B2 JP 2017188324 A JP2017188324 A JP 2017188324A JP 2017188324 A JP2017188324 A JP 2017188324A JP 6920949 B2 JP6920949 B2 JP 6920949B2
Authority
JP
Japan
Prior art keywords
image
density
recognition means
photographed
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017188324A
Other languages
Japanese (ja)
Other versions
JP2019066909A (en
Inventor
知行 永橋
知行 永橋
龍佑 野坂
龍佑 野坂
秀紀 氏家
秀紀 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017188324A priority Critical patent/JP6920949B2/en
Publication of JP2019066909A publication Critical patent/JP2019066909A/en
Application granted granted Critical
Publication of JP6920949B2 publication Critical patent/JP6920949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、人等の所定の物体が存在し得る空間が撮影された撮影画像から物体の分布を推定する物体分布推定装置に関し、特に、混雑が生じ得る空間が撮影された撮影画像から物体の分布を推定する物体分布推定装置に関する。 The present invention relates to an object distribution estimation device that estimates the distribution of an object from a photographed image in which a space in which a predetermined object such as a person can exist is photographed. The present invention relates to an object distribution estimation device that estimates a distribution.

マラソンやパレード等のイベントが開催される会場のように混雑が発生し得る空間においては事故防止等のために、混雑が発生している区域に警備員を多く配置するなどの対応が求められる。そこで、会場の各所に監視カメラを配置して撮影画像から人の分布状況を推定し、分布状況を表示することによって監視効率向上が期待できる。 In spaces where congestion may occur, such as venues where events such as marathons and parades are held, it is necessary to take measures such as allocating a large number of security guards in areas where congestion is occurring in order to prevent accidents. Therefore, it is expected that the monitoring efficiency will be improved by arranging surveillance cameras at various places in the venue, estimating the distribution status of people from the captured images, and displaying the distribution status.

撮影画像からイベント会場に存在している人を検出する方法の1つとして、予め人の画像の特徴を学習した認識器によって撮影画像を探索する方法がある。 As one of the methods for detecting a person present at an event venue from a photographed image, there is a method of searching for the photographed image by a recognizer that has learned the characteristics of the person's image in advance.

例えば、下記特許文献1に記載の物体検出装置においては、認識器として、多数の「人」の画像データおよび「人以外」の画像データを用いて予め学習させた識別器を用いて入力画像から人を検出することが記載されている。 For example, in the object detection device described in Patent Document 1 below, an input image is used as a recognizer by using a discriminator trained in advance using a large number of "human" image data and "non-human" image data. It is described to detect a person.

また、下記特許文献2に記載の群衆解析装置においては、予め密度下限値を超えた人物密度の群衆が撮影された学習画像を用いて人物密度ごとに機械学習した識別器を用い人物密度を推定することによって、群衆の発生を判定することが記載されている。 Further, in the crowd analysis device described in Patent Document 2 below, the person density is estimated by using a discriminator machine-learned for each person density using a learning image in which a crowd having a person density exceeding the lower limit of density is captured in advance. It is stated that by doing so, the occurrence of the crowd is determined.

以下、一人ひとりの人を認識する認識器を単体識別器、人物密度を推定する認識器を密度推定器と称する。 Hereinafter, a recognizer that recognizes each person is referred to as a single classifier, and a recognizer that estimates the person density is referred to as a density estimator.

特開2011−186633号公報Japanese Unexamined Patent Publication No. 2011-186633 特開2017−068598号公報Japanese Unexamined Patent Publication No. 2017-068598

ところで、イベント会場は一般に広大であるため設置・運用コストの観点から、各監視カメラの視野を広くして設置台数を減ずることが要請される。 By the way, since the event venue is generally vast, it is required to widen the field of view of each surveillance camera and reduce the number of installed cameras from the viewpoint of installation and operation costs.

しかしながら、単体識別器と密度推定器とは、それぞれの学習画像の特性によって確度の高い認識が可能な解像度のレンジが異なる。一方、広い視野で撮影した撮影画像においては、カメラから人までの距離に応じた人の像の解像度低下が顕著に生じる。 However, the single classifier and the density estimator differ in the range of resolutions capable of highly accurate recognition depending on the characteristics of each trained image. On the other hand, in a captured image taken in a wide field of view, the resolution of the image of a person is significantly reduced according to the distance from the camera to the person.

そのため、広い視野で撮影した撮影画像に対し、認識器をその特性を考慮せずに用いると確度の高い情報を提供することが困難となる問題があった。 Therefore, there is a problem that it is difficult to provide highly accurate information when the recognizer is used without considering the characteristics of the captured image taken in a wide field of view.

すなわち、単体識別器は一人ひとりの人の位置を認識可能であるのに対して、密度推定器は一人ひとりの人の位置までは認識できない。また、一般には認識対象となる画像(撮影画像の一部)の解像度が学習画像よりも低くなると認識精度は低下すること、および単体識別器の学習は単独の人の像が占める学習画像を用いて行われるのに対して密度推定器の学習は複数の人の像が写り得る視野の学習画像を用いて行われることから、カメラから人までの距離に応じた認識精度低下は密度推定器よりも単体識別器の方が生じやすい。 That is, while the single classifier can recognize the position of each person, the density estimator cannot recognize the position of each person. In general, when the resolution of the image to be recognized (a part of the captured image) is lower than that of the learning image, the recognition accuracy decreases, and the learning of the single classifier uses the learning image occupied by the image of a single person. On the other hand, since the learning of the density estimator is performed using the learning image of the field where images of multiple people can be captured, the recognition accuracy decrease according to the distance from the camera to the person is more than the density estimator. However, a single classifier is more likely to occur.

よって、撮影画像におけるカメラ近傍の領域の人の分布は単体識別器により認識した方が詳細な情報を提供できるが、遠方の領域の人の分布までも単体識別器により認識しようとすれば確度の低い情報を提供してしまうことになる。他方、遠方の領域の人の分布は密度推定器により認識した方が確度の高い情報を提供できるが、カメラ近傍の領域の人の分布までも密度推定器により認識しようとすれば詳細な情報を提供し損ねてしまうことになる。 Therefore, it is possible to provide detailed information by recognizing the distribution of people in the area near the camera in the captured image with a single classifier, but if the distribution of people in a distant area is also recognized by the single device, the accuracy is high. It will provide low information. On the other hand, it is possible to provide more accurate information by recognizing the distribution of people in the distant area with a density estimator, but if the density estimator tries to recognize even the distribution of people in the area near the camera, detailed information can be obtained. It will fail to provide.

本発明は、上記問題を鑑みてなされたものであり、混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定できる物体分布推定装置を提供することを目的とする。 The present invention has been made in view of the above problems, and provides an object distribution estimation device capable of estimating highly accurate information on the distribution of an object in a wide range from a photographed image of a space where congestion may occur in a wide field of view. The purpose is.

(1)本発明に係る物体分布推定装置は、撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、それぞれが、撮影された前記物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、前記撮影画像内の任意の位置に撮影された前記物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の前記認識器を用いて前記物体数の当該範囲ごとに設けられた複数の認識手段と、前記撮影画像内の位置と、前記複数の認識手段のうち当該位置にて前記物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した物体数から、前記空間における前記物体の分布情報を生成する分布推定手段と、を備える。 (1) The object distribution estimation device according to the present invention has an image acquisition means for acquiring a photographed image of a space in which a predetermined object photographed by a photographing unit may exist, and each has a different number of photographed objects. It is a recognition means that recognizes the number of the objects photographed at an arbitrary position in the photographed image by using a recognizer that has learned the characteristics of each of the plurality of types of learning images in advance, and the ranges of the number of recognizable objects are mutual. A plurality of recognition means provided for each range of the number of objects using a plurality of different recognizers, a position in the captured image, and the number of objects at the position among the plurality of recognition means in advance. From the number of objects acquired in the captured image by the storage means that stores the accuracy guarantee recognition means that can be recognized with the accuracy equal to or higher than the predetermined lower limit value and the accuracy guarantee recognition means that is stored in the storage means. , A distribution estimation means for generating distribution information of the object in the space.

(2)上記(1)に記載の物体分布推定装置において、前記認識手段が前記下限値以上の精度で認識可能である前記物体の像に関しての解像度の下限値を当該認識手段の限界解像度と定め、前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置での前記物体の像の前記解像度が前記限界解像度以上となるものを前記精度保証認識手段として関連付けて記憶している構成とすることができる。 (2) In the object distribution estimation device according to (1) above, the lower limit of the resolution of the image of the object that the recognition means can recognize with an accuracy equal to or higher than the lower limit is defined as the limit resolution of the recognition means. As the storage means, among the plurality of recognition means, the one in which the resolution of the image of the object at the position is equal to or higher than the limit resolution with respect to the position in the captured image is used as the accuracy guarantee recognition means. It can be associated and stored.

(3)上記(2)に記載の物体分布推定装置において、前記物体の像の画素数によって前記解像度を表し、前記限界解像度に対応する前記画素数を限界画素数として、前記空間内に存在する前記物体を模したモデルを前記撮影部の撮影面に投影して投影像を生成する投影手段と、前記撮影画像内の位置に対して、当該位置に生成される前記投影像の画素数と前記複数の認識手段それぞれの前記限界画素数とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、をさらに備えた構成とすることができる。 (3) In the object distribution estimation device according to (2) above, the resolution is represented by the number of pixels of the image of the object, and the number of pixels corresponding to the limit resolution is set as the limit number of pixels and exists in the space. A projection means for generating a projected image by projecting a model imitating the object onto the photographing surface of the photographing unit, the number of pixels of the projected image generated at the position with respect to the position in the photographed image, and the above. The configuration may further include a selection means for selecting the accuracy guarantee recognition means associated with the position by comparing the limit number of pixels of each of the plurality of recognition means.

(4)上記(2)に記載の物体分布推定装置において、前記空間における前記撮影部から前記物体までの距離によって前記解像度を推定し、前記限界解像度に対応する前記距離を限界距離として、前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置に撮影される前記物体についての前記距離が前記限界距離以下となるものを前記精度保証認識手段として関連付けて記憶している構成とすることができる。 (4) In the object distribution estimation device according to (2) above, the resolution is estimated from the distance from the photographing unit to the object in the space, and the distance corresponding to the limit resolution is set as the limit distance and the storage is performed. The means associates the plurality of recognition means whose distance with respect to the object photographed at the position is equal to or less than the limit distance as the accuracy guarantee recognition means with respect to the position in the captured image. It can be a memorized configuration.

(5)上記(4)に記載の物体分布推定装置において、前記撮影画像における位置を前記空間における前記物体に応じた高さの水平面に逆投影して物体仮想位置を求める投影手段と、前記撮影画像内の位置に対して、当該位置に対応する前記物体仮想位置と前記撮影部との距離と、前記複数の認識手段それぞれの前記限界距離とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、をさらに備えた構成とすることができる。 (5) In the object distribution estimation device according to (4) above, a projection means for obtaining an object virtual position by back-projecting a position in the captured image onto a horizontal plane having a height corresponding to the object in the space, and the photographing. The accuracy guarantee recognition associated with the position by comparing the distance between the virtual position of the object corresponding to the position and the photographing unit with respect to the position in the image and the limit distance of each of the plurality of recognition means. The configuration may further include a selection means for selecting the means.

(6)他の本発明に係る物体分布推定装置は、撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、所定の密度ごとに当該密度にて前記物体が存在する空間を撮影した密度画像それぞれの特徴を予め学習した密度推定器を用い、前記撮影画像内の任意の位置に撮影された前記物体の前記密度を認識する密度推定手段と、単独の前記物体が撮影された単体画像の特徴を予め学習した単体識別器を用い、前記撮影画像内の任意の位置に撮影された前記物体の有無を認識する単体識別手段と、前記撮影画像内の位置と、前記密度推定手段および前記単体識別手段のうち当該位置にて前記物体の密度または有無を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した前記物体の密度または有無から、前記空間における前記物体の分布情報を生成する分布推定手段と、を備える。 (6) Another object distribution estimation device according to the present invention includes an image acquisition means for acquiring a photographed image of a space in which a predetermined object photographed by a photographing unit may exist, and the object distribution estimation device according to the present invention at the density at each predetermined density. A density estimation means that recognizes the density of the object photographed at an arbitrary position in the photographed image by using a density estimator in which the characteristics of each density image obtained by photographing the space in which the object exists are learned in advance, and a single unit. A unit identification means for recognizing the presence or absence of the object photographed at an arbitrary position in the photographed image by using a unit classifier in which the characteristics of the unit image in which the object is photographed are learned in advance, and a position in the photographed image. And a storage means that stores the density or presence / absence of the object at the position in association with the density estimation means and the accuracy guarantee recognition means that can recognize the presence / absence of the object with an accuracy equal to or higher than a predetermined lower limit value. A distribution estimation means that generates distribution information of the object in the space from the density or presence / absence of the object acquired in the captured image by the accuracy guarantee recognition means stored in the storage means.

本発明によれば、混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定できる。 According to the present invention, highly accurate information on the distribution of objects can be estimated in a wide range from a photographed image of a space where congestion may occur in a wide field of view.

本発明の実施形態に係る物体分布推定装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the object distribution estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る物体分布推定装置が撮影画像を基にした分布推定処理を行うときの機能ブロック図である。It is a functional block diagram when the object distribution estimation apparatus which concerns on embodiment of this invention performs distribution estimation processing based on photographed images. 本発明の実施形態に係る物体分布推定装置が手法マップ作成処理を行うときの機能ブロック図である。It is a functional block diagram when the object distribution estimation apparatus which concerns on embodiment of this invention performs a method map creation process. 単体識別器記憶手段が記憶している単体識別器の情報を模式的に表した図である。It is a figure which represented typically the information of the simple substance classifier stored in the simple substance classifier storage means. 撮影画像およびこれに対応する手法マップの一例を示す模式図である。It is a schematic diagram which shows an example of the photographed image and the method map corresponding thereto. 図5の撮影画像に対応する分布画像の一例を示す模式図である。It is a schematic diagram which shows an example of the distribution image corresponding to the photographed image of FIG. 図5の撮影画像に対応する手法マップの一例を示す模式図である。It is a schematic diagram which shows an example of the method map corresponding to the photographed image of FIG. 本発明の実施形態に係る物体分布推定装置の動作の概略のフロー図である。It is a schematic flow chart of the operation of the object distribution estimation apparatus which concerns on embodiment of this invention. 手法マップ作成処理の概略のフロー図である。It is a schematic flow chart of the method map creation process. 分布画像生成処理の概略のフロー図である。It is a schematic flow chart of the distribution image generation processing.

以下、本発明の実施の形態(以下実施形態という)に係る物体分布推定装置1について、図面に基づいて説明する。 Hereinafter, the object distribution estimation device 1 according to the embodiment of the present invention (hereinafter referred to as the embodiment) will be described with reference to the drawings.

[物体分布推定装置1の構成]
図1は物体分布推定装置1の概略の構成を示すブロック図である。物体分布推定装置1は、撮影部2、通信部3、記憶部4、画像処理部5、操作部6、表示制御部7および表示部8からなる。
[Structure of object distribution estimation device 1]
FIG. 1 is a block diagram showing a schematic configuration of the object distribution estimation device 1. The object distribution estimation device 1 includes a photographing unit 2, a communication unit 3, a storage unit 4, an image processing unit 5, an operation unit 6, a display control unit 7, and a display unit 8.

撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、所定の物体が混雑し得る所定の空間を所定の時間間隔で撮影して撮影画像を出力する撮影手段である。以下、撮影部2が撮影する部分を対象空間と称する。 The photographing unit 2 is a surveillance camera, and is connected to the image processing unit 5 via the communication unit 3, and is a photographing means that photographs a predetermined space in which a predetermined object can be congested at a predetermined time interval and outputs a captured image. Is. Hereinafter, the portion photographed by the photographing unit 2 is referred to as a target space.

例えば、撮影部2は、イベント会場に設置されたポールに対象空間を俯瞰する視野を有して設置される。その視野は固定されていてもよいし、通信部3を介した外部からの指示に従って変更されてもよい。また、例えば、撮影部2は対象空間をフレーム周期1/5秒で撮影してカラー画像を生成する。カラー画像の代わりにモノクロ画像を生成してもよい。 For example, the photographing unit 2 is installed on a pole installed at the event venue with a field of view that gives a bird's-eye view of the target space. The field of view may be fixed or may be changed according to an instruction from the outside via the communication unit 3. Further, for example, the photographing unit 2 photographs the target space with a frame period of 1/5 second to generate a color image. A monochrome image may be generated instead of the color image.

通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示制御部7と接続される。通信部3は、撮影部2から撮影画像を取得して画像処理部5に入力し、画像処理部5から入力された情報を表示制御部7に出力する。 The communication unit 3 is a communication circuit, one end of which is connected to the image processing unit 5, and the other end of the communication unit 2 and the display control unit 7 via a communication network such as a coaxial cable, LAN (Local Area Network), or the Internet. Is connected with. The communication unit 3 acquires a photographed image from the photographing unit 2 and inputs it to the image processing unit 5, and outputs the information input from the image processing unit 5 to the display control unit 7.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。 The storage unit 4 is a memory device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores various programs and various data. The storage unit 4 is connected to the image processing unit 5 and inputs / outputs these information to and from the image processing unit 5.

画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、また記憶部4から読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示制御部7とも接続され、通信部3経由で撮影部2から取得した撮影画像を解析することにより、撮影されている人の分布を推定し、推定結果を記した分布画像等の分布情報を通信部3経由で表示制御部7に出力する。 The image processing unit 5 is composed of arithmetic units such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and an MCU (Micro Control Unit). The image processing unit 5 is connected to the storage unit 4 and operates as various processing means / control means by reading and executing a program from the storage unit 4, storing various data in the storage unit 4, and also from the storage unit 4. read out. Further, the image processing unit 5 is also connected to the photographing unit 2 and the display control unit 7 via the communication unit 3, and the person being photographed by analyzing the photographed image acquired from the photographing unit 2 via the communication unit 3. Is estimated, and distribution information such as a distribution image in which the estimation result is described is output to the display control unit 7 via the communication unit 3.

操作部6は表示制御部7に対する入力機器であり、キーボード及びマウス等で構成される。操作部6は表示制御部7に接続され、監視員による指示操作を受け付け、当該指示操作を表示制御部7に出力する。 The operation unit 6 is an input device for the display control unit 7, and is composed of a keyboard, a mouse, and the like. The operation unit 6 is connected to the display control unit 7, receives an instruction operation by the observer, and outputs the instruction operation to the display control unit 7.

表示制御部7はPC(Personal Computer)等で構成され、ROM、RAM等のメモリ装置等で構成される記憶部(不図示)、通信部3が接続されている通信網とのインターフェース回路である通信部(不図示)、および、CPU、MCU、IC等の演算装置等で構成される制御部(不図示)を備える。表示制御部7は通信網を介して通信部3に接続されるとともに、操作部6および表示部8と接続される。表示制御部7は画像処理部5からの情報を通信部3から受信して記憶するとともに、監視員による操作指示を操作部6から入力され、記憶した情報のうち操作指示に応じた情報を表示部8に出力する。 The display control unit 7 is an interface circuit with a communication network to which a storage unit (not shown) composed of a PC (Personal Computer) or the like and a memory device such as a ROM or RAM and a communication unit 3 are connected. It includes a communication unit (not shown) and a control unit (not shown) composed of arithmetic units such as a CPU, MCU, and IC. The display control unit 7 is connected to the communication unit 3 via the communication network, and is also connected to the operation unit 6 and the display unit 8. The display control unit 7 receives the information from the image processing unit 5 from the communication unit 3 and stores it, and at the same time, the operation instruction by the observer is input from the operation unit 6 and displays the information corresponding to the operation instruction among the stored information. Output to unit 8.

表示部8は、液晶ディスプレイまたはCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3および表示制御部7を介して画像処理部5と接続され、画像処理部5により生成された情報を表示する表示手段である。監視員は表示された情報を視認して混雑の発生等を判断し、必要に応じて人員配置の変更等の対処を行う。 The display unit 8 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and is connected to the image processing unit 5 via the communication unit 3 and the display control unit 7, and the information generated by the image processing unit 5 is generated. Is a display means for displaying. The observer visually recognizes the displayed information, determines the occurrence of congestion, etc., and takes measures such as changing the staffing as necessary.

なお、本実施形態においては、撮影部2と画像処理部5の個数が1対1である物体分布推定装置1を例示するが、別の実施形態においては、撮影部2と画像処理部5の個数を多対1或いは多対多とすることもできる。 In this embodiment, the object distribution estimation device 1 in which the number of the photographing unit 2 and the image processing unit 5 is 1: 1 is illustrated, but in another embodiment, the photographing unit 2 and the image processing unit 5 The number can be many-to-one or many-to-many.

[物体分布推定装置1の機能]
図2および図3は物体分布推定装置1の機能を示す機能ブロック図である。そのうち、図2は撮影画像を基にした分布推定処理を行うときの機能ブロック図である。また、図3は分布推定処理に先立って手法マップ作成処理を行うときの機能ブロック図である。
[Function of object distribution estimation device 1]
2 and 3 are functional block diagrams showing the functions of the object distribution estimation device 1. Of these, FIG. 2 is a functional block diagram when performing distribution estimation processing based on captured images. Further, FIG. 3 is a functional block diagram when the method map creation process is performed prior to the distribution estimation process.

(分布推定処理)
物体分布推定装置1の機能のうち、まず、分布推定処理に関して説明する。分布推定処理を行うとき(図2)、通信部3は画像取得手段30および分布情報出力手段31等として機能し、記憶部4は密度推定器記憶手段40、単体識別器記憶手段41、手法マップ記憶手段42、物体モデル記憶手段43(図2においては不図示)およびカメラパラメータ記憶手段44(図2においては不図示)等として機能し、画像処理部5は密度推定手段50、単体識別手段51、分布推定手段52等として機能する。
(Distribution estimation processing)
Among the functions of the object distribution estimation device 1, first, the distribution estimation process will be described. When performing the distribution estimation process (FIG. 2), the communication unit 3 functions as an image acquisition means 30, a distribution information output means 31, and the like, and the storage unit 4 has a density estimator storage means 40, a single classifier storage means 41, and a method map. It functions as a storage means 42, an object model storage means 43 (not shown in FIG. 2), a camera parameter storage means 44 (not shown in FIG. 2), and the like, and the image processing unit 5 has a density estimation means 50 and a single identification means 51. , Functions as a distribution estimation means 52 and the like.

これらのうちの密度推定手段50および単体識別手段51のそれぞれは、撮影されている物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、撮影画像内の任意の位置に撮影された物体の数を認識する認識手段であり、密度推定手段50と単体識別手段51とは、認識可能な物体の数の範囲が互いに異なる複数の認識器を用いて物体数の当該範囲ごとに設けられた複数の認識手段をなす。例えば、密度推定手段50は、0人/mの密度、0人/mより高く2人/m以下の密度、2人/mより高く4人/m以下の密度および4人/mより高い密度の学習画像を用いて学習した認識器を用い、撮影画像内の任意の位置に設定される領域を窓として、窓内が0人/mの密度、0人/mより高く2人/m以下の密度、2人/mより高く4人/m以下の密度および4人/mより高い密度のいずれであるかを認識する。また例えば、単体識別手段51は0人および1人の学習画像を用いて学習した認識器を用い、窓内が0人および1人のいずれであるかを認識する。つまり、密度推定手段50は物体の数として窓内の物体の密度を認識し、またその範囲の下限は0人/mである一方、上は4人/mを超える値にまで及ぶ。これに対し、単体識別手段51が窓内にて認識可能な物体の数の範囲は0および1である。 Of these, each of the density estimation means 50 and the single identification means 51 uses a recognizer that has learned in advance the characteristics of each of a plurality of types of learning images in which the number of captured objects is different, and at an arbitrary position in the captured image. It is a recognition means for recognizing the number of objects photographed in the above, and the density estimation means 50 and the single identification means 51 use a plurality of recognizers having different ranges of the number of recognizable objects from each other. It forms a plurality of recognition means provided for each. For example, the density estimating means 50, the density of 0 people / m 2, 0 people / two / m 2 or less of a density higher than m 2, higher than two / m 2 Quadruple / m 2 or less density and four Using a recognizer trained using a learning image with a density higher than / m 2, the area inside the window is set to an arbitrary position in the captured image as a window, and the density inside the window is 0 people / m 2 and 0 people / m. two / m 2 or less of a density higher than 2, recognizes which of higher than two / m higher than 2 Quadruple / m 2 or less of the density and four / m 2 density. Further, for example, the single identification means 51 uses a recognizer learned using the learning images of 0 people and 1 person, and recognizes whether the inside of the window is 0 people or 1 person. That is, the density estimation means 50 recognizes the density of objects in the window as the number of objects, and the lower limit of the range is 0 people / m 2 , while the upper limit reaches a value exceeding 4 people / m 2. On the other hand, the range of the number of objects that the single identification means 51 can recognize in the window is 0 and 1.

画像取得手段30は、撮影手段である撮影部2から撮影画像を順次取得して、取得した撮影画像を密度推定手段50および単体識別手段51に順次出力する。 The image acquisition means 30 sequentially acquires captured images from the photographing unit 2 which is a photographing means, and sequentially outputs the acquired captured images to the density estimation means 50 and the unit identification means 51.

密度推定器記憶手段40は、所定の密度ごとに当該密度にて物体(人)が存在する空間を撮影した密度画像それぞれの画像特徴を学習した推定密度算出関数であって、画像の特徴量を入力されると当該画像に撮影されている物体の密度の推定値(推定密度)を算出し、算出した推定密度を出力する推定器(密度推定器)の情報を予め記憶している。つまり上記推定密度算出関数の係数等のパラメータを密度推定器の情報として予め記憶している。 The density estimator storage means 40 is an estimated density calculation function that learns the image features of each density image obtained by photographing a space in which an object (person) exists at the density at a predetermined density, and obtains the feature amount of the image. When input, the estimated value (estimated density) of the density of the object captured in the image is calculated, and the information of the estimator (density estimator) that outputs the calculated estimated density is stored in advance. That is, parameters such as the coefficient of the estimated density calculation function are stored in advance as information of the density estimator.

密度推定手段50は、画像取得手段30から入力された撮影画像の各所から密度推定用の特徴量(推定用特徴量)を抽出するとともに密度推定器記憶手段40から密度推定器を読み出して、抽出した推定用特徴量のそれぞれを密度推定器に入力することによって推定密度の分布(密度分布)を推定し、推定した密度分布を分布推定手段52に出力する。好適には密度推定手段50はさらに密度分布を単体識別手段51にも出力する。 The density estimation means 50 extracts the feature amount for density estimation (feature amount for estimation) from various parts of the captured image input from the image acquisition means 30, and reads out the density estimator from the density estimator storage means 40 to extract the feature amount. The distribution of the estimated density (density distribution) is estimated by inputting each of the estimated feature quantities to the density estimator, and the estimated density distribution is output to the distribution estimation means 52. Preferably, the density estimation means 50 also outputs the density distribution to the unit identification means 51.

密度推定の処理と密度推定器について具体的に説明する。 The processing of density estimation and the density estimator will be specifically described.

密度推定手段50は、撮影画像の各画素の位置に窓(推定用抽出窓)を設定し、各推定用抽出窓における撮影画像から推定用特徴量を抽出する。推定用特徴量はGLCM(Gray Level Co-occurrence Matrix)特徴である。 The density estimation means 50 sets a window (estimation extraction window) at the position of each pixel of the captured image, and extracts the estimation feature amount from the captured image in each estimation extraction window. The estimation feature quantity is a GLCM (Gray Level Co-occurrence Matrix) feature.

各推定用抽出窓に撮影されている対象空間内の領域は同一サイズであることが望ましい。そこで、好適には密度推定手段50はこの点に配慮した処理を行う。当該処理に際し、密度推定手段50はカメラパラメータ記憶手段44(図2においては不図示)を利用する。 It is desirable that the areas in the target space photographed by each estimation window have the same size. Therefore, preferably, the density estimation means 50 performs processing in consideration of this point. In this process, the density estimation means 50 uses the camera parameter storage means 44 (not shown in FIG. 2).

カメラパラメータ記憶手段44は、撮影部2のカメラパラメータを記憶している。カメラパラメータは、実空間における撮影部2の設置位置および撮影方向といった外部パラメータ、撮影部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む情報である。 The camera parameter storage means 44 stores the camera parameters of the photographing unit 2. The camera parameters are information including external parameters such as the installation position and shooting direction of the photographing unit 2 in the real space, the focal length of the photographing unit 2, the angle of view, lens distortion and other lens characteristics, and internal parameters such as the number of pixels of the imaging element. be.

密度推定手段50はカメラパラメータ記憶手段44から撮影部2のカメラパラメータを読み出し、カメラパラメータを用いたホモグラフィ変換により撮影画像の任意の画素に撮影されている対象空間内の領域が同一サイズとなるように撮影画像を変形してから推定用特徴量を抽出する。 The density estimation means 50 reads out the camera parameters of the photographing unit 2 from the camera parameter storage means 44, and the area in the target space photographed by any pixel of the photographed image becomes the same size by homography conversion using the camera parameters. After transforming the captured image in this way, the feature amount for estimation is extracted.

密度推定器は多クラスの画像を識別する識別器で実現することができ、多クラスSVM(Support Vector Machine)法で学習した識別関数とすることができる。 The density estimator can be realized by a discriminator that discriminates a multi-class image, and can be a discriminant function learned by a multi-class SVM (Support Vector Machine) method.

密度は、例えば、人が存在しない「背景」クラス、0人/mより高く2人/m以下である「低密度」クラス、2人/mより高く4人/m以下である「中密度」クラス、4人/mより高い「高密度」クラスの4クラスと定義することができる。 The density is, for example, a "background" class with no people, a "low density" class higher than 0 people / m 2 and 2 people / m 2 or less, higher than 2 people / m 2 and 4 people / m 2 or less. It can be defined as 4 classes of "medium density" class and "high density" class higher than 4 people / m 2.

推定密度は各クラスに予め付与された値であり、分布推定の結果として出力される値である。本実施形態では各クラスに対応する値を「背景」、「低密度」、「中密度」、「高密度」と表記する。 The estimated density is a value given in advance to each class and is a value output as a result of distribution estimation. In this embodiment, the values corresponding to each class are described as "background", "low density", "medium density", and "high density".

すなわち、密度推定器は「背景」クラス、「低密度」クラス、「中密度」クラス、「高密度」クラスのそれぞれに帰属する多数の密度画像の特徴量に多クラスSVM法を適用して学習した、各クラスの画像を他のクラスと識別するための識別関数である。この学習により導出された識別関数のパラメータが密度推定器として記憶されている。なお、密度画像の特徴量は、推定用特徴量と同種であり、GLCM特徴である。 That is, the density estimator learns by applying the multi-class SVM method to the features of a large number of density images belonging to each of the "background" class, "low density" class, "medium density" class, and "high density" class. It is an identification function for distinguishing the image of each class from other classes. The parameters of the discriminant function derived by this learning are stored as a density estimator. The feature amount of the density image is the same as the feature amount for estimation, and is a GLCM feature.

密度推定手段50は、各画素に対応して抽出した推定用特徴量のそれぞれを密度推定器に入力することによってその出力値である推定密度を取得する。なお、撮影画像を変形させて推定用特徴量を抽出した場合、密度推定手段50は、カメラパラメータを用いたホモグラフィ変換により密度分布を元の撮影画像の形状に変形させる。 The density estimation means 50 acquires the estimated density, which is the output value, by inputting each of the estimation feature quantities extracted corresponding to each pixel into the density estimator. When the captured image is deformed to extract the feature amount for estimation, the density estimation means 50 transforms the density distribution into the shape of the original captured image by homography conversion using camera parameters.

こうして得られた、撮影画像の画素ごとの推定密度の集まりが密度分布である。 The set of estimated densities for each pixel of the captured image obtained in this way is the density distribution.

密度推定手段50が出力する密度分布から撮影画像の各所における人の粗密状況が分かるが、密度分布から個々の人の位置までは分からない。これに対し、単体識別手段51は、撮影画像の各位置における人の有無を識別することでより詳細な情報(人の位置)を得る手段である。 From the density distribution output by the density estimation means 50, the density of people in various parts of the photographed image can be known, but from the density distribution, the position of each person cannot be known. On the other hand, the single identification means 51 is a means for obtaining more detailed information (position of a person) by identifying the presence or absence of a person at each position of the captured image.

単体識別器記憶手段41は、単独の人(物体)の画像特徴を学習した識別器(単体識別器)の情報を記憶している。 The single classifier storage means 41 stores the information of the classifier (single classifier) that has learned the image features of a single person (object).

図4は、予め単体識別器記憶手段41が記憶している単体識別器の情報を模式的に表した図である。 FIG. 4 is a diagram schematically showing the information of the single-unit classifier stored in advance by the single-unit classifier storage means 41.

単体識別器は、画像の特徴量を入力されると当該画像が単独の人が撮影されている画像(単体画像)であることの尤もらしさを表す評価値(識別スコア)を算出して出力する評価値算出関数の係数、および識別スコアに対して適用する閾値等のパラメータで表される。 When the feature amount of the image is input, the single classifier calculates and outputs an evaluation value (discrimination score) indicating the plausibility that the image is an image (single image) taken by a single person. It is represented by parameters such as the coefficient of the evaluation value calculation function and the threshold value applied to the identification score.

単体識別器は多数の単体画像とそれぞれが人以外しか写っていない多数の無人画像とからなる学習用画像の特徴量に線形SVM法を適用して学習した識別器とすることができる。 The single classifier can be a classifier learned by applying the linear SVM method to the features of a learning image consisting of a large number of single images and a large number of unmanned images in which only a person is shown.

学習アルゴリズムとして線形SVMを用いた場合、評価値算出関数の係数は重みベクトルである。この重みベクトルは、特徴量の各要素に対する重みであり、入力された画像の特徴量と重みベクトルとの内積の値が識別スコアを表す。学習において、当該重みベクトルと特徴量との内積が0より大きい場合は人、0以下の場合は人以外と識別されるように調整される。よって、入力された画像が単体画像であるか否かを識別する閾値は原理上は0であり、通常、閾値は0に設定することができる。ただし、単体画像を単体画像でないと識別する誤りを減じるために、閾値を0よりも小さな値に設定してもよい。 When linear SVM is used as the learning algorithm, the coefficient of the evaluation value calculation function is a weight vector. This weight vector is a weight for each element of the feature amount, and the value of the inner product of the feature amount of the input image and the weight vector represents the discrimination score. In learning, if the inner product of the weight vector and the feature amount is greater than 0, it is identified as a person, and if it is 0 or less, it is identified as a non-human. Therefore, the threshold value for identifying whether or not the input image is a single image is 0 in principle, and the threshold value can usually be set to 0. However, the threshold value may be set to a value smaller than 0 in order to reduce the error of identifying the single image as a non-single image.

なお、学習用画像の特徴量はHOG(Histograms of Oriented Gradients)特徴量である。 The feature amount of the learning image is a HOG (Histograms of Oriented Gradients) feature amount.

単体識別器記憶手段41が記憶している単体識別器は、密度が高いほど単独の物体を構成する部分のうちの少ない部分の画像特徴を学習した識別器となっている。単体識別器記憶手段41は、低密度クラスを表す値と対応付けて単独の人の全身の画像特徴を学習した単体識別器である全身識別器100、中密度クラスを表す値と対応付けて単独の人の上部2/3の画像特徴を学習した単体識別器である上半身識別器101、高密度クラスを表す値と対応付けて単独の人の上部1/3の画像特徴を学習した単体識別器である頭部近傍識別器102を記憶している。 The single-unit classifier stored in the single-unit classifier storage means 41 is a classifier that learns the image features of a small part of the parts constituting a single object as the density increases. The single-unit classifier storage means 41 is independently associated with the whole-body classifier 100, which is a single-unit classifier that has learned the image features of the whole body of a single person in association with the value representing the low-density class, and the value representing the medium-density class. Upper body classifier 101, which is a single classifier that learned the image features of the upper 2/3 of a person, and a single classifier that learned the image features of the upper 1/3 of a single person in association with a value representing a high-density class. The head proximity classifier 102 is stored.

全身識別器100は単独の人の全身が撮影された単体画像を用いて学習した単体識別器であり、上半身識別器101は単独の人の上部2/3が撮影された単体画像(人の全身が撮影された単体画像の上部2/3を切り出した画像など)を用いて学習した単体識別器であり、頭部近傍識別器102は単独の人の上部1/3が撮影された単体画像(人の全身が撮影された単体画像の上部1/3を切り出した画像など)を用いて学習した単体識別器である。 The whole body classifier 100 is a single body classifier learned by using a single image of the whole body of a single person, and the upper body classifier 101 is a single image of the upper two-thirds of a single person (whole body of a person). Is a single classifier learned using an image obtained by cutting out the upper 2/3 of the single image taken by the head, and the head proximity classifier 102 is a single image (such as an image obtained by cutting out the upper 1/3 of a single person). It is a single classifier learned by using an image obtained by cutting out the upper 1/3 of a single image of the whole human body.

単体識別手段51は、画像取得手段30から入力された撮影画像の各位置から単体識別用の特徴量(識別用特徴量)を抽出するとともに単体識別器記憶手段41から単体識別器を読み出して、抽出した識別用特徴量のそれぞれを単体識別器に入力することによって物体の有無を識別し、各位置における物体の有無を分布推定手段52に出力する。 The single identification means 51 extracts a feature amount for single identification (feature amount for identification) from each position of the captured image input from the image acquisition means 30, and reads out the single identification device from the single identification device storage means 41. The presence or absence of an object is identified by inputting each of the extracted identification feature amounts to the single classifier, and the presence or absence of the object at each position is output to the distribution estimation means 52.

具体的には単体識別手段51は、まず、撮影画像内に所定間隔にて複数の候補位置を設定する。所定間隔は1画素であり、単体識別手段51は撮影画像の各画素の位置を順次候補位置に設定する。なお候補位置は人の頭部重心を表すものとする。 Specifically, the single identification means 51 first sets a plurality of candidate positions in the captured image at predetermined intervals. The predetermined interval is one pixel, and the single identification means 51 sequentially sets the position of each pixel of the captured image as a candidate position. The candidate position represents the center of gravity of the human head.

また、単体識別手段51は、各候補位置に単独の人の上部1/3の形状に定められた窓を設定するとともに密度推定手段50から入力された密度分布を参照し、当該窓内の推定密度を集計する。そして、単体識別手段51は、各候補位置における最多の推定密度を当該候補位置の密度と決定する。 Further, the unit identification means 51 sets a window defined in the shape of the upper 1/3 of a single person at each candidate position, and refers to the density distribution input from the density estimation means 50 to estimate the inside of the window. Aggregate the density. Then, the unit identification means 51 determines the highest estimated density at each candidate position as the density of the candidate position.

また、単体識別手段51は、各候補位置に当該候補位置の密度に応じた識別用抽出窓を設定し、識別用抽出窓内の撮影画像から識別用特徴量を抽出する。識別用抽出窓は、各密度に応じた単体識別器の学習に用いた単体画像の形状を有し、予め定めた複数の倍率で拡大・縮小した大きさの窓である。すなわち、識別用抽出窓は、候補位置の密度が低密度であれば単独の人の全身の形状に定められた窓であり、中密度であれば単独の人の上部2/3の形状に定められた窓であり、高密度であれば単独の人の上部1/3の形状に定められた窓である。 Further, the single identification means 51 sets an identification extraction window according to the density of the candidate position at each candidate position, and extracts the identification feature amount from the captured image in the identification extraction window. The identification extraction window has the shape of a single image used for learning the single classifier according to each density, and is a window having a size enlarged / reduced by a plurality of predetermined magnifications. That is, the identification extraction window is a window defined to the shape of the whole body of a single person if the density of the candidate positions is low, and is defined to the shape of the upper two-thirds of the single person if the density is medium. It is a window that is shaped like the upper 1/3 of a single person if it has a high density.

また、単体識別手段51は、候補位置ごとに当該候補位置の密度に応じた単体識別器を単体識別器記憶手段41から読み出す。すなわち、単体識別手段51は、候補位置の密度が低密度であれば全身識別器を読み出し、中密度であれば上半身識別器を読み出し、高密度であれば頭部近傍識別器を読み出す。そして、単体識別手段51は、各候補位置について、読み出した単体識別器に当該候補位置から抽出した識別用特徴量を入力し、その出力値である識別スコアを当該候補位置の評価値として取得する。 Further, the single-unit identification means 51 reads out a single-unit classifier corresponding to the density of the candidate position for each candidate position from the single-unit classifier storage means 41. That is, the single unit identification means 51 reads out the whole body classifier if the density of the candidate positions is low, reads out the upper body classifier if the density is medium, and reads out the head area classifier if the density is high. Then, the single unit identification means 51 inputs the identification feature amount extracted from the candidate position into the read single unit classifier for each candidate position, and acquires the identification score which is the output value as the evaluation value of the candidate position. ..

そして、単体識別手段51は、候補位置ごとの密度、評価値を参照し、予め定めた基準を満たす評価値が算出された候補位置を物体が存在する位置、それ以外の候補位置を物体が存在しない位置と決定する。 Then, the unit identification means 51 refers to the density and the evaluation value for each candidate position, and the candidate position where the evaluation value satisfying the predetermined standard is calculated is the position where the object exists, and the other candidate positions are the objects. Determine the position not to be.

具体的には、単体識別手段51は、識別スコアがそれに対応する閾値以上である候補位置を抽出し、抽出した候補位置のうち対応する密度が同一であり且つ互いに近接する複数の候補位置を一つにまとめ、まとめた候補位置を人が存在する位置と決定する。 Specifically, the single identification means 51 extracts candidate positions whose identification score is equal to or higher than the corresponding threshold value, and selects a plurality of candidate positions having the same density and close to each other among the extracted candidate positions. Summarize them together and determine the summarized candidate positions as the positions where people exist.

この候補位置をまとめる処理は、実際に人が撮影されている位置に加えてその近傍においても同一人物に対して高い識別スコアが算出されることに対処するために行う。具体的には、例えば、単体識別手段51は、密度ごとに、閾値以上の識別スコアが算出された候補位置を識別スコアが高い順に順次、注目位置に設定するとともに注目位置より識別スコアが低い候補位置を比較位置に設定する。そして、単体識別手段51は、比較位置のうち当該比較位置に設定された識別用抽出窓と注目位置に設定された識別用抽出窓との重なりが予め定めた割合より大きい比較位置の情報を削除することで複数の候補位置を一つにまとめる。 This process of summarizing the candidate positions is performed in order to deal with the fact that a high discrimination score is calculated for the same person not only at the position where the person is actually photographed but also in the vicinity thereof. Specifically, for example, the single identification means 51 sets the candidate positions for which the identification score equal to or higher than the threshold value is calculated to the attention positions in descending order of the identification score for each density, and the candidates whose identification score is lower than the attention position. Set the position to the comparison position. Then, the single identification means 51 deletes the information of the comparison position in which the overlap between the identification extraction window set at the comparison position and the identification extraction window set at the attention position is larger than a predetermined ratio among the comparison positions. By doing so, multiple candidate positions are combined into one.

そして、単体識別手段51は、候補位置ごとの物体有無の情報を分布推定手段52に出力する。 Then, the single unit identification means 51 outputs information on the presence or absence of an object for each candidate position to the distribution estimation means 52.

手法マップ記憶手段42は、撮影画像内の位置と、複数の認識手段のうちの、当該位置に窓が設定された場合に当該窓内に撮影されている物体の数を予め定めた下限値以上の精度で認識可能な精度保証認識手段とを関連付けた手法マップを記憶する。 The method map storage means 42 sets the position in the captured image and the number of objects photographed in the window when the window is set at the position among the plurality of recognition means, which is equal to or higher than a predetermined lower limit value. The method map associated with the accuracy guarantee recognition means that can be recognized with the accuracy of is stored.

図5は、撮影画像およびこれに対応する手法マップの一例を示す模式図であり、図5(a)が撮影画像200を示し、図5(b)が撮影画像200に対応する手法マップ250を表形式で示している。密度推定手段50および単体識別手段51のそれぞれについては、様々な解像度のテスト画像を用いた事前の実験によって、下限値以上の精度で認識できる人の像の解像度の限界(限界解像度)が判明している。また、密度推定手段50および単体識別手段51には、それぞれを識別する符号(認識手段ID)として“A”および“B”が予め付与されている。 5A and 5B are schematic views showing an example of a photographed image and a method map corresponding thereto. FIG. 5A shows a photographed image 200, and FIG. 5B shows a method map 250 corresponding to the photographed image 200. It is shown in tabular format. For each of the density estimation means 50 and the unit identification means 51, a preliminary experiment using test images of various resolutions revealed the limit (limit resolution) of the resolution of a human image that can be recognized with an accuracy equal to or higher than the lower limit. ing. Further, the density estimation means 50 and the unit identification means 51 are given "A" and "B" in advance as codes (recognition means ID) for identifying them.

図5の例において、撮影画像200中の領域201は、撮影部2から遠方に存在する人が撮影され得る領域である。領域201内の任意の位置に推定用抽出窓を設定した場合、推定用抽出窓内の人の像の解像度は密度推定手段50の限界解像度を下回らないため、密度推定手段50による密度推定結果が下限値以上の精度で得られる。また、領域201内の任意の位置に識別用抽出窓を設定した場合、識別用抽出窓内の人の像の解像度は単体識別手段51の限界解像度を下回り、単体識別手段51による識別結果が下限値以上の精度で得られない。 In the example of FIG. 5, the area 201 in the photographed image 200 is an area where a person who exists far from the photographing unit 2 can be photographed. When the estimation window is set at an arbitrary position in the region 201, the resolution of the image of a person in the estimation window does not fall below the limit resolution of the density estimation means 50, so that the density estimation result by the density estimation means 50 is obtained. Obtained with an accuracy equal to or higher than the lower limit. Further, when the identification extraction window is set at an arbitrary position in the area 201, the resolution of the image of a person in the identification extraction window is lower than the limit resolution of the single identification means 51, and the identification result by the single identification means 51 is the lower limit. It cannot be obtained with an accuracy higher than the value.

以上のことに対応して、手法マップ250には、領域201内の画素群の座標[…,(X,Y),…]と対応付けて密度推定手段50に付与された符号Aが記憶されている。 Corresponding to the above, the method map 250 has a reference numeral A assigned to the density estimation means 50 in association with the coordinates [..., (X 2 , Y 2), ...] Of the pixel group in the region 201. It is remembered.

また、図5の例において、撮影画像200中の領域202は、撮影部2の近傍に存在する人が撮影され得る領域である。領域202内の任意の位置に推定用抽出窓を設定した場合、推定用抽出窓内の人の像の解像度は密度推定手段50の限界解像度を下回らないため、密度推定手段50による密度推定結果が下限値以上の精度で得られる。また、領域202内の任意の位置に識別用抽出窓を設定した場合、識別用抽出窓内の人の像の解像度は単体識別手段51の限界解像度を下回らないため、単体識別手段51による識別結果が下限値以上の精度で得られる。 Further, in the example of FIG. 5, the area 202 in the photographed image 200 is an area where a person existing in the vicinity of the photographing unit 2 can be photographed. When the estimation window is set at an arbitrary position in the region 202, the resolution of the image of a person in the estimation window does not fall below the limit resolution of the density estimation means 50, so that the density estimation result by the density estimation means 50 is obtained. Obtained with an accuracy equal to or higher than the lower limit. Further, when the identification extraction window is set at an arbitrary position in the area 202, the resolution of the image of a person in the identification extraction window does not fall below the limit resolution of the single identification means 51, so that the identification result by the single identification means 51 Is obtained with an accuracy equal to or higher than the lower limit.

以上のことに対応して、手法マップ250には、領域202内の画素群の座標[…,(X,Y),…]と対応付けて密度推定手段50に付与された符号Aと単体識別手段51に付与された符号Bとが記憶されている。 Corresponding to the above, the method map 250 includes the reference numeral A assigned to the density estimation means 50 in association with the coordinates [..., (X 3 , Y 3), ...] Of the pixel group in the region 202. The reference numeral B assigned to the unit identification means 51 is stored.

分布推定手段52は、複数の認識手段が認識した位置ごとの物体の数のうち、手法マップ記憶手段42に当該位置と関連付けて記憶されている精度保証認識手段が認識した数から対象空間における物体の分布情報を生成し、生成した分布情報を分布情報出力手段31に出力する。 The distribution estimation means 52 is an object in the target space from the number of objects recognized by the accuracy guarantee recognition means stored in association with the position in the method map storage means 42 among the number of objects recognized by the plurality of recognition means for each position. The distribution information of is generated, and the generated distribution information is output to the distribution information output means 31.

具体的には、分布推定手段52は、密度推定手段50から入力された位置ごとの物体の密度の情報、単体識別手段51から入力された位置ごとの物体の有無の情報、および手法マップ記憶手段42に記憶されている手法マップを参照し、精度保証認識手段が認識した数に基づいて分布画像を生成する。 Specifically, the distribution estimation means 52 includes information on the density of the object for each position input from the density estimation means 50, information on the presence or absence of an object for each position input from the single identification means 51, and a method map storage means. The distribution image is generated based on the number recognized by the accuracy guarantee recognition means with reference to the method map stored in 42.

例えば、分布推定手段52は、手法マップにおいて符号Aおよび符号Bと対応付けられており且つ物体が存在すると認識された画素位置に、当該位置の推定密度に応じた色で着色した物体モデルを投影し、また、手法マップにおいて密度推定手段50を表す符号Aのみと対応付けられている位置の画素の値に、推定密度と対応する色をセットして分布画像を生成する。色は、例えば、推定密度が高密度であれば赤、中密度であれば黄、低密度であれば緑などとすることができる。 For example, the distribution estimation means 52 projects an object model colored with a color corresponding to the estimated density of the position at a pixel position associated with the reference numerals A and B in the method map and recognized as having an object. Further, a distribution image is generated by setting the color corresponding to the estimated density to the value of the pixel at the position associated only with the reference numeral A representing the density estimation means 50 in the method map. The color can be, for example, red if the estimated density is high, yellow if the estimated density is medium, green if the estimated density is low, or the like.

この分布画像の生成に際し、分布推定手段52は物体モデル記憶手段43に記憶されている物体モデルを利用する。物体モデル記憶手段43は、予め物体の形状を近似した物体モデルを記憶している。物体モデルは、立位の人の頭部、胴部、脚部に対応する3つの回転楕円体から構成される立体モデルである。ちなみに、頭部重心を人の代表位置とする。なお、立体モデルはより単純化して人全体を1つの回転楕円体で表すものとすることもできるし、より詳細に例えば、人の頭部、胴部、両腕、両脚を別々の回転楕円体で表すものとすることもできる。 In generating this distribution image, the distribution estimation means 52 uses the object model stored in the object model storage means 43. The object model storage means 43 stores an object model in which the shape of the object is approximated in advance. The object model is a three-dimensional model composed of three spheroids corresponding to the head, torso, and legs of a standing person. By the way, the center of gravity of the head is the representative position of a person. The three-dimensional model can be simplified so that the entire person is represented by one spheroid, or in more detail, for example, the human head, torso, arms, and legs are represented by separate spheroids. It can also be represented by.

物体モデルの投影は、物体モデル記憶手段43から読み出した物体モデルと、カメラパラメータ記憶手段44から読み出したカメラパラメータとを用いて、後述する手法マップ生成処理の投影手段53と基本的に同様にして行われる。 The projection of the object model is basically the same as the projection means 53 of the method map generation process described later, using the object model read from the object model storage means 43 and the camera parameters read from the camera parameter storage means 44. Will be done.

図6は図5の撮影画像200に対応する分布画像の一例を示す模式図である。図5の領域202は上述したように符号Aおよび符号Bが対応付けられており、当該領域に対応して図6には、物体が存在すると認識された画素位置に頭部重心を置いた物体モデルの投影像210〜212が当該画素位置の推定密度に応じた色で描かれる。ここで、各投影像のハッチングは推定密度に応じた色を表しており、投影像210の網掛けは推定密度が高密度であることに対応する色(上述の例では赤色)を表しており、同様に、投影像211の横線ハッチングおよび投影像212の斜線ハッチングは中密度、低密度に対応する色(上述の例ではそれぞれ黄色、緑色)を表している。 FIG. 6 is a schematic diagram showing an example of a distribution image corresponding to the captured image 200 of FIG. As described above, the reference numeral A and the reference numeral B are associated with the region 202 of FIG. 5, and in FIG. 6, the object whose head center of gravity is placed at the pixel position recognized as the existence of the object corresponding to the region. The projected images 210 to 212 of the model are drawn in colors corresponding to the estimated density of the pixel positions. Here, the hatching of each projected image represents a color corresponding to the estimated density, and the shading of the projected image 210 represents the color corresponding to the high estimated density (red in the above example). Similarly, the horizontal line hatching of the projected image 211 and the diagonal line hatching of the projected image 212 represent colors corresponding to medium density and low density (yellow and green in the above example, respectively).

図5の領域201は上述したように符号Aのみが対応付けられており、当該領域に対応する図6の領域220の各画素は推定密度に応じた色で表示される。具体的には、領域220内の部分領域221〜223のハッチングは上述の投影像210〜212と共通の色を表しており、部分領域221は高密度、部分領域222は中密度、部分領域223は低密度と推定された領域である。 As described above, only the reference numeral A is associated with the region 201 of FIG. 5, and each pixel of the region 220 of FIG. 6 corresponding to the region is displayed in a color corresponding to the estimated density. Specifically, the hatching of the partial regions 221 to 223 in the region 220 represents the same color as the projection images 210 to 212 described above, the partial region 221 has a high density, the partial region 222 has a medium density, and the partial region 223. Is the region estimated to be low density.

なお、分布推定手段52は、撮影画像に上記分布画像を透過合成することによって分布画像を生成してもよい。或いは、分布推定手段52は、対象空間の地形や建造物を模した立体モデルの投影像に上記分布画像を透過合成することによって分布画像を生成してもよい。 The distribution estimation means 52 may generate a distribution image by transparently synthesizing the distribution image with the captured image. Alternatively, the distribution estimation means 52 may generate a distribution image by transparently synthesizing the distribution image with a projection image of a three-dimensional model that imitates the topography or a building in the target space.

分布情報出力手段31は、分布推定手段52から入力された分布情報を、表示制御部7経由で表示部8に伝送し、表示させる。 The distribution information output means 31 transmits the distribution information input from the distribution estimation means 52 to the display unit 8 via the display control unit 7 and displays the distribution information.

(手法マップ作成処理)
続いて、物体分布推定装置1の機能のうち手法マップ作成処理に関して説明する。手法マップ作成処理を行うとき(図3)、記憶部4は手法マップ記憶手段42、物体モデル記憶手段43、カメラパラメータ記憶手段44、および限界値記憶手段45等として機能し、画像処理部5は投影手段53および適用手法選択手段54等として機能する。なお、手法マップを作成するタイミングは、手法マップが未だ記憶されていないとき、視野変更が行われたとき、または推定希望領域が変更されたときである。推定希望領域は、撮影画像内において監視員が物体分布推定装置1に物体の分布を推定させたいと希望する領域である。監視員が操作部6を用いて推定希望領域を入力すると、当該領域の情報が表示制御部7および通信部3を介して画像処理部5に入力される。
(Method map creation process)
Next, among the functions of the object distribution estimation device 1, the method map creation process will be described. When performing the method map creation process (FIG. 3), the storage unit 4 functions as the method map storage means 42, the object model storage means 43, the camera parameter storage means 44, the limit value storage means 45, and the like, and the image processing unit 5 performs. It functions as a projection means 53, an application method selection means 54, and the like. The timing for creating the method map is when the method map is not yet stored, when the visual field is changed, or when the estimated desired area is changed. The estimation desired area is an area in the captured image in which the observer wants the object distribution estimation device 1 to estimate the distribution of the object. When the observer inputs the estimation desired area using the operation unit 6, the information of the area is input to the image processing unit 5 via the display control unit 7 and the communication unit 3.

投影手段53は、操作部6を用いて入力された推定希望領域を参照するとともに、物体モデル記憶手段43から物体モデル、カメラパラメータ記憶手段44からカメラパラメータをそれぞれ読み出し、推定希望領域内の各画素位置に物体モデルを投影して投影像を生成し、生成した画素位置ごとの投影像を適用手法選択手段54に出力する。 The projection means 53 refers to the estimated desired area input by using the operation unit 6, reads out the object model from the object model storage means 43 and the camera parameters from the camera parameter storage means 44, and each pixel in the estimated desired area. An object model is projected onto the positions to generate a projected image, and the generated projected image for each pixel position is output to the application method selection means 54.

例えば、投影手段53は、カメラパラメータを用いて、対象空間を模した仮想空間の高さ160cmの水平面において推定希望領域内の各画素位置と対応する3次元位置を導出する。上記の高さ160cmは、上述したように頭部重心を人の代表位置としていることに対応して、対象空間において平均的な人の頭部の高さとして予め定めた数値である。そして、投影手段53は、導出した3次元位置を基準にして仮想空間に物体モデルを配置し、カメラパラメータを用いて、配置した物体モデルを撮影部2の撮影面に投影する。 For example, the projection means 53 uses camera parameters to derive a three-dimensional position corresponding to each pixel position in the estimated desired region on a horizontal plane having a height of 160 cm in a virtual space imitating the target space. The height of 160 cm is a predetermined value as the average height of the head of a person in the target space, corresponding to the fact that the center of gravity of the head is the representative position of the person as described above. Then, the projection means 53 arranges the object model in the virtual space with reference to the derived three-dimensional position, and projects the arranged object model on the photographing surface of the photographing unit 2 by using the camera parameters.

適用手法選択手段54は、推定希望領域内の各画素位置について、当該画素位置における物体の像の解像度を各認識手段の限界解像度と比較し、物体像の解像度が限界解像度以上である認識手段を精度保証認識手段として選択する。つまり、適用手法選択手段54は、投影手段53から入力された画素位置ごとの投影像の解像度と、限界値記憶手段45に記憶されている複数の認識手段それぞれの限界解像度とを参照して、推定希望領域内の各画素位置における精度保証認識手段を選択して、画素位置と精度保証認識手段との対応関係を手法マップ記憶手段42に記憶させる。 The application method selection means 54 compares the resolution of the image of the object at the pixel position with the limit resolution of each recognition means for each pixel position in the estimation desired region, and recognizes the recognition means in which the resolution of the object image is equal to or higher than the limit resolution. Select as an accuracy guarantee recognition means. That is, the application method selection means 54 refers to the resolution of the projected image for each pixel position input from the projection means 53 and the limit resolution of each of the plurality of recognition means stored in the limit value storage means 45. The accuracy guarantee recognition means at each pixel position in the estimation desired region is selected, and the correspondence relationship between the pixel position and the accuracy guarantee recognition means is stored in the method map storage means 42.

具体的には、解像度は物体の像の画素数によって表すことができる。つまり、物体の像に対応する画素数が多いほど、その像は高解像度である。 Specifically, the resolution can be expressed by the number of pixels of the image of the object. That is, the larger the number of pixels corresponding to the image of the object, the higher the resolution of the image.

この場合、限界解像度に対応する画素数を限界画素数として定義し、限界値記憶手段45には、限界解像度として当該限界画素数を記憶させることができる。また、適用手法選択手段54は、推定希望領域内の各画素位置について、当該画素位置の投影像の画素数を計数する。画素数の計数値が当該画素位置における物体の像の解像度となり、適用手法選択手段54は、当該計数値を各認識手段の限界画素数と比較し、計数値が限界画素数以上である認識手段を精度保証認識手段として選択する。 In this case, the number of pixels corresponding to the limit resolution is defined as the limit number of pixels, and the limit value storage means 45 can store the limit number of pixels as the limit resolution. Further, the application method selection means 54 counts the number of pixels of the projected image of the pixel position for each pixel position in the estimation desired region. The count value of the number of pixels becomes the resolution of the image of the object at the pixel position, and the application method selection means 54 compares the count value with the limit number of pixels of each recognition means, and the count value is equal to or more than the limit number of pixels. Is selected as the accuracy assurance recognition means.

図7は図5の撮影画像200に対応する手法マップの一例を示す模式図である。この例では、一点鎖線で囲む推定希望領域300に対して手法マップが作成される。投影手段53は、推定希望領域300内の画素群の位置[…,(x,y),…,(x,y),…,(x,y),…]に物体モデルを投影して投影像群[…,投影像310,…,投影像320,…,投影像330,…]を生成する。これら各投影像に対応して適用手法選択手段54は、各投影像の解像度[…,r,…,r,…,r,…]を導出する。限界値記憶手段45には、密度推定手段50に付与された符号Aと対応付けてその限界解像度R、単体識別手段51に付与された符号Bと対応付けてその限界解像度Rが記憶されている。本例では、画素位置(x,y)の投影像310の解像度rについてr<R、r<Rであり、画素位置(x,y)の投影像320の解像度rについてr>R、r<Rであり、画素位置(x,y)の投影像330の解像度rについてr>R、r>Rであるとする。適用手法選択手段54は、解像度[…,r,…,r,…,r,…]をRおよびRのそれぞれと比較し、[…,(x,y)の精度保証認識手段は無し,…,(x,y)の精度保証認識手段は密度推定手段50,…,(x,y)の精度保証認識手段は密度推定手段50および単体識別手段51,…]と判定する。つまり、適用手法選択手段54は、推定希望領域300において画素位置(x,y)を含む領域311内の各画素位置については精度保証認識手段は無いと判定する一方、画素位置(x,y)を含む領域321内の各画素位置については符合Aとの関連付けを手法マップ記憶手段42に記憶させ、また、画素位置(x,y)を含む領域331内の各画素位置については符合Aおよび符号Bとの関連付けを手法マップ記憶手段42に記憶させる。 FIG. 7 is a schematic diagram showing an example of a method map corresponding to the captured image 200 of FIG. In this example, a method map is created for the estimated desired area 300 surrounded by the alternate long and short dash line. The projection means 53 is an object at the position [..., (x 1 , y 1 ), ..., (x 2 , y 2 ), ..., (x 3 , y 3 ), ...] of the pixel group in the estimated desired region 300. The model is projected to generate a projected image group [..., projected image 310, ..., projected image 320, ..., projected image 330, ...]. The application method selection means 54 derives the resolution [..., r 1 , ..., r 2 , ..., r 3 , ...] Of each projection image corresponding to each of these projection images. The limit value storing unit 45, the resolution limit R A, its resolution limit R B in association with granted code B to a single identification means 51 is stored in association with the code A given to the density estimating means 50 ing. In this example, the resolution r 1 of the projected image 310 at the pixel position (x 1, y 1) r 1 <R A, an r 1 <R B, pixel positions of the projection image 320 of (x 2, y 2) resolution r 2 r 2> R a, an r 2 <R B, r 3 > R a for the pixel position (x 3, y 3) the resolution r 3 of the projected image 330 of, if it is r 2> R B do. Application method selection means 54, the resolution [..., r 1, ..., r 2, ..., r 3, ...] is compared with each of R A and R B, [..., the accuracy of (x 1, y 1) guarantee recognition means no, ..., (x 2, y 2) accuracy guaranteed recognition means of the density estimating means 50, ..., (x 3, y 3) is guaranteed accuracy recognition means of the density estimating means 50, and a single identification means 51 , ...]. That is, the application method selection means 54 determines that there is no accuracy guarantee recognition means for each pixel position in the area 311 including the pixel position (x 1 , y 1 ) in the estimation desired area 300, while the pixel position (x 2). For each pixel position in the area 321 including, y 2 ), the association with the code A is stored in the method map storage means 42, and each pixel position in the area 331 including the pixel position (x 3 , y 3) is stored. The method map storage means 42 stores the association with the code A and the code B.

[物体分布推定装置1の動作]
図8、図9および図10のフロー図を参照して物体分布推定装置1の動作を説明する。
[Operation of object distribution estimation device 1]
The operation of the object distribution estimation device 1 will be described with reference to the flow charts of FIGS. 8, 9 and 10.

図8は物体分布推定装置1の動作の概略のフロー図である。物体分布推定装置1が動作を開始すると、イベント会場に設置されている撮影部2は所定時間おきに監視空間を撮影して撮影画像を画像処理部5が設置されている画像解析センター宛に順次送信する。そして、画像処理部5は基本的に撮影画像を受信するたびに図8のフロー図に従い、ステップS5〜S10の分布推定処理に関する動作を繰り返す。但し、手法マップを作成する必要がある場合は、ステップS5〜S10の分布推定処理に先行してステップS1〜S4の手法マップ作成処理を行う。 FIG. 8 is a schematic flow chart of the operation of the object distribution estimation device 1. When the object distribution estimation device 1 starts operation, the photographing unit 2 installed at the event venue photographs the monitoring space at predetermined time intervals, and the photographed images are sequentially addressed to the image analysis center where the image processing unit 5 is installed. Send. Then, the image processing unit 5 basically repeats the operation related to the distribution estimation processing in steps S5 to S10 according to the flow chart of FIG. 8 every time the captured image is received. However, when it is necessary to create a method map, the method map creation process of steps S1 to S4 is performed prior to the distribution estimation process of steps S5 to S10.

すなわち、操作部6から画像処理部5に推定希望領域の変更指示が入力された場合(ステップS1にて「YES」の場合)、画像処理部5は手法マップ作成処理(ステップS4)を行う。また、物体分布推定装置1の動作開始時のように手法マップがない場合、または撮影部2の視野が変更された場合は(ステップS2にて「YES」の場合)、画像処理部5は例えば、表示部8に推定希望領域の入力を求める表示を行って、操作部6からの推定希望領域の入力を待ち(ステップS3にて「NO」の場合)、推定希望領域が入力されると(ステップS3にて「YES」の場合)、手法マップ作成処理S4を行う。そして、これらの場合、画像処理部5は、手法マップ作成処理S4の後に、ステップS5〜S10の分布推定処理を行う。 That is, when the operation unit 6 inputs the change instruction of the estimation desired area to the image processing unit 5 (when “YES” in step S1), the image processing unit 5 performs the method map creation process (step S4). Further, when there is no method map such as when the operation of the object distribution estimation device 1 is started, or when the field of view of the photographing unit 2 is changed (when “YES” in step S2), the image processing unit 5 is, for example, , The display unit 8 is displayed to request the input of the estimated desired area, waits for the input of the estimated desired area from the operation unit 6 (in the case of "NO" in step S3), and when the estimated desired area is input ( If "YES" in step S3), the method map creation process S4 is performed. Then, in these cases, the image processing unit 5 performs the distribution estimation process of steps S5 to S10 after the method map creation process S4.

一方、推定希望領域の変更がなく、且つ手法マップが既に存在し、且つ視野変更が生じていない場合は(ステップS1およびS2にて「NO」の場合)、画像処理部5は手法マップ作成処理S4を省略してステップS5〜S10の分布推定処理を行う。 On the other hand, if the estimated desired area has not changed, the method map already exists, and the visual field has not changed (when “NO” in steps S1 and S2), the image processing unit 5 performs the method map creation process. The distribution estimation process of steps S5 to S10 is performed by omitting S4.

図9は手法マップ作成処理S4の概略のフロー図であり、図9を参照しつつ、手法マップ作成処理S4を説明する。 FIG. 9 is a schematic flow chart of the method map creation process S4, and the method map creation process S4 will be described with reference to FIG.

画像処理部5はステップS1またはS3にて推定希望領域が指定されると、投影手段53として動作し、推定希望領域内の各画素を順次、注目位置に設定し(ステップS40)、物体モデル記憶手段43から読み出した物体モデルを、カメラパラメータ記憶手段44から読み出したカメラパラメータに基づいて撮影部2の撮影面に投影する(ステップS41)。次に画像処理部5は適用手法選択手段54として動作し、適用手法選択手段54は、投影手段53により生成された物体の投影像の解像度を算出する(ステップS42)。 When the estimated desired area is specified in step S1 or S3, the image processing unit 5 operates as the projection means 53, sequentially sets each pixel in the estimated desired area to the attention position (step S40), and stores the object model. The object model read from the means 43 is projected onto the shooting surface of the shooting unit 2 based on the camera parameters read from the camera parameter storage means 44 (step S41). Next, the image processing unit 5 operates as the application method selection means 54, and the application method selection means 54 calculates the resolution of the projected image of the object generated by the projection means 53 (step S42).

適用手法選択手段54は、注目位置における物体数を認識する複数の認識手段それぞれについて、当該位置における物体の投影像の解像度と、当該認識手段の限界解像度とを比較して精度保証認識手段か否かを判断し、精度保証認識手段であれば手法マップに記憶させる。具体的には、本実施形態では認識手段は密度推定器および単体識別器それぞれを用いた2種類であり、それぞれを上述した認識手段IDである符号AおよびBで識別する。 The application method selection means 54 compares the resolution of the projected image of the object at the position with the limit resolution of the recognition means for each of the plurality of recognition means for recognizing the number of objects at the position of interest, and is the accuracy guarantee recognition means. If it is an accuracy guarantee recognition means, it is stored in the method map. Specifically, in the present embodiment, there are two types of recognition means using the density estimator and the single classifier, and each is identified by the above-mentioned recognition means IDs A and B.

適用手法選択手段54は、限界値記憶手段45から、符号Aと対応付けて記憶されている単体識別器の限界解像度を読み出し、投影像の解像度と当該限界解像度とを比較する。そして、投影像の解像度が限界解像度以上であれば(ステップS43にて「YES」の場合)、単体識別器を注目位置の精度保証認識手段として手法マップ記憶手段42に記憶させる(ステップS44)。一方、投影像の解像度が限界解像度未満であれば(ステップS43にて「NO」の場合)、単体識別器は注目位置の精度保証認識手段とはされずステップS44は省略される。 The application method selection means 54 reads out the limit resolution of the single classifier stored in association with the reference numeral A from the limit value storage means 45, and compares the resolution of the projected image with the limit resolution. Then, if the resolution of the projected image is equal to or higher than the limit resolution (when “YES” in step S43), the unit classifier is stored in the method map storage means 42 as the accuracy guarantee recognition means of the position of interest (step S44). On the other hand, if the resolution of the projected image is less than the limit resolution (when “NO” in step S43), the single classifier is not used as the accuracy guarantee recognition means of the position of interest, and step S44 is omitted.

ステップS43,S44での単体識別器についての精度保証認識手段の判定に続いて、ステップS45,S46にて密度推定器についての精度保証認識手段の判定を同様に行う。つまり、適用手法選択手段54は、限界値記憶手段45から、符号Bと対応付けて記憶されている密度推定器の限界解像度を読み出して、投影像の解像度と比較し、投影像の解像度が限界解像度以上であれば(ステップS45にて「YES」の場合)、密度推定器を注目位置の精度保証認識手段として手法マップ記憶手段42に記憶させ(ステップS46)、一方、投影像の解像度が限界解像度未満であれば(ステップS45にて「NO」の場合)、密度推定器は注目位置の精度保証認識手段とはされずステップS46は省略される。 Following the determination of the accuracy guarantee recognition means for the single classifier in steps S43 and S44, the determination of the accuracy guarantee recognition means for the density estimator is performed in the same manner in steps S45 and S46. That is, the application method selection means 54 reads out the limit resolution of the density estimator stored in association with the reference numeral B from the limit value storage means 45, compares it with the resolution of the projected image, and limits the resolution of the projected image. If it is equal to or higher than the resolution (when "YES" in step S45), the density estimator is stored in the method map storage means 42 as the accuracy guarantee recognition means of the position of interest (step S46), while the resolution of the projected image is limited. If it is less than the resolution (in the case of "NO" in step S45), the density estimator is not used as the accuracy guarantee recognition means of the position of interest, and step S46 is omitted.

画像処理部5は推定希望領域内の全画素についてステップS40〜S46の処理を繰り返し(ステップS47にて「NO」の場合)、全画素について完了すると(ステップS47にて「YES」の場合)、図8のステップS5に処理を進める。 The image processing unit 5 repeats the processes of steps S40 to S46 for all the pixels in the estimation desired region (when “NO” in step S47), and when all the pixels are completed (when “YES” in step S47), The process proceeds to step S5 of FIG.

ステップS5では、通信部3が画像取得手段30として動作し、撮影部2からの撮影画像の受信待ち状態となる。撮影画像を取得した画像取得手段30は当該撮影画像を画像処理部5に出力する。 In step S5, the communication unit 3 operates as the image acquisition means 30, and is in a state of waiting for reception of the captured image from the photographing unit 2. The image acquisition means 30 that has acquired the captured image outputs the captured image to the image processing unit 5.

撮影画像を入力された画像処理部5は密度推定手段50として動作し、撮影画像から密度分布を推定する(ステップS6)。具体的には、密度推定手段50は、撮影画像における推定希望領域内の各画素を注目位置として、注目位置の推定用特徴量を抽出するとともに記憶部4の密度推定器記憶手段40から密度推定器を読み出し、推定用特徴量を密度推定器に入力して注目位置における推定密度を取得する。 The image processing unit 5 to which the captured image is input operates as the density estimation means 50, and estimates the density distribution from the captured image (step S6). Specifically, the density estimation means 50 extracts the feature amount for estimation of the attention position with each pixel in the estimation desired region in the captured image as the attention position, and estimates the density from the density estimator storage means 40 of the storage unit 4. The instrument is read out, and the feature quantity for estimation is input to the density estimator to obtain the estimated density at the position of interest.

また、画像処理部5は単体識別手段51として動作し、撮影画像から物体有無を識別する(ステップS7)。具体的には、単体識別手段51は、撮影画像における推定希望領域内の各画素を注目位置として、注目位置の識別用特徴量を抽出するとともに、全身識別器100、上半身識別器101および頭部近傍識別器102のうち、ステップS6で得られた注目位置の推定密度に対応する単体識別器を単体識別器記憶手段41から読み出し、当該単体識別器に識別用特徴量を入力して物体有無を識別する。 Further, the image processing unit 5 operates as a single identification means 51 and identifies the presence or absence of an object from the captured image (step S7). Specifically, the single identification means 51 extracts the feature amount for identification of the attention position with each pixel in the estimated desired region in the captured image as the attention position, and also extracts the whole body classifier 100, the upper body classifier 101, and the head. Of the neighborhood classifier 102, the single classifier corresponding to the estimated density of the attention position obtained in step S6 is read out from the single body classifier storage means 41, and the identification feature amount is input to the single body classifier to indicate the presence or absence of an object. Identify.

推定希望領域内の各画素について、ステップS6で得られた推定密度およびステップS7で得られた物体有無は分布推定手段52に入力される。 For each pixel in the estimation desired region, the estimated density obtained in step S6 and the presence / absence of an object obtained in step S7 are input to the distribution estimation means 52.

分布推定手段52は手法マップ記憶手段42に記憶された手法マップを読み出し(ステップS8)、当該手法マップと、入力された推定密度および物体有無とから分布画像を生成する(ステップS9)。 The distribution estimation means 52 reads out the method map stored in the method map storage means 42 (step S8), and generates a distribution image from the method map and the input estimated density and the presence / absence of an object (step S9).

図10は分布画像生成処理S9の概略のフロー図であり、図10を参照しつつ、分布画像生成処理S9を説明する。分布推定手段52は推定希望領域の各画素を遠方画素から順次、注目位置に設定する(ステップS90)。そして、ステップS8にて読み出した手法マップを参照し、注目位置について単体識別手段が精度保証されているかを調べる(ステップS91)。 FIG. 10 is a schematic flow chart of the distribution image generation process S9, and the distribution image generation process S9 will be described with reference to FIG. The distribution estimation means 52 sets each pixel in the desired estimation region to the position of interest in order from the distant pixel (step S90). Then, with reference to the method map read out in step S8, it is checked whether the accuracy of the single identification means is guaranteed for the position of interest (step S91).

単体識別手段が精度保証認識手段である場合(ステップS91にて「YES」の場合)、分布推定手段52は、注目位置についてステップS7の識別結果が物体有りであるならば(ステップS92にて「YES」の場合)、注目位置における物体モデルの投影像を描画する(ステップS93)。ここで、図5を用いて説明した本実施形態の分布マップの例では、単体識別手段が精度保証認識手段である画素位置では、密度推定手段も精度保証認識手段である。そこで、ステップS93では描画する投影像を図6を用いて説明したように、ステップS6の推定密度に応じた色で描く。一方、ステップS7の識別結果が物体無しの場合は(ステップS92にて「NO」の場合)、ステップS93は省略される。 When the single identification means is the accuracy guarantee recognition means (when "YES" in step S91), the distribution estimation means 52 determines that the identification result of step S7 for the attention position has an object (in step S92, "YES"). If YES ”), a projected image of the object model at the position of interest is drawn (step S93). Here, in the example of the distribution map of the present embodiment described with reference to FIG. 5, the density estimation means is also the accuracy guarantee recognition means at the pixel position where the single identification means is the accuracy guarantee recognition means. Therefore, in step S93, the projected image to be drawn is drawn in a color corresponding to the estimated density in step S6, as described with reference to FIG. On the other hand, if the identification result in step S7 is no object (“NO” in step S92), step S93 is omitted.

単体識別手段が精度保証されていない場合は(ステップS91にて「NO」の場合)、分布推定手段52は手法マップを参照し、注目位置について密度推定手段が精度保証されているかを調べる(ステップS94)。 If the accuracy of the unit identification means is not guaranteed (in the case of "NO" in step S91), the distribution estimation means 52 refers to the method map and checks whether the density estimation means is accuracy-guaranteed for the position of interest (step). S94).

密度推定手段が精度保証認識手段である場合(ステップS94にて「YES」の場合)、分布推定手段52は、分布画像における注目位置の画素にステップS6の推定密度に応じた色を付与する(ステップS95)。一方、密度推定手段が精度保証されていない場合は(ステップS94にて「NO」の場合)、ステップS95は省略される。 When the density estimation means is an accuracy guarantee recognition means (when “YES” in step S94), the distribution estimation means 52 imparts a color corresponding to the estimated density in step S6 to the pixels at the position of interest in the distribution image (when the density estimation means is “YES” in step S94). Step S95). On the other hand, if the accuracy of the density estimation means is not guaranteed (“NO” in step S94), step S95 is omitted.

分布推定手段52は推定希望領域内の全画素についてステップS90〜S95の処理を繰り返し(ステップS96にて「NO」の場合)、全画素について完了すると(ステップS96にて「YES」の場合)、図8のステップS10に処理を進める。 The distribution estimation means 52 repeats the processes of steps S90 to S95 for all the pixels in the desired estimation region (when “NO” in step S96), and when all the pixels are completed (when “YES” in step S96), The process proceeds to step S10 of FIG.

なお、ステップS90にて注目位置を遠方画素から順に設定することで、分布画像における隠面消去が塗り重ね法で行われる。 By setting the attention positions in order from the distant pixels in step S90, the hidden surface erasure in the distributed image is performed by the recoating method.

ステップS10では、通信部3が分布情報出力手段31として動作し、分布推定手段52で生成された分布画像を表示制御部7へ出力し、表示制御部7は分布画像を表示部8に表示させる。 In step S10, the communication unit 3 operates as the distribution information output means 31, outputs the distribution image generated by the distribution estimation means 52 to the display control unit 7, and the display control unit 7 displays the distribution image on the display unit 8. ..

[変形例]
(1)上記実施形態においては、物体の像を構成する画素数を当該物体像の解像度と定義したが、物体の像の外接矩形の大きさ(すなわち画素数あるいは面積)、物体の像の高さを基準とする一定のアスペクト比の矩形の大きさ、または、物体の像の幅を基準とする一定のアスペクト比の矩形の大きさを解像度と定義しても等価である。このように定義することでテスト画像の解像度の導出が容易となる。
[Modification example]
(1) In the above embodiment, the number of pixels constituting the image of the object is defined as the resolution of the image of the object, but the size of the circumscribing rectangle of the image of the object (that is, the number of pixels or the area) and the height of the image of the object. It is also equivalent to define the size of a rectangle with a certain aspect ratio based on the resolution or the size of a rectangle with a certain aspect ratio based on the width of the image of an object as the resolution. By defining in this way, it becomes easy to derive the resolution of the test image.

(2)上記実施形態およびその変形例においては、画素数または面積を物体像の解像度と定義したが、撮影部2およびその撮影倍率が決まっている場合は撮影部2から物体までの距離と解像度との関係が一意に定まるため、当該距離によって解像度を推定することができる。つまり、物体像の解像度を表す値として撮影部2から物体までの距離を用いることができる。 (2) In the above embodiment and its modification, the number of pixels or the area is defined as the resolution of the object image, but when the photographing unit 2 and its photographing magnification are determined, the distance and resolution from the photographing unit 2 to the object. Since the relationship with is uniquely determined, the resolution can be estimated from the distance. That is, the distance from the photographing unit 2 to the object can be used as a value representing the resolution of the object image.

この場合、限界値記憶手段45には限界解像度に対応する距離(限界距離)が記憶される。投影手段53は推定希望領域内の各画素位置と対応する3次元位置を導出して撮影部2から当該3次元位置までの距離を算出し、適用手法選択手段54は投影手段53が算出した距離と限界距離とを比較して精度保証認識手段を選択する。つまり、適用手法選択手段54は、撮影画像内の位置に対して、複数の認識手段のうち、当該位置に撮影される物体についての距離が限界距離以下となるものを精度保証認識手段として選択する。そして、手法マップ記憶手段42は撮影画像内の位置と精度保証認識手段とを関連付けて記憶する。 In this case, the limit value storage means 45 stores the distance (limit distance) corresponding to the limit resolution. The projection means 53 derives a three-dimensional position corresponding to each pixel position in the estimated desired region and calculates the distance from the photographing unit 2 to the three-dimensional position, and the application method selection means 54 is the distance calculated by the projection means 53. And the limit distance are compared to select the accuracy guarantee recognition means. That is, the application method selection means 54 selects, among the plurality of recognition means, the one whose distance to the object photographed at the position is equal to or less than the limit distance as the accuracy guarantee recognition means with respect to the position in the captured image. .. Then, the method map storage means 42 stores the position in the captured image in association with the accuracy guarantee recognition means.

例えば、投影手段53は撮影画像における位置を対象空間における物体に応じた高さの水平面に逆投影して物体仮想位置を求め、適用手法選択手段54は、撮影画像内の位置に対して、当該位置に対応する物体仮想位置と撮影部2との距離と、複数の認識手段それぞれの限界距離とを比較して、当該位置に関連付ける精度保証認識手段を選出する。 For example, the projection means 53 back-projects the position in the captured image onto a horizontal plane having a height corresponding to the object in the target space to obtain the virtual position of the object, and the application method selection means 54 corresponds to the position in the captured image. The distance between the virtual position of the object corresponding to the position and the photographing unit 2 is compared with the limit distance of each of the plurality of recognition means, and the accuracy guarantee recognition means associated with the position is selected.

(3)上記実施形態およびその変形例においては、分布推定手段52は、分布情報として分布画像を生成したが、分布情報は画像表現に限らない。例えば、分布推定手段52は、分布マップにて単体識別手段51が精度保証認識手段として対応付けられている画素のうち、撮影画像にて単体識別手段51が物体の存在を認識した画素の位置を撮影部2のカメラパラメータにより対象空間に逆投影して、個々の物体が存在する3次元位置の情報を算出する。また、分布推定手段52は、分布マップにて密度推定手段50が精度保証認識手段として対応付けられている画素については、撮影画像の密度推定した画素を同一推定密度ごとの領域にまとめ、各領域を撮影部2のカメラパラメータにより対象空間に逆投影して各密度の3次元領域の情報を算出する。このようにして分布推定手段52は3次元の分布情報を生成してもよい。また、この場合、密度推定手段50および単体識別手段51の両方が対応付けられている位置に関しては、より詳細である単体識別手段51の情報のみから分布情報を生成してもよい。 (3) In the above embodiment and its modification, the distribution estimation means 52 generates a distribution image as distribution information, but the distribution information is not limited to image representation. For example, the distribution estimation means 52 determines the position of a pixel in which the single identification means 51 recognizes the existence of an object in the captured image among the pixels associated with the single identification means 51 as the accuracy guarantee recognition means in the distribution map. The information of the three-dimensional position where each object exists is calculated by back-projecting to the target space according to the camera parameters of the photographing unit 2. Further, in the distribution estimation means 52, for the pixels to which the density estimation means 50 is associated as the accuracy guarantee recognition means in the distribution map, the pixels whose density is estimated in the captured image are grouped into regions for the same estimated density, and each region. Is back-projected onto the target space according to the camera parameters of the photographing unit 2 to calculate the information of the three-dimensional region of each density. In this way, the distribution estimation means 52 may generate three-dimensional distribution information. Further, in this case, with respect to the position to which both the density estimation means 50 and the unit identification means 51 are associated, the distribution information may be generated only from the more detailed information of the unit identification means 51.

(4)上記実施形態およびその変形例においては、検出対象の物体を人とする例を示したが、これに限らず、検出対象の物体を車両、牛や羊等の動物等とすることもできる。 (4) In the above-described embodiment and its modification, an example in which the object to be detected is a human is shown, but the object to be detected may be a vehicle, an animal such as a cow or a sheep, or the like. can.

(5)上記実施形態およびその各変形例においては、多クラスSVM法にて学習した密度推定器を例示したが、多クラスSVM法に代えて、決定木型のランダムフォレスト法、多クラスのアダブースト(AdaBoost)法または多クラスロジスティック回帰法などにて学習した密度推定器など種々の密度推定器とすることができる。 (5) In the above embodiment and each modification thereof, the density estimator learned by the multi-class SVM method is illustrated, but instead of the multi-class SVM method, a decision tree type random forest method and multi-class AdaBoost are used. Various density estimators such as density estimators learned by the (AdaBoost) method or the multiclass logistic regression method can be used.

或いは識別型のCNN(Convolutional Neural Network)を用いた密度推定器とすることもできる。 Alternatively, it can be a density estimator using an identification type CNN (Convolutional Neural Network).

(6)上記実施形態およびその各変形例においては、密度推定器が推定する背景以外の密度のクラスを3クラスとしたが、より細かくクラスを分けてもよい。 (6) In the above-described embodiment and each modification thereof, the classes of densities other than the background estimated by the density estimator are set to 3 classes, but the classes may be further divided.

(7)上記実施形態およびその各変形例においては、多クラスに分類する密度推定器を例示したがこれに代えて、特徴量から密度の値(推定密度)を回帰する回帰型の密度推定器とすることもできる。すなわち、リッジ回帰法、サポートベクターリグレッション法、回帰木型のランダムフォレスト法またはガウス過程回帰(Gaussian Process Regression)などによって、特徴量から推定密度を求めるための回帰関数のパラメータを学習した密度推定器とすることができる。 (7) In the above-described embodiment and each modification thereof, a density estimator classified into multiple classes is illustrated, but instead of this, a regression-type density estimator that returns a density value (estimated density) from a feature amount. It can also be. That is, with a density estimator that has learned the parameters of the regression function for obtaining the estimated density from the features by the ridge regression method, the support vector regression method, the random forest method of the regression tree type, or the Gaussian Process Regression. can do.

或いは回帰型のCNNを用いた密度推定器とすることもできる。 Alternatively, it can be a density estimator using a regression type CNN.

(8)上記実施形態およびその各変形例においては、密度推定器が学習する特徴量および推定用特徴量としてGLCM特徴を例示したが、これらはGLCM特徴に代えて、局所二値パターン(Local Binary Pattern:LBP)特徴量、ハールライク(Haar-like)特徴量、HOG特徴量、輝度パターンなどの種々の特徴量とすることができ、またはGLCM特徴とこれらのうちの複数を組み合わせた特徴量とすることもできる。 (8) In the above-described embodiment and each modification thereof, the GLCM feature is illustrated as the feature amount learned by the density estimator and the feature amount for estimation, but these are replaced with the GLCM feature and are local binary patterns (Local Binary). Pattern: LBP) features, Haar-like features, HOG features, brightness patterns, etc. can be used, or GLCM features and a plurality of these can be combined. You can also do it.

(9)上記実施形態およびその各変形例においては、密度推定手段50および単体識別手段51が1画素間隔で走査して処理を行う例を示したが、これらの走査を2画素以上の間隔を空けて行うことも可能である。 (9) In the above-described embodiment and each modification thereof, an example is shown in which the density estimation means 50 and the unit identification means 51 scan at 1-pixel intervals to perform processing, but these scans are performed at intervals of 2 pixels or more. It is also possible to do it in the open.

(10)上記実施形態およびその各変形例においては、線形SVM法により学習された単体識別器を例示したが、線形SVM法に代えてアダブースト(AdaBoost)法など、従来知られた各種の学習法を用いて学習した単体識別器とすることもできる。また、識別器の代わりにパターンマッチング器を用いることもでき、その場合の識別スコアは人の学習用画像から抽出した特徴量の平均パターンと入力画像の特徴量との内積などとなり、識別スコア算出関数は当該スコアを出力値とし入力画像の特徴量を入力値とする関数とすることができる。また単体識別器として識別型のCNNを用いても良い。 (10) In the above-described embodiment and each modification thereof, a single classifier learned by the linear SVM method is illustrated, but various conventionally known learning methods such as the AdaBoost method are used instead of the linear SVM method. It can also be a single classifier learned using. In addition, a pattern matching device can be used instead of the classifier, and the discrimination score in that case is the inner product of the average pattern of the feature amount extracted from the human learning image and the feature amount of the input image, and the discrimination score is calculated. The function can be a function in which the score is used as an output value and the feature amount of the input image is used as an input value. Further, an identification type CNN may be used as a single classifier.

(11)上記実施形態およびその各変形例においては、単体識別器が学習する特徴量としてHOG特徴量を例示したが、これらはHOG特徴量に代えて、局所二値パターン特徴量、ハールライク特徴量、輝度パターンなどの種々の特徴量とすることができ、またはHOG特徴量とこれらのうちの複数を組み合わせた特徴量とすることもできる。 (11) In the above-described embodiment and each modification thereof, the HOG feature amount is exemplified as the feature amount learned by the single classifier, but these are the local binary pattern feature amount and the Haar-like feature amount instead of the HOG feature amount. , Brightness pattern and the like, or a combination of the HOG feature amount and a plurality of these can be used.

1 物体分布推定装置、2 撮影部、3 通信部、4 記憶部、5 画像処理部、6 操作部、7 表示制御部、8 表示部、30 画像取得手段、31 分布情報出力手段、40 密度推定器記憶手段、41 単体識別器記憶手段、42 手法マップ記憶手段、43 物体モデル記憶手段、44 カメラパラメータ記憶手段、45 限界値記憶手段、50 密度推定手段、51 単体識別手段、52 分布推定手段、53 投影手段、54 適用手法選択手段、100 全身識別器、101 上半身識別器、102 頭部近傍識別器、200 撮影画像、250 手法マップ、300 推定希望領域。 1 Object distribution estimation device, 2 Imaging unit, 3 Communication unit, 4 Storage unit, 5 Image processing unit, 6 Operation unit, 7 Display control unit, 8 Display unit, 30 Image acquisition means, 31 Distribution information output means, 40 Density estimation Instrument storage means, 41 single-unit classifier storage means, 42 method map storage means, 43 object model storage means, 44 camera parameter storage means, 45 limit value storage means, 50 density estimation means, 51 single-unit identification means, 52 distribution estimation means, 53 Projection means, 54 Applicable method selection means, 100 Whole body classifier, 101 Upper body classifier, 102 Head proximity classifier, 200 Captured image, 250 Method map, 300 Estimated desired area.

Claims (6)

撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、
それぞれが、撮影された前記物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、前記撮影画像内の任意の位置に撮影された前記物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の前記認識器を用いて前記物体数の当該範囲ごとに設けられた複数の認識手段と、
前記撮影画像内の位置と、前記複数の認識手段のうち当該位置にて前記物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、
前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した物体数から、前記空間における前記物体の分布情報を生成する分布推定手段と、
を備えたことを特徴とする物体分布推定装置。
An image acquisition means for acquiring a photographed image of a space in which a predetermined object photographed by the photographing unit may exist, and
A recognition means for recognizing the number of objects photographed at an arbitrary position in the photographed image by using a recognizer in which the characteristics of each of a plurality of types of learning images in which the number of captured objects is different are learned in advance. A plurality of recognition means provided for each range of the number of objects by using the plurality of recognizers having different ranges of the number of recognizable objects.
A storage means for storing the position in the captured image in association with the accuracy guarantee recognition means capable of recognizing the number of objects at the position with an accuracy equal to or higher than a predetermined lower limit value among the plurality of recognition means.
A distribution estimation means that generates distribution information of the object in the space from the number of objects acquired in the captured image by the accuracy guarantee recognition means stored in the storage means.
An object distribution estimation device characterized by being equipped with.
前記認識手段が前記下限値以上の精度で認識可能である前記物体の像に関しての解像度の下限値を当該認識手段の限界解像度と定め、
前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置での前記物体の像の前記解像度が前記限界解像度以上となるものを前記精度保証認識手段として関連付けて記憶していること、
を特徴とする請求項1に記載の物体分布推定装置。
The lower limit of the resolution of the image of the object that can be recognized by the recognition means with an accuracy equal to or higher than the lower limit is defined as the limit resolution of the recognition means.
The storage means associates the plurality of recognition means having the resolution of the image of the object at the position equal to or higher than the limit resolution as the accuracy guarantee recognition means with respect to the position in the captured image. I remember
The object distribution estimation device according to claim 1.
前記物体の像の画素数によって前記解像度を表し、前記限界解像度に対応する前記画素数を限界画素数として、
前記空間内に存在する前記物体を模したモデルを前記撮影部の撮影面に投影して投影像を生成する投影手段と、
前記撮影画像内の位置に対して、当該位置に生成される前記投影像の画素数と前記複数の認識手段それぞれの前記限界画素数とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、
をさらに備えたことを特徴とする請求項2に記載の物体分布推定装置。
The resolution is represented by the number of pixels of the image of the object, and the number of pixels corresponding to the limit resolution is defined as the limit number of pixels.
A projection means that generates a projected image by projecting a model that imitates the object existing in the space onto the imaging surface of the imaging unit.
The accuracy guarantee recognition means associated with the position by comparing the number of pixels of the projected image generated at the position with the limit number of pixels of each of the plurality of recognition means with respect to the position in the captured image. Selection means to select and
The object distribution estimation device according to claim 2, further comprising.
前記空間における前記撮影部から前記物体までの距離によって前記解像度を推定し、前記限界解像度に対応する前記距離を限界距離として、
前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置に撮影される前記物体についての前記距離が前記限界距離以下となるものを前記精度保証認識手段として関連付けて記憶していること、
を特徴とする請求項2に記載の物体分布推定装置。
The resolution is estimated from the distance from the photographing unit to the object in the space, and the distance corresponding to the limit resolution is set as the limit distance.
The storage means uses a plurality of recognition means whose distance with respect to the object photographed at the position is equal to or less than the limit distance with respect to the position in the captured image as the accuracy guarantee recognition means. What you associate and remember,
2. The object distribution estimation device according to claim 2.
前記撮影画像における位置を前記空間における前記物体に応じた高さの水平面に逆投影して物体仮想位置を求める投影手段と、
前記撮影画像内の位置に対して、当該位置に対応する前記物体仮想位置と前記撮影部との距離と、前記複数の認識手段それぞれの前記限界距離とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、
をさらに備えたことを特徴とする請求項4に記載の物体分布推定装置。
A projection means for obtaining a virtual position of an object by back-projecting a position in the captured image onto a horizontal plane having a height corresponding to the object in the space.
The accuracy associated with the position by comparing the distance between the virtual position of the object corresponding to the position and the photographing unit and the limit distance of each of the plurality of recognition means with respect to the position in the captured image. Selection means for selecting guarantee recognition means and
The object distribution estimation device according to claim 4, further comprising.
撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、
所定の密度ごとに当該密度にて前記物体が存在する空間を撮影した密度画像それぞれの特徴を予め学習した密度推定器を用い、前記撮影画像内の任意の位置に撮影された前記物体の前記密度を認識する密度推定手段と、
単独の前記物体が撮影された単体画像の特徴を予め学習した単体識別器を用い、前記撮影画像内の任意の位置に撮影された前記物体の有無を認識する単体識別手段と、
前記撮影画像内の位置と、前記密度推定手段および前記単体識別手段のうち当該位置にて前記物体の密度または有無を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、
前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した前記物体の密度または有無から、前記空間における前記物体の分布情報を生成する分布推定手段と、
を備えたことを特徴とする物体分布推定装置。
An image acquisition means for acquiring a photographed image of a space in which a predetermined object photographed by the photographing unit may exist, and
The density of the object photographed at an arbitrary position in the photographed image using a density estimator that has learned in advance the characteristics of each density image obtained by photographing the space in which the object exists at each predetermined density. Density estimation means to recognize
A single identification means for recognizing the presence or absence of the object photographed at an arbitrary position in the captured image by using a single classifier in which the characteristics of the single image in which the single object is photographed are learned in advance.
The position in the captured image is associated with the accuracy guarantee recognition means that can recognize the density or presence / absence of the object at the position among the density estimation means and the single unit identification means with an accuracy equal to or higher than a predetermined lower limit value. Memories to memorize
A distribution estimation means that generates distribution information of the object in the space from the density or presence / absence of the object acquired in the captured image by the accuracy guarantee recognition means stored in the storage means.
An object distribution estimation device characterized by being equipped with.
JP2017188324A 2017-09-28 2017-09-28 Object distribution estimator Active JP6920949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017188324A JP6920949B2 (en) 2017-09-28 2017-09-28 Object distribution estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017188324A JP6920949B2 (en) 2017-09-28 2017-09-28 Object distribution estimator

Publications (2)

Publication Number Publication Date
JP2019066909A JP2019066909A (en) 2019-04-25
JP6920949B2 true JP6920949B2 (en) 2021-08-18

Family

ID=66340621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017188324A Active JP6920949B2 (en) 2017-09-28 2017-09-28 Object distribution estimator

Country Status (1)

Country Link
JP (1) JP6920949B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287929B (en) * 2019-07-01 2023-09-05 腾讯科技(深圳)有限公司 Method, device, equipment and storage medium for determining number of targets in group area
US11106904B2 (en) * 2019-11-20 2021-08-31 Omron Corporation Methods and systems for forecasting crowd dynamics

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670010B2 (en) * 2005-10-17 2011-04-13 株式会社国際電気通信基礎技術研究所 Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program
JP5121508B2 (en) * 2008-03-03 2013-01-16 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
JP2015148895A (en) * 2014-02-05 2015-08-20 日本電信電話株式会社 object number distribution estimation method

Also Published As

Publication number Publication date
JP2019066909A (en) 2019-04-25

Similar Documents

Publication Publication Date Title
CN105740780B (en) Method and device for detecting living human face
JP5594672B2 (en) Object recognition apparatus and object recognition method
US8406470B2 (en) Object detection in depth images
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
JP2016099835A (en) Image processor, image processing method, and program
JP2019029935A (en) Image processing system and control method thereof
US11295113B2 (en) 3D biometric identification system for identifying animals
JP6920949B2 (en) Object distribution estimator
US20170053172A1 (en) Image processing apparatus, and image processing method
JP6893812B2 (en) Object detector
JP6851246B2 (en) Object detector
JP6773825B2 (en) Learning device, learning method, learning program, and object recognition device
JP2021149687A (en) Device, method and program for object recognition
US20230091536A1 (en) Camera Placement Guidance
JP7099809B2 (en) Image monitoring system
JP6855175B2 (en) Image processing equipment, image processing methods and programs
JP7349290B2 (en) Object recognition device, object recognition method, and object recognition program
JP6920944B2 (en) Object detector
JP6964993B2 (en) Distribution estimator
JP6905363B2 (en) Object detector
JP2020008916A (en) Object detection device, object detection program, object detection method, and learning device
JP7349288B2 (en) Object recognition device, object recognition method, and object recognition program
CN117238039B (en) Multitasking human behavior analysis method and system based on top view angle
JP6851233B2 (en) Object position estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210727

R150 Certificate of patent or registration of utility model

Ref document number: 6920949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150