JP2014164525A - Method, device and program for estimating number of object - Google Patents

Method, device and program for estimating number of object Download PDF

Info

Publication number
JP2014164525A
JP2014164525A JP2013035041A JP2013035041A JP2014164525A JP 2014164525 A JP2014164525 A JP 2014164525A JP 2013035041 A JP2013035041 A JP 2013035041A JP 2013035041 A JP2013035041 A JP 2013035041A JP 2014164525 A JP2014164525 A JP 2014164525A
Authority
JP
Japan
Prior art keywords
image
learning
objects
foreground
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013035041A
Other languages
Japanese (ja)
Inventor
Tomonori Izumitani
知範 泉谷
Kunio Kashino
邦夫 柏野
Hiroshi Murase
洋 村瀬
Yoshimune Tabuchi
義宗 田渕
Tomokazu Takahashi
友和 高橋
Ichiro Ide
一郎 井手
Daisuke Deguchi
大輔 出口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Nippon Telegraph and Telephone Corp filed Critical Nagoya University NUC
Priority to JP2013035041A priority Critical patent/JP2014164525A/en
Publication of JP2014164525A publication Critical patent/JP2014164525A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method, device, and program for estimating the number of objects capable of accurately estimating the number of objects which exist in a specific region on the basis of a photographic image photographed at a plurality of photographic positions.SOLUTION: A foreground image extraction part 30 extracts an image from a photographic image and a background image. An object existable region calculation part 32 calculates a sum x of volumes in an object existable region by a visual volume intersection method on the basis of the position and angle parameter of each camera and each foreground image. An object number estimation value calculation part 34 calculates and outputs the estimation value of the number of objects by using the parameter of regression analysis with the sum x of the volumes in the object existable region as explanatory variables and the number of objects y as objective variables. The parameter of the regression analysis to be used by the object number estimation value calculation part 34 is determined in advance by an object number estimation parameter determination part 44 of a parameter learning part 14 on the basis of learning data.

Description

本発明は、物体数推定方法、物体数推定装置、及び物体数推定プログラムにかかり、特に、複数の撮影位置で撮影された撮影画像に基づいて、特定領域内の物体の数を推定する物体数推定方法、物体数推定装置、及び物体数推定プログラムに関する。   The present invention relates to an object number estimation method, an object number estimation device, and an object number estimation program, and in particular, the number of objects for estimating the number of objects in a specific region based on captured images captured at a plurality of imaging positions. The present invention relates to an estimation method, an object number estimation device, and an object number estimation program.

近年、デジタルサイネージや広告の効果を測定する場合や、展示会等における来客数の把握、監視カメラ映像の分析等において、カメラで撮影された画像から特定領域内の人物を計算する技術が重要なものとなっている。   In recent years, when measuring the effects of digital signage and advertising, ascertaining the number of visitors at exhibitions, analyzing surveillance camera images, etc., it is important to use techniques to calculate the number of people in a specific area from images captured by cameras. It has become a thing.

カメラで撮影した画像を用いて、部屋等の特定領域に存在する人物の人数を推定する方法として、例えば、非特許文献1に記載された技術が知られている。この非特許文献1には、一台のカメラで撮影された画像を用いて、各画素が実空間での人物の表面上で占める面積に基づいて、特定領域内の人物の数を計算する技術が記載されている。   For example, a technique described in Non-Patent Document 1 is known as a method of estimating the number of persons existing in a specific area such as a room using an image captured by a camera. In this Non-Patent Document 1, a technique for calculating the number of persons in a specific region based on the area occupied by each pixel on the surface of the person in real space using an image taken by one camera. Is described.

新井啓之, 宮川勲, 小池秀樹, 長谷山美紀, “幾何モデルに基づく映像からの人数推定”, 社団法人映像情報メディア学会技術報告, Vol. 32, No. 26, pp. 33-36.Hiroyuki Arai, Isao Miyagawa, Hideki Koike, Miki Haseyama, “Estimating the number of people from images based on geometric models”, Technical Report of the Institute of Image Information and Television Engineers, Vol. 32, No. 26, pp. 33-36.

しかしながら、非特許文献1に記載された技術では、カメラから伸ばした直線上に複数の人物が並んだ場合には、一番手前の人物の後ろに隠れてしまった人物を数えることが困難である、という問題があった(図3参照)。   However, in the technique described in Non-Patent Document 1, when a plurality of persons are arranged on a straight line extending from the camera, it is difficult to count the persons hidden behind the frontmost person. (See FIG. 3).

本発明は、上記の事情を考慮してなされたものであり、複数の撮影位置で撮影した撮影画像に基づいて、特定領域内に存在する物体の数を精度良く推定することができる物体数推定方法、物体数推定装置、及び物体数推定プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and can estimate the number of objects that can accurately estimate the number of objects existing in a specific area based on captured images taken at a plurality of shooting positions. It is an object to provide a method, an object number estimation device, and an object number estimation program.

上記目的を達成するために、本発明の物体数推定方法は、撮影前景画像抽出手段によって、予め物体が存在しない状態で特定領域を複数の撮影位置から撮影した複数の背景画像と、前記複数の撮影位置から前記特定領域を撮影した複数の撮影画像と、の差分に基づいて、複数の前記撮影画像の各々から、物体を表す画像である前景画像を抽出するステップと、物体可能領域計算手段によって、前記複数の撮影位置を含む撮影条件及び前記撮影前景画像抽出手段により抽出された複数の前記前景画像に基づいて、視体積交差法を用いて得られた前記特定領域内における物体の存在可能領域の各々の体積を計算するステップと、物体数推定手段によって、複数の前記背景画像と、既知の物体数の物体が存在する前記特定領域を前記複数の前記撮影位置で撮影された複数の学習用画像とに基づいて予め求められた、前記物体の存在可能領域の体積の各々の和を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを用いて、前記物体存在可能領域計算手段により計算された前記物体各々の存在可能領域の体積の和に基づいて、前記特定領域内における物体数の推定値を計算して出力するステップと、を備える。   In order to achieve the above object, the object number estimation method according to the present invention includes a plurality of background images obtained by photographing a specific region from a plurality of photographing positions in a state where no object exists in advance by a photographing foreground image extracting unit, A step of extracting a foreground image, which is an image representing an object, from each of the plurality of photographed images based on a difference between the plurality of photographed images obtained by photographing the specific region from the photographing position; A region where an object can exist in the specific region obtained by using a visual volume intersection method based on a plurality of photographing conditions including the plurality of photographing positions and a plurality of the foreground images extracted by the photographing foreground image extracting unit. And calculating the volume of each of the plurality of the background images and the specific region where the objects having a known number of objects exist by the object number estimating means. Parameters of regression analysis, which are obtained in advance based on a plurality of learning images photographed at a position, with the sum of the volumes of the regions where the objects can exist as explanatory variables and the number of known objects as an objective variable And calculating and outputting an estimated value of the number of objects in the specific area based on the sum of the volumes of the possible areas of the objects calculated by the object possible area calculation means. .

また、本発明の物体数推定方法は、学習前景画像抽出手段によって、複数の前記背景画像と、既知の物体数の物体が存在する前記特定領域を前記複数の前記撮影位置で撮影した複数の学習用画像と、の差分に基づいて、複数の前記学習用画像毎に、物体を表す画像である学習前景画像を抽出するステップと、学習物体存在可能領域計算手段によって、前記撮影条件及び複数の前記学習前景画像に基づいて、視体積交差法を用いて得られた、前記特定領域内における物体の存在可能領域の各々の体積を計算するステップと、パラメータ決定手段によって、前記学習物体存在可能領域計算手段により計算された前記物体の存在可能領域の体積の和を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを決定するステップと、を更に備え、前記物体数推定手段は、前記パラメータ決定手段が決定したパラメータを用いて、前記特定領域内における物体数の推定値を計算して出力する回帰分析を行うことが好ましい。   In the object number estimation method of the present invention, the learning foreground image extracting means uses a plurality of learning images in which the plurality of background images and the specific area where objects with a known number of objects exist are photographed at the plurality of photographing positions. Extracting a learning foreground image, which is an image representing an object, for each of the plurality of learning images based on the difference between the image and the image for learning, and the learning object existence possible area calculation means, Based on the learning foreground image, the step of calculating each volume of the object possible area in the specific area obtained by using the visual volume intersection method, and the learning object existence possible area calculation by the parameter determining means And determining a regression analysis parameter using the sum of the volume of the object possible area calculated by the means as an explanatory variable and the number of known objects as an objective variable. Wherein the object number estimating means uses the parameter parameter determining means has determined, it is preferable to perform the regression analysis calculates and outputs an estimate of the number of objects in the specific region.

また、本発明の物体数推定方法は、学習画像特徴計算手段によって、前記学習用画像及び前記学習前景画像について、所定の画像特徴を計算するステップと、画像特徴計算手段によって、前記撮影画像及び前記前景画像について、前記所定の画像特徴を計算するステップと、を備え、前記パラメータ決定手段は、前記学習物体存在可能領域計算手段により計算された前記物体の存在可能領域の各々の体積の和及び前記学習画像特徴計算手段により前記学習用画像及び前記学習前景画像について計算された前記所定の画像特徴を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを決定し、前記物体数推定手段は、前記物体存在可能領域計算手段により計算された前記物体の存在可能領域の各々の体積の和及び前記画像特徴計算手段により前記撮影画像及び前記前景画像について計算された所定の画像特徴に基づいて、前記物体数の推定値を計算して出力することが好ましい。   Further, the object number estimation method of the present invention includes a step of calculating a predetermined image feature for the learning image and the learning foreground image by a learning image feature calculation unit, and an image feature calculation unit for calculating the captured image and the Calculating a predetermined image feature for a foreground image, and the parameter determining means includes a sum of the volumes of the object existable areas calculated by the learning object existable area calculating means and the Estimating the number of objects by determining parameters for regression analysis using the predetermined image features calculated for the learning image and the learning foreground image by the learning image feature calculation means as explanatory variables and the number of known objects as an objective variable And means for calculating a sum of volumes of the object existable areas calculated by the object existable area calculating means and the image feature meter. Based on a predetermined image features calculated for the captured image and the foreground image by means may output to calculate an estimate of the number of objects.

また、本発明の推定方法は、前記学習用画像及び前記学習前景画像について計算される前記所定の画像特徴は、複数の前記学習前景画像各々の面積と、複数の前記学習用画像各々の所定の画像特徴量とを含み、前記撮影画像及び前記前景画像について計算される前記所定の画像特徴は、複数の前記前景画像各々の面積と、複数の前記撮影画像各々の前記所定の画像特徴量とを含むことが好ましい。   Further, in the estimation method of the present invention, the predetermined image feature calculated for the learning image and the learning foreground image includes an area of each of the plurality of learning foreground images and a predetermined value of each of the plurality of learning images. The predetermined image feature calculated for the captured image and the foreground image includes an area of each of the plurality of foreground images and the predetermined image feature amount of each of the plurality of captured images. It is preferable to include.

本発明の物体数推定装置は、予め物体が存在しない状態で特定領域を複数の撮影位置から撮影した複数の背景画像と、前記複数の撮影位置から前記特定領域を撮影した複数の撮影画像と、の差分に基づいて、複数の前記撮影画像の各々から、物体を表す画像である前景画像を抽出する撮影前景画像抽出手段と、前記複数の撮影位置を含む前記撮影条件及び前記撮影前景画像抽出手段により抽出された複数の前記前景画像に基づいて、視体積交差法を用いて得られた前記特定領域内における物体の存在可能領域の各々の体積を計算する物体存在可能領域計算手段と、複数の前記背景画像と、既知の物体数の物体が存在する前記特定領域を前記複数の前記撮影位置で撮影された複数の学習用画像とに基づいて予め求められた、前記物体の存在可能領域の体積の各々の和を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを用いて、前記物体存在可能領域計算手段により計算された前記物体の存在可能領域の各々の体積の和に基づいて、前記特定領域内における物体数の推定値を計算して出力する物体数推定手段と、を備える。   The object number estimation device of the present invention is a plurality of background images obtained by photographing a specific area from a plurality of photographing positions in the absence of an object in advance, and a plurality of photographed images obtained by photographing the specific area from the plurality of photographing positions; A foreground image extracting means for extracting a foreground image, which is an image representing an object, from each of the plurality of photographed images, the photographing conditions including the plurality of photographing positions, and the photographing foreground image extracting means. An object existence possible area calculation means for calculating the volume of each of the object existence possible areas in the specific area obtained by using the visual volume intersection method based on the plurality of foreground images extracted by Presence of the object can be obtained, which is obtained in advance based on the background image and a plurality of learning images obtained by photographing the specific region in which a known number of objects are present at the plurality of photographing positions. The volume of each of the object existable areas calculated by the object existable area calculating means using the regression analysis parameters with the sum of the volume of each area as the explanatory variable and the known number of objects as the objective variable Object number estimating means for calculating and outputting an estimated value of the number of objects in the specific region based on the sum of

本発明の物体数推定プログラムは、コンピュータに、本発明の物体推定方法の各ステップを実行させるためのものである。   The object number estimation program of the present invention is for causing a computer to execute each step of the object estimation method of the present invention.

本発明の物体数推定方法、物体数推定装置、及び物体数推定プログラムによれば、複数の撮影位置で撮影した撮影画像に基づいて、特定領域内に存在する物体の数を精度良く推定することができる、という効果が得られる。   According to the object number estimation method, the object number estimation device, and the object number estimation program of the present invention, it is possible to accurately estimate the number of objects existing in a specific region based on captured images captured at a plurality of capturing positions. The effect of being able to be obtained.

第1の実施の形態の物体数推定装置の一例の概略を示すブロック図である。It is a block diagram which shows the outline of an example of the object number estimation apparatus of 1st Embodiment. 第1の実施の形態におけるカメラの配置及び計数すべき物体(人物)の一例を示す説明図である。It is explanatory drawing which shows an example of arrangement | positioning of the camera in 1st Embodiment, and the object (person) which should be counted. カメラが1台(カメラ1のみ)で図2に示した特定領域内を撮影する場合の模式図である。(A)は、特定領域を真上から見た図である。(B)は、カメラ1で撮影された撮影画像である。FIG. 3 is a schematic diagram in a case where a single camera (only camera 1) is used to image the specific area shown in FIG. (A) is the figure which looked at the specific area from right above. (B) is a photographed image photographed by the camera 1. カメラが2台(カメラ1及びカメラ2)で図2に示した特定領域内を撮影する場合の模式図である。(A)は、特定領域を真上から見た図である。(B)は、カメラ1で撮影された撮影画像である。(C)は、カメラ2で撮影された撮影画像である。It is a schematic diagram in case the inside of the specific area shown in FIG. 2 is imaged with two cameras (camera 1 and camera 2). (A) is the figure which looked at the specific area from right above. (B) is a photographed image photographed by the camera 1. (C) is a photographed image photographed by the camera 2. 第1の実施の形態の物体数推定装置の物体数推定部で実行される物体数推定処理の一例のフローチャートである。It is a flowchart of an example of the object number estimation process performed in the object number estimation part of the object number estimation apparatus of 1st Embodiment. カメラ1の撮影画像及びカメラ2の撮影画像が与えられた場合に、撮影画像に映った物体の存在し得る領域を表した説明図である。It is explanatory drawing showing the area | region where the object reflected on the picked-up image can exist when the picked-up image of the camera 1 and the picked-up image of the camera 2 are given. 複数の物体が存在する一般的な場合において、視体積交差法を用いた物体存在可能領域の体積の和の計算について説明するための説明図である。It is explanatory drawing for demonstrating the calculation of the sum of the volume of the object possible area | region using a visual volume intersection method in the general case where a several object exists. 第1の実施の形態の物体数推定装置のパラメータ学習部で実行されるパラメータ学習処理の一例のフローチャートである。It is a flowchart of an example of the parameter learning process performed in the parameter learning part of the object number estimation apparatus of 1st Embodiment. 第2の実施の形態の物体数推定装置の一例の概略を示すブロック図である。It is a block diagram which shows the outline of an example of the object number estimation apparatus of 2nd Embodiment. 第2の実施の形態の物体数推定装置の物体数推定部で実行される物体数推定処理の一例のフローチャートである。It is a flowchart of an example of the object number estimation process performed in the object number estimation part of the object number estimation apparatus of 2nd Embodiment. 第2の実施の形態の物体数推定装置のパラメータ学習部で実行されるパラメータ学習処理の一例のフローチャートである。It is a flowchart of an example of the parameter learning process performed in the parameter learning part of the object number estimation apparatus of 2nd Embodiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態は本発明を限定するものではない。
(第1の実施の形態)
本実施の形態では、具体的一例として、撮影位置が固定された2台のカメラ(いわゆる、定点観測カメラ)で撮影された撮影画像を用いて特定領域内の推定対象の物体の数(物体数)を推定する場合について説明する。なお、本実施の形態において「物体」とは、人物を含む生物及び非生物の両者を総称しており、推定対象の物体が、人物である場合を例に説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that this embodiment does not limit the present invention.
(First embodiment)
In the present embodiment, as a specific example, the number of objects to be estimated (number of objects) in a specific region using captured images captured by two cameras (so-called fixed point observation cameras) whose capturing positions are fixed. ) Will be described. In the present embodiment, “object” refers to both living things and non-living objects including a person, and a case where the object to be estimated is a person will be described as an example.

まず、本実施の形態の物体数推定装置10の概略構成について説明する。本実施の形態の物体数推定装置10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えたコンピュータを用いている。CPUが、ROMに記憶されている物体数推定処理プログラムを実行することにより、詳細を後述する物体数推定処理及びパラメータ学習処理が実行される。   First, a schematic configuration of the object number estimation apparatus 10 of the present embodiment will be described. The object number estimation apparatus 10 according to the present embodiment uses a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). When the CPU executes the object number estimation processing program stored in the ROM, the object number estimation processing and parameter learning processing, which will be described in detail later, are executed.

図1には、本実施の形態の物体数推定装置10の機能的構成の一例を表したブロック図を示す。図1に示すように本実施の形態の物体数推定装置10は、物体数推定部12、パラメータ学習部14、背景画像蓄積部20、カメラ位置・角度パラメータ蓄積部22、及び物体数推定用パラメータ蓄積部24を備えている。   FIG. 1 is a block diagram illustrating an example of a functional configuration of the object number estimation apparatus 10 according to the present embodiment. As shown in FIG. 1, the object number estimation device 10 of the present embodiment includes an object number estimation unit 12, a parameter learning unit 14, a background image storage unit 20, a camera position / angle parameter storage unit 22, and an object number estimation parameter. A storage unit 24 is provided.

背景画像蓄積部20には、予め2台のカメラ(カメラ1及びカメラ2)各々により物体が存在しない状態で特定領域を撮影した背景画像が蓄積されている。なお、本実施の形態で、「物体が存在しない状態」とは、物体数を推定する対象となる物体が存在しない状態のことをいい、物体数の推定対象とならない特定領域内に備え付けられている家具等が存在することを妨げるものではない。   In the background image storage unit 20, background images obtained by photographing a specific area in a state where no object exists by each of the two cameras (camera 1 and camera 2) are stored in advance. In the present embodiment, the “state where no object exists” means a state where there is no object for which the number of objects is to be estimated, and is provided in a specific area where the number of objects is not to be estimated. It does not prevent the existence of furniture that exists.

カメラ位置・角度パラメータ蓄積部22には、カメラ1及びカメラ2(より具体的には、各カメラのレンズ)それぞれの位置(撮影位置)及び角度パラメータが予め蓄積されている。なお、カメラ位置・角度パラメータ蓄積部22には、視体積交差法により物体存在可能領域(詳細後述)を計算するために必要なデータが蓄積されればよく、必要なデータは、視体積交差法に応じて規定されるものであり、カメラ位置・角度パラメータに限定されない。   The camera position / angle parameter storage unit 22 stores in advance the position (shooting position) and angle parameters of the camera 1 and the camera 2 (more specifically, the lens of each camera). The camera position / angle parameter accumulating unit 22 only needs to accumulate data necessary for calculating an object existence possible area (details will be described later) by the view volume intersection method. And is not limited to the camera position / angle parameter.

物体数推定用パラメータ蓄積部24には、パラメータ学習部14の物体数推定用パラメータ決定部44により決定された物体数推定用パラメータが蓄積される。   The object number estimation parameter accumulation unit 24 accumulates the object number estimation parameter determined by the object number estimation parameter determination unit 44 of the parameter learning unit 14.

物体数推定部12は、前景画像抽出部30、物体存在可能領域計算部32、及び物体数推定値計算部34を含んでいる。   The object number estimation unit 12 includes a foreground image extraction unit 30, an object existence possible region calculation unit 32, and an object number estimation value calculation unit 34.

前景画像抽出部30は、カメラ1で撮影された撮影画像と、背景画像蓄積部20に蓄積されているカメラ1の背景画像とから、カメラ1で撮影された撮影画像の前景画像を抽出する機能を有している。また、前景画像抽出部30は、カメラ2で撮影された撮影画像と、背景画像蓄積部20に蓄積されているカメラ2の背景画像とから、カメラ2で撮影された撮影画像の前景画像を抽出する機能を有している。なお、本実施の形態において「前景画像」とは、撮影画像内における物体を表す物体像をいう。撮影画像内に複数の物体像が含まれる場合は、前景画像は、全ての物体像を含む。   The foreground image extraction unit 30 has a function of extracting a foreground image of a photographed image photographed by the camera 1 from a photographed image photographed by the camera 1 and a background image of the camera 1 accumulated in the background image accumulation unit 20. have. Further, the foreground image extraction unit 30 extracts a foreground image of the photographed image photographed by the camera 2 from the photographed image photographed by the camera 2 and the background image of the camera 2 accumulated in the background image accumulation unit 20. It has a function to do. In the present embodiment, the “foreground image” refers to an object image representing an object in a captured image. When a plurality of object images are included in the captured image, the foreground image includes all object images.

物体存在可能領域計算部32は、前景画像抽出部30で抽出したカメラ1の前景画像及びカメラ2の前景画像から、視体積交差法を用いて、特定領域内における物体の存在可能領域の各々の体積の和xを計算する機能を有している。   The object existence possible area calculation unit 32 uses the view volume intersection method from the foreground image of the camera 1 and the foreground image of the camera 2 extracted by the foreground image extraction unit 30, and uses each of the object existence possibility areas in the specific area. It has a function of calculating the sum x of volumes.

物体数推定値計算部34は、物体存在可能領域計算部32により計算された物体存在可能領域の体積の和xと、物体数推定用パラメータ蓄積部24に蓄積された回帰分析のパラメータとに基づいて、回帰式に従って、物体数の推定値を計算して出力する機能を有している。   The object number estimated value calculation unit 34 is based on the sum x of the volume of the object existable region calculated by the object existable region calculation unit 32 and the regression analysis parameters stored in the object number estimation parameter storage unit 24. Thus, it has a function of calculating and outputting an estimated value of the number of objects according to the regression equation.

パラメータ学習部14は、学習前景抽出部40、学習物体存在可能領域計算部42、及び物体数推定用パラメータ決定部44を含んでいる。パラメータ学習部14は、既知の物体数の物体を特定領域内に存在させた状態でカメラ1により撮影された学習用画像及びカメラ2により撮影された学習用画像を用いて物体数推定用パラメータを学習する(決定する)機能を有している。   The parameter learning unit 14 includes a learning foreground extraction unit 40, a learning object existence possible region calculation unit 42, and an object number estimation parameter determination unit 44. The parameter learning unit 14 sets parameters for estimating the number of objects using the learning image captured by the camera 1 and the learning image captured by the camera 2 in a state where an object having a known number of objects exists in the specific region. It has a function to learn (determine).

学習前景抽出部40は、カメラ1で撮影された学習用画像と、背景画像蓄積部20に蓄積されているカメラ1の背景画像とから、カメラ1で撮影された学習用画像の前景画像を抽出する機能を有している。また、学習前景抽出部40は、カメラ2で撮影された学習用画像と、背景画像蓄積部20に蓄積されているカメラ2の背景画像とから、カメラ2で撮影された学習用画像の前景画像を抽出する機能を有している。   The learning foreground extraction unit 40 extracts the foreground image of the learning image captured by the camera 1 from the learning image captured by the camera 1 and the background image of the camera 1 stored in the background image storage unit 20. It has a function to do. The learning foreground extraction unit 40 also uses the learning image captured by the camera 2 and the background image of the camera 2 stored in the background image storage unit 20 to foreground images of the learning image captured by the camera 2. Has the function of extracting.

学習物体存在可能領域計算部42は、学習前景抽出部40で抽出したカメラ1の前景画像及びカメラ2の前景画像から、視体積交差法を用いて、特定領域内における物体の存在可能領域の体積の和xを計算する機能を有している。   The learning object existence possible area calculation part 42 uses the view volume intersection method from the foreground image of the camera 1 and the foreground image of the camera 2 extracted by the learning foreground extraction part 40, and the volume of the object existence possibility area in the specific area. The function of calculating the sum x of

物体数推定用パラメータ決定部44は、学習物体存在可能領域計算部42で計算された物体存在可能領域の体積の和xと、既知の物体数とを用いて、物体存在可能領域の各々の体積の和xを説明変数、物体数を目的変数とした回帰分析のパラメータを決定する機能を有している。   The object number estimation parameter determination unit 44 uses the sum x of the volume of the object existence possible area calculated by the learning object existence possible area calculation unit 42 and the volume of each object existence possible area using the known number of objects. The function of determining the parameters of regression analysis with the sum x of x as the explanatory variable and the number of objects as the objective variable.

次に、本実施の形態の物体数推定装置10で実行される物体数推定処理について説明する。本実施の形態の物体数推定処理では、上述したように、2台のカメラで撮影された撮影画像に基づいて、特定領域内の物体数の推定を行う。すなわち、異なる撮影位置で撮影された撮影画像に基づいて、特定領域内の物体数の推定を行う。   Next, the object number estimation process executed by the object number estimation apparatus 10 of the present embodiment will be described. In the object number estimation process according to the present embodiment, as described above, the number of objects in the specific area is estimated based on the captured images captured by the two cameras. That is, the number of objects in the specific area is estimated based on captured images captured at different imaging positions.

図2には、本実施の形態におけるカメラの配置及び計数すべき物体(人物)の一例を示す。図2に示した一例では、部屋等の区切られた空間の中に人物が存在しており、カメラ1及びカメラ2の位置、視野角、及び光軸の方向は固定としている。   FIG. 2 shows an example of the arrangement of cameras and an object (person) to be counted in the present embodiment. In the example shown in FIG. 2, a person is present in a partitioned space such as a room, and the positions, viewing angles, and optical axis directions of the cameras 1 and 2 are fixed.

ここで、図2に示した一例において、カメラが1台であり、撮影位置が1箇所の場合を考える。図3には、カメラが1台(カメラ1のみ)で図2に示した特定領域内を撮影する場合の模式図を示す。図3(A)は、特定領域を真上から見た図である。図3(B)は、カメラ1で撮影された撮影画像を示す。図3(A)の投影面における投影画像が、図3(B)に示した撮影画像に対応する。   Here, in the example shown in FIG. 2, consider a case where there is one camera and one shooting position. FIG. 3 is a schematic diagram in a case where the camera captures the inside of the specific area shown in FIG. 2 with one camera (only camera 1). FIG. 3A is a view of the specific region as viewed from directly above. FIG. 3B shows a captured image captured by the camera 1. The projection image on the projection plane in FIG. 3A corresponds to the captured image shown in FIG.

図3(A)に示したように、実際には、特定領域内に物体1〜物体4の4つの物体が存在するのにもかかわらず、図3(B)に示したように、撮影画像には2つの物体像しか映っていない。物体1〜物体3は、カメラ1から伸ばした直線状に並んでいるため、物体2及び物体3は物体1の後ろに隠れてしまう。そのため、物体が3つあるのにもかかわらず、撮影画像には、物体1の画像しか映らない。この場合は、前景画像は、1つの物体像のみが含まれる。   As shown in FIG. 3 (A), actually, as shown in FIG. 3 (B), although the four objects 1 to 4 exist in the specific region, the captured image is displayed. There are only two object images. Since the objects 1 to 3 are arranged in a straight line extending from the camera 1, the objects 2 and 3 are hidden behind the object 1. Therefore, although there are three objects, only the image of the object 1 appears in the captured image. In this case, the foreground image includes only one object image.

一方、本実施の形態のように、図4には、カメラが2台(カメラ1及びカメラ2)で図2に示した特定領域内を撮影する場合の模式図を示す。図4(A)は、特定領域を真上から見た図である。図4(B)は、カメラ1で撮影された撮影画像を示す。図4(C)は、カメラ2で撮影された撮影画像を示す。図4(A)のカメラ1の投影面における投影画像が、図4(B)に示した撮影画像に対応する。また、図4(A)のカメラ2の投影面における投影画像が、図4(C)に示した撮影画像に対応する。   On the other hand, as in the present embodiment, FIG. 4 shows a schematic diagram in the case where two cameras (camera 1 and camera 2) are used to photograph the specific area shown in FIG. FIG. 4A is a view of the specific area as viewed from directly above. FIG. 4B shows a captured image captured by the camera 1. FIG. 4C shows a photographed image photographed by the camera 2. The projection image on the projection plane of the camera 1 in FIG. 4A corresponds to the captured image shown in FIG. In addition, the projection image on the projection plane of the camera 2 in FIG. 4A corresponds to the captured image shown in FIG.

図4(C)に示したように、カメラ2の撮影画像には、4つの物体像が映っており、物体1〜物体4の全ての物体像が映っている。このように、異なる撮影位置から撮影した撮影画像を用いることにより、特定領域内に存在する物体の物体数がより正確に撮影画像に反映される。なお、一般的には、物体は不動ではなく、位置が不定なため、カメラ1及びカメラ2のいずれの撮影画像が正確であるかは判断できない。また、カメラ1及びカメラ2の両方の撮影画像が、不正確である場合もあり得る。しかしながら、カメラ1及びカメラ2からの情報を補完させることにより、より正確な物体数の推定が可能となる。   As shown in FIG. 4C, the captured image of the camera 2 shows four object images, and all object images of the objects 1 to 4 are shown. As described above, by using the photographed images taken from different photographing positions, the number of objects existing in the specific region is more accurately reflected in the photographed image. In general, since the object is not stationary and the position is indefinite, it cannot be determined which captured image of the camera 1 or the camera 2 is accurate. In addition, the captured images of both the camera 1 and the camera 2 may be inaccurate. However, by complementing the information from the camera 1 and the camera 2, the number of objects can be estimated more accurately.

図5には、本実施の形態の物体数推定装置10で実行される物体数推定処理の一例のフローチャートを示す。   FIG. 5 shows a flowchart of an example of the object number estimation process executed by the object number estimation apparatus 10 of the present embodiment.

当該物体数推定処理は、例えば、カメラ1及びカメラ2から撮影画像が物体数推定装置10に入力された場合に実行される。また、例えば、所定時間毎に、カメラ1及びカメラ2から撮影画像を物体数推定装置10が取得して、物体数推定処理を実行するようにしてもよい。実行タイミングは、特に限定されるものではなく、ユーザの所望に応じて実行するようにしてもよい。いずれにしても、物体数推定装置10のCPUが、ROMに記憶されている物体数推定プログラムを実行することにより、図5に示した物体数推定処理及び図8に示したパラメータ学習処理が実行される。   The object number estimation process is executed, for example, when captured images are input from the camera 1 and the camera 2 to the object number estimation apparatus 10. Further, for example, the object number estimation apparatus 10 may acquire a captured image from the camera 1 and the camera 2 every predetermined time, and execute the object number estimation process. The execution timing is not particularly limited, and may be executed as desired by the user. In any case, when the CPU of the object number estimation apparatus 10 executes the object number estimation program stored in the ROM, the object number estimation process shown in FIG. 5 and the parameter learning process shown in FIG. 8 are executed. Is done.

まず、ステップS100では、前景画像抽出部30が、カメラ1から入力された撮影画像を取得する。   First, in step S100, the foreground image extraction unit 30 acquires a captured image input from the camera 1.

次のステップS102では、前景画像抽出部30は、カメラ1に対応する背景画像を背景画像蓄積部20から取得する。上述したように前景画像抽出部30には、予め、特定領域内に物体が存在しない状態でカメラ1により撮影された背景画像がカメラ1に対応付けられて蓄積されている。   In the next step S102, the foreground image extraction unit 30 acquires a background image corresponding to the camera 1 from the background image storage unit 20. As described above, in the foreground image extraction unit 30, the background image captured by the camera 1 in a state where no object exists in the specific area is stored in association with the camera 1 in advance.

次のステップS104では、カメラ1で撮影された撮影画像と、前景画像抽出部30から取得した背景画像と、に基づいて、物体像に対応する前景画像を抽出する。   In the next step S104, the foreground image corresponding to the object image is extracted based on the photographed image taken by the camera 1 and the background image acquired from the foreground image extraction unit 30.

本実施の形態では、撮影画像と背景画像との差分を用いて前景画像を抽出する。本実施の形態では、抽出方法として、撮影画像のRGB値と背景画像のRGB値との差分の大きな画素を検出することにより撮影画像内の物体像の領域を特定し、特定した領域を前景画像として抽出している。   In the present embodiment, the foreground image is extracted using the difference between the captured image and the background image. In the present embodiment, as an extraction method, an object image area in the captured image is identified by detecting pixels with a large difference between the RGB value of the captured image and the RGB value of the background image, and the identified area is identified as the foreground image. As extracted.

なお、差分に使うための値は、特に限定されず、例えば、RGB値の他に、色空間を表現する一般的な数値を用いることができる。また、差分の計算方法は、例えば、RGB値をベクトルとみた場合のベクトル差のノルム等、一般に使用される距離尺度を用いることができる。   Note that the value used for the difference is not particularly limited, and for example, a general numerical value expressing the color space can be used in addition to the RGB value. As a difference calculation method, for example, a commonly used distance measure such as a norm of a vector difference when an RGB value is regarded as a vector can be used.

また、前景画像の抽出の精度を上げるためには、例えば、文献(長屋茂喜, 宮武孝分, 藤田武洋, 上田博唯, 伊藤敬一, “時間相関型背景判定法による移動物体検出”, 電子情報通信学会論文誌, J79-D-II(4), pp.568-576.)に記載されている既存の手法を用いてもよい。   In order to improve the accuracy of foreground image extraction, for example, literature (Shigeki Nagaya, Takatake Miyatake, Takehiro Fujita, Hiroyuki Ueda, Keiichi Ito, “Moving Object Detection by Time Correlation Background Judgment”, electronic information You may use the existing method described in IEICE Transactions Journal, J79-D-II (4), pp.568-576.

このように、抽出方法は、特に限定されず、既存の手法を用いればよい。   Thus, the extraction method is not particularly limited, and an existing method may be used.

次のステップS106では、全カメラの撮影画像から前景画像を抽出したか否か判断する。抽出していない場合、例えば、本実施の形態では、カメラ1の前景画像しか抽出していない場合は、ステップS100に戻り、本処理を繰り返してカメラ2の撮影画像から前景画像を抽出する。一方、全カメラの撮影画像から前景画像を抽出した場合は、ステップS108へ進む。なお、このように各カメラ毎に前景を抽出する処理を繰り返すのではなく、各ステップの処理を全カメラの撮影画像に対して同時に行うようにしてもよい。   In the next step S106, it is determined whether foreground images have been extracted from the captured images of all cameras. If not extracted, for example, in the present embodiment, if only the foreground image of the camera 1 is extracted, the process returns to step S100 to repeat this process and extract the foreground image from the captured image of the camera 2. On the other hand, if foreground images are extracted from the images captured by all cameras, the process proceeds to step S108. Instead of repeating the process of extracting the foreground for each camera in this way, the process of each step may be performed simultaneously on the captured images of all the cameras.

ステップS108では、物体存在可能領域計算部32が、カメラ1及びカメラ2の位置(撮影位置)及び角度パラメータをカメラ位置・角度パラメータ蓄積部22から取得する。上述したようにカメラ位置・角度パラメータ蓄積部22には、予め、カメラ1及びカメラ2それぞれの位置(撮影位置)及び角度パラメータがそれぞれ対応付けられて蓄積されている。   In step S <b> 108, the object existence possible area calculation unit 32 acquires the positions (photographing positions) and angle parameters of the camera 1 and the camera 2 from the camera position / angle parameter storage unit 22. As described above, the camera position / angle parameter storage unit 22 stores the positions (shooting positions) and angle parameters of the cameras 1 and 2 in association with each other in advance.

次のステップS110では、物体存在可能領域計算部32が、前景画像抽出部30で抽出したカメラ1の前景画像、カメラ2の前景画像、及び各カメラのカメラ位置・角度パラメータに基づいて、実空間における物体存在可能領域の各々xを視体積交差法を用いて計算し、物体存在可能領域の各々の体積の和xを計算する。   In the next step S110, the object existence possible area calculation unit 32 performs real space based on the foreground image of the camera 1 extracted by the foreground image extraction unit 30, the foreground image of the camera 2, and the camera position / angle parameters of each camera. Each of the object existable regions x is calculated using the visual volume intersection method, and the sum x of the volumes of the object existable regions is calculated.

ここで、図6及び図7を用いて視体積交差法について説明する。図6は、カメラ1の撮影画像及びカメラ2の撮影画像が与えられた場合に、撮影画像内の前景画像が表す物体の存在し得る領域を表した説明図である。   Here, the visual volume intersection method will be described with reference to FIGS. 6 and 7. FIG. 6 is an explanatory diagram showing an area where the object represented by the foreground image in the photographed image can exist when the photographed image of the camera 1 and the photographed image of the camera 2 are given.

図6に示すように、物体を撮影した場合、カメラ1の投影面には、物体の物体像1が映る。また、カメラ2の投影面には、物体の物体像2が映る。カメラ1の投影面は、カメラ1の撮影画像に対応し、カメラ2の投影面は、カメラ2の撮影画像に対応している。カメラ1の物体像1による視体積1は、カメラ1の物体像1から得られる物体が存在しうる領域であり、錘状の形状をしている。また、カメラ2の物体像2による視体積2は、カメラ2の物体像2から得られる物体が存在しうる領域であり、錘状の形状をしている。視体積1と視体積2との共通領域が、カメラ1及びカメラ2を用いた場合の物体が存在することができる領域である物体存在可能領域となる。   As shown in FIG. 6, when an object is photographed, the object image 1 of the object is reflected on the projection surface of the camera 1. Further, the object image 2 of the object appears on the projection surface of the camera 2. The projection surface of the camera 1 corresponds to the captured image of the camera 1, and the projection surface of the camera 2 corresponds to the captured image of the camera 2. The viewing volume 1 by the object image 1 of the camera 1 is an area where an object obtained from the object image 1 of the camera 1 can exist, and has a weight shape. The visual volume 2 by the object image 2 of the camera 2 is an area where an object obtained from the object image 2 of the camera 2 can exist and has a weight shape. The common area of the viewing volume 1 and the viewing volume 2 is an object existence possible area that is an area where an object can exist when the camera 1 and the camera 2 are used.

物体存在可能領域の体積は、一般に「視体積交差法」と呼ばれる方法で、空間内の微少領域を数えることで計算することができる。具体的には、例えば、文献(Toshikazu Wada, Xiaojun Wu, Shogo Tokai, Takashi Matsuyama, “Homography Based Parallel Volume Intersection: Toward Real-Time Volume Reconstruction Using Active Cameras”, In proceedings of Fifth IEEE International Workshop on Computer Architectures for Machine Perception, 2000. )に記載されているSpacecarving methodや、Volume interesection method(VIM)を用いることができる。なお、視体積交差法は、当該方法に限定されるものではなく、その他の既存の手法を用いてもよい。   The volume of the object existable region can be calculated by counting the minute regions in the space by a method generally called “visual volume intersection method”. Specifically, for example, literature (Toshikazu Wada, Xiaojun Wu, Shogo Tokai, Takashi Matsuyama, “Homography Based Parallel Volume Intersection: Toward Real-Time Volume Reconstruction Using Active Cameras”, In proceedings of Fifth IEEE International Workshop on Computer Architectures for Machine Perception, 2000.) Spacecarving method and Volume interesection method (VIM) can be used. Note that the visual volume intersection method is not limited to this method, and other existing methods may be used.

図7は、複数の物体が存在する一般的な場合において、視体積交差法を用いた物体存在可能領域の体積の和xの計算について説明するための説明図である。図7に示した特定領域は、例えば、部屋等の実空間上の物体を計数すべき領域を示している。特定領域は、実際には3次元空間であるが、一般性を失わないため、説明の簡略化のため、図7では、2次元で表している。なお、特定領域は、実施に壁等で区切られた空間であってもよいし、壁がなどの区切りがない空間内の仮想的な領域でもよい。また、特定領域を、限定された領域(範囲)として指定しないことも可能である。   FIG. 7 is an explanatory diagram for explaining the calculation of the sum x of the volumes of the object existence possible area using the visual volume intersection method in a general case where a plurality of objects exist. The specific area shown in FIG. 7 indicates an area where an object in real space such as a room should be counted. The specific area is actually a three-dimensional space, but since it does not lose generality, it is represented in two dimensions in FIG. The specific area may be a space that is partitioned by a wall or the like in practice, or may be a virtual area in a space where the wall is not partitioned. It is also possible not to designate the specific area as a limited area (range).

図7中に示した3つの物体が、特定領域内の計数すべき物体を表している。従って、図7に示した場合では、物体数は「3」になる。図7に示した物体存在可能領域1〜8が、視体積交差法で求められる物体存在可能領域である。図7に示した場合では、物体存在可能領域2、4、8が、実際に物体が含まれている部分である。その他の物体存在可能領域1、3、5、6、7は、実際には物体が含まれていないが、カメラ1の撮影画像及びカメラ2の撮影画像からだけでは、実際に物体が含まれているか否かを判断することはできない。   Three objects shown in FIG. 7 represent objects to be counted in the specific area. Therefore, in the case shown in FIG. 7, the number of objects is “3”. The object existence possible areas 1 to 8 shown in FIG. 7 are the object existence possibility areas obtained by the visual volume intersection method. In the case illustrated in FIG. 7, the object existence possible areas 2, 4, and 8 are portions that actually include the object. The other object existence possible areas 1, 3, 5, 6, and 7 do not actually include an object, but the object is actually included only from the captured image of the camera 1 and the captured image of the camera 2. It cannot be judged whether or not.

本実施の形態では、視体積交差法を用いて計算された物体存在可能領域1〜8の全ての領域の体積の和xを物体数の推定に用いる。物体存在可能領域1〜8の全ての領域の体積の和は、単純に実空間内のボクセル等の微少領域の個数でもよいし、立法センチメートル、立法メートル、及びリットル等の尺度を用いてもよく、特に限定されるものではない。   In the present embodiment, the sum x of the volumes of all the object existence possible regions 1 to 8 calculated using the visual volume intersection method is used for estimating the number of objects. The sum of the volumes of all the object existence possible areas 1 to 8 may be simply the number of minute areas such as voxels in the real space, or may be a scale such as a cubic centimeter, a cubic metric, and a liter. Well, not particularly limited.

物体存在可能領域計算部32では、このようにして前景画像抽出部30で抽出したカメラ1の前景画像、カメラ2の前景画像、及び各カメラのカメラ位置・角度パラメータに基づいて、実空間における物体存在可能領域の体積の和xを視体積交差法を用いて計算する。   Based on the foreground image of the camera 1, the foreground image of the camera 2, and the camera position / angle parameters of each camera, the object existence possible area calculation unit 32 performs the object in the real space. The sum x of the volumes of the possible regions is calculated using the visual volume intersection method.

次のステップS112では、物体数推定値計算部34が、物体存在可能領域計算部32から受け取った物体存在可能領域の体積の和xと、物体数推定用パラメータ蓄積部24に蓄積されているパラメータとを用いて、物体数の推定値を計算する。物体数の推定値の計算方法は、物体存在可能領域の体積の和xを説明変数、物体数を目的変数とした、一般に用いられている統計的手法である回帰分析を用いている。   In the next step S112, the object number estimated value calculation unit 34 receives the sum x of the volume of the object existable region received from the object existable region calculation unit 32 and the parameters accumulated in the object number estimation parameter accumulation unit 24. Are used to calculate the estimated number of objects. The method for calculating the estimated value of the number of objects uses regression analysis, which is a commonly used statistical method, in which the sum x of the volume of the object existable region is an explanatory variable and the number of objects is an objective variable.

最も単純な一次式による回帰(単回帰)では、物体数の推定値をyとすると、回帰式を下記(1)式で表すことができる。

Figure 2014164525
・・・(1)式

(1)式のパラメータであるw及びwの値は、物体数が事前に分かっている学習用画像から作られた物体存在可能領域の体積の和xと既知の物体数との多数の組み合わせを用いて、パラメータ学習部14で回帰分析により予め決定して、物体数推定用パラメータ蓄積部24に蓄積させておく(詳細後述)。 In regression (single regression) based on the simplest linear equation, if the estimated value of the number of objects is y, the regression equation can be expressed by the following equation (1).
Figure 2014164525
... (1) Formula

The values of w 0 and w 1 that are the parameters of the equation (1) are a large number of the sum x of the volume of the object existence possible area made from the learning image whose number of objects is known in advance and the number of known objects. Using the combination, the parameter learning unit 14 determines in advance by regression analysis, and stores it in the object number estimation parameter storage unit 24 (details will be described later).

なお、(1)式では、回帰式として一次式を用いたが、下記(2)式で表したように、n次式に拡張した場合や、下記(3)式で表したように、変数を予め定めた関数φ(x)により拡張した場合においても、複数の説明変数を用いた回帰分析である重回帰分析を用いることで物体数の推定値を計算することができる。

Figure 2014164525
・・・(2)式

Figure 2014164525
・・・(3)式

次のステップS114では、計算した物体数yを所定の出力先に出力した後、本処理を終了する。なお、物体数yを整数値として出力する場合は、回帰分析により算出したyそのものではなく、下記(4)式で示した物体数yを四捨五入した値y’等を出力する。
Figure 2014164525
・・・(4)式

物体数yの出力先は、例えば、ディスプレイやタブレット端末等の表示装置であってもよい。また、例えば、出力先は、物体数推定装置10内の物体数蓄積部(図示省略)等の記憶部等であってもよい。このように出力先は、特に限定されるものではなく、ユーザの所望に応じて予め定めておけばよい。 In equation (1), a linear equation was used as a regression equation. However, as expressed in equation (2) below, when the equation is expanded to n-order equation, or as expressed in equation (3) below, a variable Can be expanded by a predetermined function φ i (x), the estimated number of objects can be calculated by using multiple regression analysis which is regression analysis using a plurality of explanatory variables.
Figure 2014164525
... (2) formula

Figure 2014164525
... (3) formula

In the next step S114, the calculated number of objects y is output to a predetermined output destination, and then this process is terminated. When the number of objects y is output as an integer value, a value y ′ obtained by rounding off the number y of objects shown in the following equation (4) is output instead of y calculated by regression analysis.
Figure 2014164525
... (4) formula

The output destination of the number of objects y may be a display device such as a display or a tablet terminal, for example. Further, for example, the output destination may be a storage unit such as an object number accumulating unit (not shown) in the object number estimating apparatus 10. Thus, the output destination is not particularly limited, and may be determined in advance according to the user's desire.

本実施の形態では、このように、物体数推定処理により、推定値である物体数yを出力することができる。   In this embodiment, the object number y that is an estimated value can be output by the object number estimation process in this way.

次に、物体数推定部12の物体数推定値計算部34の回帰分析において用いられるパラメータの決定について説明する。   Next, determination of parameters used in the regression analysis of the object number estimated value calculation unit 34 of the object number estimation unit 12 will be described.

まず、物体の数、大きさ、形状、及び置の少なくとも1つが異なる複数回にわたって、毎回、カメラ1及びカメラ2の各々から学習用画像を取得する。本実施の形態において、学習用画像とは、パラメータの学習用に既知の物体数の物体を特定領域内に配置した状態で撮影した画像をいう。取得したカメラ1及びカメラ2の学習用画像に、人手でカウントした物体数を対応付けて、学習データとし、複数回にわたって得られた複数の学習データを、メモリ(図示省略)に格納しておく。   First, a learning image is acquired from each of the camera 1 and the camera 2 over a plurality of times in which at least one of the number, size, shape, and position of the objects is different. In the present embodiment, the learning image refers to an image captured in a state where objects of a known number of objects are arranged in a specific area for parameter learning. The acquired learning images of the camera 1 and the camera 2 are associated with the number of objects counted manually to obtain learning data, and a plurality of learning data obtained a plurality of times are stored in a memory (not shown). .

視体積交差法により計算される物体存在可能領域や、前景画像等は、物体の位置、大きさ、及び形状等の物体の状態や条件等により異なり、様々な値をとり得る。そこで、本実施の形態では、物体の状態や条件等を変化させることにより、変化させた状態で撮影した学習用画像を用いて、後述するように、前景画像を抽出して物体存在可能領域の体積の和xtrと、既知の物体数との組み合わせを複数得るようにしている。具体的一例として本実施の形態では、特定領域内で物体をランダムに移動させながら、所定のタイミングで学習用画像を取得している。また、本実施の形態では、物体数を変化させて同様に物体をランダムに移動させながら、所定のタイミングで学習用画像を取得している。物体の状態や条件等の変化のさせ方や、学習データの取得個数は、回帰分析において有意義なパラメータを得られるものであればよく、既存の手法を用いてもよい。 The object existence possible area calculated by the view volume intersection method, the foreground image, and the like vary depending on the state and condition of the object such as the position, size, and shape of the object, and can take various values. Therefore, in the present embodiment, by changing the state or condition of the object, the foreground image is extracted and the object existence possible region is extracted using the learning image captured in the changed state as described later. A plurality of combinations of the volume sum x tr and the known number of objects are obtained. As a specific example, in the present embodiment, a learning image is acquired at a predetermined timing while an object is randomly moved within a specific region. In the present embodiment, the learning image is acquired at a predetermined timing while the number of objects is changed and the objects are similarly moved randomly. The method of changing the state and condition of the object and the number of learning data to be acquired are not particularly limited as long as a meaningful parameter can be obtained in the regression analysis, and an existing method may be used.

なお、物体の状態や条件等の変更は、物体数推定装置10が行うのではなく、ユーザ等が行うようにしている。   It should be noted that the change of the state and condition of the object is not performed by the object number estimation device 10 but is performed by the user or the like.

図8には、本実施の形態のパラメータ学習部14におけるパラメータ学習処理の一例のフローチャートを示す。   FIG. 8 shows a flowchart of an example of parameter learning processing in the parameter learning unit 14 of the present embodiment.

当該パラメータ学習処理は、物体数推定部12で物体数推定処理を行う前に予め実行されるものである。実行のタイミングは、例えば、物体数推定用のカメラを新たに設けた場合やカメラの設定(撮影位置等を含む撮影条件)を変更した場合に実行するようにしてもよい。実行タイミングは、特に限定されるものではなく、ユーザの所望に応じて実行するようにしてもよい。いずれにしても、物体数推定装置10のCPUが、ROMに記憶されている物体数推定プログラムを実行することにより、図8に示したパラメータ学習処理が実行される。なお、当該パラメータ学習処理は、上述の物体数推定処理と同様の処理を含むため、同様の処理については、その旨を記し、詳細な説明を省略する。なお、本実施の形態において撮影条件とは、撮影する側(カメラ)の撮影における条件のことをいう。   The parameter learning process is executed in advance before the object number estimation unit 12 performs the object number estimation process. The execution timing may be executed, for example, when a camera for estimating the number of objects is newly provided or when the camera settings (shooting conditions including the shooting position) are changed. The execution timing is not particularly limited, and may be executed as desired by the user. In any case, the CPU of the object number estimation apparatus 10 executes the object number estimation program stored in the ROM, whereby the parameter learning process shown in FIG. 8 is executed. Since the parameter learning process includes the same process as the above-described object number estimation process, the same process is described as such and a detailed description thereof is omitted. In the present embodiment, the shooting condition refers to conditions for shooting on the shooting side (camera).

まず、ステップS200では、学習前景抽出部40が、メモリから、1つの学習データのカメラ1の学習用画像を取得する。   First, in step S200, the learning foreground extraction unit 40 acquires the learning image of the camera 1 of one piece of learning data from the memory.

次のステップS202では、学習前景抽出部40は、カメラ1に対応する背景画像を背景画像蓄積部20から取得する。上述したように背景画像蓄積部20には、予め、特定領域内に物体が存在しない状態でカメラ1により撮影された背景画像がカメラ1に対応付けられて蓄積されている。   In the next step S <b> 202, the learning foreground extraction unit 40 acquires a background image corresponding to the camera 1 from the background image storage unit 20. As described above, in the background image storage unit 20, background images captured by the camera 1 in a state where no object exists in the specific area are stored in association with the camera 1 in advance.

次のステップS204では、カメラ1で撮影された学習用画像と、背景画像蓄積部20から取得した背景画像と、に基づいて、学習用画像から前景画像を抽出する。学習前景抽出部40における前景画像の抽出方法は、上述した前景画像抽出部30における前景画像の抽出方法と同様である。すなわち、学習前景抽出部40は、学習用画像と背景画像との差分を用いて前景画像を抽出する。   In the next step S204, a foreground image is extracted from the learning image based on the learning image captured by the camera 1 and the background image acquired from the background image storage unit 20. The method for extracting the foreground image in the learning foreground extraction unit 40 is the same as the method for extracting the foreground image in the foreground image extraction unit 30 described above. That is, the learning foreground extraction unit 40 extracts the foreground image using the difference between the learning image and the background image.

次のステップS206では、全カメラの学習用画像から前景画像を抽出したか否か判断する。抽出していない場合、例えば、本実施の形態では、カメラ1の前景画像しか抽出していない場合は、ステップS200に戻り、本処理を繰り返してカメラ2の学習用画像から前景画像を抽出する。一方、全カメラの学習用画像から前景画像を抽出した場合は、ステップS208へ進む。なお、このように各カメラ毎に前景を抽出する処理を繰り返すのではなく、各ステップの処理を全カメラの学習用画像に対して同時に行うようにしてもよい。   In the next step S206, it is determined whether foreground images have been extracted from the learning images for all cameras. If not extracted, for example, in the present embodiment, if only the foreground image of the camera 1 has been extracted, the process returns to step S200, and this process is repeated to extract the foreground image from the learning image of the camera 2. On the other hand, when foreground images are extracted from the learning images of all cameras, the process proceeds to step S208. Instead of repeating the process of extracting the foreground for each camera as described above, the process of each step may be performed simultaneously on the learning images of all the cameras.

ステップS208では、学習物体存在可能領域計算部42が、カメラ1及びカメラ2の位置(撮影位置)及び角度パラメータをカメラ位置・角度パラメータ蓄積部22から取得する。   In step S <b> 208, the learning object possible area calculation unit 42 acquires the positions (photographing positions) and angle parameters of the camera 1 and camera 2 from the camera position / angle parameter storage unit 22.

次のステップS210では、学習物体存在可能領域計算部42が、学習前景抽出部40で抽出したカメラ1の前景画像、カメラ2の前景画像、及び各カメラのカメラ位置・角度パラメータに基づいて、実空間における物体存在可能領域の体積の和xtrを視体積交差法を用いて計算する。学習物体存在可能領域計算部42における視体積交差法による物体存在可能領域の体積の和xtrの計算方法は、上述した物体存在可能領域計算部32における視体積交差法による物体存在可能領域の体積の和xtrの計算方法と同様である。 In the next step S210, the learning object existence possible area calculation unit 42 performs an actual operation based on the foreground image of the camera 1 extracted by the learning foreground extraction unit 40, the foreground image of the camera 2, and the camera position / angle parameters of each camera. The sum x tr of the volume of the object existence possible area in the space is calculated using the visual volume intersection method. The calculation method of the sum x tr of the volume of the object existence possible area by the visual volume intersection method in the learning object possible area calculation unit 42 is the volume of the object existence possible area by the visual volume intersection method in the object existence possible area calculation unit 32 described above. This is the same as the method of calculating the sum x tr of.

次のステップS212では、物体数推定用パラメータ決定部44が、メモリから、当該学習データの既知の物体数を取得する。   In the next step S212, the object number estimation parameter determination unit 44 acquires the number of known objects of the learning data from the memory.

次のステップS214では、物体数推定用パラメータ決定部44が、取得した物体数と、学習物体存在可能領域計算部42から受け取った物体存在可能領域の体積の和xtrと、を対応付けて保持する。 In the next step S214, the object number estimation parameter determination unit 44 stores the acquired number of objects in association with the sum x tr of the volume of the object existence possible area received from the learning object existence area calculation unit 42. To do.

次のステップ216では、全ての学習データについて、上記ステップS200〜S214の処理を実行したか否か判断する。なお、カメラの設置された特定領域の環境に物体の大きさや配置等が依存する場合は、当該環境を考慮した物体の状態や条件等に応じた学習データを取得して、物体存在可能領域の体積の和xtrと、既知の物体数との組み合わせを取得することにより、物体数推定装置10による物体数の推定精度をより向上させることができる。 In the next step 216, it is determined whether or not the processing in steps S200 to S214 has been executed for all learning data. If the size or arrangement of the object depends on the environment of the specific area where the camera is installed, learning data corresponding to the state or condition of the object considering the environment is acquired, and the object existence possible area By acquiring the combination of the volume sum x tr and the number of known objects, the accuracy of estimating the number of objects by the object number estimation device 10 can be further improved.

ステップ216では、上記ステップS200〜S214の処理を実行していない学習データが存在する場合は、ステップ200に戻り、当該学習データについて、上記ステップS200〜S214の処理を繰り返して、物体存在可能領域の体積の和xtrと、既知の物体数との組み合わせを取得して物体数推定用パラメータ決定部44が保持する。 In step 216, if there is learning data that has not been subjected to the processing in steps S200 to S214, the process returns to step 200, and the processing in steps S200 to S214 is repeated for the learning data to determine the object existence possible area. The combination of the volume sum x tr and the known number of objects is acquired and held by the object number estimation parameter determination unit 44.

一方、全ての学習データについて、上記ステップS200〜S214の処理を実行した場合、例えば、物体存在可能領域の体積の和xtrと、既知の物体数との組み合わせを取得した場合は、ステップS218へ進む。 On the other hand, when the processing of steps S200 to S214 is executed for all the learning data, for example, when the combination of the volume sum x tr of the object existable regions and the number of known objects is acquired, the process proceeds to step S218. move on.

ステップS218では、物体数推定用パラメータ決定部44が保持した物体存在可能領域の体積の和xtrと、既知の物体数との全ての組み合わせから、物体数推定値計算部34で用いる回帰分析のパラメータを決定する。具体的には、上記(1)式で表される回帰分析を行う場合は、パラメータとは、パラメータw、wのことをいう。また、上記(2)式で表される回帰分析を行う場合は、パラメータとは、パラメータw、w、・・・wのことをいう。 In step S218, the regression analysis used in the object number estimation value calculation unit 34 is performed from all combinations of the volume sum x tr of the object existable regions held by the object number estimation parameter determination unit 44 and the known number of objects. Determine the parameters. Specifically, when the regression analysis represented by the above equation (1) is performed, the parameters refer to the parameters w 0 and w 1 . Further, the (2) When performing a regression analysis of the formula is a parameter, the parameter w 0, w 1, refers to · · · w n.

次のステップS220では、物体数推定用パラメータ決定部44が、決定したパラメータを物体数推定用パラメータ蓄積部24に蓄積させた後、本処理を終了する。
(第2の実施の形態)
本実施の形態では、物体存在可能領域に加えて、前景画像抽出部30で抽出された前景画像の面積等の二次元画像の特徴を回帰分析の説明変数として用いて特定領域内の物体数の推定を行う。本実施の形態の物体数推定装置は、第1の実施の形態の物体数推定装置10と同様の構成及び動作(処理)を含むため、同様の構成及び動作(処理)について、その旨を記し、詳細な説明を省略する。
In the next step S220, the object number estimation parameter determination unit 44 stores the determined parameters in the object number estimation parameter storage unit 24, and then ends the present process.
(Second Embodiment)
In the present embodiment, in addition to the object existence possible region, the feature of the two-dimensional image such as the area of the foreground image extracted by the foreground image extraction unit 30 is used as an explanatory variable for regression analysis to determine the number of objects in the specific region. Make an estimate. Since the object number estimation device of the present embodiment includes the same configuration and operation (processing) as the object number estimation device 10 of the first embodiment, the same configuration and operation (processing) are described as such. Detailed description will be omitted.

まず、本実施の形態の物体数推定装置10の概略構成について説明する。本実施の形態の物体数推定装置10は、第1の実施の形態と同様に、コンピュータを用いており、CPUが、ROMに記憶されているプログラムを実行することにより、詳細を後述する物体数推定処理が実行される。   First, a schematic configuration of the object number estimation apparatus 10 of the present embodiment will be described. As in the first embodiment, the object number estimation apparatus 10 of the present embodiment uses a computer, and the CPU executes a program stored in the ROM so that the number of objects whose details will be described later is used. An estimation process is executed.

図9には、本実施の形態の物体数推定装置10の機能的構成の一例を表したブロック図を示す。図9に示すように本実施の形態の物体数推定装置10は、第1の実施の形態の物体数推定装置10と比較して、物体数推定部12が画像面積・特徴計算部38を備えており、パラメータ学習部14が学習画像面積・特徴計算部48を備えている点が異なっている。   FIG. 9 is a block diagram illustrating an example of a functional configuration of the object number estimation apparatus 10 according to the present embodiment. As shown in FIG. 9, in the object number estimation device 10 of the present embodiment, the object number estimation unit 12 includes an image area / feature calculation unit 38 as compared to the object number estimation device 10 of the first embodiment. The parameter learning unit 14 includes a learning image area / feature calculation unit 48.

画像面積・特徴計算部38は、前景画像抽出部30からカメラ1の前景画像及びカメラ2の前景画像を取得し、各前景画像の特徴を計算する。また、画像面積・特徴計算部38は、カメラ1の撮影画像及びカメラ2の撮影画像から、画像特徴を計算する。計算した各撮影画像の画像特徴は、画像特徴を表す画像特徴量として、撮影画像毎に物体数推定値計算部34に出力される。   The image area / feature calculation unit 38 acquires the foreground image of the camera 1 and the foreground image of the camera 2 from the foreground image extraction unit 30, and calculates the feature of each foreground image. The image area / feature calculation unit 38 calculates an image feature from the captured image of the camera 1 and the captured image of the camera 2. The calculated image feature of each captured image is output to the object number estimated value calculation unit 34 for each captured image as an image feature amount representing the image feature.

学習画像面積・特徴計算部48は、学習前景抽出部40からカメラ1の前景画像及びカメラ2の前景画像を取得し、各前景画像の画像特徴を計算する。また、学習画像面積・特徴計算部48は、カメラ1の学習用画像及びカメラ2の学習用画像から、画像特徴を計算する。計算した各学習用画像の画像特徴は、画像特徴を表す画像特徴量として、学習用画像毎に物体数推定値計算部34に出力される。   The learning image area / feature calculation unit 48 acquires the foreground image of the camera 1 and the foreground image of the camera 2 from the learning foreground extraction unit 40, and calculates the image feature of each foreground image. The learning image area / feature calculation unit 48 calculates image features from the learning image of the camera 1 and the learning image of the camera 2. The calculated image feature of each learning image is output to the object number estimated value calculation unit 34 for each learning image as an image feature amount representing the image feature.

次に、本実施の形態の物体数推定装置10で実行される物体数推定処理について説明する。図10には、本実施の形態の物体数推定装置10で実行される物体数推定処理の一例のフローチャートを示す。   Next, the object number estimation process executed by the object number estimation apparatus 10 of the present embodiment will be described. FIG. 10 shows a flowchart of an example of the object number estimation process executed by the object number estimation apparatus 10 of the present embodiment.

本実施の形態の物体数推定処理のステップS300、ステップS302、ステップS304、及びステップS306は、第1の実施の形態で実行される物体数推定処理(図5参照)のステップS100、ステップS102、ステップS104、及びステップS106と同様である。   Step S300, step S302, step S304, and step S306 of the object number estimation process of the present embodiment are steps S100, S102, and the object number estimation process (see FIG. 5) executed in the first embodiment. It is the same as step S104 and step S106.

すなわち、ステップS300では、前景画像抽出部30が、カメラ1から入力された撮影画像を取得する。次のステップS302では、前景画像抽出部30が、カメラ1に対応する背景画像を背景画像蓄積部20から取得する。次のステップS304では、カメラ1で撮影された撮影画像と、背景画像蓄積部20から取得した背景画像と、に基づいて、物体像に対応する前景画像を抽出する。   That is, in step S300, the foreground image extraction unit 30 acquires a captured image input from the camera 1. In the next step S302, the foreground image extraction unit 30 acquires a background image corresponding to the camera 1 from the background image storage unit 20. In the next step S304, a foreground image corresponding to the object image is extracted based on the photographed image photographed by the camera 1 and the background image acquired from the background image storage unit 20.

次のステップS306では、全カメラの撮影画像から前景画像を抽出したか否か判断する。抽出していない場合は、ステップS300に戻り、本処理を繰り返す。一方、全カメラの撮影画像から前景画像を抽出した場合は、ステップS308へ進む。なお、本実施の形態では、ステップS306では、ステップS308へ進むのと共に、ステップS312へ進む。   In the next step S306, it is determined whether foreground images have been extracted from the captured images of all cameras. If not extracted, the process returns to step S300 to repeat this process. On the other hand, if foreground images are extracted from the images captured by all cameras, the process proceeds to step S308. In the present embodiment, in step S306, the process proceeds to step S308 and to step S312.

本実施の形態の物体数推定処理のステップS308及びステップS310は、第1の実施の形態で実行される物体数推定処理(図5参照)のステップS108及びステップS110と同様である。   Steps S308 and S310 of the object number estimation process of the present embodiment are the same as steps S108 and S110 of the object number estimation process (see FIG. 5) executed in the first embodiment.

すなわち、ステップS308では、物体存在可能領域計算部32が、カメラ1及びカメラ2の位置(撮影位置)及び角度パラメータをカメラ位置・角度パラメータ蓄積部22から取得する。次のステップS310では、物体存在可能領域計算部32が、前景画像抽出部30で抽出したカメラ1の前景画像、カメラ2の前景画像、及び各カメラのカメラ位置・角度パラメータに基づいて、実空間における物体存在可能領域を視体積交差法を用いて計算し、物体存在可能領域の各々の体積の和xを計算する。   That is, in step S <b> 308, the object existence possible area calculation unit 32 acquires the camera 1 and camera 2 positions (shooting positions) and angle parameters from the camera position / angle parameter storage unit 22. In the next step S310, the object existence possible area calculation unit 32 calculates the real space based on the foreground image of the camera 1 extracted by the foreground image extraction unit 30, the foreground image of the camera 2, and the camera position / angle parameters of each camera. Is calculated using the view volume intersection method, and the sum x of the volumes of the object existable areas is calculated.

一方、ステップS312では、画像面積・特徴計算部38が前景画像抽出部30で抽出したカメラ1の前景画像及びカメラ2の前景画像の面積を計算する。なお、本実施の形態では、前景画像に複数の物体像が含まれている場合は、全ての物体像の面積の和を計算している。また、取得した前景画像各々の面積を計算しており、前景画像各々の面積の合算は行わない。前景画像の面積の計算方法としては、例えば、前景となる画素の画素数をカウントして、当該前景画像上での面積を計算してもよい。なお、単位はピクセル数でもよいし、正規化した値であってもよい。   On the other hand, in step S312, the image area / feature calculation unit 38 calculates the areas of the foreground image of the camera 1 and the foreground image of the camera 2 extracted by the foreground image extraction unit 30. In the present embodiment, when a plurality of object images are included in the foreground image, the sum of the areas of all the object images is calculated. In addition, the area of each acquired foreground image is calculated, and the areas of each foreground image are not added. As a method for calculating the area of the foreground image, for example, the number of pixels in the foreground may be counted to calculate the area on the foreground image. The unit may be the number of pixels, or a normalized value.

次のステップS314では、画像面積・特徴計算部38が前景画像抽出部30からカメラ1の撮影画像及びカメラ2の撮影画像を取得する。なお、カメラ1の撮影画像及びカメラ2の撮影画像は、前景画像抽出部30から取得するのではなく、前景画像抽出部30と同様に、直接カメラ1及びカメラ2から取得するようにしてもよい。   In the next step S 314, the image area / feature calculation unit 38 acquires the captured image of the camera 1 and the captured image of the camera 2 from the foreground image extraction unit 30. Note that the captured image of the camera 1 and the captured image of the camera 2 may not be acquired from the foreground image extraction unit 30, but may be directly acquired from the camera 1 and the camera 2 as in the foreground image extraction unit 30. .

また、画像面積・特徴計算部38は、撮影画像毎に画像特徴量を計算して物体数推定値計算部34に出力する。すなわち、撮影画像の数(本実施の形態では2つ)分の画像特徴量が、出力される。画像特徴量は、例えば、エッジ抽出等の画像処理を行うことで計算されたエッジの長さの和であるが、これに限定されるものではなく、画像の特徴を表す画像特徴量であれば、特に限定されず、既知の手法を用いればよい。なお、画像面積・特徴計算部38は、1つの画像特徴(上記例ではエッジ)に関する画像特徴量に限定されず、複数種類の画像特徴に関する画像特徴量を計算し、複数の値を物体数推定値計算部34に出力するようにしてもよい。以下では、このような画像特徴量と前景画像の面積とを含めて、画像特徴という。   The image area / feature calculation unit 38 calculates an image feature amount for each captured image and outputs the image feature amount to the object number estimated value calculation unit 34. That is, image feature amounts corresponding to the number of captured images (two in the present embodiment) are output. The image feature amount is, for example, the sum of the edge lengths calculated by performing image processing such as edge extraction, but is not limited to this, and any image feature amount representing an image feature There is no particular limitation, and a known method may be used. Note that the image area / feature calculation unit 38 is not limited to the image feature amount related to one image feature (the edge in the above example), and calculates the image feature amount related to a plurality of types of image features, and estimates the plurality of values to the number of objects. You may make it output to the value calculation part 34. FIG. Hereinafter, the image feature amount and the area of the foreground image are referred to as an image feature.

次のステップS316では、物体数推定値計算部34が、物体存在可能領域計算部32から取得した物体存在可能領域の体積の和xと、画像面積・特徴計算部38から取得した画像特徴量と、物体数推定用パラメータ蓄積部24に蓄積されているパラメータとを用いて、物体数の推定値を計算する。本実施の形態においても物体数の推定値の計算方法は、物体存在可能領域の体積の和x及び画像特徴量を説明変数、物体数を目的変数とした、一般に用いられている統計的手法である回帰分析を用いている。なお、本実施の形態では、説明変数が複数あるため、重回帰分析を行う。   In the next step S316, the object number estimated value calculation unit 34 calculates the sum x of the volume of the object existable region acquired from the object existable region calculation unit 32 and the image feature amount acquired from the image area / feature calculation unit 38. The estimated number of objects is calculated using the parameters accumulated in the parameter accumulation unit 24 for estimating the number of objects. Also in the present embodiment, the method for calculating the estimated value of the number of objects is a commonly used statistical method using the sum x of the volume of the object existable region and the image feature amount as explanatory variables and the number of objects as an objective variable. A regression analysis is used. In this embodiment, since there are a plurality of explanatory variables, multiple regression analysis is performed.

物体存在可能領域の和x及び画像特徴量をベクトル「x」で表現することにする。ベクトル「x」の1番目の要素に「1」を追加した、下記(5)式で表される新たなベクトルを導入すると、物体数yを推定する重回帰分析は、回帰式を下記(6)式で表すことができる。

Figure 2014164525
・・・(5)式

Figure 2014164525
・・・(6)式

(6)式において、aは、回帰係数を並べた縦ベクトルで、ベクトル「x」と同じ次元数である。 The sum x of the object existence possible area and the image feature amount are expressed by a vector “x”. When a new vector represented by the following equation (5) with “1” added to the first element of the vector “x” is introduced, the multiple regression analysis for estimating the number of objects y represents the regression equation (6 ) Expression.
Figure 2014164525
... (5) formula

Figure 2014164525
... (6) formula

In (6), a is the vertical vector obtained by arranging regression coefficients, the same number of dimensions as vector "x ~."

また、上記(3)式と同様に、ベクトル入力からスカラー値を出力する下記(7)式で表される関数を導入すると、ベクトル「x」を下記(8)式で表すこともできる。

Figure 2014164525
・・・(7)式

Figure 2014164525
・・・(8)式

次のステップS318は、計算した物体数yを、第1の実施の形態と同様に、所定の出力先に出力した後、本処理を終了する。 Further, similarly to the above (3), the introduction of the function represented by the following equation (7) for outputting a scalar value from the vector inputs may represent a vector "x ~" in the following equation (8).
Figure 2014164525
... (7) formula

Figure 2014164525
... (8) formula

In the next step S318, the calculated number of objects y is output to a predetermined output destination in the same manner as in the first embodiment, and then this process is terminated.

本実施の形態では、このように、物体数推定処理により、推定値である物体数yを出力することができる。   In this embodiment, the object number y that is an estimated value can be output by the object number estimation process in this way.

次に、本実施の形態における、物体数推定部12の物体数推定値計算部34の回帰分析において用いられるパラメータの決定について説明する。図11には、本実施の形態のパラメータ学習部14におけるパラメータ学習処理の一例のフローチャートを示す。   Next, determination of parameters used in the regression analysis of the object number estimation value calculation unit 34 of the object number estimation unit 12 in the present embodiment will be described. FIG. 11 shows a flowchart of an example of parameter learning processing in the parameter learning unit 14 of the present embodiment.

本実施の形態のパラメータ学習処理のステップS400、ステップS402、ステップS404、及びステップS406は、第1の実施の形態で実行されるパラメータ学習処理(図8参照)のステップS200、ステップS202、ステップS204、及びステップS206と同様である。   Step S400, step S402, step S404, and step S406 of the parameter learning process of the present embodiment are steps S200, S202, and S204 of the parameter learning process (see FIG. 8) executed in the first embodiment. , And step S206.

すなわち、ステップS400では、学習前景抽出部40が、メモリから、1つの学習データのカメラ1の学習用画像を取得する。次のステップS402では、学習前景抽出部40が、カメラ1に対応する背景画像を背景画像蓄積部20から取得する。次のステップS404では、カメラ1で撮影された学習用画像と、背景画像蓄積部20から取得した背景画像と、に基づいて、物体像に対応する前景画像を抽出する。   That is, in step S400, the learning foreground extraction unit 40 acquires the learning image of the camera 1 of one learning data from the memory. In the next step S <b> 402, the learning foreground extraction unit 40 acquires a background image corresponding to the camera 1 from the background image storage unit 20. In the next step S404, the foreground image corresponding to the object image is extracted based on the learning image captured by the camera 1 and the background image acquired from the background image storage unit 20.

次のステップS406では、全カメラの撮影画像から前景画像を抽出したか否か判断する。抽出していない場合は、ステップS400に戻り、本処理を繰り返す。一方、全カメラの撮影画像から前景画像を抽出した場合は、ステップS408へ進む。なお、本実施の形態では、上記物体数推定処理と同様にステップS406では、ステップS408へ進むのと共に、ステップS412へ進む。   In the next step S406, it is determined whether or not foreground images have been extracted from the images captured by all cameras. If not extracted, the process returns to step S400 to repeat this process. On the other hand, if foreground images have been extracted from the captured images of all cameras, the process proceeds to step S408. In the present embodiment, similarly to the object number estimation process, in step S406, the process proceeds to step S408 and to step S412.

本実施の形態のパラメータ学習処理のステップS408及びステップS410は、第1の実施の形態で実行されるパラメータ学習処理(図8参照)のステップS208及びステップS210と同様である。   Step S408 and step S410 of the parameter learning process of the present embodiment are the same as step S208 and step S210 of the parameter learning process (see FIG. 8) executed in the first embodiment.

すなわち、ステップS408では、学習物体存在可能領域計算部42が、カメラ1及びカメラ2の位置(撮影位置)及び角度パラメータをカメラ位置・角度パラメータ蓄積部22から取得する。次のステップS410では、学習物体存在可能領域計算部42が、学習前景抽出部40で抽出したカメラ1の前景画像、カメラ2の前景画像、及び各カメラのカメラ位置・角度パラメータに基づいて、実空間における物体存在可能領域の体積の和xtrを視体積交差法を用いて計算する。 That is, in step S <b> 408, the learning object possible area calculation unit 42 acquires the positions (photographing positions) and angle parameters of the cameras 1 and 2 from the camera position / angle parameter storage unit 22. In the next step S410, the learning object existence possible area calculation unit 42 performs an actual operation based on the foreground image of the camera 1 extracted by the learning foreground extraction unit 40, the foreground image of the camera 2, and the camera position / angle parameters of each camera. The sum x tr of the volume of the object existence possible area in the space is calculated using the visual volume intersection method.

一方、ステップS412では、学習画像面積・特徴計算部48が前景画像抽出部30で抽出したカメラ1の前景画像及びカメラ2の前景画像の面積を計算する。なお、本実施の形態では、前景画像に複数の物体像が含まれている場合は、全ての物体像の面積の和を計算している。なお、学習画像面積・特徴計算部48による、前景画像の面積の計算方法は、上述した画像面積・特徴計算部38と同様にすればよい。   On the other hand, in step S 412, the learning image area / feature calculation unit 48 calculates the areas of the foreground image of the camera 1 and the foreground image of the camera 2 extracted by the foreground image extraction unit 30. In the present embodiment, when a plurality of object images are included in the foreground image, the sum of the areas of all the object images is calculated. The method for calculating the area of the foreground image by the learning image area / feature calculation unit 48 may be the same as that of the image area / feature calculation unit 38 described above.

次のステップS414では、学習画像面積・特徴計算部48が学習前景抽出部40からカメラ1の撮影画像及びカメラ2の撮影画像を取得する。   In the next step S 414, the learning image area / feature calculation unit 48 acquires the captured image of the camera 1 and the captured image of the camera 2 from the learning foreground extraction unit 40.

また、学習画像面積・特徴計算部48は、学習用画像毎に、画像特徴量を計算した画像特徴量を物体数推定用パラメータ決定部44に出力する。画像特徴量及びその計算方法は、上述した画像面積・特徴計算部38と同様にすればよい。   Further, the learning image area / feature calculation unit 48 outputs the image feature amount calculated for the image feature amount to the object number estimation parameter determination unit 44 for each learning image. The image feature amount and its calculation method may be the same as those of the image area / feature calculation unit 38 described above.

次のステップS416、ステップS418、及びステップS420は、第1の実施の形態で実行されるパラメータ学習処理(図8参照)のステップS212、ステップS214、及びステップS216と同様である。   The next step S416, step S418, and step S420 are the same as step S212, step S214, and step S216 of the parameter learning process (see FIG. 8) executed in the first embodiment.

すなわち、ステップS416では、物体数推定用パラメータ決定部44が、メモリから、当該学習データの既知の物体数を取得する。次のステップS418では、物体数推定用パラメータ決定部44が、取得した物体数と、学習物体存在可能領域計算部42から受け取った物体存在可能領域の体積の和xtrと、を対応付けて保持する。次のステップS420では、物体数推定用パラメータ決定部44が、全ての学習データについて、上記ステップS400〜S418の処理を実行したか否か判断する。上記ステップS400〜S418の処理を実行していない学習データが存在する場合は、ステップ400に戻り、当該学習データについて、上記ステップS400〜S418の処理を繰り返して、物体存在可能領域の体積の和xtrと、既知の物体数との組み合わせを取得して物体数推定用パラメータ決定部44が保持する。一方、全ての学習データに対して、上記ステップS400〜S418の処理を実行した場合は、ステップS422へ進む。 That is, in step S416, the object number estimation parameter determination unit 44 acquires the known number of objects of the learning data from the memory. In the next step S418, the object number estimation parameter determination unit 44 stores the acquired number of objects in association with the sum x tr of the volume of the object existence possible area received from the learning object existence area calculation unit 42. To do. In the next step S420, the object number estimation parameter determination unit 44 determines whether or not the processing in steps S400 to S418 has been executed for all learning data. If there is learning data that has not been subjected to the processing of steps S400 to S418, the process returns to step 400, and the processing of steps S400 to S418 is repeated for the learning data, and the volume x of the object existence possible area x The combination of tr and the known number of objects is acquired and held by the object number estimation parameter determination unit 44. On the other hand, when the processing of steps S400 to S418 has been executed for all learning data, the process proceeds to step S422.

ステップS422では、物体数推定用パラメータ決定部44が保持した物体存在可能領域の体積の和xtrと、画像特徴量と、既知の物体数との全ての組み合わせから、物体数推定値計算部34で用いる回帰分析のパラメータを決定する。具体的には、上記本実施の形態の物体数推定処理において説明した重回帰分析の各パラメータからなるベクトルaを決定する。 In step S422, the object number estimation value calculation unit 34 is obtained from all combinations of the volume sum x tr of the object existence possible area held by the object number estimation parameter determination unit 44, the image feature amount, and the number of known objects. Determine the parameters of the regression analysis used in. Specifically, the vector a composed of each parameter of the multiple regression analysis described in the object number estimation process of the present embodiment is determined.

なお、重回帰分析における説明変数が多数ある場合は、その中に相関が高い変数の組み合わせがあると、動作が不安定となることがある。これを避けるためには、例えば、文献(Trevor Hastie, Robert Tibshirani, Jerome Friedman, “The Elements of Statistical Learning,” Springer, 2001.)に記載されている技術等、一般的に知られている技術を用いてもよい。なお、第1の実施の形態においても、重回帰分析を行う場合は、このような技術を用いるようにするとよい。   When there are a large number of explanatory variables in the multiple regression analysis, if there are combinations of variables having a high correlation among them, the operation may become unstable. In order to avoid this, for example, generally known techniques such as those described in the literature (Trevor Hastie, Robert Tibshirani, Jerome Friedman, “The Elements of Statistical Learning,” Springer, 2001.) are used. It may be used. Also in the first embodiment, such a technique is preferably used when performing multiple regression analysis.

また、非線形を含めた一般の回帰において、関数φ(x)を導入する替わりに、例えば、文献(Nello Cristianini , John Shawe‐Taylor, 大北 剛 (翻訳), “サポートベクターマシン入門”, 共立出版, 2005.)に記載されているような、サポートベクトル回帰(SVR)を用いるようにしてもよい。   Also, instead of introducing the function φ (x) in general regression including nonlinearity, for example, literature (Nello Cristianini, John Shawe-Taylor, Takeshi Ohkita (translation), “Introduction to Support Vector Machine”, Kyoritsu Publishing , 2005.), support vector regression (SVR) may be used.

次のステップS420では、物体数推定用パラメータ決定部44は、決定したパラメータを物体数推定用パラメータ蓄積部24に蓄積させた後、本処理を終了する。   In the next step S420, the object number estimation parameter determination unit 44 stores the determined parameters in the object number estimation parameter storage unit 24, and then ends this process.

以上説明したように、上記各実施の形態によれば、物体数推定装置10が、物体数推定部12、パラメータ学習部14、背景画像蓄積部20、カメラ位置・角度パラメータ蓄積部22、及び物体数推定用パラメータ蓄積部24を備えている。前景画像抽出部30は、カメラ1及びカメラ2で撮影された撮影画像と背景画像蓄積部20に蓄積されている各カメラに対応する背景画像とから各撮影画像に応じた前記画像を抽出する。物体存在可能領域計算部32は、カメラ位置・角度パラメータ蓄積部22から取得した各カメラの位置及び角度パラメータと、各前景画像と、に基づいて視体積交差法により、物体存在可能領域の体積の和xを計算する。物体数推定値計算部34は、物体存在可能領域の体積の和xを説明変数、物体数yを目的変数とした回帰分析のパラメータを用いて、物体数の推定値を計算して出力する。物体数推定値計算部34が用いる、回帰分析のパラメータは、予めパラメータ学習部14の物体数推定用パラメータ決定部44により決定され、物体数推定用パラメータ蓄積部24に蓄積される。物体数推定用パラメータ決定部44は、学習データに基づいて、パラメータ学習部14の学習前景抽出部40及び学習物体存在可能領域計算部42により上記と同様にして計算された学習用画像における物体存在可能領域の体積の和xtrを説明変数、既知の物体数ytrを目的変数とした回帰分析のパラメータを決定する。 As described above, according to each of the above embodiments, the object number estimation device 10 includes the object number estimation unit 12, the parameter learning unit 14, the background image storage unit 20, the camera position / angle parameter storage unit 22, and the object. A number estimation parameter storage unit 24 is provided. The foreground image extraction unit 30 extracts the image corresponding to each captured image from the captured images captured by the cameras 1 and 2 and the background image corresponding to each camera stored in the background image storage unit 20. The object existence possible area calculation unit 32 calculates the volume of the object existence possibility area by the visual volume intersection method based on the position and angle parameters of each camera acquired from the camera position / angle parameter accumulation unit 22 and each foreground image. Calculate the sum x. The object number estimated value calculation unit 34 calculates and outputs an estimated value of the number of objects using a regression analysis parameter in which the sum x of the volume of the object existable region is an explanatory variable and the number of objects y is an objective variable. The parameters for regression analysis used by the object number estimation value calculation unit 34 are determined in advance by the object number estimation parameter determination unit 44 of the parameter learning unit 14 and stored in the object number estimation parameter storage unit 24. Based on the learning data, the object number estimation parameter determination unit 44 includes the object presence in the learning image calculated in the same manner as described above by the learning foreground extraction unit 40 and the learning object existence possible region calculation unit 42 of the parameter learning unit 14. The regression analysis parameters are determined with the sum of the volumes of the possible regions x tr as the explanatory variable and the known number of objects y tr as the objective variable.

このように、物体数推定装置10では、異なる撮影位置で撮影された撮影画像を用いて特定領域内の物体数の推定を行っているため、一つの撮影位置で撮影された撮影画像では前の物体に隠れてしまう後ろの物体の位置を考慮することが可能となる。   As described above, the object number estimation apparatus 10 estimates the number of objects in the specific area using the captured images captured at different capturing positions. Therefore, the captured image captured at one capturing position is the previous one. It is possible to consider the position of the object behind that is hidden by the object.

また、パラメータ学習部14による統計的分析である回帰分析を用いているため、様々な物体の状態や条件等に対応することができる。物体存在可能領域計算部32及び学習物体存在可能領域計算部42で計算する物体存在可能領域の体積の和x、xtrは、物体の個体差、物体の位置による視体積の違い、及び物体の配置等により、物体数が同じ場合であっても、様々な値を取り得る。しかしながら、本発明では、統計的分析である回帰分析を用いているため、このような物体の個体差、物体の位置による視体積の違い、及び物体の配置等を確定することなく、特定領域における物体数の推定値を精度良く計算して出力することができる。 Further, since regression analysis which is statistical analysis by the parameter learning unit 14 is used, it is possible to deal with various object states and conditions. The sum x, xtr of the volume of the object existable area calculated by the object existable area calculating unit 32 and the learning object possible area calculating unit 42 is the individual difference of the object, the difference in the visual volume depending on the position of the object, and the object Even if the number of objects is the same due to the arrangement, various values can be taken. However, since regression analysis, which is statistical analysis, is used in the present invention, such an individual difference in an object, a difference in visual volume depending on the position of the object, an arrangement of the object, and the like can be determined in a specific region. The estimated number of objects can be accurately calculated and output.

従って、本発明の複数の撮影位置で撮影した撮影画像に基づいて、特定領域内に存在する物体の数を精度良く推定することができる。   Therefore, the number of objects existing in the specific area can be accurately estimated based on the captured images captured at a plurality of capturing positions according to the present invention.

また、第2の実施の形態では、画像面積・特徴計算部38及び学習画像面積・特徴計算部48で計算された画像特徴も回帰分析の説明変数として用いているため、物体数の推定精度をより良くすることができる。   In the second embodiment, since the image features calculated by the image area / feature calculation unit 38 and the learning image area / feature calculation unit 48 are also used as explanatory variables for regression analysis, the estimation accuracy of the number of objects is increased. Can be better.

なお、上記各実施の形態では、2台のカメラを用いた場合、すなわち撮影位置が2箇所の場合について説明したがこれに限らない。撮影位置が、2箇所以上であれば特に限定されず、撮影位置の数は、特定領域やユーザの所望等に応じた数とすればよい。なお、1台のカメラが移動することにより、複数の撮影位置から撮影を行うものであってもよい。この場合は、例えば、撮影位置と背景画像とを対応付けて背景画像蓄積部20に蓄積させておき、また、各撮影位置のカメラ位置及び角度パラメータをカメラ位置・角度パラメータ蓄積部22に蓄積させておき、撮影画像に撮影位置を示す情報が付加されて入力されるようにするとよい。   In each of the above embodiments, the case where two cameras are used, that is, the case where there are two shooting positions has been described, but the present invention is not limited to this. The number of shooting positions is not particularly limited as long as it is two or more, and the number of shooting positions may be a number according to a specific area, a user's desire, or the like. In addition, you may image | photograph from several imaging | photography positions, when one camera moves. In this case, for example, the shooting position and the background image are associated with each other and stored in the background image storage unit 20, and the camera position and angle parameter of each shooting position are stored in the camera position / angle parameter storage unit 22. It is preferable that information indicating the shooting position is added to the captured image and input.

また、上位各実施の形態では、撮影画像及び学習用画像が静止画像である場合について説明したが、動画像を用いてもよい。動画像を用いる場合は、静止画像に対応する各フレームの画像を用いることにより上記各実施の形態と同様にして物体数の推定を行うことができる。   In each of the upper embodiments, the case where the captured image and the learning image are still images has been described, but a moving image may be used. When using a moving image, the number of objects can be estimated in the same manner as in each of the above embodiments by using an image of each frame corresponding to a still image.

また、上記各実施の形態では、物体数を推定する物体が人物である場合について説明したが、これに限らず、人物以外の物体(例えば、車両等)であってもよい。   In each of the above embodiments, the case where the object whose number of objects is estimated is a person. However, the present invention is not limited to this, and an object other than a person (for example, a vehicle or the like) may be used.

その他、上記各実施の形態で説明した物体数推定装置10、物体数推定部12、及びパラメータ学習部14の構成及び動作、また、物体数推定処理及びパラメータ学習処理は一例であり、本発明の主旨を逸脱しない範囲内において状況に応じて変更可能であることは言うまでもない。   In addition, the configurations and operations of the object number estimation device 10, the object number estimation unit 12, and the parameter learning unit 14 described in the above embodiments, and the object number estimation process and the parameter learning process are examples. Needless to say, it can be changed according to the situation without departing from the spirit of the present invention.

10 物体数推定装置
12 物体数推定部
14 パラメータ学習部
30 前景画像抽出部
32 物体存在可能領域計算部
34 物体数推定値計算部
38 画像面積・特徴計算部
DESCRIPTION OF SYMBOLS 10 Object number estimation apparatus 12 Object number estimation part 14 Parameter learning part 30 Foreground image extraction part 32 Object existence possible area | region calculation part 34 Object number estimated value calculation part 38 Image area and feature calculation part

Claims (6)

撮影前景画像抽出手段によって、予め物体が存在しない状態で特定領域を複数の撮影位置から撮影した複数の背景画像と、前記複数の撮影位置から前記特定領域を撮影した複数の撮影画像と、の差分に基づいて、複数の前記撮影画像の各々から、物体を表す画像である前景画像を抽出するステップと、
物体可能領域計算手段によって、前記複数の撮影位置を含む撮影条件及び前記撮影前景画像抽出手段により抽出された複数の前記前景画像に基づいて、視体積交差法を用いて得られた前記特定領域内における物体の存在可能領域の各々の体積を計算するステップと、
物体数推定手段によって、複数の前記背景画像と、既知の物体数の物体が存在する前記特定領域を前記複数の前記撮影位置で撮影された複数の学習用画像とに基づいて予め求められた、前記物体の存在可能領域の体積の各々の和を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを用いて、前記物体存在可能領域計算手段により計算された前記物体各々の存在可能領域の体積の和に基づいて、前記特定領域内における物体数の推定値を計算して出力するステップと、
を備えた、物体数推定方法。
Difference between a plurality of background images obtained by photographing a specific area from a plurality of photographing positions in the absence of an object in advance and a plurality of photographed images obtained by photographing the specific area from the plurality of photographing positions by the photographing foreground image extracting means Extracting a foreground image that is an image representing an object from each of the plurality of captured images based on
Based on the imaging conditions including the plurality of imaging positions and the plurality of foreground images extracted by the imaging foreground image extraction unit by the object possible region calculation unit, Calculating the volume of each possible region of the object at
The number of objects was previously determined by the number-of-objects estimation unit based on a plurality of learning images obtained by photographing the plurality of background images and the specific region where the number of objects of a known number of objects existed at the plurality of photographing positions. Existence of each object calculated by the object existence area calculation means using a regression analysis parameter with the sum of each volume of the object existence area as an explanatory variable and the number of known objects as an objective variable Calculating and outputting an estimate of the number of objects in the specific region based on the sum of the volumes of possible regions; and
An object number estimation method comprising:
学習前景画像抽出手段によって、複数の前記背景画像と、既知の物体数の物体が存在する前記特定領域を前記複数の前記撮影位置で撮影した複数の学習用画像と、の差分に基づいて、複数の前記学習用画像毎に、物体を表す画像である学習前景画像を抽出するステップと、
学習物体存在可能領域計算手段によって、前記撮影条件及び複数の前記学習前景画像に基づいて、視体積交差法を用いて得られた、前記特定領域内における物体の存在可能領域の各々の体積を計算するステップと、
パラメータ決定手段によって、前記学習物体存在可能領域計算手段により計算された前記物体の存在可能領域の体積の和を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを決定するステップと、
を更に備え、前記物体数推定手段は、前記パラメータ決定手段が決定したパラメータを用いて、前記特定領域内における物体数の推定値を計算して出力する回帰分析を行う、
請求項1に記載の物体数推定方法。
Based on the difference between the plurality of background images and the plurality of learning images obtained by photographing the specific area where the objects of the known number of objects exist at the plurality of photographing positions by the learning foreground image extracting unit. Extracting a learning foreground image, which is an image representing an object, for each of the learning images;
Based on the imaging conditions and the plurality of learning foreground images, the learning object existence possible area calculation means calculates the volume of each of the object existence possible areas in the specific area obtained using the visual volume intersection method. And steps to
Determining, by parameter determining means, parameters for regression analysis with the sum of the volumes of the possible areas of the objects calculated by the learning object possible area calculating means as an explanatory variable and the number of known objects as an objective variable; ,
The object number estimating means performs regression analysis by calculating and outputting an estimated value of the number of objects in the specific region using the parameter determined by the parameter determining means.
The object number estimation method according to claim 1.
学習画像特徴計算手段によって、前記学習用画像及び前記学習前景画像について、所定の画像特徴を計算するステップと、
画像特徴計算手段によって、前記撮影画像及び前記前景画像について、前記所定の画像特徴を計算するステップと、を備え、
前記パラメータ決定手段は、前記学習物体存在可能領域計算手段により計算された前記物体の存在可能領域の各々の体積の和及び前記学習画像特徴計算手段により前記学習用画像及び前記学習前景画像について計算された前記所定の画像特徴を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを決定し、
前記物体数推定手段は、前記物体存在可能領域計算手段により計算された前記物体の存在可能領域の各々の体積の和及び前記画像特徴計算手段により前記撮影画像及び前記前景画像について計算された所定の画像特徴に基づいて、前記物体数の推定値を計算して出力する、
請求項1または請求項2に記載の物体数推定方法。
A step of calculating a predetermined image feature for the learning image and the learning foreground image by a learning image feature calculating means;
Calculating the predetermined image feature for the photographed image and the foreground image by an image feature calculating means,
The parameter determination means is calculated for the learning image and the learning foreground image by the sum of the volumes of the object existence possible areas calculated by the learning object existence possibility area calculation means and the learning image feature calculation means. Determining a regression analysis parameter with the predetermined image feature as an explanatory variable and the number of known objects as an objective variable,
The object number estimating means includes a sum of volumes of the object existable areas calculated by the object existable area calculating means and a predetermined value calculated for the photographed image and the foreground image by the image feature calculating means. Calculate and output an estimate of the number of objects based on image features;
The object number estimation method according to claim 1 or 2.
前記学習用画像及び前記学習前景画像について計算される前記所定の画像特徴は、複数の前記学習前景画像各々の面積と、複数の前記学習用画像各々の所定の画像特徴量とを含み、
前記撮影画像及び前記前景画像について計算される前記所定の画像特徴は、複数の前記前景画像各々の面積と、複数の前記撮影画像各々の前記所定の画像特徴量とを含む、請求項3に記載の物体数推定方法。
The predetermined image feature calculated for the learning image and the learning foreground image includes an area of each of the plurality of learning foreground images and a predetermined image feature amount of each of the plurality of learning images.
The predetermined image feature calculated for the captured image and the foreground image includes an area of each of the plurality of foreground images and the predetermined image feature amount of each of the plurality of captured images. Object number estimation method.
予め物体が存在しない状態で特定領域を複数の撮影位置から撮影した複数の背景画像と、前記複数の撮影位置から前記特定領域を撮影した複数の撮影画像と、の差分に基づいて、複数の前記撮影画像の各々から、物体を表す画像である前景画像を抽出する撮影前景画像抽出手段と、
前記複数の撮影位置を含む前記撮影条件及び前記撮影前景画像抽出手段により抽出された複数の前記前景画像に基づいて、視体積交差法を用いて得られた前記特定領域内における物体の存在可能領域の各々の体積を計算する物体存在可能領域計算手段と、
複数の前記背景画像と、既知の物体数の物体が存在する前記特定領域を前記複数の前記撮影位置で撮影された複数の学習用画像とに基づいて予め求められた、前記物体の存在可能領域の体積の各々の和を説明変数、前記既知の物体数を目的変数とした回帰分析のパラメータを用いて、前記物体存在可能領域計算手段により計算された前記物体の存在可能領域の各々の体積の和に基づいて、前記特定領域内における物体数の推定値を計算して出力する物体数推定手段と、
を備えた、物体数推定装置。
Based on the difference between a plurality of background images obtained by photographing a specific region from a plurality of photographing positions in the absence of an object in advance and a plurality of photographed images obtained by photographing the specific region from the plurality of photographing positions. Shooting foreground image extracting means for extracting a foreground image that is an image representing an object from each of the shot images;
A region where an object can exist in the specific region obtained by using a visual volume intersection method based on the shooting conditions including the plurality of shooting positions and the plurality of foreground images extracted by the shooting foreground image extracting unit. An object existence possible area calculating means for calculating each volume of
The object existence possible area obtained in advance based on the plurality of background images and the plurality of learning images obtained by photographing the specific area where the objects of a known number of objects exist at the plurality of the photographing positions. Using the regression analysis parameters with the sum of each of the volumes as explanatory variables and the number of known objects as the objective variable, An object number estimating means for calculating and outputting an estimated value of the number of objects in the specific region based on the sum;
An object number estimation device comprising:
コンピュータに、請求項1から請求項4の何れか1項に記載の物体推定方法の各ステップを実行させるための物体数推定プログラム。   An object number estimation program for causing a computer to execute each step of the object estimation method according to any one of claims 1 to 4.
JP2013035041A 2013-02-25 2013-02-25 Method, device and program for estimating number of object Pending JP2014164525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013035041A JP2014164525A (en) 2013-02-25 2013-02-25 Method, device and program for estimating number of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013035041A JP2014164525A (en) 2013-02-25 2013-02-25 Method, device and program for estimating number of object

Publications (1)

Publication Number Publication Date
JP2014164525A true JP2014164525A (en) 2014-09-08

Family

ID=51615072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013035041A Pending JP2014164525A (en) 2013-02-25 2013-02-25 Method, device and program for estimating number of object

Country Status (1)

Country Link
JP (1) JP2014164525A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060360A (en) * 2016-10-05 2018-04-12 日本電信電話株式会社 Person number estimation method, person number estimation device, person number estimation program and recording medium
US10395139B2 (en) 2016-06-29 2019-08-27 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
CN110383295A (en) * 2017-03-14 2019-10-25 三菱电机株式会社 Image processing apparatus, image processing method and image processing program
US20210192704A1 (en) * 2019-01-25 2021-06-24 Beijing Ainfinit Technology Co., Ltd Three-dimensional reconstruction method and apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395139B2 (en) 2016-06-29 2019-08-27 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
JP2018060360A (en) * 2016-10-05 2018-04-12 日本電信電話株式会社 Person number estimation method, person number estimation device, person number estimation program and recording medium
CN110383295A (en) * 2017-03-14 2019-10-25 三菱电机株式会社 Image processing apparatus, image processing method and image processing program
CN110383295B (en) * 2017-03-14 2022-11-11 三菱电机株式会社 Image processing apparatus, image processing method, and computer-readable storage medium
US20210192704A1 (en) * 2019-01-25 2021-06-24 Beijing Ainfinit Technology Co., Ltd Three-dimensional reconstruction method and apparatus
JP2022518402A (en) * 2019-01-25 2022-03-15 北京▲極▼智▲簡▼▲單▼科技有限公司 3D reconstruction method and equipment
JP7398819B2 (en) 2019-01-25 2023-12-15 北京▲極▼智▲簡▼▲單▼科技有限公司 Three-dimensional reconstruction method and device
US11954832B2 (en) * 2019-01-25 2024-04-09 Beijing Ainfinit Technology Co., Ltd Three-dimensional reconstruction method and apparatus

Similar Documents

Publication Publication Date Title
Beckman et al. Deep learning-based automatic volumetric damage quantification using depth camera
JP7002056B2 (en) 3D model generator and 3D model generation method
US11423562B2 (en) Device and method for obtaining distance information from views
JP6914699B2 (en) Information processing equipment, information processing methods and programs
US8988317B1 (en) Depth determination for light field images
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
JP6998554B2 (en) Image generator and image generation method
JP6397379B2 (en) CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM
KR20110059506A (en) System and method for obtaining camera parameters from multiple images and computer program products thereof
JP6566768B2 (en) Information processing apparatus, information processing method, and program
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP5901447B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
US11651581B2 (en) System and method for correspondence map determination
JP2011003180A (en) Sky detection system and method used in image collection device
JP2014164525A (en) Method, device and program for estimating number of object
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
JP2015524946A (en) Method and measuring apparatus for forming a super-resolution image with improved image resolution
CN111476812A (en) Map segmentation method and device, pose estimation method and equipment terminal
JP2015148895A (en) object number distribution estimation method
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP7427615B2 (en) Information processing device, information processing method and program
JP5900017B2 (en) Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program
JP2018180646A (en) Object candidate area estimation device, object candidate area estimation method and object candidate area estimation program
CN110533663B (en) Image parallax determining method, device, equipment and system
Yan et al. Focal length estimation guided with object distribution on FocaLens dataset