JP2014006655A - Passenger number estimation method and computer program - Google Patents

Passenger number estimation method and computer program Download PDF

Info

Publication number
JP2014006655A
JP2014006655A JP2012141123A JP2012141123A JP2014006655A JP 2014006655 A JP2014006655 A JP 2014006655A JP 2012141123 A JP2012141123 A JP 2012141123A JP 2012141123 A JP2012141123 A JP 2012141123A JP 2014006655 A JP2014006655 A JP 2014006655A
Authority
JP
Japan
Prior art keywords
image
estimation
time
estimating
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012141123A
Other languages
Japanese (ja)
Other versions
JP5990042B2 (en
Inventor
Hiroyuki Arai
啓之 新井
Isamu Igarashi
勇 五十嵐
Naoki Ito
直己 伊藤
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012141123A priority Critical patent/JP5990042B2/en
Publication of JP2014006655A publication Critical patent/JP2014006655A/en
Application granted granted Critical
Publication of JP5990042B2 publication Critical patent/JP5990042B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a calculation cost required for passenger number estimation.SOLUTION: An estimation method comprises: an acquisition step of acquiring the number of moving bodies from an image in time series; a staying time estimation step of estimating a staying time during which each of the moving bodies has stayed in an imaging area; and a passage estimation step of estimating the number of moving bodies that have passed by using the number of the moving bodies acquired in the acquisition step and the staying time of the moving bodies estimated in the staying time estimation step.

Description

本発明は、通過人数を推定する技術に関する。   The present invention relates to a technique for estimating the number of people passing by.

カメラ画像を利用して通路等を通過する通過人数を計測する技術は、マーケティングや安全管理支援の観点から必要とされており、すでに一部では実用化されている。これらの通過人数を計測するための技術を実現する様々な画像処理技術が提案されており、大きく2つのアプローチに分けることができる。
1つ目のアプローチは画像上に存在する個々の人物を検出しながらその位置を捕捉・追跡していく人物追跡技術(トラッキング技術)に基づくものである。しかし、人物追跡技術では、オクルージョン(画像において対象物が前にある別の物体に隠蔽されること)が発生することにより個々の人物の検出、追跡が困難になるという問題がある。このような問題は、例えば、大きな駅のコンコースのように人が多く混雑する場所に適用しようとした場合に、人と人とが画像上で重なり合ってしまうことにより生じる。
A technique for measuring the number of people passing through a passage using a camera image is required from the viewpoint of marketing and safety management support, and has already been put into practical use in part. Various image processing techniques for realizing these techniques for measuring the number of passing people have been proposed, and can be roughly divided into two approaches.
The first approach is based on a person tracking technique (tracking technique) in which an individual person existing on an image is detected and its position is captured and tracked. However, in the person tracking technique, there is a problem that it becomes difficult to detect and track individual persons due to occurrence of occlusion (an object is hidden behind another object in the image). Such a problem occurs, for example, when a person tries to be applied to a place where a lot of people are crowded, such as a concourse of a large station, and people overlap each other on an image.

2つ目のアプローチは、個々の人物の検出を行わず、人物の集団全体をあたかも流体のようにひとまとまりのものとして捉える手法である(非特許文献1参照)。この手法では瞬間瞬間の領域内の人数と、一定時間内での集団全体の移動量(移動速度)とを算出することで通過人数を推定する。このような個々の人物の検出を必要としないアプローチは混雑時であっても安定に動作することが期待できる。   The second approach is a technique in which an individual person is not detected but the whole group of persons is regarded as a group like a fluid (see Non-Patent Document 1). In this method, the number of passing people is estimated by calculating the number of people in the region at the moment and the movement amount (movement speed) of the entire group within a certain time. Such an approach that does not require the detection of individual persons can be expected to operate stably even when it is congested.

五十嵐勇、外3名、「局所移動量に関する投票に基づく集団移動量を用いた映像からの通過人数測定」、IS3-03、2011年画像センシングシンポジウム、2011年Isamu Igarashi, 3 others, “Measurement of the number of people passing from video using collective movement based on voting regarding local movement”, IS3-03, 2011 Image Sensing Symposium, 2011

上述した非特許文献1の方法では、時間的に隣接する2枚のフレーム画像間において、人物の特徴点の対応付けを行い、その対応付けの結果に基づいて集団全体の代表的な速度を推定していた。また、推定された代表的な速度と、瞬間瞬間の領域内の人数とを推定することにより通過人数を推定していた。
しかしながら、この方法では、人数の増加に伴い特徴点の数が多くなってくると、特徴点の対応付けのコストが非常に大きくなってしまうという問題があった。
In the method of Non-Patent Document 1 described above, person feature points are associated between two temporally adjacent frame images, and a representative velocity of the entire group is estimated based on the result of the association. Was. In addition, the number of passing people is estimated by estimating the estimated representative speed and the number of people in the area at the moment.
However, with this method, there is a problem that when the number of feature points increases as the number of people increases, the cost of associating feature points becomes very high.

上記事情に鑑み、本発明は、通過人数推定にかかる計算コストを減少させる技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique for reducing the calculation cost for estimating the number of passing people.

本発明の一態様は、画像から移動体の数を時系列に取得する取得ステップと、撮影領域に移動体が滞在していた滞在時間を推定する滞在時間推定ステップと、前記取得ステップで取得した前記移動体の数と、前記滞在時間推定ステップで推定した前記移動体の滞在時間と、を用いて通過した前記移動体の数を推定する通過推定ステップと、を有する推定方法である。   According to one aspect of the present invention, an acquisition step of acquiring the number of moving bodies from an image in time series, a stay time estimation step of estimating a stay time of the moving body staying in the imaging region, and the acquisition step An estimation method comprising: a passage estimation step of estimating the number of mobile bodies that have passed using the number of mobile bodies and the residence time of the mobile bodies estimated in the residence time estimation step.

本発明の一態様は、上記の推定方法であって、前記取得ステップは、画像の各画素における大きさを正規化する変換係数を用いて、前記画像内の前記移動体の大きさの違いを正規化することで、前記移動体の数を時系列に取得する。   One aspect of the present invention is the above-described estimation method, wherein the acquisition step uses a conversion coefficient that normalizes the size of each pixel of the image to determine a difference in size of the moving object in the image. By normalizing, the number of the moving bodies is acquired in time series.

本発明の一態様は、上記の推定方法であって、前記取得ステップは、画像の各画素における大きさを正規化する変換係数を用いて、前景画素を一次元に射影した射影画像を作成し、前記射影画像を用いて所定時間内における前記移動体の数を算出し、前記滞在時間推定ステップは、前記取得ステップで生成した前記射影画像を用いて、所定時間内における前記移動体の滞在時間を取得する。   One aspect of the present invention is the above estimation method, wherein the obtaining step creates a projected image in which foreground pixels are projected in one dimension using a conversion coefficient that normalizes the size of each pixel of the image. The number of the moving bodies within a predetermined time is calculated using the projected image, and the staying time estimating step uses the projected image generated at the acquisition step to use the staying time of the moving body within the predetermined time. To get.

本発明の一態様は、画像から移動体の数を時系列に取得する取得ステップと、撮影領域に移動体が滞在していた滞在時間を推定する滞在時間推定ステップと、前記取得ステップで取得した前記移動体の数と、前記滞在時間推定ステップで推定した前記移動体の滞在時間と、を用いて通過した前記移動体の数を推定する通過推定ステップと、をコンピュータに実行させるためのコンピュータプログラムである。   According to one aspect of the present invention, an acquisition step of acquiring the number of moving bodies from an image in time series, a stay time estimation step of estimating a stay time of the moving body staying in the imaging region, and the acquisition step A computer program for causing a computer to execute a passage estimation step of estimating the number of mobile bodies that have passed using the number of mobile bodies and the stay time of the mobile bodies estimated in the stay time estimation step It is.

本発明により、通過人数推定にかかる計算コストを減少させることが可能となる。   According to the present invention, it is possible to reduce the calculation cost for estimating the number of passing people.

通過人数推定システムのシステム構成を示す図である。It is a figure which shows the system configuration | structure of a passage number estimation system. 本発明の通過人数推定装置100の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the functional composition of passing number estimating device 100 of the present invention. スケール変換係数w(x,y)を算出する方法を表す図である。It is a figure showing the method of calculating the scale conversion coefficient w (x, y). 一次元射影の処理の様子を示す図である。It is a figure which shows the mode of the process of a one-dimensional projection. 一次元射影の処理の一例を表す図である。It is a figure showing an example of the process of a one-dimensional projection. オプティカルフローの方向に応じて生成される画像の具体例を表す図である。It is a figure showing the specific example of the image produced | generated according to the direction of an optical flow. 射影画像の他の具体例を示す図である。It is a figure which shows the other specific example of a projection image. 本発明の初期設定の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of the initial setting of this invention. 本発明の通過人数推定の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of estimation of the number of passing persons of this invention.

以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、通過人数推定システムのシステム構成を示す図である。本発明の通過人数推定システムは、固定カメラ10及び通過人数推定装置100を備える。
固定カメラ10は、セキュリティカメラのように斜め下向きに設置されており、撮影領域20を撮影する。また、固定カメラ10は、通路などの人物の移動方向に対して、真横もしくは斜め横方向から撮影することで、画像上の人物の動きが横方向の動き成分を持つように撮影する。すなわち、固定カメラ10に向かって真正面に近い方向で人物が移動することが少なくなるように固定カメラ10が設置される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of a passing person estimation system. The passing person estimation system of the present invention includes a fixed camera 10 and a passing person estimation device 100.
The fixed camera 10 is installed obliquely downward like a security camera, and images the imaging region 20. In addition, the fixed camera 10 captures an image so that the motion of the person on the image has a lateral motion component by capturing the image from the side or diagonal direction with respect to the moving direction of the person such as the passage. That is, the fixed camera 10 is installed so that a person moves less toward the fixed camera 10 in a direction close to the front.

通過人数推定装置100は、情報処理装置を用いて構成される。通過人数推定装置100は、固定カメラ10が撮影したフレーム画像に基づいて画像処理を行うことによって、撮影領域20を通過した人数を推定する。
撮影領域20は、固定カメラ10によって撮影される領域である。符号30−1〜3は、撮影領域20を移動している人物を表す。矢印40−1〜3は、人物30−1〜3が移動している進行方向を表す。
The passing person estimation device 100 is configured using an information processing device. The passing number estimating device 100 estimates the number of people who have passed through the shooting area 20 by performing image processing based on the frame image shot by the fixed camera 10.
The shooting area 20 is an area shot by the fixed camera 10. Reference numerals 30-1 to 30-3 represent a person moving in the imaging region 20. Arrows 40-1 to 40-3 indicate the traveling direction in which the persons 30-1 to 30-3 are moving.

図2は、本発明の通過人数推定装置100の機能構成を表す概略ブロック図である。通過人数推定装置100は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、通過人数推定プログラムを実行する。通過人数推定プログラムの実行によって、通過人数推定装置100は、フレーム画像入力部101、スケール変換係数記憶部102、前景検出部103、オプティカルフロー検出部104、前景分割部105、一次元射影部106、射影画像生成部107、流動パラメータ推定部108、通過人数推定部109を備える装置として機能する。なお、通過人数推定装置100の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。また、通過人数推定プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、通過人数推定プログラムは、電気通信回線を介して送受信されても良い。   FIG. 2 is a schematic block diagram showing a functional configuration of the passing person estimation device 100 of the present invention. The passing person estimation device 100 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a passing person estimation program. By executing the passing number estimation program, the passing number estimation apparatus 100 includes a frame image input unit 101, a scale conversion coefficient storage unit 102, a foreground detection unit 103, an optical flow detection unit 104, a foreground division unit 105, a one-dimensional projection unit 106, It functions as an apparatus including a projected image generation unit 107, a flow parameter estimation unit 108, and a passing person estimation unit 109. Note that all or part of the functions of the passing person estimation device 100 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). good. The passing number estimation program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the passing number estimation program may be transmitted / received via a telecommunication line.

フレーム画像入力部101は、固定カメラ10が撮影したフレーム画像を時系列順に入力する。
スケール変換係数記憶部102は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。スケール変換係数記憶部102は、固定カメラ10によって撮影されるフレーム画像の各画素に対応するスケール変換係数w(x,y)を記憶している。
The frame image input unit 101 inputs frame images taken by the fixed camera 10 in chronological order.
The scale conversion coefficient storage unit 102 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The scale conversion coefficient storage unit 102 stores a scale conversion coefficient w (x, y) corresponding to each pixel of the frame image captured by the fixed camera 10.

前景検出部103は、フレーム画像入力部101によって入力されたフレーム画像において前景画素を検出する。前景画素とは、一時的にその場に現れた物体(ここでは主に人物)に関する画素である。一方、定常的にその場所に存在している物体に関する画素を背景画素と呼ぶ。
前景画素の検出は、画像処理の分野で古くから存在する技術であり、既に様々な方法が提案されている。例えば、前景検出部103は、過去の一定時間(例えば、5分程度)の各画素の平均値を背景画素値として取得する。前景検出部103は、現在のフレーム画像の各画素値と背景画素値との差分の絶対値を算出し、その値が閾値以上である画素を前景画素として検出する。なお、上記処理は前景画素の検出処理の一例にすぎず、他の検出処理が用いられても良い。
The foreground detection unit 103 detects foreground pixels in the frame image input by the frame image input unit 101. A foreground pixel is a pixel relating to an object (here, mainly a person) that temporarily appears on the spot. On the other hand, a pixel relating to an object that is regularly present at the place is called a background pixel.
Detection of foreground pixels is a technique that has existed for a long time in the field of image processing, and various methods have already been proposed. For example, the foreground detection unit 103 acquires the average value of each pixel for a certain past time (for example, about 5 minutes) as the background pixel value. The foreground detection unit 103 calculates the absolute value of the difference between each pixel value of the current frame image and the background pixel value, and detects a pixel whose value is greater than or equal to the threshold as a foreground pixel. The above process is merely an example of the foreground pixel detection process, and other detection processes may be used.

オプティカルフロー検出部104は、フレーム画像入力部101によって入力された時間的に近接するフレーム画像において、オプティカルフローを検出する。以下、オプティカルフロー検出処理の一例について説明する。オプティカルフロー検出部104は、人物の特徴点を検出する。オプティカルフロー検出部104は、人物の特徴点の対応付けを行い、オプティカルフローを検出する。オプティカルフロー検出部104は、各画素に対するオプティカルフローを検出することで、フレーム画像の各画素における動きを検出する。
以上の処理によって、オプティカルフロー検出部104は、フレーム画像上における速度場Vx(x,y)及びVy(x,y)を取得する。Vxはx軸方向の速度成分を示し、Vyはy軸方向の速度成分を示す。これらの速度場Vx(x,y)及びVy(x,y)が各画素(x,y)について算出される。
The optical flow detection unit 104 detects an optical flow in temporally adjacent frame images input by the frame image input unit 101. Hereinafter, an example of the optical flow detection process will be described. The optical flow detection unit 104 detects a feature point of a person. The optical flow detection unit 104 associates the feature points of the person and detects the optical flow. The optical flow detection unit 104 detects a motion in each pixel of the frame image by detecting an optical flow for each pixel.
Through the above processing, the optical flow detection unit 104 acquires the velocity fields Vx (x, y) and Vy (x, y) on the frame image. Vx represents a velocity component in the x-axis direction, and Vy represents a velocity component in the y-axis direction. These velocity fields Vx (x, y) and Vy (x, y) are calculated for each pixel (x, y).

前景分割部105は、前景検出部103が検出した前景画素と、オプティカルフロー検出部104が検出したオプティカルフローと、を用いて分割処理を行う。分割処理では、前景分割部105は、オプティカルフローの方向(例えば、左方向及び右方向)に応じて前景画素を分類し、左方向画像及び右方向画像を生成する。左方向画像とは、左方向の前景画素(以下、「左前景画素」という。)のみに背景画素値と異なる画素値を与えた画像である。右方向画像とは、右方向の前景画素(以下、「右前景画素」という。)のみに背景画素値と異なる画素値を与えた画像である。
一次元射影部106は、前景分割部105が分割した各画像(左方向画像及び右方向画像)とスケール変換係数w(x,y)と、を用いて所定の軸(例えば、x軸)に応じた射影値p(x)を算出する。
The foreground division unit 105 performs division processing using the foreground pixels detected by the foreground detection unit 103 and the optical flow detected by the optical flow detection unit 104. In the dividing process, the foreground dividing unit 105 classifies the foreground pixels according to the direction of the optical flow (for example, the left direction and the right direction), and generates a left direction image and a right direction image. The left direction image is an image in which only a foreground pixel in the left direction (hereinafter referred to as “left foreground pixel”) is given a pixel value different from the background pixel value. The right direction image is an image in which only a foreground pixel in the right direction (hereinafter referred to as “right foreground pixel”) is given a pixel value different from the background pixel value.
The one-dimensional projection unit 106 uses each image (left direction image and right direction image) divided by the foreground division unit 105 and the scale conversion coefficient w (x, y) on a predetermined axis (for example, the x axis). A corresponding projection value p (x) is calculated.

射影画像生成部107は、所定時間分のフレーム画像に応じた射影値p(x)を取得する。射影画像生成部107は、取得した各射影値p(x)を時系列に並べることで射影画像P(x,t)を生成する。
流動パラメータ推定部108は、射影画像生成部107が生成した射影画像P(x,t)に基づいて、流動パラメータを推定する。流動パラメータとは、撮影領域内における人物の移動に関するパラメータのことである。流動パラメータは、例えば、人物の移動速度、人物の滞在時間などである。
通過人数推定部109は、流動パラメータ推定部108が推定した流動パラメータを用いて、入力された所定時間分のフレーム画像における撮影領域の通過人数を推定する。
The projected image generation unit 107 acquires a projected value p (x) corresponding to a frame image for a predetermined time. The projected image generation unit 107 generates a projected image P (x, t) by arranging the acquired projection values p (x) in time series.
The flow parameter estimation unit 108 estimates the flow parameter based on the projection image P (x, t) generated by the projection image generation unit 107. The flow parameter is a parameter related to the movement of the person within the imaging region. The flow parameter is, for example, the moving speed of the person, the staying time of the person, and the like.
The passing number estimating unit 109 uses the flow parameter estimated by the flowing parameter estimating unit 108 to estimate the number of passing through the shooting area in the input frame image for a predetermined time.

次に図3を用いて、スケール変換係数w(x,y)を算出する方法を説明する。
図3は、スケール変換係数w(x,y)を算出する方法を表す図である。図3(A)〜(C)は、それぞれ人物が固定カメラ10に近い場所、離れた場所、さらに離れた場所に位置する状態で撮影された画像の具体例を表す。このように、固定カメラ10で撮影された画像上では、固定カメラ10に近い場所に位置する人物は画像上で大きな面積を占め、固定カメラ10から離れた場所に位置する人物は画像上で小さな面積を占める。図(A)における一人分の前景画素の集合を集合fと表し、図3(B)における一人分の前景画素の集合を集合f1と表し、図3(C)における一人分の前景画素の集合を集合f2と表す。この場合、式1が成立するようなs(x,y)(sの上にハットを表記。以下同様。)を定義できる(参考文献1:新井啓之、外3名、「映像からの人数計測のための幾何不変量に関する検討」、映情学技報、vol.34、no.45、ME2010-163、pp.41-45参照)。
Next, a method for calculating the scale conversion coefficient w (x, y) will be described with reference to FIG.
FIG. 3 is a diagram illustrating a method for calculating the scale conversion coefficient w (x, y). FIGS. 3A to 3C show specific examples of images taken in a state where a person is located near, away from, and further away from the fixed camera 10, respectively. As described above, on the image captured by the fixed camera 10, a person located near the fixed camera 10 occupies a large area on the image, and a person located away from the fixed camera 10 is small on the image. Occupies an area. The set of foreground pixels for one person in FIG. 3A is represented as set f, the set of foreground pixels for one person in FIG. 3B is represented as set f1, and the set of foreground pixels for one person in FIG. Is represented as a set f2. In this case, it is possible to define s (x, y) (hat is written on s. The same applies hereinafter) such that Equation 1 holds (Reference 1: Hiroyuki Arai, 3 others, “Counting people from video” "Study on geometric invariants for"", Eijiji Technical Report, vol.34, no.45, ME2010-163, pp.41-45).

式1のシグマは、フレーム画像中の全ての画素(x,y)における総和を表す。上記のs(x,y)を用いてスケール変換係数w(x,y)を式2のように表すと、式3が成立する。   The sigma in Equation 1 represents the sum of all the pixels (x, y) in the frame image. When the scale conversion coefficient w (x, y) is expressed as in Expression 2 using the above s (x, y), Expression 3 is established.

なお、スケール変換係数w(x,y)の具体的な算出方法については、必ずしも参考文献1に準拠する必要は無い。例えば以下のような方法によってスケール変換係数w(x,y)が算出されても良い。まず、固定カメラ10によって撮影されたフレーム画像の各画素が、実空間上の人物の高さ付近において、どの程度の表面積に対応するか(画素の実空間での広がり具合)を定量的に推定する。上述した推定を行い、スケール変換係数w(x,y)を近似的に求めることも可能である。   Note that a specific method for calculating the scale conversion coefficient w (x, y) is not necessarily based on Reference Document 1. For example, the scale conversion coefficient w (x, y) may be calculated by the following method. First, quantitatively estimate how much surface area each pixel of the frame image photographed by the fixed camera 10 corresponds to in the vicinity of the height of the person in the real space (the extent of the pixel in the real space). To do. It is also possible to approximately obtain the scale conversion coefficient w (x, y) by performing the above-described estimation.

スケール変換係数w(x,y)は、カメラパラメータを用いて、各画素に対して予め算出される。スケール変換係数記憶部102は、算出されたスケール変換係数w(x,y)を予め記憶している。カメラパラメータとは、固定カメラ10の内部パラメータ及び外部パラメータである。例えば、内部パラメータは、固定カメラ10の構成に関するパラメータである。内部パラメータは、焦点距離、アスペクト比、歪みパラメータなどを表す。外部パラメータは、実空間上における固定カメラ10の位置(高さを含む)や向きに関するパラメータである。各カメラパラメータは、固定カメラ10のキャリブレーションを行うことで算出される。   The scale conversion coefficient w (x, y) is calculated in advance for each pixel using camera parameters. The scale conversion coefficient storage unit 102 stores the calculated scale conversion coefficient w (x, y) in advance. The camera parameters are internal parameters and external parameters of the fixed camera 10. For example, the internal parameter is a parameter related to the configuration of the fixed camera 10. Internal parameters represent focal length, aspect ratio, distortion parameters, and the like. External parameters are parameters relating to the position (including height) and orientation of the fixed camera 10 in real space. Each camera parameter is calculated by calibrating the fixed camera 10.

カメラキャリブレーションでは、内部パラメータの推定と外部パラメータの推定とが行われる。内部パラメータの推定では、固定カメラ10の光学系(焦点距離、アスペクト比、歪みパラメータなど)が求められる。外部パラメータの推定では、実空間における固定カメラ10の3次元位置(X,Y,Z)と、固定カメラ10の撮影する方向(θ,φ,ω)とが求められる。3次元位置(X,Y,Z)において、例えば、X及びYは、撮影領域20上の二次元位置を表し、Zは床面からの高さを表す。固定カメラ10の撮影する方向(θ、φ、ω)において、例えば、θはx軸周りの回転を表し、φはy軸周りの回転を表し、ωはz軸周りの回転を表す。これら両方の推定結果に基づいてフレーム画像の各画素が実空間のどの位置を撮影しているか予め判定される。   In camera calibration, internal parameters and external parameters are estimated. In the estimation of the internal parameters, the optical system (focal length, aspect ratio, distortion parameter, etc.) of the fixed camera 10 is obtained. In the estimation of the external parameters, the three-dimensional position (X, Y, Z) of the fixed camera 10 in the real space and the shooting direction (θ, φ, ω) of the fixed camera 10 are obtained. In the three-dimensional position (X, Y, Z), for example, X and Y represent a two-dimensional position on the imaging region 20, and Z represents a height from the floor surface. In the shooting direction (θ, φ, ω) of the fixed camera 10, for example, θ represents rotation around the x axis, φ represents rotation around the y axis, and ω represents rotation around the z axis. Based on both estimation results, it is determined in advance which position in the real space each pixel of the frame image is photographed.

なお、固定カメラ10の内部パラメータ及び外部パラメータを算出するカメラキャリブレーションには様々な技術が存在している。本実施形態ではどのような技術が適用されても良い。   Various techniques exist for camera calibration for calculating the internal parameters and the external parameters of the fixed camera 10. Any technique may be applied in the present embodiment.

図4は、一次元射影の処理の様子を示す図である。以下、図4を用いて一次元射影の処理について説明する。
図4(A)は、スケール変換係数画像を表す図である。スケール変換係数画像は、各画素にスケール変換係数w(x,y)が画素値として記録されている画像である。図4(B)上図は、前景画像を表す図である(人物の身体に対応する画素が前景画素であるとする)。前景画像とは、前景画素と背景画素とに異なる画素値を付与した画像である。例えば、前景画素に“1”を付与し、背景画素に“0”を付与した場合、前景画像の各画素値F(x,y)は以下の式4のとおりに表される。
FIG. 4 is a diagram illustrating a state of the one-dimensional projection process. Hereinafter, the one-dimensional projection process will be described with reference to FIG.
FIG. 4A shows a scale conversion coefficient image. The scale conversion coefficient image is an image in which the scale conversion coefficient w (x, y) is recorded as a pixel value in each pixel. The upper diagram of FIG. 4B is a diagram showing the foreground image (assuming that the pixel corresponding to the human body is the foreground pixel). A foreground image is an image in which different pixel values are assigned to foreground pixels and background pixels. For example, when “1” is assigned to the foreground pixel and “0” is assigned to the background pixel, each pixel value F (x, y) of the foreground image is expressed as in Expression 4 below.

図4(B)下図は一次元射影の結果の具体例を表す図である。図4(B)下図の縦軸は射影値p(x)を表し、横軸はx軸を表す。   The lower diagram of FIG. 4B is a diagram illustrating a specific example of the result of the one-dimensional projection. The vertical axis in the lower diagram of FIG. 4B represents the projection value p (x), and the horizontal axis represents the x-axis.

一次元射影部106は、図4(B)上図の前景画像及び図4(A)のスケール変換係数画像の各画素値を乗算することによって、前景係数画像を生成する。前景係数画像の各画素の画素値は、w(x,y)とF(x,y)との乗算結果である。すなわち、前景画素のみがスケール変換係数w(x,y)を有し、背景画素は“0”を有する。一次元射影部106は、前景係数画像に対し一次元射影を行う。本実施形態では、一次元射影部106は、前景係数画像をx軸に一次元射影する。一次元射影によって得られる各X座標の値が射影値p(x)である。したがって、射影値p(x)は式5のように表される。なお式5のシグマは画像の高さ方向の座標yに関する和である。   The one-dimensional projection unit 106 generates a foreground coefficient image by multiplying each pixel value of the foreground image in the upper diagram of FIG. 4B and the scale conversion coefficient image in FIG. 4A. The pixel value of each pixel of the foreground coefficient image is a result of multiplication of w (x, y) and F (x, y). That is, only the foreground pixel has the scale conversion coefficient w (x, y), and the background pixel has “0”. The one-dimensional projection unit 106 performs one-dimensional projection on the foreground coefficient image. In the present embodiment, the one-dimensional projection unit 106 performs a one-dimensional projection of the foreground coefficient image on the x axis. The value of each X coordinate obtained by the one-dimensional projection is the projection value p (x). Therefore, the projection value p (x) is expressed as in Equation 5. Note that the sigma in Expression 5 is the sum related to the coordinate y in the height direction of the image.

なお、上述した処理において、一次元射影部106が射影する軸は必ずしもx軸上でなく、画像上の任意の直線への射影が可能である。画像を所定の角度だけ予め回転してから処理を行うことによって、上記のx軸への射影と同様の処理で、任意の直線上への一次元射影が可能となる。どの方向を射影軸として選ぶかは、画像内での人物の移動方向に応じて決定されても良い。固定カメラ10が、通路を横方向から撮影する場合には、画像上での人物の動きは左右方向への移動となるため、x軸(画像の横方向)への射影が望ましい。   In the above-described processing, the axis projected by the one-dimensional projection unit 106 is not necessarily on the x-axis, and projection onto an arbitrary straight line on the image is possible. By performing the processing after rotating the image by a predetermined angle in advance, a one-dimensional projection on an arbitrary straight line can be performed by the same processing as the projection onto the x-axis. Which direction is selected as the projection axis may be determined according to the moving direction of the person in the image. When the fixed camera 10 takes a picture of the passage from the horizontal direction, the movement of the person on the image moves in the left-right direction. Therefore, projection on the x-axis (the horizontal direction of the image) is desirable.

図5は、一次元射影の処理の一例を表す図である。図5(A)は、固定カメラ10が撮影したフレーム画像を表す。横軸はx軸を表し、縦軸はy軸を表す。図5(B)は、図5(A)に示されるフレーム画像の前景画像を表す。図5(C)は、一次元射影の結果の具体例を表す。   FIG. 5 is a diagram illustrating an example of a one-dimensional projection process. FIG. 5A shows a frame image taken by the fixed camera 10. The horizontal axis represents the x axis, and the vertical axis represents the y axis. FIG. 5B shows the foreground image of the frame image shown in FIG. FIG. 5C shows a specific example of the result of the one-dimensional projection.

図6は、オプティカルフローの方向に応じて生成される画像の具体例を表す図である。図6(A)は、オプティカルフローの方向に応じて前景画素に異なる画素値を付与することによって生成した方向画像の具体例を表す図である。いいかえると、図6(A)は、左前景画素と右前景画素と背景画素とにそれぞれ異なる画素値を与えることによって生成された画像である。
図6(A)では、フレーム画像中で右方向(つまり正の方向)への移動が観測された前景画素(右前景画素)に第一の値を画素値として与え、左方向(つまり負の方向)への移動が観測された前景画素(左前景画素)に第二の値を画素値として与え、背景画素に第三の値を画素値として与えている。右方向画像の画素値をR(x,y)、左方向画像の画素値をL(x,y)、と定義すると、各画素値は式6によって算出される。
FIG. 6 is a diagram illustrating a specific example of an image generated according to the direction of the optical flow. FIG. 6A is a diagram illustrating a specific example of the direction image generated by assigning different pixel values to the foreground pixels according to the direction of the optical flow. In other words, FIG. 6A shows an image generated by giving different pixel values to the left foreground pixel, the right foreground pixel, and the background pixel, respectively.
In FIG. 6A, a first value is given as a pixel value to a foreground pixel (right foreground pixel) in which a movement in the right direction (ie, positive direction) is observed in the frame image, and left direction (ie, negative). The second value is given as the pixel value to the foreground pixel (left foreground pixel) in which movement in the direction) is observed, and the third value is given as the pixel value to the background pixel. When the pixel value of the right direction image is defined as R (x, y) and the pixel value of the left direction image is defined as L (x, y), each pixel value is calculated by Expression 6.

一次元射影部106は、前景画像として、右方向画像と左方向画像とをそれぞれ用いることによって前景係数画像を生成する。具体的には、一次元射影部106は、右方向画像とスケール変換係数画像の各画素値を乗算することによって、右前景係数画像を生成する。一次元射影部106は、左方向画像とスケール変換係数画像の各画素値を乗算することによって、左前景係数画像を生成する。右前景係数画像の各画素の画素値は、w(x,y)とR(x,y)との乗算結果である。左前景係数画像の各画素の画素値は、w(x,y)とL(x,y)との乗算結果である。   The one-dimensional projection unit 106 generates a foreground coefficient image by using a right direction image and a left direction image as the foreground image. Specifically, the one-dimensional projection unit 106 generates a right foreground coefficient image by multiplying each pixel value of the right direction image and the scale conversion coefficient image. The one-dimensional projection unit 106 generates a left foreground coefficient image by multiplying each pixel value of the left direction image and the scale conversion coefficient image. The pixel value of each pixel of the right foreground coefficient image is a result of multiplication of w (x, y) and R (x, y). The pixel value of each pixel of the left foreground coefficient image is the result of multiplication of w (x, y) and L (x, y).

図6(B)は、左前景係数画像の一次元射影の結果の具体例を表す図である。図6(C)は、右前景係数画像の一次元射影の結果の具体例を表す図である。図6(D)は、射影画像P(x、t)の具体例を表す図である。射影画像P(x,t)は、左前景係数画像及び右前景係数画像の各射影値p(x)を時系列に並べることによって生成される。射影画像P(x、t)の横軸xは、フレーム画像のx軸であり、縦軸tは固定カメラ10が撮影した時刻を表す。右前景係数画像の射影値p(x)に対する射影画像をPr(x,t)と表し、左前景係数画像の射影値p(x)に対する射影画像をPl(x,t)と表す。流動パラメータ推定部108は、Pr(x,t)又はPl(x,t)によって形成される線の傾きを推定することによって、人物の代表的な移動速度を推定する。   FIG. 6B is a diagram illustrating a specific example of a result of one-dimensional projection of the left foreground coefficient image. FIG. 6C is a diagram illustrating a specific example of the result of the one-dimensional projection of the right foreground coefficient image. FIG. 6D is a diagram illustrating a specific example of the projected image P (x, t). The projection image P (x, t) is generated by arranging the projection values p (x) of the left foreground coefficient image and the right foreground coefficient image in time series. The horizontal axis x of the projected image P (x, t) is the x-axis of the frame image, and the vertical axis t represents the time taken by the fixed camera 10. The projection image for the projection value p (x) of the right foreground coefficient image is represented as Pr (x, t), and the projection image for the projection value p (x) of the left foreground coefficient image is represented as Pl (x, t). The flow parameter estimation unit 108 estimates the representative moving speed of the person by estimating the slope of the line formed by Pr (x, t) or Pl (x, t).

図7は、射影画像の他の具体例を示す図である。以下、図7を用いて通過人数を推定する処理について説明する。射影画像Pl(X,T)を用いる。射影画像Pl(X,T)の横軸Xは、フレーム画像のx軸であり、縦軸Tは固定カメラ10が撮影した時刻を表す。流動パラメータ推定部108は、射影画像Pl(X,T)の線の傾きを求める。この線の傾きを求める方法として、射影画像Pl(X,T)の勾配検出による方法がある。流動パラメータ推定部108は、射影画像Pl(X,T)の各画素について勾配方向(図7の矢印の向く方向)を算出する。勾配方向の算出方法は、縦・横方向の1次微分フィルタを適用して各方向成分の逆正接をとることで算出しても良い。   FIG. 7 is a diagram showing another specific example of the projected image. Hereinafter, the process of estimating the number of passing people will be described with reference to FIG. The projected image Pl (X, T) is used. The horizontal axis X of the projected image Pl (X, T) is the x-axis of the frame image, and the vertical axis T represents the time taken by the fixed camera 10. The flow parameter estimation unit 108 obtains the slope of the line of the projection image Pl (X, T). As a method for obtaining the inclination of this line, there is a method by detecting the gradient of the projected image Pl (X, T). The flow parameter estimation unit 108 calculates the gradient direction (the direction of the arrow in FIG. 7) for each pixel of the projected image Pl (X, T). The calculation method of the gradient direction may be calculated by applying a first-order differential filter in the vertical and horizontal directions and taking an arc tangent of each direction component.

流動パラメータ推定部108は、算出された勾配方向について射影画像Pl(X,T)の各画素から投票を行う。投票は、射影画像Pl(X,T)の各画素から算出された勾配方向において、同じ角度(例えば、1度単位ごとに分ける)が算出される毎に、一票ずつ票を追加していく処理である。流動パラメータ推定部108は、投票された結果に基づいて勾配方向の最頻値を推定する。
流動パラメータ推定部108は、推定された勾配方向の最頻値を、射影画像Pl(X,T)の勾配方向とする。この勾配方向に直交する線(図7において右下から左上方向に伸びる線)の傾きを、射影画像Pl(X,T)の代表的な速度(以下、速度Vと表す)と推定する。流動パラメータ推定部108は、速度V及び射影画像Pl(X,T)のx軸から、人物の滞在時間τを推定する。滞在時間とは、撮影領域20に人物が滞在していた時間である。したがって、人物の滞在時間τは式7のように表される。
The flow parameter estimation unit 108 votes for each calculated gradient direction from each pixel of the projected image Pl (X, T). The vote is added one vote each time the same angle (for example, divided into units of 1 degree) is calculated in the gradient direction calculated from each pixel of the projected image Pl (X, T). It is processing. The flow parameter estimation unit 108 estimates the mode value in the gradient direction based on the voted result.
The flow parameter estimation unit 108 sets the estimated mode value of the gradient direction as the gradient direction of the projection image Pl (X, T). The inclination of the line orthogonal to the gradient direction (the line extending from the lower right to the upper left in FIG. 7) is estimated as a representative velocity (hereinafter, referred to as velocity V) of the projected image Pl (X, T). The flow parameter estimation unit 108 estimates the person's stay time τ from the velocity V and the x-axis of the projected image Pl (X, T). The staying time is the time during which a person stays in the shooting area 20. Therefore, the person's stay time τ is expressed as shown in Equation 7.

式7によって求められた滞在時間τは、速度Vで撮影領域20を通過する一人の人物が所定時間分のフレーム画像に滞在していた時間である。   The stay time τ obtained by Expression 7 is the time during which a single person who passes through the imaging region 20 at the speed V stays in the frame image for a predetermined time.

次に、流動パラメータ推定部108は、所定時間における射影画像Pl(X,T)全体(0〜T)の射影値p(x)の総和Nsumを求める。この、射影値p(x)の総和Nsumは、式8のように表される。   Next, the flow parameter estimation unit 108 obtains the sum Nsum of the projection values p (x) of the entire projection image Pl (X, T) (0 to T) for a predetermined time. The total sum Nsum of the projection values p (x) is expressed as in Expression 8.

Nsumは、所定時間分の左方向画像に基づいて、左前景画素に対応するスケール変換係数w(x,y)の総和をとったものである。つまり、Nsumは、各左方向画像に存在した撮影領域20を通過する人物の人数を、固定カメラ10の撮影時刻0〜Tの間で撮影された全左方向画像から加算した結果となっている。以上の結果より、通過人数推定部109は、人物の滞在時間τと所定時間分の左前景画像の総和Nsumとを用いて、左方向に通過した人数(通過人数)Nを推定する。通過人数Nを推定する式は、式9のように表される。   Nsum is the sum of the scale conversion coefficients w (x, y) corresponding to the left foreground pixels based on the leftward image for a predetermined time. That is, Nsum is the result of adding the number of persons passing through the shooting area 20 existing in each left image from all left images taken between the shooting times 0 to T of the fixed camera 10. . From the above results, the passing number estimating unit 109 estimates the number of passing persons (passing number) N in the left direction by using the staying time τ of the person and the total Nsum of the left foreground images for a predetermined time. An equation for estimating the number N of passing people is expressed as Equation 9.

上述した式9に基づいて、通過人数推定部109は、通過人数Nを推定する。また、通過人数推定部109は、右方向に移動する人物についての通過人数も同様の方法で推定する。   Based on Equation 9 described above, the passing number estimating unit 109 estimates the passing number N. Further, the passing number estimating unit 109 estimates the passing number for the person moving in the right direction by the same method.

次に、図8及び図9を用いて本発明の処理の流れを説明する。
図8は、本発明の初期設定の処理の流れを示すフローチャートである。この初期設定の処理は、通過人数の計測を行う前に一度しておけばよい処理である。初期設定は、例えば通過人数推定システムの管理者によって実行されても良い。まず、管理者は、固定カメラ10のキャリブレーションを行い、カメラパラメータを算出する(ステップS101)。そして、管理者は、カメラパラメータを用いて、画像上の位置に対する大きさの違いを正規化するスケール変換係数w(x,y)を算出する(ステップS102)。管理者は、算出したスケール変換係数w(x,y)を、通過人数推定装置100のスケール変換係数記憶部102に記録しておく。
Next, the processing flow of the present invention will be described with reference to FIGS.
FIG. 8 is a flowchart showing the flow of the initial setting process according to the present invention. This initial setting process may be performed once before the number of passing people is measured. The initial setting may be executed, for example, by an administrator of the passing person estimation system. First, the administrator calibrates the fixed camera 10 and calculates camera parameters (step S101). Then, the administrator uses the camera parameter to calculate a scale conversion coefficient w (x, y) that normalizes the difference in size with respect to the position on the image (step S102). The administrator records the calculated scale conversion coefficient w (x, y) in the scale conversion coefficient storage unit 102 of the passing number estimating device 100.

図9は、本発明の通過人数推定の処理の流れを示すフローチャートである。まず、フレーム画像入力部101が、フレーム画像を時系列に入力する(ステップS201)。前景検出部103は、フレーム画像入力部101によって入力されたフレーム画像の前景画素を検出する(ステップS202)。オプティカルフロー検出部104は、フレーム画像入力部101によって入力された時間的に近接するフレーム画像から人物の特徴点を検出する。オプティカルフロー検出部104は、フレーム画像から人物の特徴点を検出した後、フレーム画像の特徴点を対応付けて、オプティカルフローを検出する。(ステップS203)。   FIG. 9 is a flowchart showing the flow of the process of estimating the number of passing persons according to the present invention. First, the frame image input unit 101 inputs frame images in time series (step S201). The foreground detection unit 103 detects the foreground pixels of the frame image input by the frame image input unit 101 (step S202). The optical flow detection unit 104 detects feature points of a person from temporally adjacent frame images input by the frame image input unit 101. The optical flow detection unit 104 detects a human feature point from the frame image, and then associates the feature point of the frame image with each other to detect an optical flow. (Step S203).

前景分割部105は、前景検出部103が検出した前景画素と、オプティカルフロー検出部104が検出したオプティカルフローと、を用いて分割処理を行う。前景分割部105は、オプティカルフローの方向に応じて前景画素を分類し、左方向画像及び右方向画像を生成する(ステップS204)。一次元射影部106は、前景分割部105が分割した各画像と、スケール変換係数w(x,y)との各画素値を乗算することによって、前景係数画像を生成する。その後、一次元射影部106は、前景係数画像に対し一次元射影を行い、射影値p(x)を取得する。射影画像生成部107は、一次元射影部106が取得した射影値p(x)を時系列に並べることで射影画像P(x,t)を生成する(ステップS205)。   The foreground division unit 105 performs division processing using the foreground pixels detected by the foreground detection unit 103 and the optical flow detected by the optical flow detection unit 104. The foreground division unit 105 classifies the foreground pixels according to the direction of the optical flow, and generates a left direction image and a right direction image (step S204). The one-dimensional projection unit 106 generates a foreground coefficient image by multiplying each image divided by the foreground division unit 105 and each pixel value of the scale conversion coefficient w (x, y). Thereafter, the one-dimensional projection unit 106 performs a one-dimensional projection on the foreground coefficient image and obtains a projection value p (x). The projected image generation unit 107 generates a projected image P (x, t) by arranging the projection values p (x) acquired by the one-dimensional projection unit 106 in time series (step S205).

次に、流動パラメータ推定部108は、流動パラメータの推定から所定時間が経過したか否か判断する(ステップS206)。流動パラメータの推定から所定時間が経過した場合(ステップS206−YES)、流動パラメータ推定部108は、射影画像P(x,t)に形成された線の勾配を推定する処理を行う(ステップS207)。流動パラメータ推定部108は、推定した射影画像P(x,t)の線の勾配から人物の代表的な速度を推定する。流動パラメータ推定部108は、所定時間分の全フレーム画像における撮影領域20の通過人数を推定する(ステップS208)。通過人数推定部109は、流動パラメータ推定部108が推定した人物の滞在時間τと、流動パラメータ推定部108が推定した所定時間分の全フレーム画像の通過人数と、に基づいて通過人数を推定する(ステップS209)。
一方、流動パラメータの推定から所定の時間が経過していない場合、通過人数推定システムは、ステップS201の処理に戻り、通過人数を推定する処理を繰り返し実行する(ステップS206−NO)。なお、通過人数推定システムは、ユーザによる終了指示が入力されるか、ユーザによって電源が落とされるまで上記の処理を繰り返し実行する。
Next, the flow parameter estimation unit 108 determines whether or not a predetermined time has elapsed from the estimation of the flow parameter (step S206). When a predetermined time has elapsed since the estimation of the flow parameter (YES in step S206), the flow parameter estimation unit 108 performs a process of estimating the gradient of the line formed in the projection image P (x, t) (step S207). . The flow parameter estimation unit 108 estimates a representative speed of the person from the estimated gradient of the projected image P (x, t). The flow parameter estimation unit 108 estimates the number of people passing through the imaging region 20 in all frame images for a predetermined time (step S208). The passing number estimating unit 109 estimates the passing number based on the stay time τ of the person estimated by the flow parameter estimating unit 108 and the passing number of all frame images for a predetermined time estimated by the flow parameter estimating unit 108. (Step S209).
On the other hand, when the predetermined time has not elapsed since the estimation of the flow parameter, the passing person estimation system returns to the process of step S201 and repeatedly executes the process of estimating the passing person (NO in step S206). The passing person estimation system repeatedly executes the above processing until an end instruction is input by the user or the power is turned off by the user.

以上のように構成された通過人数推定システムによれば、人物の高さに関する各特徴点の対応付けを行わずに、人物の移動方向を検出することで射影画像を生成する。生成した射影画像から射影値の勾配を算出することで、代表的な人物の移動速度Vを検出できる。そして、代表的な人物の移動速度Vを検出することで、通過人数を推定することができる。そのため、通過人数を推定する際にかかる特徴点の対応付けの計算コストを減少することが可能となる。   According to the passing person estimation system configured as described above, a projection image is generated by detecting the moving direction of a person without associating each feature point related to the height of the person. By calculating the gradient of the projection value from the generated projection image, the moving speed V of the representative person can be detected. Then, by detecting the moving speed V of a representative person, the number of passing people can be estimated. Therefore, it is possible to reduce the calculation cost for associating feature points when estimating the number of passing people.

<変形例>
固定カメラ10と通過人数推定装置100とが一体化して構成されても良い。
固定カメラ10が撮影したフレーム画像を一度ハードディスクなどの記録媒体に記録して、通過人数推定装置100がフレーム画像を読み出しながら処理を行っても良い。
通過人数推定装置100が、長時間にわたり通過人数を推定する際(例えば、1時間などの時間幅T)、時間幅Tの間での通過人数を上述した方法で繰り返し計測を行っても(1分ごとの計測を60回行い、結果を加算していく)良いし、時間幅Tを1時間として一気に計測しても良い。
なお、通過人数推定装置100が、時間幅Tを1時間として一気に計測する場合、時間幅Tの間に流動の状態(速度や人数)が大きく変化するような場所では、短い時間間隔tで繰り返し計測を行うことが望ましい。
前景検出部103は、各画素の移動方向の平均値を背景画素値として取得しても良い。
<Modification>
The fixed camera 10 and the passing person estimation device 100 may be configured integrally.
The frame image captured by the fixed camera 10 may be once recorded on a recording medium such as a hard disk, and the passing number estimating device 100 may perform the processing while reading the frame image.
When the passing person estimation device 100 estimates the passing person for a long time (for example, a time width T such as 1 hour), the passing person number between the time widths T is repeatedly measured by the method described above (1). The measurement may be performed 60 times per minute and the results are added), or the time width T may be 1 hour, and the measurement may be performed at once.
In addition, when the passing number estimation device 100 measures the time width T as 1 hour at a stretch, in a place where the flow state (speed and number of people) changes greatly during the time width T, the passing time estimation apparatus 100 is repeated at a short time interval t. It is desirable to measure.
The foreground detection unit 103 may acquire an average value in the movement direction of each pixel as a background pixel value.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。以下にその一例を記載する。仮に人物の流動方向が一方向に固定されているような場所では、上述した説明において、オプティカルフローの検出およびオプティカルフローによる前景画像の分類(分割)、を行わずとも、通過人数の推定が可能である。この場合は、図6(D)の射影画像P(x、t)は、前景画像そのものの射影画像P(x、t)となり、左右の方向別に分類(分割)されていない画像となる。この画像に対して、上記の例と同様に投票により勾配(滞在時間τ)を算出できることは自明である。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention. An example is described below. In a place where the flow direction of a person is fixed in one direction, in the above description, it is possible to estimate the number of passing people without detecting the optical flow and classifying (dividing) the foreground image by the optical flow. It is. In this case, the projected image P (x, t) in FIG. 6D is a projected image P (x, t) of the foreground image itself, and is an image that is not classified (divided) according to the left and right directions. It is obvious that the gradient (stay time τ) can be calculated for this image by voting as in the above example.

10…固定カメラ, 20…撮影領域, 30−1〜3…人物, 40−1〜3…矢印(進行方向), 100…通過人数推定装置, 101…フレーム画像入力部, 102…スケール変換係数記憶部, 103…前景検出部, 104…オプティカルフロー検出部, 105…前景分割部, 106…一次元射影部, 107…射影画像生成部, 108…流動パラメータ推定部, 109…通過人数推定部 DESCRIPTION OF SYMBOLS 10 ... Fixed camera, 20 ... Shooting area | region, 30-1-3 ... person, 40-1-3 ... arrow (traveling direction), 100 ... Passing number estimation apparatus, 101 ... Frame image input part, 102 ... Scale conversion coefficient memory | storage , 103 ... Foreground detection unit, 104 ... Optical flow detection unit, 105 ... Foreground division unit, 106 ... One-dimensional projection unit, 107 ... Projection image generation unit, 108 ... Flow parameter estimation unit, 109 ... Passing number estimation unit

Claims (4)

画像から移動体の数を時系列に取得する取得ステップと、
撮影領域に移動体が滞在していた滞在時間を推定する滞在時間推定ステップと、
前記取得ステップで取得した前記移動体の数と、前記滞在時間推定ステップで推定した前記移動体の滞在時間と、を用いて通過した前記移動体の数を推定する通過推定ステップと、
を有する推定方法。
An acquisition step of acquiring the number of moving objects in time series from the image;
A staying time estimating step for estimating a staying time in which the moving object has stayed in the imaging region;
A passage estimation step for estimating the number of the mobile bodies that have passed using the number of the mobile bodies acquired in the acquisition step and the stay time of the mobile bodies estimated in the stay time estimation step;
An estimation method comprising:
前記取得ステップは、画像の各画素における大きさを正規化する変換係数を用いて、前記画像内の前記移動体の大きさの違いを正規化することで、前記移動体の数を時系列に取得する請求項1に記載の推定方法。   The acquisition step uses a conversion coefficient that normalizes the size of each pixel of the image to normalize the difference in size of the moving objects in the image, so that the number of moving objects is time-sequentially. The estimation method according to claim 1 to be acquired. 前記取得ステップは、画像の各画素における大きさを正規化する変換係数を用いて、前景画素を一次元に射影した射影画像を作成し、前記射影画像を用いて所定時間内における前記移動体の数を算出し、
前記滞在時間推定ステップは、前記取得ステップで生成した前記射影画像を用いて、所定時間内における前記移動体の滞在時間を取得する請求項1又は2に記載の推定方法。
The obtaining step creates a projected image in which foreground pixels are projected in a one-dimensional manner using a conversion coefficient that normalizes the size of each pixel of the image, and uses the projected image of the moving object within a predetermined time. Calculate the number,
The estimation method according to claim 1, wherein the staying time estimating step acquires the staying time of the moving body within a predetermined time using the projection image generated in the acquiring step.
画像から移動体の数を時系列に取得する取得ステップと、
撮影領域に移動体が滞在していた滞在時間を推定する滞在時間推定ステップと、
前記取得ステップで取得した前記移動体の数と、前記滞在時間推定ステップで推定した前記移動体の滞在時間と、を用いて通過した前記移動体の数を推定する通過推定ステップと、
をコンピュータに実行させるためのコンピュータプログラム。
An acquisition step of acquiring the number of moving objects in time series from the image;
A staying time estimating step for estimating a staying time in which the moving object has stayed in the imaging region;
A passage estimation step for estimating the number of the mobile bodies that have passed using the number of the mobile bodies acquired in the acquisition step and the stay time of the mobile bodies estimated in the stay time estimation step;
A computer program for causing a computer to execute.
JP2012141123A 2012-06-22 2012-06-22 Passing number estimation method and computer program Expired - Fee Related JP5990042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141123A JP5990042B2 (en) 2012-06-22 2012-06-22 Passing number estimation method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141123A JP5990042B2 (en) 2012-06-22 2012-06-22 Passing number estimation method and computer program

Publications (2)

Publication Number Publication Date
JP2014006655A true JP2014006655A (en) 2014-01-16
JP5990042B2 JP5990042B2 (en) 2016-09-07

Family

ID=50104327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141123A Expired - Fee Related JP5990042B2 (en) 2012-06-22 2012-06-22 Passing number estimation method and computer program

Country Status (1)

Country Link
JP (1) JP5990042B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074299A (en) * 2016-10-26 2018-05-10 日本電信電話株式会社 Flow situation measurement device, method, and program
US10395139B2 (en) 2016-06-29 2019-08-27 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
JP2021096740A (en) * 2019-12-19 2021-06-24 日本電気株式会社 Counting system, counting method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282999A (en) * 1998-03-30 1999-10-15 East Japan Railway Co Instrument for measuring mobile object
JP2012033142A (en) * 2010-02-18 2012-02-16 Nippon Telegr & Teleph Corp <Ntt> Number-of-person measuring device, number-of-person measuring method and program
JP2012073942A (en) * 2010-09-29 2012-04-12 Olympus Corp Image processing device, image processing method, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282999A (en) * 1998-03-30 1999-10-15 East Japan Railway Co Instrument for measuring mobile object
JP2012033142A (en) * 2010-02-18 2012-02-16 Nippon Telegr & Teleph Corp <Ntt> Number-of-person measuring device, number-of-person measuring method and program
JP2012073942A (en) * 2010-09-29 2012-04-12 Olympus Corp Image processing device, image processing method, and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015033326; 星川佑磨,外5名: '差分ステレオを用いた人流計測' SSII2011 第17回 画像センシングシンポジウム講演論文集 [CD-ROM] , 20110608, pp.11-1〜11-5, 画像センシング技術研究会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395139B2 (en) 2016-06-29 2019-08-27 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
JP2018074299A (en) * 2016-10-26 2018-05-10 日本電信電話株式会社 Flow situation measurement device, method, and program
JP2021096740A (en) * 2019-12-19 2021-06-24 日本電気株式会社 Counting system, counting method, and program
WO2021124705A1 (en) * 2019-12-19 2021-06-24 日本電気株式会社 Counting system, counting method, and program

Also Published As

Publication number Publication date
JP5990042B2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
KR102070562B1 (en) Event-based image processing device and method thereof
JP6374107B2 (en) Improved calibration for eye tracking system
JP5976198B2 (en) Number counting device and number counting method
JP6779699B2 (en) Image processing equipment, information processing methods and programs
US9361706B2 (en) Real-time optical flow sensor design and its application to obstacle detection
JP6159179B2 (en) Image processing apparatus and image processing method
CN107016705A (en) Ground level estimation in computer vision system
Zhu et al. A computer vision-based system for stride length estimation using a mobile phone camera
JP2015206798A (en) distance calculation device
JP5990042B2 (en) Passing number estimation method and computer program
WO2021059765A1 (en) Imaging device, image processing system, image processing method and program
KR101640527B1 (en) Method and Apparatus for Monitoring Video for Estimating Size of Single Object
JP2013246490A (en) Estimation device, estimation method and computer program
JP2011209070A (en) Image processor
JP2018197945A (en) Obstacle detection apparatus and obstacle detection method
US10372977B2 (en) Video processing for human occupancy detection
JP2004046464A (en) Apparatus and method for estimating three-dimensional position of mobile object, program, and recording medium thereof
KR101438451B1 (en) Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same
JP5559749B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION METHOD, AND COMPUTER PROGRAM
Rajakaruna et al. Image deblurring for navigation systems of vision impaired people using sensor fusion data
Wei et al. Hardware-friendly vision algorithms for embedded obstacle detection applications
JP5419925B2 (en) Passing object number measuring method, passing object number measuring apparatus, and program
JP2018097776A (en) Obstacle detection device and obstacle detection method
JP2011090465A (en) Object position estimation device and object position estimation program
JP6023678B2 (en) People counting method, people counting device, and people counting program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160812

R150 Certificate of patent or registration of utility model

Ref document number: 5990042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees