JP2016091326A - Camera image person counting method and camera image person counting apparatus - Google Patents

Camera image person counting method and camera image person counting apparatus Download PDF

Info

Publication number
JP2016091326A
JP2016091326A JP2014225507A JP2014225507A JP2016091326A JP 2016091326 A JP2016091326 A JP 2016091326A JP 2014225507 A JP2014225507 A JP 2014225507A JP 2014225507 A JP2014225507 A JP 2014225507A JP 2016091326 A JP2016091326 A JP 2016091326A
Authority
JP
Japan
Prior art keywords
moving
image
size
camera image
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014225507A
Other languages
Japanese (ja)
Inventor
英朋 境野
Hidetomo Sakaino
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014225507A priority Critical patent/JP2016091326A/en
Publication of JP2016091326A publication Critical patent/JP2016091326A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera image person counting method and apparatus for counting the number of persons accurately.SOLUTION: A method of counting the number of objects moving in an image from a camera image includes the steps of; estimating motion of a moving object; setting a line for determining a moving state of the moving object in the image, setting a mesh parallel to a line for determining the size of the moving object, and correcting distortion of a scene of the camera image; correcting overlap of the moving objects overlapping each other, with respect to the estimated motion, to extract grains of the moving object; correcting the size of the moving object with respect to the extracted grains of the moving object; and estimating the number of moving objects in a speed count conversion section, on the basis of the grains of the moving object with the corrected size.SELECTED DRAWING: Figure 1

Description

本発明は、カメラ画像人数計数方法及びカメラ画像人数計数装置に関し、より詳細には、画像処理によりエリア内を移動する対象の数を計測する方法及び装置に関する。   The present invention relates to a camera image number counting method and a camera image number counting device, and more particularly to a method and apparatus for measuring the number of objects moving in an area by image processing.

カメラ画像監視方式は、移動する対象に特殊なセンサタグを装着せずに、カメラから取得した画像により、移動する対象(人及び物体)の数(人数及び台数)及び移動の軌跡などの特徴を容易に特定することができる手段として、年々重要性が増してきている。そのため、画像処理及びコンピュータビジョンの分野において、中心課題の一つとなっている。   With the camera image monitoring method, features such as the number of moving objects (persons and objects) (number of people and number of objects) and movement trajectory are easily obtained from images acquired from the camera without attaching special sensor tags to the moving objects. As a means that can be specified, the importance is increasing year by year. Therefore, it has become one of the central issues in the field of image processing and computer vision.

野村友和著、“重回帰モデル−計量分析演習−”、インターネット(http://www.econ.kobe-u.ac.jp/~nomura/lecture/11s/multiple_regression.pdf)2011年11月5日Tomokazu Nomura, “Multiple Regression Model -Econometric Analysis Exercise”, Internet (http://www.econ.kobe-u.ac.jp/~nomura/lecture/11s/multiple_regression.pdf) November 5, 2011 J.L. Barron, D.J. Fleet, and S.S. Beauchemin, “Performance of optical flow techniques”, International Journal of Computer Vision, vol. 12, no. 1, pp. 43-77, 1994.J.L.Barron, D.J.Fleet, and S.S.Beauchemin, “Performance of optical flow techniques”, International Journal of Computer Vision, vol. 12, no. 1, pp. 43-77, 1994. 高木方隆、“画像の幾何補正1”、高知工科大学、インターネット(http://www.infra.kochi-tech.ac.jp/takagi/Geomatics/10GeoCorrection.pdf)Takagi Takataka, “Image Geometric Correction 1”, Kochi University of Technology, Internet (http://www.infra.kochi-tech.ac.jp/takagi/Geomatics/10GeoCorrection.pdf) ウィキペディア(Wikipedia)フリー百科事典、“距離空間”、インターネット(http://ja.wikipedia.org/wiki/%E8%B7%9D%E9%9B%A2%E7%A9%BA%E9%96%93)2013年11月12日Wikipedia Free Encyclopedia, “Distance Space”, Internet (http://en.wikipedia.org/wiki/%E8%B7%9D%E9%9B%A2%E7%A9%BA%E9%96% 93) November 12, 2013 ウィキペディア(Wikipedia)フリー百科事典、“エッジ検出”、インターネット(http://ja.wikipedia.org/wiki/%E3%82%A8%E3%83%83%E3%82%B8%E6%A4%9C%E5%87%BA)2013年3月19日Wikipedia Free Encyclopedia, “Edge Detection”, Internet (http://en.wikipedia.org/wiki/%E3%82%A8%E3%83%83%E3%82%B8%E6%A4% 9C% E5% 87% BA) March 19, 2013

カメラ画像監視方式による屋外環境に対する画像処理においては、照明変化、対象同士の重なり合い(オクルージョン)、対象の身長又は大きさの相違、群集などによる混雑度、又は、視野内における見かけの身長又は大きさの極端な変化等が生じる。これらの事象により、対象の人数や台数の計数において、以下の問題が生じる。まず第1に、人数(または台数)の増減に伴った対象同士の重なり合いにより、対象自体を明確に把握できず、人数計数(台数計数)の誤差が増大する。第2に、人の身長(又は物体の大きさ)の違いが、人数計数(台数計数)の誤差を生ずる。第3に、人(又は物体)の移動の動き情報をそのまま利用した人数計数法(台数計数法)であるため、上記重なり合いや身長の違いを個別に補正したものではない。   In image processing for an outdoor environment using a camera image monitoring method, changes in lighting, overlap between objects (occlusion), differences in height or size of objects, crowding due to crowds, or apparent height or size in the field of view Extreme changes occur. These events cause the following problems in counting the number of subjects and the number of subjects. First, due to the overlapping of the objects with the increase / decrease in the number of persons (or the number of persons), the objects themselves cannot be clearly grasped, and the error in counting the number of persons (number of persons) increases. Secondly, the difference in the height of the person (or the size of the object) causes an error in the number of people (number counting). Thirdly, since it is a person counting method (number counting method) using movement information of movement of a person (or an object) as it is, it does not individually correct the overlap or height difference.

このような問題は、カメラ画像監視方式による対象の人数や台数の自動計数法において、検出精度を低下させる大きな要因となっている。本発明は、このような問題に鑑みてなされたもので、その目的とするところは、人数計数を精度よく行うための、カメラ画像人数計数方法及びカメラ画像人数計数装置を提供することにある。   Such a problem is a major factor that lowers the detection accuracy in the automatic counting method of the number of persons and the number of subjects by the camera image monitoring method. The present invention has been made in view of such problems, and an object of the present invention is to provide a camera image number counting method and a camera image number counting device for accurately counting the number of people.

このような問題を解決するために、本発明の第一の態様は、カメラ画像から、画像内を移動する対象の数を計測するカメラ画像人数計数方法であって、動き推定部において前記移動する対象の動きを推定するステップと、メッシュ変形設定部において、前記画像内に前記移動する対象の移動状態を判定する線を設定し、前記移動する対象の大きさを判定するための前記線に平行なメッシュを設定し、カメラ画像のシーンの歪みを補正するステップと、前記移動する対象が前記画像内において重なる場合、混雑度補正部において、推定した前記動きについて前記移動する対象の重なり合いを補正して前記移動する対象の粒子を抽出するステップと、大きさ補正部において、抽出した前記移動する対象の粒子に対して前記移動する対象の大きさを補正するステップと、前記大きさが補正された前記抽出した動きの対象の粒子に基づいて、速度人数変換部において、前記移動する対象の数を推定するステップとを含むことを特徴とする。   In order to solve such a problem, a first aspect of the present invention is a camera image number counting method for measuring the number of objects moving within an image from a camera image, wherein the movement is estimated by a motion estimation unit. In the step of estimating the movement of the object, and in the mesh deformation setting unit, a line for determining the movement state of the moving object is set in the image, and parallel to the line for determining the size of the moving object When the moving object overlaps within the image, the congestion degree correcting unit corrects the overlap of the moving object with respect to the estimated movement. Extracting the particles to be moved, and a size correction unit to determine the size of the object to be moved with respect to the extracted particles to be moved. The method comprising positive for, on the basis of the target particle movement to the magnitude of the corrected the extraction, the speed number conversion unit, characterized in that it comprises a step of estimating the number of subjects in the mobile.

また、本発明の第2の態様は、第1の態様のカメラ画像人数計数方法であって、前記大きさを補正するステップは、前記移動する対象の移動状態を判定する前記線と前記メッシュにより設定された領域との関係性に基づいた力学モデルを適用して前記大きさの違いによる前記画像内の見かけの移動速度の推定誤差を削減することを特徴とする。   The second aspect of the present invention is the camera image number counting method according to the first aspect, wherein the step of correcting the size is based on the line and the mesh for determining the moving state of the moving object. A dynamic model based on the relationship with the set region is applied to reduce an estimation error of an apparent moving speed in the image due to the difference in size.

また、本発明の第3の態様は、カメラ画像から、画像内を移動する対象の数を計測するカメラ画像人数計数装置であって、前記移動する対象の動きを推定する動き推定部と、前記画像内に前記移動する対象の移動状態を判定する線を設定し、前記移動する対象の大きさを判定するための前記線に平行なメッシュを設定し、カメラ画像のシーンの歪みを補正するメッシュ変形設定部と、前記移動する対象が前記画像内において重なる場合、推定した前記動きについて前記移動する対象の重なり合いを補正して前記移動する対象の粒子を抽出する混雑度補正部と、抽出した前記移動する対象の粒子に対して前記移動する対象の大きさを補正する大きさ補正部と、前記大きさが補正された前記抽出した動きの対象の粒子に基づいて、前記移動する対象の数を推定する速度人数変換部とを備えることを特徴とする。   According to a third aspect of the present invention, there is provided a camera image number counting device for measuring the number of objects moving within an image from a camera image, the movement estimating unit estimating the movement of the moving object, A mesh that sets a line for determining the movement state of the moving object in the image, sets a mesh parallel to the line for determining the size of the moving object, and corrects the distortion of the scene of the camera image When the moving target overlaps in the image, a deformation setting unit, a congestion degree correcting unit that corrects an overlap of the moving target with respect to the estimated movement and extracts the moving target particle, and the extracted A size correction unit that corrects the size of the moving target with respect to the moving target particle, and the moving pair based on the extracted target particle of the motion that has been corrected in size. Characterized in that it comprises a speed number conversion section for estimating the number of.

また、本発明の第4の態様は、第3の態様のカメラ画像人数計数装置であって、前記大きさ補正部は、前記移動する対象の移動状態を判定する前記線と前記メッシュにより設定された領域との関係性に基づいた力学モデルを適用して前記大きさの違いによる前記画像内の見かけの移動速度の推定誤差を削減して大きさの補正を行うことを特徴とする。   According to a fourth aspect of the present invention, there is provided the camera image number counting device according to the third aspect, wherein the size correction unit is set by the line and the mesh for determining a moving state of the moving object. Applying a dynamic model based on the relationship with the region to reduce the estimation error of the apparent moving speed in the image due to the difference in size, and correcting the size.

本発明では、カメラ画像処理において、従来からの前処理に加えて、座標系の歪み補正、見かけの大きさ補正、混雑度の補正により、人数計数を精度よく行うことができる。   In the present invention, in camera image processing, in addition to conventional preprocessing, the number of people can be accurately counted by correcting distortion of the coordinate system, correcting the apparent size, and correcting the degree of congestion.

本発明の一実施形態にかかるカメラ画像人数計数装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera image number counting device concerning one Embodiment of this invention. 従来のカメラ画像による人数計数法の例を説明する図である。(a)は従来の人数計数法を示し、(b)及び(c)は、従来の人数計数法の問題点の例を示している。It is a figure explaining the example of the number counting method by the conventional camera image. (A) shows a conventional number counting method, and (b) and (c) show examples of problems of the conventional number counting method. 本発明における人流計数法における補正法を示す。The correction method in the human flow counting method in this invention is shown. 本発明の一実施形態における人数計数法の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process of the people counting method in one Embodiment of this invention. 図4において定義したメッシュ内の仮想的なゲートの直線上を横切る人と粒子との典型的な関係を説明する図である。It is a figure explaining the typical relationship between the person and particle | grains which cross | intersect on the straight line of the virtual gate in the mesh defined in FIG. 本発明の一実施形態に係る混雑度の推定による補正法における歩行者のエッジ抽出過程と、エッジ抽出により抽出した歩行者を示す粒子を示す図である。(a)〜(c)は、従来のエッジ抽出方法を示す図であり、(d)〜(k)は、本発明の一実施形態におけるエッジ抽出法を示す図である。It is a figure which shows the particle | grains which show the pedestrian extracted by the edge extraction process of a pedestrian in the correction method by estimation of the congestion degree which concerns on one Embodiment of this invention, and edge extraction. (A)-(c) is a figure which shows the conventional edge extraction method, (d)-(k) is a figure which shows the edge extraction method in one Embodiment of this invention. 人の身長の相違が人数の計数に誤差が生じる例、及び本発明の一実施形態における粒子の速度補正例を示す図である。(a)、(c)は、仮想的なゲートの直線上での粒子を示し、(b)、(d)は実写を示し、(e)〜(g)は、歩行者が仮想的なゲートの直線を横切っていくときの粒子の速度の補正例を示す図である。It is a figure which shows the example in which the difference in a person's height produces an error in the count of the number of persons, and the example of particle | grain speed correction in one Embodiment of this invention. (A), (c) shows the particles on the straight line of the virtual gate, (b), (d) show the live action, and (e)-(g) show the pedestrian's virtual gate. It is a figure which shows the example of correction | amendment of the speed | velocity | rate of the particle | grains when crossing a straight line. 本発明の一実施形態における粒子に作用する押力モデルを説明する図である。(a)〜(c)は、図4において定義した仮想的なゲートの直線を含むメッシュ領域内における、移動する物体を示している。It is a figure explaining the pushing force model which acts on the particle | grains in one Embodiment of this invention. (A)-(c) has shown the moving object in the mesh area | region containing the straight line of the virtual gate defined in FIG. 本発明の一実施形態における粒子に作用する抵抗力モデルを説明する図である。(a)〜(c)は、図4において定義した仮想的なゲートの直線を含むメッシュ領域内を移動する物体を示している。It is a figure explaining the resistance force model which acts on the particle | grains in one Embodiment of this invention. (A)-(c) has shown the object which moves within the mesh area | region containing the straight line of the virtual gate defined in FIG. 従来の人数計数方法と本発明の一実施形態による人数計数法との実験の結果を示す図である。It is a figure which shows the result of the experiment with the conventional people counting method and the people counting method by one Embodiment of this invention.

以下、図面を参照しながら本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態にかかるカメラ画像人数計数装置の構成を示すブロック図である。本実施形態のカメラ画像人数計数装置100は、カメラ又は顕微鏡等からの画像データを入力するデータ入力部101と、入力したデータを保存するデータ蓄積部102とを備える。また、カメラ画像人数計数装置100は、背景画像を分離する背景差分部103と、計数の対象の動きを推定する動き推定部104と、画像シーンの歪みの補正するメッシュ変形設定部105及び幾何補正部106と、計数の対象の重なり合いを補正する混雑補正部107と、計数の対象の大きさの違いを判別、補正する大きさ補正部108とを備える。さらに、カメラ画像人数計数装置100は、対象の数を推定する速度人数変換部109と、計数結果を表示する表示部110とを備える。   FIG. 1 is a block diagram showing a configuration of a camera image number counting device according to an embodiment of the present invention. The camera image number counting device 100 of this embodiment includes a data input unit 101 that inputs image data from a camera or a microscope, and a data storage unit 102 that stores the input data. Further, the camera image number counting device 100 includes a background difference unit 103 that separates background images, a motion estimation unit 104 that estimates a motion to be counted, a mesh deformation setting unit 105 that corrects image scene distortion, and a geometric correction. Unit 106, a congestion correction unit 107 that corrects the overlap of counting targets, and a size correction unit 108 that determines and corrects the difference in size of counting targets. Furthermore, the camera image number counting device 100 includes a speed number conversion unit 109 that estimates the number of objects and a display unit 110 that displays a counting result.

本実施形態のカメラ画像人数計数装置100においては、ある一つの環境の時系列画像をカメラ又は顕微鏡等により撮影し、撮影した時系列画像の画像データを、データ入力部101へ入力する。入力した時系列画像の画像データは、データ蓄積部102において保存される。背景差分部103において、データ蓄積部102に保存された時系列画像の画像データにおける連続した画像間の差分画像が処理され、画像内の一定値以上の輝度の大きさに対して閾値をおいて、前部と背景部とを分離する。動き推定部104は、背景差分部103において前部と背景部とが分離された画像データから、計数の対象の動きを推定する。メッシュ変形設定部105は、画像内に計数対象の移動状態を判別する線及び線に平行なメッシュを設定する。幾何補正部106は、視野内画像の移動対象がカメラ手前又は奥に移動したときでも同一の大きさとなるように幾何補正をかけ、カメラを設置したときの画像シーンの歪みの補正を行う。混雑補正部107は、推定された動きに対して人の重なり合いについての補正を行い、計数の対象の一部となる粒子を抽出する。大きさ補正部108は、抽出された粒子に対して身長の違いや複数人による大きさ補正を行う。大きさ補正部108については、身長の違いや人数の違いによる見かけの速度の推定誤差を削減するために、移動対象の移動状態を判定する領域、線分との関係性に基づいた力学モデルを適用する。速度人数変換部109において、補正された画像データから一定時間における速度情報に基づいて人数を推定し、表示部110において、速度人数変換部109による人数計数結果を表示する。   In the camera image number counting device 100 of the present embodiment, a time series image of a certain environment is taken by a camera or a microscope, and the image data of the taken time series image is input to the data input unit 101. The input time-series image data is stored in the data storage unit 102. In the background difference unit 103, a difference image between successive images in the image data of the time-series image stored in the data storage unit 102 is processed, and a threshold is set for the magnitude of the luminance in the image that is equal to or greater than a certain value. The front part and the background part are separated. The motion estimation unit 104 estimates the motion to be counted from the image data obtained by separating the front part and the background part in the background difference unit 103. The mesh deformation setting unit 105 sets a line for determining the movement state of the counting target and a mesh parallel to the line in the image. The geometric correction unit 106 performs geometric correction so that the movement target of the in-view image moves to the front or back of the camera to have the same size, and corrects the distortion of the image scene when the camera is installed. The congestion correction unit 107 corrects the overlap of people with respect to the estimated movement, and extracts particles that are part of the counting target. The size correction unit 108 performs height correction on the extracted particles and size correction by a plurality of people. For the size correction unit 108, in order to reduce the estimation error of the apparent speed due to the difference in height or the number of people, a dynamic model based on the relationship between the region for determining the movement state of the movement target and the line segment is used. Apply. The speed number conversion unit 109 estimates the number of persons from the corrected image data based on speed information for a predetermined time, and the display unit 110 displays the result of the number counting by the speed number conversion part 109.

図2は、従来のカメラ画像による人数計数法の例を説明する図である。図2(a)は従来の人数計数法を示し、図2(b)及び図2(c)は、従来の人数計数法の問題点の例を示している。取得した画像中に複数の歩行者202〜204が存在した場合、従来の人数計測法では、図2(a)に示すとおり画像中に仮想的に直線201を引き、一定の時間において仮想的なゲート(virtual gate (VG))の直線201を横切った対象の人数を計数する。しかし、カメラと歩行者の相対的な視線アングルによっては、図2(b)に示すとおり、視線上複数の人物が重なりあってしまうために(205)、直線上の人数計数に大きな誤差が生じる場合がある。また、図2(c)に示すとおり、同一人物でも、画像内で手前から奥にかけて身長が著しく変化し(206〜208)、画像処理上誤認識につながる要因となることがある。すなわち、従来の人数計測法においては、見かけの混雑度と大きさの補正法が大きな課題であった。   FIG. 2 is a diagram illustrating an example of a conventional counting method using camera images. FIG. 2A shows a conventional number counting method, and FIG. 2B and FIG. 2C show examples of problems of the conventional number counting method. When there are a plurality of pedestrians 202 to 204 in the acquired image, the conventional person counting method virtually draws a straight line 201 in the image as shown in FIG. The number of subjects who cross the straight line 201 of the gate (virtual gate (VG)) is counted. However, depending on the relative line-of-sight angle between the camera and the pedestrian, as shown in FIG. 2 (b), a plurality of persons overlap on the line of sight (205), resulting in a large error in the number of people on the line. There is a case. In addition, as shown in FIG. 2C, even for the same person, the height changes significantly from the front to the back in the image (206 to 208), which may be a cause of erroneous recognition in image processing. That is, in the conventional method of counting people, a method of correcting the apparent congestion degree and size has been a big problem.

図3は、図1の速度人数変換部109における人数計数法の例を示す図である。図3に示す人数計数法は、図2(a)に示すような画像を基に、取得画像における見かけの歪みを補正して、仮想的なゲートの直線301を横切った対象302の人数を計数する。本実施形態においては、図2の説明において述べたような従来からの重回帰モデルでは考慮されていなかった時系列データの時間的な変化の影響を加味することを特徴とする。   FIG. 3 is a diagram illustrating an example of the number counting method in the speed number conversion unit 109 in FIG. The number counting method shown in FIG. 3 corrects the apparent distortion in the acquired image based on the image as shown in FIG. 2A, and counts the number of subjects 302 that cross the virtual gate straight line 301. To do. The present embodiment is characterized in that the influence of temporal changes in time-series data not considered in the conventional multiple regression model as described in the explanation of FIG. 2 is taken into consideration.

ここで、ある画像上の2次元座標値をもつ説明変数xについて、その時系列データを{x,x,...,xとする。ただし、離散時間は1からTまでとする。次に、時間変化に関する目的変数を生成するために、重み係数w(x)、仮想的なゲートの直線301と対象302の動きを示すベクトルv(以下、「オプティカルフロー」という(非特許文献2参照))がなす角度をθとし、|v|をオプティカルフローによる速度の大きさとすると、見かけの歪みが補正されたときの移動速度は、次のように定義される。 Here, for an explanatory variable x j having a two-dimensional coordinate value on a certain image, its time series data is expressed as {x 1 , x 2 ,. . . , X T } j . However, the discrete time is from 1 to T. Next, in order to generate an objective variable related to time change, a weighting factor w (x), a virtual gate line 301 and a vector v x indicating the motion of the object 302 (hereinafter referred to as “optical flow”) (non-patent document) 2))) is defined as follows, where θ x is θ x and | v x | is the magnitude of the velocity by the optical flow, the moving speed when the apparent distortion is corrected is defined as follows.

ただし、2次元座標値xとしたときのFG(x)は、2値化データ(0,1)であり、仮想的なゲートの直線301付近の画素に対し、前景(1)か背景(0)かが割り当てられる。sin(θ)は、仮想的なゲートの直線301に平行をゆっくりと時間をかけて移動したときに、見かけの物体数が不自然に増加してしまうことを抑制する補正値である。なお、FG(x)に関しては、図1の背景差分部103において、連続した時系列画像について現在と一つ前の過去の画像内の画素の輝度の差分値をとり、その絶対値が一定値(例えば、15)以上をもつ画素を1、それ以外を0として与えた。すなわち、輝度変化が一定値以上生じた画像領域(画素)について、人などの動きの変化があったものとみなした。 However, FG (x) when the two-dimensional coordinate value x is used is binarized data (0, 1), and foreground (1) or background (0) for pixels near the straight line 301 of the virtual gate. ) Is assigned. sin (θ x ) is a correction value that suppresses an unnatural increase in the number of apparent objects when moving slowly in parallel with the virtual gate straight line 301 over time. For FG (x), the background difference unit 103 in FIG. 1 takes the difference value of the luminance of the pixels in the current and previous past images for a continuous time-series image, and its absolute value is a constant value. Pixels having (for example, 15) or more are given as 1 and others are given as 0. That is, regarding an image region (pixel) in which a change in luminance occurred over a certain value, it was considered that there was a change in the movement of a person or the like.

図4は、本実施形態における人数計数法の処理の流れを示すフロー図である。本実施形態において、ある歩行者用道路をカメラにより撮影し、歩行者用道路を歩く人(計数対象)の数を計数する。本実施形態の人数計数法は、まず、ステップ401において、ある定点から、斜め方向に歩行者用道路を撮影する。カメラにより得られた一定の時間を通じて得られる歩行者用道路の一つの時空間画像は、図1のデータ蓄積部102に蓄積される。次に、ステップ402において、背景差分部103により、一定値以上の輝度の大きさに対し閾値を置いて、前部と背景部に分離する。   FIG. 4 is a flowchart showing a process flow of the people counting method in the present embodiment. In the present embodiment, a certain pedestrian road is photographed with a camera, and the number of people walking on the pedestrian road (counting target) is counted. In the number counting method of the present embodiment, first, in step 401, a pedestrian road is photographed obliquely from a certain fixed point. One spatio-temporal image of the pedestrian road obtained through a certain time obtained by the camera is stored in the data storage unit 102 of FIG. In step 402, the background difference unit 103 separates the front part and the background part by setting a threshold value for the magnitude of the luminance equal to or higher than a certain value.

ステップ403において、カメラの撮影方向によるシーンの歪みを補正する。本実施形態においては、定点から斜めに歩行者用道路を撮影しているため、カメラの撮影方向によるシーンの歪みを補正する必要がある。ステップ403においては、メッシュ変形設定部105により、画像内から目視により人数計数を実施する領域を選定し、歩行者用道路を横切るように仮想的なゲートとなる直線411を設定する。なお、本実施形態においては、1画素分の幅を直線411の幅として用いた従来からの人数計数法と比較すると、数画素分に直線411の幅を広げているのが特徴である。次に、一人の歩行者を囲む程度の大きさのメッシュ(格子)412を、直線411に平行に、5×4〜50×10等シーンに応じて設定する。メッシュを設定することにより、人の身長の違いを把握することが可能となる。このとき、直線411に平行なメッシュ全体の両端については端部直線413として設定する。その後、幾何補正部106により、シーンの歪みの補正を行う。シーンの歪みの補正については、例えば非特許文献3に記載の方法(幾何補正)が用いられる。シーンの歪みの補正により視野内の移動対象がカメラ手前や奥に移動したときでも、同一の大きさとなるように補正することができる。   In step 403, the distortion of the scene due to the shooting direction of the camera is corrected. In the present embodiment, since the pedestrian road is photographed obliquely from a fixed point, it is necessary to correct the distortion of the scene due to the photographing direction of the camera. In step 403, the mesh deformation setting unit 105 selects an area for counting the number of persons visually from the image, and sets a straight line 411 that becomes a virtual gate so as to cross the pedestrian road. Note that the present embodiment is characterized in that the width of the straight line 411 is expanded to several pixels as compared with the conventional number counting method using the width of one pixel as the width of the straight line 411. Next, a mesh (lattice) 412 of a size that surrounds one pedestrian is set in parallel with the straight line 411 according to the scene, such as 5 × 4 to 50 × 10. By setting the mesh, it becomes possible to grasp the difference in the height of the person. At this time, both ends of the entire mesh parallel to the straight line 411 are set as end straight lines 413. Thereafter, the geometric correction unit 106 corrects the distortion of the scene. For correction of scene distortion, for example, a method (geometric correction) described in Non-Patent Document 3 is used. Even when the object to be moved within the field of view moves to the front or back of the camera by correcting the distortion of the scene, it can be corrected so as to have the same size.

次に、シーンの歪みの補正を行った画像に対して、混雑補正部107により混雑度の推定による補正(ステップ404)を行う。従来、カメラ画像から人数を計数するに際して複数人が重なっている場合、斜めの一方向から一つの環境を撮影しているために、重なった対象を一つの対象と認識してしまうことにより、実際に存在する人数よりも少ない人数として計数されてしまうことがあった。この問題については、本実施形態においては、混雑の推定による補正を取り入れることで緩和する。   Next, the congestion correction unit 107 performs correction by estimating the degree of congestion (step 404) on the image on which the distortion of the scene has been corrected. Conventionally, when multiple people overlap when counting the number of people from a camera image, since one environment is photographed from one diagonal direction, the overlapping target is actually recognized as one target. In some cases, it was counted as a smaller number than the number of people present. In this embodiment, this problem is alleviated by incorporating correction based on congestion estimation.

混雑度の推定による補正を行う場合、歩行者が複数(人数が未知)いる場合は、複数の連続した画像を用いてエッジ特徴量のヒストグラムを求め、事前に作成しておいた人数が既知の場合についてのエッジ特徴量のヒストグラムと比較参照し、人数の増減を推定する。この処理では、歩行者以外の樹木の揺らぎなど、背景における動的な変化によるエッジ特徴量の影響を排除することを目的とする。   When correcting by estimating the degree of congestion, if there are multiple pedestrians (the number of people is unknown), obtain a histogram of edge feature values using multiple consecutive images and know the number of people created in advance The increase / decrease in the number of persons is estimated by referring to the histogram of the edge feature amount for each case. The purpose of this process is to eliminate the influence of edge feature amounts due to dynamic changes in the background, such as fluctuations in trees other than pedestrians.

次に、大きさ補正部108により状態の推定による補正(ステップ405)を行う。人の身長の違いについても画像処理では人数計数に誤差をもたらす要因となっている。この問題については、本実施形態においては、状態推定による補正法を取り入れることで緩和する。なお、メッシュ内において一人から複数の人がつくりだす、見かけの塊(blob:ブロブ)と端部直線413との相対的な位置関係の違いを状態の違いとする。   Next, the size correction unit 108 performs correction based on state estimation (step 405). The difference in human height is also a factor that causes an error in counting the number of people in image processing. In this embodiment, this problem is alleviated by adopting a correction method based on state estimation. In addition, the difference in the relative positional relationship between the apparent blob (blob) and the end straight line 413, which is created by one or more people in the mesh, is defined as a difference in state.

一方で、ステップ406においては、人の動きの推定を行う。人の動きについては、動き推定部104において、非特許文献2に記載のオプティカルフロー推定法より推定する。なお、図3で述べたような方法で得られる必要なオプティカルフローは、仮想的なゲートの直線に垂直な成分である。   On the other hand, in step 406, human motion is estimated. The human motion is estimated by the motion estimation unit 104 by the optical flow estimation method described in Non-Patent Document 2. The necessary optical flow obtained by the method described with reference to FIG. 3 is a component perpendicular to the virtual gate line.

ステップ407において、ステップ406において推定されたオプティカルフローから有効な速度を持つ粒子を抽出し、画像内の仮想的なゲートの直線411を横切る人の、仮想的なゲートの直線411上の粒子のフローをそれぞれ抽出する。   In step 407, particles having effective velocities are extracted from the optical flow estimated in step 406, and the flow of particles on the virtual gate line 411 of the person crossing the virtual gate line 411 in the image. Are extracted respectively.

ステップ408において、ステップ407において抽出した粒子に対しステップ404において算出された仮想的な力を加え、それぞれの粒子の動きの速度を調整する。ここで、速度の調整は、仮想的な力を、速度変換式を通じて速度に変換し、速度の補正量を決定することにより行う。   In step 408, the virtual force calculated in step 404 is applied to the particles extracted in step 407 to adjust the speed of movement of each particle. Here, the speed is adjusted by converting a virtual force into a speed through a speed conversion formula and determining a speed correction amount.

ステップ409において、速度が調整された粒子を統合して、計数の対象となる1つの対象(人)を抽出する。抽出した人数の結果は、表示部110において表示される。   In step 409, the particles whose speeds are adjusted are integrated to extract one target (person) to be counted. The result of the extracted number of people is displayed on the display unit 110.

次に、混雑補正部107における、混雑度の推定による補正(ステップ404)について説明する。図5は、図4において定義したメッシュ内の仮想的なゲートの直線上を横切る人と粒子との典型的な関係を説明する図である。図5(a)は、仮想的なゲートの直線501に近づく歩行者503について連続する2つの時刻における歩行者を重ね合わせて示している。歩行者503は動きをもつ粒子504として置き換えることができる。本実施形態における補正法を適用する前は、粒子504は、さまざまな方向を向き、単位時刻当たりの速度の大きさもばらついていることが多い。   Next, the correction (step 404) based on the estimation of the congestion level in the congestion correction unit 107 will be described. FIG. 5 is a diagram for explaining a typical relationship between a person and a particle crossing a virtual gate line in the mesh defined in FIG. FIG. 5A shows the pedestrians 503 approaching the virtual gate straight line 501 by superimposing the pedestrians at two successive times. The pedestrian 503 can be replaced with particles 504 having movement. Before applying the correction method in the present embodiment, the particles 504 often face in various directions, and the magnitude of the velocity per unit time often varies.

図5(b)は、仮想的なゲートの直線501上、歩行者が一人存在する場合の粒子を示し、図5(c)は、仮想的なゲートの直線501上、歩行者が二人近づいて重なった場合の粒子を示している。   FIG. 5B shows particles when one pedestrian is present on the virtual gate straight line 501, and FIG. 5C shows two pedestrians approaching the virtual gate straight line 501. Shows the particles when they overlap.

図5(b)及び(c)の場合、画像処理では共に人数は一人と誤検出されることが多いという問題がある。特に歩行者の人数が増え、それぞれの歩行者の重なりが随所に生じるほど、その誤差は増大する傾向が知られている。   In the case of FIGS. 5B and 5C, there is a problem that the number of persons is often erroneously detected as one in image processing. In particular, it is known that the error increases as the number of pedestrians increases and the pedestrians overlap each other.

図6は、本実施形態の混雑度の推定による補正法(ステップ404)における歩行者のエッジ抽出過程と、エッジ抽出により抽出した歩行者を示す粒子を示す図である。上段の図6(a)〜(c)は、従来のエッジ抽出方法を示す図であり、図6(a)は、撮影したある歩行者用道路の画像、図6(b)は、図6(a)の画像からエッジを抽出した図、図6(c)は、図6(b)のエッジから、歩行者のみを抽出した図を示す。しかし、図6(a)〜(c)のようなエッジ抽出方法では、処理対象ではない背景の特徴量が安定した人数の計数を阻害する問題がある。そこで本発明では、下記に述べるような方法により、対象とする歩行者だけのエッジを絞り込んでいる。   FIG. 6 is a diagram illustrating a pedestrian edge extraction process in the correction method (step 404) based on estimation of the degree of congestion according to the present embodiment and particles indicating the pedestrian extracted by edge extraction. 6 (a) to 6 (c) in the upper stage are diagrams showing a conventional edge extraction method, FIG. 6 (a) is an image of a certain pedestrian road, and FIG. 6 (b) is FIG. The figure which extracted the edge from the image of (a), FIG.6 (c) shows the figure which extracted only the pedestrian from the edge of FIG.6 (b). However, the edge extraction method as shown in FIGS. 6A to 6C has a problem that the background feature amount that is not a processing target obstructs the counting of the stable number of people. Therefore, in the present invention, the edges of only the target pedestrian are narrowed down by the method described below.

下段の図6(d)〜(k)は、本実施形態におけるエッジ抽出法を示す図である。本実施形態においては、図4のステップ403において作成したメッシュ内の画像についてエッジ抽出を行うものであり、図6(d)及び(e)は、図4において設定されたメッシュ部分の画像を示し、図6(f)は(d)の画像から、図6(g)は(e)の画像から、エッジを抽出した図、図6(h)は(f)の図の、図6(i)は(g)の図の時空間のエッジのヒストグラム、図6(j)は(d)の画像の、図6(k)は(e)の画像の、仮想的なゲートの直線上の歩行者に対応した粒子の例を示す。下段の1行目の図((d)、(f)、(h)及び(j))は歩行者が一人の場合、2行目の図((e)、(g)、(i)及び(k))は、歩行者が複数の場合である。   FIGS. 6D to 6K in the lower stage are diagrams showing the edge extraction method in the present embodiment. In this embodiment, edge extraction is performed on the image in the mesh created in step 403 in FIG. 4, and FIGS. 6 (d) and 6 (e) show the mesh part images set in FIG. 6 (f) is a diagram obtained by extracting edges from the image (d), FIG. 6 (g) is a diagram obtained by extracting edges from the image (e), and FIG. 6 (h) is a diagram of FIG. ) Is a histogram of the spatio-temporal edge of the diagram in (g), FIG. 6 (j) is the image of (d), and FIG. 6 (k) is the walk of the image of (e) on the virtual gate line. The example of the particle | grains corresponding to a person is shown. The first row of the lower row ((d), (f), (h) and (j)) shows the second row ((e), (g), (i) and (K)) is a case where there are a plurality of pedestrians.

本実施形態において、基準とするエッジのヒストグラムHNormalと、任意の時間において得られたエッジのヒストグラムHとを、 In this embodiment, a reference edge histogram H Normal and an edge histogram H t obtained at an arbitrary time are represented as follows:

とし、HNormalとHとから、時間tにおける混雑度の相対率Rを求める。ここで、D(・)は2つのヒストグラムの類似度を計算する関数であり、エッジの強さと生起頻度に関する距離計算を行う。距離計算には、さまざまな方法があり、ユークリッド距離(非特許文献4参照)などを選択することができる。ただし、HNormalは時空間画像から得られるエッジ情報であるため、人の平均身長1.6m、平均歩行速度0.5m/sとおく。 And the relative rate R t of the degree of congestion at time t is obtained from H Normal and H t . Here, D (•) is a function for calculating the degree of similarity between two histograms, and performs distance calculation regarding edge strength and occurrence frequency. There are various methods for calculating the distance, and the Euclidean distance (see Non-Patent Document 4) or the like can be selected. However, since H Normal is edge information obtained from the spatiotemporal image, the average height of the person is 1.6 m and the average walking speed is 0.5 m / s.

エッジのヒストグラムHNormalとHとは、 Edge histograms H Normal and H t are

で定義した。ただし、x={t,Normal}、Hはエッジの長さ、Hはエッジの数である。エッジについては、画像輝度に関する空間一次微分、又はCANNYエッジ検出器(非特許文献5参照)等により容易に求められる。1枚の画像だけからエッジを求めると、一般に、対象としていない背景のさまざまな建物や道路などを人とともに同時に検出してしまう問題が生じる。そこで本実施形態では、時系列的な画像から、エッジ特徴量を Defined in Where x = {t, Normal}, H n is the length of the edge, and H l is the number of edges. The edge can be easily obtained by a spatial first derivative with respect to image luminance, a CANNY edge detector (see Non-Patent Document 5), or the like. When an edge is obtained from only one image, in general, there arises a problem that various buildings and roads in the background that are not targeted are detected together with a person. Therefore, in this embodiment, the edge feature amount is calculated from the time-series image.

により求める。ただし、C(i)は、画像iにおけるエッジである。C´(i)は現在と一つ前のエッジ画像との論理演算AND、および現在のエッジ画像の排他的論理XORで定義する。式(4)により、余分な背景におけるエッジを排除でき、同時に、移動する対象である一人から複数人の歩行者のエッジを求めることができる。 Ask for. However, C (i) is an edge in the image i. C ′ (i) is defined by a logical operation AND between the current and previous edge image and an exclusive logical XOR of the current edge image. According to the equation (4), it is possible to eliminate the edge in the extra background, and at the same time, obtain the edges of a plurality of pedestrians from one person who is the object to move.

次に、本実施形態においては、混雑度の相対率Rを、以下の式(5)により仮想的な温度Tに変換する。 Next, in this embodiment, the relative rate R t of the degree of congestion is converted into a virtual temperature T t by the following equation (5).

ただし、α、βは一次回帰関数の勾配とバイアスに関する定数であり、事前に学習用映像データにより推定されるものである。 However, α and β are constants related to the slope and bias of the linear regression function, and are estimated from learning video data in advance.

ここで、実環境での背景ノイズの影響をさらに緩和するために、仮想的なゲートの直線上の粒子のうちの有効な速度をもつ粒子P(画素)、つまり、計数の対象となる人の一部を表す粒子は、   Here, in order to further alleviate the influence of background noise in the real environment, particles P (pixels) having effective velocities among particles on a virtual gate line, that is, of the person to be counted The particles that represent a part

を満たす場合のPとする。ただし、γは定数で、事前に学習用映像データにより推定される。U(P)は、Pにおける0〜1の範囲の一様乱数である。 It is set as P when satisfying. However, γ is a constant, and is estimated in advance from learning video data. U (P) is a uniform random number in the range of 0 to 1 in P.

仮想的な温度Tにより、粒子Pの数が制御される。即ち、温度Tが高い(低い)場合は、粒子数を増大(減少)させるものである。式6を使用して粒子Pの数を決定することにより、混雑度が調整され、人数の計数の安定化とロバスト化を図ることができる。 The number of particles P is controlled by the virtual temperature T t . That is, when the temperature T is high (low), the number of particles is increased (decreased). By determining the number of particles P using Equation 6, the degree of congestion can be adjusted and the counting of the number of people can be stabilized and robust.

次に、大きさ推定部108における状態推定による補正(ステップ405)について述べる。状態推定により、人の身長のばらつきの影響を緩和する。   Next, correction (step 405) by state estimation in the size estimation unit 108 will be described. Mitigating the effects of variations in human height through state estimation.

図7は、人の身長の相違が人数の計数に誤差が生じる例、及び本実施形態における粒子の速度補正例を示す図である。図7(b)は身長が低い人701の実写、図7(d)は身長が高い人702の実写を示し、図7(a)は、図7(b)に対応した仮想的なゲートの直線703上での粒子704、図7(c)は、図7(d)に対応した仮想的なゲートの直線703上での粒子704を示している。図7(a)と図7(c)とを比較すると、身長が高い人702に対応する粒子704の数が、身長が低い人701に対応する粒子704の数よりも多いことがわかる。身長が異なる場合、見かけの粒子数も異なり、この見かけの粒子数の差により、人数の計数に誤差が生じる場合がある。   FIG. 7 is a diagram illustrating an example in which an error occurs in counting the number of persons due to a difference in the height of a person, and an example of particle velocity correction in the present embodiment. FIG. 7B shows a live image of a person 701 with a short height, FIG. 7D shows a live image of a person 702 with a high height, and FIG. 7A shows a virtual gate corresponding to FIG. 7B. Particles 704 on a straight line 703, FIG. 7 (c), show particles 704 on a virtual gate straight line 703 corresponding to FIG. 7 (d). Comparing FIG. 7A and FIG. 7C, it can be seen that the number of particles 704 corresponding to a person 702 with a high height is larger than the number of particles 704 corresponding to a person 701 with a short height. When the height is different, the apparent number of particles is also different, and the difference in the apparent number of particles may cause an error in counting the number of people.

図7(e)〜(g)は、歩行者が仮想的なゲートの直線712を横切っていくときの粒子の速度の補正例を示す図である。図7(a)は、歩行者711が仮想的なゲートの直線712の左側から右側へ通過していくときの粒子の速度を大きく補正した例、図7(b)は、粒子の移動方向と逆方向に仮想的な力を与えて速度を小さくなるように補正した例、図7(c)は、再び速度を大きくなるように補正した場合を示す。   FIGS. 7E to 7G are diagrams showing examples of particle velocity correction when a pedestrian crosses a virtual gate straight line 712. FIG. 7A shows an example in which the velocity of the particles when the pedestrian 711 passes from the left side to the right side of the virtual gate straight line 712 is greatly corrected. FIG. 7B shows the moving direction of the particles. FIG. 7C shows an example in which a virtual force is applied in the reverse direction to correct the speed so as to decrease the speed, and FIG. 7C shows a case where the speed is corrected to increase again.

本実施形態における、大きさ推定による速度の補正は、混雑度補正部107において抽出した粒子Pに対して、速度の補正を行うものであり、図4において定義した仮想的なゲートの直線と、メッシュ領域の両端の端部直線との相対距離、及び仮想的なゲートの直線と、人の位置との相対位置等の状態の違いに基づいている。ここで、粒子Pに作用する力Fを、 In the present embodiment, the speed correction based on the size estimation is performed by correcting the speed of the particles P extracted by the congestion degree correction unit 107, and a virtual gate straight line defined in FIG. This is based on the relative distance from the end straight lines at both ends of the mesh region and the difference in state such as the relative position between the virtual gate straight line and the human position. Here, the force F P acting on the particles P,

により与える。なお、 Give by. In addition,

は粒子Pに作用する押力であり、 Is a pressing force acting on the particle P,

は、粒子Pに作用する抵抗力である。この、押力及び抵抗力は、Pの速度の増加と減少に寄与する。これらの力は、後述するように、数式より粒子Pの速度に変換される。既に述べたように、人数の計数は仮想的なゲートの直線に垂直な成分にだけで推定されるため、押力及び抵抗力によるすべての速度修正は、仮想的なゲートの直線に沿って行う。 Is a resistance force acting on the particles P. This pressing force and resistance force contribute to the increase and decrease of the speed of P. These forces are converted into the speed of the particles P from the mathematical formula as will be described later. As already mentioned, since the number of people is estimated only by the component perpendicular to the virtual gate line, all speed corrections by pressing force and resistance force are performed along the virtual gate line. .

次に、押力を求める方法について説明する。図8は、本実施形態における粒子に作用する押力モデルを説明する図である。図8(a)〜(c)は、図4において定義した仮想的なゲートの直線を含むメッシュ領域内における、移動する物体を示しており、移動する物体をブロブ800として、メッシュ内に網掛けで示している。   Next, a method for obtaining the pressing force will be described. FIG. 8 is a diagram for explaining a pressing force model acting on particles in the present embodiment. FIGS. 8A to 8C show moving objects in the mesh area including the virtual gate straight line defined in FIG. 4. The moving object is a blob 800 and is shaded in the mesh. Is shown.

ここで、式(7)の右辺について具体的に定義する。まず、粒子Pにおける押力は、   Here, the right side of Expression (7) is specifically defined. First, the pressing force on the particles P is

と定義する。ここで、Fは1としている。また、σは、距離に応じて作用する力を減衰させる程度を示している。dは粒子Pと最も近いブロブの境界パッチ801との距離である。粒子Pがブロブ800の境界パッチ801に近いとき、例えば粒子Pがブロブ800の境界801上にあるとき(図8(a))は、d=0であり、押力が大きくなり、粒子Pの速度を増加させる。一方で、粒子Pがブロブの内側にあるとき、すなわちdPが最大距離である場合(図8(b))、押力が小さくなり、粒子Pの速度を減少させる。したがって、図8(b)から図8(a)のように移動する場合、ブロブが仮想的なゲートの直線を離れるとき、粒子Pの移動速度が増加する。複数の歩行者が仮想的なゲートの直線802を横切っているときは、押力は小さくなる。dが大きいためである。 It is defined as Here, F 0 is 1. Further, σ indicates the degree to which the force acting according to the distance is attenuated. d P is the distance between particle P and the nearest blob boundary patch 801. When the particle P is close to the boundary patch 801 of the blob 800, for example, when the particle P is on the boundary 801 of the blob 800 (FIG. 8A), d P = 0, the pressing force becomes large, and the particle P Increase the speed of the. On the other hand, when the particle P is inside the blob, that is, when dP is the maximum distance (FIG. 8B), the pressing force is reduced, and the speed of the particle P is decreased. Therefore, when moving from FIG. 8B to FIG. 8A, the moving speed of the particles P increases when the blob leaves the virtual gate line. When a plurality of pedestrians cross the virtual gate straight line 802, the pressing force is reduced. This is because dP is large.

次に、抵抗力を求める方法について説明する。図9は、本実施形態における粒子Pに作用する抵抗力モデルを説明する図である。図9(a)〜(c)についても、図4において定義した仮想的なゲートの直線を含むメッシュ領域内に、移動する物体を示しており、移動する物体をブロブ900として、メッシュ内に網掛けで示している。   Next, a method for obtaining the resistance will be described. FIG. 9 is a diagram for explaining a resistance force model acting on the particles P in the present embodiment. 9A to 9C also show a moving object in the mesh region including the virtual gate straight line defined in FIG. 4. The moving object is a blob 900 and the mesh is included in the mesh. It is shown as a hung.

抵抗力は、   Resistance is

と定義される。ここで、dP,b−bは、粒子Pの移動方向に沿った2つのブロブ900の境界パッチ903間の距離を表す。dP,b−Pは、粒子Pの移動方向側にあるブロブ900の境界パッチ903と粒子Pとの距離である。F1は抵抗力であり、移動するブロブとして平均速度が0.3pixel/frame以上をもつパッチが連結した領域としたとき、このブロブが端部直線901と仮想的なゲート902との直線両端からの抵抗力を受ける。その定義式を以下に示す。 Is defined. Here, d P, bb represents the distance between the boundary patches 903 of the two blobs 900 along the moving direction of the particle P. d P, b-P is the distance between the boundary patch 903 of the blob 900 on the moving direction side of the particle P and the particle P. F1 is a resistance force. When a patch having an average speed of 0.3 pixel / frame or more is connected as a moving blob, the blob is connected to both ends of the straight line 901 and the virtual gate 902 from both ends of the straight line. Receive resistance. The definition formula is shown below.

ただし、Wはメッシュ領域の幅である。Fは1.0とした。また、 However, W F is the width of the mesh area. Fc was set to 1.0. Also,

は、人の平均身長の半分の長さである。式10から、歩行者が端部直線に接触あるいは通過している場合(図9(b))は、抵抗力が発生するため、この抵抗力は、仮想的なゲートの直線902上にある粒子Pの元の速度を減速させる。すなわち、端部直線901の上で抵抗力を赤い線分上の粒子Pに平行移動させる。言い換えると、このようなポテンシャル場が形成されるものとする。一方で、移動するブロブが端部直線901の両端に接触していない場合(図9(a))、又は右方へ通過していくような場合(図9(c))は、端部直線901の両端からの抵抗力はゼロである。抵抗力 Is half the average height of a person. From Equation 10, when a pedestrian is in contact with or passes through an end straight line (FIG. 9B), a resistance force is generated, and thus this resistance force is a particle on a virtual straight line 902 of the gate. Decrease the original speed of P. That is, the resistance force is translated to the particle P on the red line segment on the end straight line 901. In other words, it is assumed that such a potential field is formed. On the other hand, when the moving blob is not in contact with both ends of the end straight line 901 (FIG. 9A) or passes rightward (FIG. 9C), the end straight line The resistance force from both ends of 901 is zero. Resistance

は、移動するブロブ900が厚さdP、b−bをもつ場合は、抵抗力が大きくなり、粒子Pの速度は、元の速度より小さくなるように調整される。これにより、従来法で課題であった、身長が高いことによるみかけで、実際よりも速い速度と推定される問題が緩和される。 When the moving blob 900 has the thickness d P, bb , the resistance force is increased and the velocity of the particles P is adjusted to be smaller than the original velocity. This alleviates the problem that is a problem with the conventional method and is estimated to be faster than the actual speed due to high height.

以上述べた押力と抵抗力を合成することで、粒子Pにおける力Fが決定される。 By combining the pressing force and the resistance force described above, the force FP on the particle P is determined.

ここで、前述の通り、1)歩行者が仮想的なゲートの直線に侵入するとき又は離れるときは、抵抗力はゼロであり、押力は大きくなることで粒子P(仮想的なゲートの直線上のすべての粒子)の速度は増加するように調整される。一方、2)歩行者が仮想的なゲートの直線を横切っているときは、押力は粒子Pに対して小さく作用し、ブロブの境界が端部直線に近くなるときは、抵抗力は大きくなる。この場合には粒子Pは減速される。さらに、3)複数の歩行者が仮想的なゲートの直線を横切っているときは(図8(c)参照)、作用する力は小さくなる。これは、前述の通りdが大きいだけでなく、dP,b−Pも大きいため、押力と抵抗力が小さくなり、粒子Pは元の移動速度を保つことになる。このような歩行者の人数の違い、身長の違いによる速度の推定誤差が、仮想的なゲートの直線と端部直線との相対的な位置関係(状態)により補正されるのが本発明の特徴の一つである。 Here, as described above, 1) When the pedestrian enters or leaves the virtual gate line, the resistance force is zero, and the pressing force increases, so that the particle P (virtual gate line) The speed of all the particles above) is adjusted to increase. On the other hand, 2) When the pedestrian crosses the virtual gate straight line, the pressing force acts on the particle P small, and when the blob boundary is close to the end straight line, the resistance force increases. . In this case, the particles P are decelerated. 3) When a plurality of pedestrians cross the virtual gate line (see FIG. 8C), the acting force becomes small. As described above, since not only d P is large but also d P and b-P are large, the pressing force and the resistance force are small, and the particle P maintains the original moving speed. It is a feature of the present invention that the estimation error of speed due to the difference in the number of pedestrians and the difference in height is corrected by the relative positional relationship (state) between the virtual gate straight line and the end straight line. one of.

上記までは、粒子Pに作用する力の変化について述べたが、速度の補正を行うために、この力を速度に変換する必要がある。これについては、次のように計算を行う。修正された粒子Pの時刻tにおける速度は、   Up to this point, the change in force acting on the particles P has been described, but in order to correct the speed, it is necessary to convert this force into speed. About this, it calculates as follows. The speed of the modified particle P at time t is

である。ここで、VP,τは時刻τにおける粒子Pの速度であり、FP,τは時刻τに粒子Pに作用する力である。なお、速度推定の安定性と計算コストの関係から、ρ=1、k=3とする。特に、k>1と複数の連続した画像がつくる時空間画像を用いることが効果的である。 It is. Here , VP, τ is the velocity of the particle P at time τ, and FP, τ is the force acting on the particle P at time τ. Note that ρ = 1 and k = 3 from the relationship between stability of speed estimation and calculation cost. In particular, it is effective to use a spatio-temporal image created by k> 1 and a plurality of continuous images.

最終的に、本実施形態においては、速度人数変換部109において、一定時間N(t,t)において歩行者用道路を歩く人の数を、次のようにして推定する。 Finally, in the present embodiment, the speed number conversion unit 109 estimates the number of people walking on the pedestrian road for a certain time N (t 1 , t 2 ) as follows.

ここで、μは、仮想的なゲートの直線上(LOI)の調整された動きベクトルから人数へ変換する係数であり、事前に学習用映像データにより推定される。重み係数ω(P)は、カメラシーンにおけるシーンの歪みによる速度を補正する。単位時間当りの人数については、時間t〜tの時間幅で累積された人数を割ればよい。 Here, μ is a coefficient for converting from the adjusted motion vector on the straight line (LOI) of the virtual gate to the number of people, and is estimated in advance from the video data for learning. The weighting factor ω (P) corrects the speed due to scene distortion in the camera scene. As for the number of people per unit time, it is only necessary to divide the number of people accumulated by the time width of time t 2 to t 1 .

[実施例]
図10は、従来の人数計数方法と本実施形態による人数計数法との実験の結果を示す。市街地の道路上にカメラを1台設置し、2日間、歩行者が行き来する状況を録画する一方で、行き来する歩行者の数を目視で計数し、目視による計数を正解数とした。続いて、録画したビデオ映像に、代表的な従来の人数計数法(a)と本実施形態による人数計数法とを適用し、本実施形態による人数計数法において、混雑度補正法(b)のみ,大きさ補正法(c)のみ、混雑度補正法と大きさ補正法とを組み合わせた補正法(d)とを用いた場合について、人数検出率を比較評価した。その結果、a、b、c、dの順で検出率が向上した。
[Example]
FIG. 10 shows the results of an experiment between the conventional number counting method and the number counting method according to the present embodiment. One camera was installed on the road in the city area, and while recording the situation of pedestrians traveling for two days, the number of pedestrians coming and going was visually counted, and the visual count was taken as the number of correct answers. Subsequently, the representative conventional number counting method (a) and the number counting method according to the present embodiment are applied to the recorded video image. In the number counting method according to the present embodiment, only the congestion degree correction method (b) is applied. In the case of using the correction method (d) combining the congestion degree correction method and the size correction method only for the size correction method (c), the number of people detection rate was compared and evaluated. As a result, the detection rate improved in the order of a, b, c, and d.

本発明は、電力分野、エネルギー分野、通信分野、センシング分野において、実環境におけるモニタリングや画像センシングなどに関係する産業分野において使用される。   INDUSTRIAL APPLICABILITY The present invention is used in industrial fields related to monitoring, image sensing, and the like in a real environment in the electric power field, energy field, communication field, and sensing field.

101 データ入力部
102 データ蓄積部
103 背景差分部
104 動き推定部
105 メッシュ変形設定部
106 幾何補正部
107 混雑補正部
108 大きさ補正部
109 速度人数補正部
110 表示部
201、301、411、501、703、712、802、902 仮想的なゲートの直線
202〜208 移動する対象
302、503、701、702、704、711 歩行者
412 メッシュ
413、502、901 端部直線
504 粒子
800、900 ブロブ
801、903 境界パッチ
DESCRIPTION OF SYMBOLS 101 Data input part 102 Data storage part 103 Background difference part 104 Motion estimation part 105 Mesh deformation | transformation setting part 106 Geometric correction part 107 Congestion correction part 108 Size correction part 109 Speed people correction part 110 Display parts 201, 301, 411, 501 703, 712, 802, 902 Virtual gate straight line 202-208 Moving object 302, 503, 701, 702, 704, 711 Pedestrian 412 Mesh 413, 502, 901 End straight line 504 Particle 800, 900 Blob 801, 903 Boundary patch

Claims (4)

カメラ画像から、画像内を移動する対象の数を計測するカメラ画像人数計数方法であって、
動き推定部において前記移動する対象の動きを推定するステップと、
メッシュ変形設定部において、前記画像内に前記移動する対象の移動状態を判定する線を設定し、前記移動する対象の大きさを判定するための前記線に平行なメッシュを設定し、カメラ画像のシーンの歪みを補正するステップと、
前記移動する対象が前記画像内において重なる場合、混雑度補正部において、推定した前記動きについて前記移動する対象の重なり合いを補正して前記移動する対象の粒子を抽出するステップと、
大きさ補正部において、抽出した前記移動する対象の粒子に対して前記移動する対象の大きさを補正するステップと、
前記大きさが補正された前記抽出した動きの対象の粒子に基づいて、速度人数変換部において、前記移動する対象の数を推定するステップと
を含むことを特徴とするカメラ画像人数計数方法。
A camera image counting method for measuring the number of objects moving within an image from a camera image,
Estimating a movement of the moving object in a motion estimation unit;
In the mesh deformation setting unit, a line for determining the movement state of the moving object is set in the image, a mesh parallel to the line for determining the size of the moving object is set, and the camera image Correcting the distortion of the scene;
When the moving object overlaps in the image, the congestion degree correction unit corrects the overlap of the moving object for the estimated movement and extracts the moving target particle;
In the size correction unit, correcting the size of the moving target with respect to the extracted moving target particles;
A method for counting the number of persons in a camera image, comprising: estimating a number of moving objects in a speed number conversion unit based on the extracted particles of the movement target whose size has been corrected.
前記大きさを補正するステップは、前記移動する対象の移動状態を判定する前記線と前記メッシュにより設定された領域との関係性に基づいた力学モデルを適用して前記大きさの違いによる前記画像内の見かけの移動速度の推定誤差を削減することを特徴とする請求項1に記載のカメラ画像人数計数方法。   The step of correcting the size applies the dynamic model based on the relationship between the line for determining the movement state of the moving object and the region set by the mesh, and the image based on the difference in size. 2. The camera image number counting method according to claim 1, wherein an estimation error of an apparent movement speed is reduced. カメラ画像から、画像内を移動する対象の数を計測するカメラ画像人数計数装置であって、
前記移動する対象の動きを推定する動き推定部と、
前記画像内に前記移動する対象の移動状態を判定する線を設定し、前記移動する対象の大きさを判定するための前記線に平行なメッシュを設定し、カメラ画像のシーンの歪みを補正するメッシュ変形設定部と、
前記移動する対象が前記画像内において重なる場合、推定した前記動きについて前記移動する対象の重なり合いを補正して前記移動する対象の粒子を抽出する混雑度補正部と、
抽出した前記移動する対象の粒子に対して前記移動する対象の大きさを補正する大きさ補正部と、
前記大きさが補正された前記抽出した動きの対象の粒子に基づいて、前記移動する対象の数を推定する速度人数変換部と
を備えることを特徴とするカメラ画像人数計数装置。
A camera image counting device for measuring the number of objects moving in an image from a camera image,
A motion estimator for estimating the motion of the moving object;
A line for determining the movement state of the moving object is set in the image, a mesh parallel to the line for determining the size of the moving object is set, and the distortion of the scene of the camera image is corrected. A mesh deformation setting unit;
When the moving object overlaps in the image, a congestion degree correcting unit that corrects an overlap of the moving object for the estimated movement and extracts the moving target particle;
A size correction unit that corrects the size of the moving target with respect to the extracted moving target particles;
A camera image number counting device, comprising: a speed number conversion unit that estimates the number of moving objects based on the extracted movement target particles whose size has been corrected.
前記大きさ補正部は、前記移動する対象の移動状態を判定する前記線と前記メッシュにより設定された領域との関係性に基づいた力学モデルを適用して前記大きさの違いによる前記画像内の見かけの移動速度の推定誤差を削減して大きさの補正を行うことを特徴とする請求項3に記載のカメラ画像人数計数装置。   The size correction unit applies a dynamic model based on a relationship between the line for determining a moving state of the moving target and a region set by the mesh, and the size correction unit 4. The camera image number counting device according to claim 3, wherein the size is corrected by reducing an estimation error of an apparent moving speed.
JP2014225507A 2014-11-05 2014-11-05 Camera image person counting method and camera image person counting apparatus Pending JP2016091326A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014225507A JP2016091326A (en) 2014-11-05 2014-11-05 Camera image person counting method and camera image person counting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014225507A JP2016091326A (en) 2014-11-05 2014-11-05 Camera image person counting method and camera image person counting apparatus

Publications (1)

Publication Number Publication Date
JP2016091326A true JP2016091326A (en) 2016-05-23

Family

ID=56019382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014225507A Pending JP2016091326A (en) 2014-11-05 2014-11-05 Camera image person counting method and camera image person counting apparatus

Country Status (1)

Country Link
JP (1) JP2016091326A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051944A1 (en) * 2016-09-13 2018-03-22 日本電気株式会社 People flow estimation device, people flow estimation method, abd recording medium
WO2019087383A1 (en) * 2017-11-06 2019-05-09 三菱電機株式会社 Crowd density calculation device, crowd density calculation method and crowd density calculation program
CN109816086A (en) * 2017-11-20 2019-05-28 富士通株式会社 Counting device, method and the electronic equipment of mobile object

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051944A1 (en) * 2016-09-13 2018-03-22 日本電気株式会社 People flow estimation device, people flow estimation method, abd recording medium
JPWO2018051944A1 (en) * 2016-09-13 2019-07-04 日本電気株式会社 People flow estimation device, people flow estimation method and program
US10810442B2 (en) 2016-09-13 2020-10-20 Nec Corporation People flow estimation device, people flow estimation method, and recording medium
US10970558B2 (en) 2016-09-13 2021-04-06 Nec Corporation People flow estimation device, people flow estimation method, and recording medium
US10970559B2 (en) 2016-09-13 2021-04-06 Nec Corporation People flow estimation device, people flow estimation method, and recording medium
WO2019087383A1 (en) * 2017-11-06 2019-05-09 三菱電機株式会社 Crowd density calculation device, crowd density calculation method and crowd density calculation program
JPWO2019087383A1 (en) * 2017-11-06 2020-04-02 三菱電機株式会社 Crowd density calculation device, crowd density calculation method, and crowd density calculation program
CN111279392A (en) * 2017-11-06 2020-06-12 三菱电机株式会社 Cluster density calculation device, cluster density calculation method, and cluster density calculation program
CN111279392B (en) * 2017-11-06 2023-12-15 三菱电机株式会社 Cluster density calculation device, cluster density calculation method, and computer-readable storage medium
CN109816086A (en) * 2017-11-20 2019-05-28 富士通株式会社 Counting device, method and the electronic equipment of mobile object
CN109816086B (en) * 2017-11-20 2023-05-23 富士通株式会社 Counting device and method for moving object and electronic equipment

Similar Documents

Publication Publication Date Title
Munoz et al. Depth-aware indoor staircase detection and recognition for the visually impaired
US9501701B2 (en) Systems and methods for detecting and tracking objects in a video stream
Ma et al. Crossing the line: Crowd counting by integer programming with local features
US20190065885A1 (en) Object detection method and system
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
JP6356266B2 (en) Crowd monitoring system
WO2018049704A1 (en) Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
KR101750094B1 (en) Method for classification of group behavior by real-time video monitoring
Hu et al. A novel approach for crowd video monitoring of subway platforms
Meshram et al. Traffic surveillance by counting and classification of vehicles from video using image processing
WO2021084972A1 (en) Object tracking device and object tracking method
WO2016031573A1 (en) Image-processing device, image-processing method, program, and recording medium
KR101995523B1 (en) Apparatus and method for object detection with shadow removed
US20200302155A1 (en) Face detection and recognition method using light field camera system
JP2016091326A (en) Camera image person counting method and camera image person counting apparatus
TWI624806B (en) Object tracking device and method
WO2014172875A1 (en) Moving object detection
KR102374565B1 (en) Method and apparatus of tracking targets
JP4841652B2 (en) Apparatus and method for detecting motion of translucent object
CN108230366B (en) Target object tracking method
CN107067411B (en) Mean-shift tracking method combined with dense features
Romić et al. Influence of the input image resolution on the staircase detection
US20130195317A1 (en) Apparatus for measuring traffic using image analysis and method thereof
CN108830884B (en) Multi-vision sensor cooperative target tracking method
Goswami et al. Unusual event detection in low resolution video for enhancing ATM security