JP2010198566A - Device, method and program for measuring number of people - Google Patents

Device, method and program for measuring number of people Download PDF

Info

Publication number
JP2010198566A
JP2010198566A JP2009045910A JP2009045910A JP2010198566A JP 2010198566 A JP2010198566 A JP 2010198566A JP 2009045910 A JP2009045910 A JP 2009045910A JP 2009045910 A JP2009045910 A JP 2009045910A JP 2010198566 A JP2010198566 A JP 2010198566A
Authority
JP
Japan
Prior art keywords
head
image
people
moving image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009045910A
Other languages
Japanese (ja)
Inventor
Hisao Furukawa
久雄 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009045910A priority Critical patent/JP2010198566A/en
Publication of JP2010198566A publication Critical patent/JP2010198566A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To measure the number of people included in a crowd based on images obtained by picking up the crowd. <P>SOLUTION: A device includes: a head model setter which inputs the images constituting one frame of a moving image obtained by picking up the plurality of persons and sets the input images while shifting a head model according to the size of a head expected at each part of the images when picking up the persons; a head extraction unit which extracts the heads of the persons contained in the images based on the set head model; a head associating unit which associates the extracted heads with each other among the plurality of images contained in the moving image; and a number of people measuring unit which measures the number of persons contained in the moving image based on the number of loci of the heads associated with each other. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は人数計測装置、方法及びプログラムに関し、特に、人混みを撮像した動画像を参照して人混みに含まれる人数を計測する人数計測装置、方法及びプログラムに関する。   The present invention relates to a people counting device, method, and program, and more particularly, to a people counting device, method, and program for measuring the number of people included in a crowd by referring to a moving image obtained by capturing the crowd.

人物を検出して計数する方法として、対象とする空間の入退口に機械ゲート又は検知センサを設け、通過人数に基づいて空間内の人数を把握する方法がある。   As a method for detecting and counting a person, there is a method in which a mechanical gate or a detection sensor is provided at the entrance and exit of a target space, and the number of people in the space is grasped based on the number of people passing through.

また、画像処理による方法として、鉛直上方に設置されたカメラを用い、下方を通過する人物のオプティカルフローを検知して計数する方法、又は、顔認識による計数方法がある。   In addition, as a method based on image processing, there are a method for detecting and counting an optical flow of a person passing underneath using a camera installed vertically above, or a counting method based on face recognition.

特許文献1において、建屋内または室内に滞留する人数を計測するシステムが記載されている。   In patent document 1, the system which measures the number of people staying in a building or a room is described.

特許文献2において、人の検出及び追跡のために情景の内容の分析を実行するためのコンピュータに基づくシステムが記載されている。   In US Pat. No. 6,057,049, a computer-based system is described for performing scene content analysis for human detection and tracking.

特開2008−217289号公報JP 2008-217289 A 特表2008−542922号公報Special table 2008-542922

上記の機械ゲート等を設ける方法は、出入り口の多い空間、又は開いた空間に対して適用することは困難である。閉じた空間の全ての出入り口に機械ゲート等を設置する必要があるからである。   It is difficult to apply the above-described method of providing a mechanical gate or the like to a space with many doorways or an open space. This is because it is necessary to install mechanical gates at all the entrances and exits of the closed space.

上記の画像処理による方法も、利用可能な画角が制限されるため、通常の場合は広域を対象とすることができず、閉じた空間においてのみ適用し得る。   The above-described image processing method is also limited to a wide angle in a normal case because the available angle of view is limited, and can be applied only in a closed space.

特許文献1に記載されたシステムによると、複数台のカメラを配置し、これらのカメラによって同一の空間を撮像する必要があることから、屋内等の狭い領域に含まれる人数を計測する場合に適用範囲が限られる。   According to the system described in Patent Document 1, it is necessary to arrange a plurality of cameras, and to capture the same space with these cameras, so it is applied when measuring the number of people included in a narrow area such as indoors. Limited range.

ところで、多くの人物が密集している場合には、映像に基づいて人物を計数することは、特に困難となる。人物が互いに頻繁に隠蔽され、個々の人物を分離して検出することが困難となるからである。特許文献2に記載されたシステムにおいては、前景である人物と背景との境界がブロブの輪郭として抽出される必要があることから、多くの人物が密集している場合には、人物の検出が困難となる。   By the way, when many people are crowded, it is particularly difficult to count people based on video. This is because people are often concealed from each other, making it difficult to separate and detect individual people. In the system described in Patent Document 2, since the boundary between the foreground person and the background needs to be extracted as the outline of the blob, when many persons are crowded, person detection is performed. It becomes difficult.

そこで、人混みを撮像した画像に基づいて、人混みに含まれる人数を計測することができるようにすることが課題となる。本発明の目的は、かかる課題を解決する人数計測装置、方法及びプログラムを提供することにある。   Therefore, it becomes a problem to be able to measure the number of people included in the crowd based on an image of the crowd. An object of the present invention is to provide a person counting device, method and program for solving such problems.

本発明の第1の視点に係る人数計測装置は、
複数の人を撮像した動画像の1フレームを構成する画像を入力し、入力した画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する頭部モデル設定部と、
設定された頭部モデルに基づいて、画像に含まれる人の頭部を抽出する頭部抽出部と、
動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける頭部関連付け部と、
互いに関連付けられた頭部の軌跡の本数に基づいて動画像に含まれる人数を計測する人数計測部と、を備えている。
The number of people counting device concerning the 1st viewpoint of the present invention is
A head model corresponding to the size of the head expected in each part of the image when an image constituting a frame of a moving image obtained by imaging a plurality of people is input and the person is captured with respect to the input image A head model setting unit that sets the position while shifting the position,
A head extraction unit that extracts a human head included in the image based on the set head model;
A head associating unit that correlates the heads extracted between a plurality of images included in the moving image;
A person counting unit that measures the number of persons included in the moving image based on the number of head trajectories associated with each other.

本発明の第2の視点に係る人数計測方法は、コンピュータによる人数計測方法であって、
CPUが、複数の人を撮像した動画像の1フレームを構成する画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する工程と、
CPUが、設定された頭部モデルに基づいて、画像に含まれる人の頭部を抽出する工程と、
CPUが、動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける工程と、
CPUが、互いに関連付けられた頭部の軌跡の本数に基づいて動画像に含まれる人数を計測する工程と、を含む。
The number counting method according to the second aspect of the present invention is a number counting method by a computer,
The CPU shifts the position of the head model corresponding to the size of the head expected in each part of the image when an image of a person is captured with respect to an image constituting one frame of a moving image obtained by imaging a plurality of people. While setting the process,
A step of extracting a human head included in the image based on the set head model;
A step of associating the heads extracted between the plurality of images included in the moving image with each other;
A CPU measuring the number of persons included in the moving image based on the number of head trajectories associated with each other.

本発明の第3の視点に係るプログラムは、
複数の人を撮像した動画像の1フレームを構成する画像を入力する処理と、
入力された画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する処理と、
設定された頭部モデルに基づいて、画像に含まれる人の頭部を抽出する処理と、
動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける処理と、
互いに関連付けられた頭部の軌跡の本数に基づいて動画像に含まれる人数を計測する処理と、コンピュータに実行させる。
The program according to the third aspect of the present invention is:
A process of inputting an image constituting one frame of a moving image obtained by imaging a plurality of people;
A process of setting the head model according to the size of the head expected in each part of the image when the person is imaged with respect to the input image while shifting the position;
A process of extracting a human head included in the image based on the set head model;
A process of associating heads extracted between a plurality of images included in a moving image,
A process of measuring the number of persons included in the moving image based on the number of head trajectories associated with each other and a computer are executed.

本発明に係る人数計測装置、方法及びプログラムによると、人混みを撮像した画像に基づいて、人混みに含まれる人物を計数することができる。   According to the people counting device, method, and program according to the present invention, it is possible to count persons included in a crowd based on an image obtained by capturing the crowd.

本発明の第1の実施形態に係る人数計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the people counting device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るプログラムを実行するコンピュータのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the computer which performs the program which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る人数計測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the people counting device which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る人数計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the people counting device which concerns on the 2nd Embodiment of this invention. 第1の実施例における数計測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the number measuring apparatus in a 1st Example. 第1の実施例における人数計測装置の動作を説明するための図である。It is a figure for demonstrating operation | movement of the people counting device in a 1st Example. 第1の実施例における頭部モデル設定部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the head model setting part in a 1st Example. 第1の実施例における撮像画面を一例として示す図である。It is a figure which shows the imaging screen in a 1st Example as an example.

(第1の実施形態)
本発明の第1の実施形態に係る人数計測装置について、図面を参照して説明する。
(First embodiment)
A people counting device according to a first embodiment of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る人数計測装置の構成を示すブロック図である。図1を参照すると、人数計測装置10は、頭部モデル設定部13、頭部抽出部20、頭部関連付け部16、及び、人数計測部17を備えている。   FIG. 1 is a block diagram showing the configuration of the people counting apparatus according to this embodiment. Referring to FIG. 1, the people counting device 10 includes a head model setting unit 13, a head extracting unit 20, a head associating unit 16, and a people counting unit 17.

頭部モデル設定部13は、複数の人を撮像した動画像の1フレームを構成する画像を入力し、入力した画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する。すなわち、頭部モデルは、画像の各部に対して、適当な大きさで設定される。   The head model setting unit 13 inputs an image constituting one frame of a moving image in which a plurality of people are captured, and the head model expected in each part of the image when a person is captured with respect to the input image. A head model corresponding to the size is set while shifting the position. That is, the head model is set with an appropriate size for each part of the image.

頭部モデルは、一例として、楕円としてもよい。動画像は、複数の人を斜め上方から撮像した動画像であることが好ましい。   For example, the head model may be an ellipse. The moving image is preferably a moving image obtained by imaging a plurality of people from obliquely above.

頭部抽出部20は、設定された頭部モデルに基づいて、画像に含まれる人の頭部を抽出する。   The head extraction unit 20 extracts a human head included in the image based on the set head model.

頭部関連付け部16は、動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける。これによりフレーム間に跨る頭部の軌跡を抽出することができる。頭部関連付け部16は、抽出された頭部のうちの位置が近いもの、又は、特徴量が近いものを互いに関連付けるようにしてもよい。   The head association unit 16 associates the heads extracted between a plurality of images included in the moving image. Thereby, the trajectory of the head straddling between the frames can be extracted. The head associating unit 16 may associate the extracted heads whose positions are close or those whose features are close to each other.

人数計測部17は、互いに関連付けられた頭部の軌跡の本数に基づいて動画像に含まれる人数を計測する。人数計測部17は、軌跡のうちの所定の条件を満たすものの本数に基づいて動画像に含まれる人数を計測するようにしてもよい。所定の条件は、一例として、所定の期間に所定の領域を通過した軌跡としてもよい。   The number measuring unit 17 measures the number of persons included in the moving image based on the number of head trajectories associated with each other. The number-of-people counting unit 17 may measure the number of people included in the moving image based on the number of tracks satisfying a predetermined condition. For example, the predetermined condition may be a trajectory that has passed through a predetermined region during a predetermined period.

人数計測装置10は、さらに、座標決定部12を備えていてもよい。座標決定部12は、撮像された空間に対する空間座標と動画像の画面座標との対応関係を決定する。このとき、頭部モデル設定部13は、決定された対応関係を参照して頭部モデルの大きさを決定することが好ましい。   The person counting device 10 may further include a coordinate determination unit 12. The coordinate determination unit 12 determines the correspondence between the space coordinates for the imaged space and the screen coordinates of the moving image. At this time, it is preferable that the head model setting unit 13 determines the size of the head model with reference to the determined correspondence.

頭部抽出部20は、さらにエッジ探索部14を備えていてもよい。エッジ探索部14は、頭部モデルの輪郭におけるエッジを探索することによって頭部を抽出する。エッジ探索部14は、頭部モデルの輪郭に対してエッジが所定の割合以上検出された場合に限り、人の頭部として抽出するようにしてもよい。頭部抽出部20は、さらに、頭部認識部15を備えていてもよい。頭部認識部15は、抽出された頭部が人の頭部であるか否かを学習機能に基づいて判定する。   The head extraction unit 20 may further include an edge search unit 14. The edge search unit 14 extracts a head by searching for an edge in the contour of the head model. The edge search unit 14 may extract a human head only when an edge is detected in a predetermined ratio or more with respect to the contour of the head model. The head extraction unit 20 may further include a head recognition unit 15. The head recognizing unit 15 determines whether or not the extracted head is a human head based on the learning function.

図2は、人物計測装置を、コンピュータによって実現する場合におけるコンピュータのハードウェア構成を示すブロック図である。図2を参照すると、コンピュータ70は、CPU71、メモリ72、ハードディスク73、入力装置74、及び出力装置75を備えている。   FIG. 2 is a block diagram showing a hardware configuration of a computer when the person measuring device is realized by a computer. Referring to FIG. 2, the computer 70 includes a CPU 71, a memory 72, a hard disk 73, an input device 74, and an output device 75.

これらの各部は、バスラインに接続されていてもよい。入力装置74は、マウス及びキーボードを含んでいてもよい。出力装置75は、ディスプレイを有していてもよい。ハードディスク73は、プログラムを記憶するようにしてもよい。CPU71は、人物計測装置10の各部における処理を実行する。   Each of these units may be connected to a bus line. The input device 74 may include a mouse and a keyboard. The output device 75 may have a display. The hard disk 73 may store a program. The CPU 71 executes processing in each unit of the person measuring device 10.

次に、本実施形態に係る人数計測装置の動作について図面を参照して説明する。図3は、本実施形態に係る人数計測装置の動作を示すフローチャートである。   Next, the operation of the people counting device according to the present embodiment will be described with reference to the drawings. FIG. 3 is a flowchart showing the operation of the people counting apparatus according to this embodiment.

図3を参照すると、CPU71は、複数の人を撮像した動画像の1フレームを構成する画像を入力する(ステップS1)。   Referring to FIG. 3, the CPU 71 inputs an image constituting one frame of a moving image obtained by imaging a plurality of people (step S1).

CPU71は、入力された画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する(ステップS2)。   The CPU 71 sets the head model corresponding to the size of the head expected in each part of the image while shifting the position with respect to the input image (step S2).

CPU71は、設定された前記頭部モデルに基づいて、画像に含まれる人の頭部を抽出する(ステップS3)。   The CPU 71 extracts the human head included in the image based on the set head model (step S3).

CPU71は、動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける(ステップS4)。   The CPU 71 associates the heads extracted between the plurality of images included in the moving image (step S4).

CPU71は、互いに関連付けられた頭部の軌跡の本数に基づいて動画像に含まれる人数を計測する(ステップS5)。   The CPU 71 measures the number of people included in the moving image based on the number of head trajectories associated with each other (step S5).

(第2の実施形態)
本発明の第2の実施形態に係る人数計測装置について、図面を参照して説明する。図4は、本実施形態に係る人数計測装置の構成を示すブロック図である。
(Second Embodiment)
A people counting device according to a second embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a block diagram showing the configuration of the people counting apparatus according to this embodiment.

図4を参照すると、人数計測装置30は、動画入力部31、座標決定部32、頭部モデル設定部33、エッジ探索部34、頭部認識部35、頭部関連付け部36、及び人数計測部37を備えている。これらの各部はそれぞれ次のように動作する。   Referring to FIG. 4, the person counting device 30 includes a moving image input unit 31, a coordinate determination unit 32, a head model setting unit 33, an edge search unit 34, a head recognition unit 35, a head association unit 36, and a person counting unit. 37. Each of these units operates as follows.

動画入力部31は、カメラないし録画機器からの映像を入力する。   The moving image input unit 31 inputs video from a camera or a recording device.

座標決定部32は、動画入力部31によって撮像された空間と画面内の座標との対応関係をキャリブレーションする。   The coordinate determination unit 32 calibrates the correspondence between the space imaged by the moving image input unit 31 and the coordinates in the screen.

頭部モデル設定部33は、座標決定部32により得られた対応関係に従って、画面内に頭部モデルを設定する。   The head model setting unit 33 sets a head model in the screen according to the correspondence obtained by the coordinate determination unit 32.

エッジ探索部34は、頭部モデル設定部33により設定された頭部モデルの輪郭に位置するエッジを探索し、条件を満たす初期頭部位置を推定する。   The edge search unit 34 searches for an edge located on the contour of the head model set by the head model setting unit 33 and estimates an initial head position that satisfies the condition.

頭部認識部35は、エッジ探索部34により推定された初期頭部位置周辺の画像を抽出し、学習認識器を用いて人物の頭部であるか否かの判定を行って頭部検出位置を確定する。   The head recognizing unit 35 extracts an image around the initial head position estimated by the edge search unit 34, determines whether or not the head is a person using a learning recognizer, and detects the head detection position. Confirm.

頭部関連付け部36は、頭部認識部35により検出された頭部検出位置につき、フレーム間で近接するものを連結して、人物の移動経路を追跡する。   The head associating unit 36 tracks the movement path of the person by connecting the head detection positions detected by the head recognizing unit 35 that are close to each other between the frames.

人数計測部37は、頭部関連付け部36により得られた移動経路より、画面内の人物を計数する。   The person counting unit 37 counts the persons in the screen from the movement route obtained by the head associating unit 36.

次に、本実施形態に係る人数計測装置の全体の動作について説明する。図5は、本実施形態に係る人数計測装置の動作を示すフローチャートである。   Next, the overall operation of the people counting device according to this embodiment will be described. FIG. 5 is a flowchart showing the operation of the people counting apparatus according to the present embodiment.

図5を参照すると、動画入力部31は、カメラ又は録画機器からの映像を入力する(ステップS11)。   Referring to FIG. 5, the video input unit 31 inputs video from a camera or a recording device (step S11).

次に、座標決定部32は、動画入力部31へ入力された映像における各フレームを用いて、撮影された空間座標系と、画面座標を対応付けるための画角決定を行う(ステップS12)。ここで、画角を決定する方法は特に制限されず、既知の方法を用いることもできる。   Next, the coordinate determination unit 32 determines the angle of view for associating the captured spatial coordinate system with the screen coordinates, using each frame in the video input to the moving image input unit 31 (step S12). Here, the method for determining the angle of view is not particularly limited, and a known method may be used.

次に、頭部モデル設定部33は、得られた座標間の対応関係に応じて、画面内に設定すべき頭部モデルを決定する(ステップS13)。頭部モデル設定部33は、一例として、標準的な頭部の大きさに相当する楕円体を空間内に設置し、これを画像面に投影した場合に、その輪郭を画面内で撮像したときの楕円を頭部モデルとしてもよい。   Next, the head model setting unit 33 determines a head model to be set in the screen according to the correspondence relationship between the obtained coordinates (step S13). For example, the head model setting unit 33, when an ellipsoid corresponding to a standard head size is installed in the space and projected on the image plane, the contour is imaged on the screen. The ellipse may be a head model.

次に、エッジ探索部34は、頭部モデル設定部33によって設定された頭部モデルの輪郭に位置するエッジを探索し、所定の条件を満たす初期頭部位置を推定する(ステップS14)。エッジ探索部34は、一例として、画像内のモデル輪郭が存在する各画素について、その近傍で輪郭エッジと合致する方向のエッジを探索し、輪郭画素のうち一定以上の割合で所定のしきい値を超えるエッジを検出した場合には、空間内の当該位置に人物頭部が存在すると推定し、これを初期頭部位置としてもよい。   Next, the edge search unit 34 searches for an edge located on the contour of the head model set by the head model setting unit 33, and estimates an initial head position that satisfies a predetermined condition (step S14). For example, the edge search unit 34 searches for an edge in the direction that matches the contour edge in the vicinity of each pixel in the image where the model contour exists, and a predetermined threshold value at a certain ratio or more of the contour pixels. When an edge that exceeds 1 is detected, it is estimated that a human head exists at the position in the space, and this may be used as the initial head position.

上記のステップS13及びステップS14は、撮像された空間内において人物が存在すると考えられる領域内で、頭部モデルの位置を移動させつつ繰り返される。   Steps S13 and S14 are repeated while moving the position of the head model in an area where a person is considered to exist in the imaged space.

次に、頭部認識部35は、エッジ探索部34によって推定された初期頭部位置の周辺の画像を抽出し、その近傍に人物の頭部があるか否かを認識し、これが頭部か否かを判定し、頭部検出位置を確定する(ステップS15)。頭部認識部35は、一例として、初期頭部位置の画像を頭の大きさに合わせて切り出し、決まった大きさとなるよう正規化し、これを類似の頭部画像群に基づいて学習した学習識別機に与え、頭部か否かの判定を行うようにしてもよい。ここで、学習識別機、及び判別に用いる特徴量は、特に制限されず、既知のものを用いることもできる。頭部認識部35は、かかる処理により、頭部が存在すると判定された初期頭部位置のみを、頭部位置推定結果として確定する。   Next, the head recognition unit 35 extracts an image around the initial head position estimated by the edge search unit 34, recognizes whether or not there is a human head near the head, and determines whether this is the head. The head detection position is determined (step S15). As an example, the head recognizing unit 35 cuts out an image of the initial head position according to the size of the head, normalizes it to a fixed size, and learns this based on a similar head image group. It may be given to the machine to determine whether it is the head. Here, the learning discriminator and the feature quantity used for discrimination are not particularly limited, and known ones can also be used. The head recognizing unit 35 determines only the initial head position determined to have a head by such processing as the head position estimation result.

頭部関連付け部36は、各フレームにおいて得られた頭部位置推定結果を入力し、フレーム間で位置が近接し同一人物と思われるものを連結することにより、検出された人物を追跡する(ステップS16)。頭部関連付け部36は、一例として、隣接するフレームにおける頭部位置推定結果を比較し、位置が近接するとともに、人物領域の画像から得られる色分布などの特徴量が近いものを探索し、フレーム間で同一の人物と判断される頭部位置を連結して、これを当該人物の追跡結果としてもよい。   The head associating unit 36 inputs the head position estimation result obtained in each frame, and tracks the detected person by linking the positions that are close to each other and appear to be the same person (step) S16). As an example, the head associating unit 36 compares head position estimation results in adjacent frames, searches for a near-position and a feature quantity such as a color distribution obtained from an image of a person region, and The head positions determined to be the same person may be connected to each other, and this may be used as the tracking result of the person.

人数計測部37は、得られた追跡結果を入力し、検出された人物を計数する(ステップS17)。人数計測部37は、一例として、追跡結果として得られた軌跡のうち、所定の条件を満たすものを選択して計数するようにしてもよい。ここで、所定の条件は、例えば、所定の期間に所定の領域を通過した軌跡としてもよい。   The person counting unit 37 inputs the obtained tracking results and counts the detected persons (step S17). As an example, the person counting unit 37 may select and count those trajectories obtained as tracking results that satisfy a predetermined condition. Here, the predetermined condition may be, for example, a trajectory that has passed through a predetermined region during a predetermined period.

次に、本実施形態に係る人数計測装置の効果について説明する。本実施形態に係る人数計測装置は、隠蔽される可能性の低い人物の頭部形状を手がかりとし、画角に応じた画面内での大きさを想定して個別に検出する。したがって、本実施形態に係る人数計測装置によると、公共空間監視カメラなどでの人物多数が相互に隠蔽している混雑状況の映像に基づいて人物を計数することができる。   Next, the effect of the people counting device according to the present embodiment will be described. The person counting device according to the present embodiment uses the head shape of a person who is unlikely to be concealed as a clue, and individually detects the size in the screen according to the angle of view. Therefore, according to the people counting device according to the present embodiment, it is possible to count the number of persons based on the image of the congestion situation where many persons in the public space monitoring camera or the like are concealing each other.

なお、実施の形態は上記に限られるものではなく、その他様々な形態での実施が可能である。例えば、上記実施形態においては、単一のカメラの場合について説明したものの、複数のカメラで対象を撮影する環境において、各カメラの画像に対して同一のモデルを投影してそれぞれで並列に処理をするようにしてもよい。また、人数計測装置は、多数の人物が混在する状況において、列を形成して一定の方向に進む人のみを検出し、計数するようにしてもよい。   The embodiment is not limited to the above, and can be implemented in various other forms. For example, in the above-described embodiment, the case of a single camera has been described. However, in an environment in which an object is photographed by a plurality of cameras, the same model is projected on each camera image and processed in parallel. You may make it do. In addition, in the situation where a large number of people are mixed, the person counting device may detect and count only people who form a line and proceed in a certain direction.

次に、具体的な実施例を用いて、本発明の実施形態に係る人数計測装置の動作を説明する。ここでは、駅構内での人物群計数への適用を想定した実施例を説明する。   Next, the operation of the people counting device according to the embodiment of the present invention will be described using specific examples. Here, a description will be given of an embodiment that is assumed to be applied to person group counting in a station.

図6は本実施例において、人数計測装置が稼働する環境を模式的に示す図である。図6を参照すると、カメラ101は、かかる環境を視野に含むように設置される。本実施例においては、動画入力部31は、カメラ101を有するものとする。なお、動画入力部31が有するカメラの個数は1つに限られず、複数であってもよい。   FIG. 6 is a diagram schematically illustrating an environment in which the people counting device operates in the present embodiment. Referring to FIG. 6, the camera 101 is installed so as to include such an environment in the field of view. In this embodiment, it is assumed that the moving image input unit 31 has a camera 101. Note that the number of cameras included in the moving image input unit 31 is not limited to one, and may be plural.

撮影領域103は監視対象とされる領域であり、本実施例においては、駅構内のプラットフォームとする。対象人物102は、プラットフォームに滞在中の乗客を表す。列車104は、プラットフォーム103の脇に停車中の列車である。   The imaging area 103 is an area to be monitored, and in this embodiment, is a platform within a station. The target person 102 represents a passenger staying on the platform. The train 104 is a train that is stopped beside the platform 103.

かかる環境においては、列車に対する乗客の乗降が頻繁に発生する。したがって、入退口における計数に基づいて、空間内の人数を算出する方法を適用することが困難である。   In such an environment, passengers get on and off the train frequently. Therefore, it is difficult to apply a method for calculating the number of people in the space based on the count at the entrance and exit.

まず、座標決定部32は、カメラ101から入力された画像平面上の位置と、撮影領域103に設定された世界座標系とを対応づける画角決定を行う(ステップS12)。   First, the coordinate determination unit 32 determines an angle of view that associates the position on the image plane input from the camera 101 with the world coordinate system set in the imaging region 103 (step S12).

座標決定部32は、キャリブレーションの方法として任意の既知の方法を用いることができる。座標決定部32は、一例として、撮影される空間に設定された位置が既知の平面上の少なくとも4つ点について、カメラ101の映像中において視認できるように、マーカなどで何らかの表示を行い、これを撮影する。この取得フレームより、各点の画像中での座標を取得するが、この座標取得処理は、システム使用者がフレーム中の表示マーカの座標を手動で取得するか、あるいは特定の色・記号を用いて表示したマーカについて、任意の手法による画像処理を用いて決定してもよい。得られた空間内既知点とその画面内座標の組を用いて、画面平面と空間内平面座標との射影変換係数を得る。なお、かかる方法はキャリブレーション方法の一例にすぎず、撮影空間と画像平面とを対応づける方法は、かかる方法に限定されない。   The coordinate determination unit 32 can use any known method as a calibration method. As an example, the coordinate determination unit 32 performs some display with a marker or the like so that at least four points on a known plane whose positions set in the space to be photographed are visible in the video of the camera 101. Shoot. From this acquisition frame, the coordinates of each point in the image are acquired. This coordinate acquisition processing is performed by the system user manually acquiring the coordinates of the display marker in the frame, or using specific colors and symbols. The displayed marker may be determined using image processing by an arbitrary method. Using the set of the known point in space and the coordinates in the screen, a projective transformation coefficient between the screen plane and the plane coordinates in space is obtained. Note that such a method is merely an example of a calibration method, and a method of associating a shooting space with an image plane is not limited to such a method.

次に、上記処理により撮影空間と画像平面の対応関係が既知であるカメラ101によって、駅ホーム内において乗客が移動している環境を撮影した映像の各フレームについて、以下の処理を行う。   Next, the following processing is performed on each frame of the video obtained by photographing the environment in which the passenger is moving in the station platform by the camera 101 whose correspondence between the photographing space and the image plane is known by the above processing.

まず、頭部モデル設定部33は、頭部モデルを画面内に設定する(ステップS13)。図7を参照すると、頭部モデル設定部33は、空間内の人物計数対象とする範囲106について、標準的な頭部の大きさに対応する楕円体形状のモデルを、空間内の頭部位置に相当する高さに設置し、これを画像面に投影して頭部の輪郭が画面内に撮像される位置を決定する。図8は、頭部モデル設定部33によって、撮像された画面上に投影された頭部モデルを示す。   First, the head model setting unit 33 sets a head model in the screen (step S13). Referring to FIG. 7, the head model setting unit 33 converts an ellipsoidal model corresponding to a standard head size into a head position in the space for the range 106 to be counted in the space. The height of the head is set on the image plane, and this is projected onto the image plane to determine the position where the outline of the head is imaged on the screen. FIG. 8 shows a head model projected on the screen imaged by the head model setting unit 33.

エッジ探索部34は、かかる画像において、頭部モデルの輪郭が存在する画素の近傍において、画像中に現れるエッジを探索する。エッジ探索部34は、輪郭画素のうち一定以上の割合で所定のしきい値を超えるエッジを検出した場合には、空間内の当該位置に人物頭部が存在するものと推定し、これを初期頭部位置とする(ステップS14)。エッジ探索部34による初期頭部位置の探索は、計数対象空間106内において、頭部モデルの位置を移動させつつ繰り返し行われる。   In this image, the edge search unit 34 searches for an edge appearing in the image in the vicinity of the pixel where the contour of the head model exists. When the edge search unit 34 detects an edge that exceeds a predetermined threshold at a certain ratio or more in the contour pixels, the edge search unit 34 estimates that a human head exists at the position in the space, and this is the initial value. The head position is set (step S14). The search for the initial head position by the edge search unit 34 is repeatedly performed while moving the position of the head model in the counting target space 106.

頭部認識部35は、こうして得られた初期頭部位置について、さらにこれが人物の頭であるか否かを確認して絞り込むために、頭部画像を認識する(ステップS15)。頭部認識部35は、初期頭部位置周辺の画像を頭の大きさに合わせて切り出し、所定の画像サイズ(例えば、64x64画素)となるように変形する正規化を行った後、学習機能を備えた装置へ入力し、正規化された画像が頭部か否かを判定する。   The head recognizing unit 35 recognizes a head image in order to confirm and narrow down whether or not the initial head position thus obtained is a person's head (step S15). The head recognizing unit 35 cuts out an image around the initial head position in accordance with the size of the head, performs normalization that transforms to a predetermined image size (for example, 64 × 64 pixels), and then performs a learning function. It is input to the equipped device, and it is determined whether or not the normalized image is the head.

学習機能を備えた装置は、別途、多数の頭部画像に基づいて学習しておく必要がある。なお、ここで用いられる学習機能を備えた装置、及び、判別に用いられる特徴量には制限はなく、既知の手法を用いることができる。   An apparatus having a learning function needs to learn separately based on a large number of head images. In addition, there is no restriction | limiting in the feature-value used for the apparatus provided with the learning function used here, and discrimination | determination, A known method can be used.

頭部認識部35は、正規化画像が頭部であるものと判定された場合に限り、その初期頭部位置を、頭部位置推定結果として確定する。頭部認識部35は、得られた初期頭部位置のすべてについて、頭部画像の認識を実施し、複数の頭部位置推定結果を得る。   Only when it is determined that the normalized image is the head, the head recognition unit 35 determines the initial head position as the head position estimation result. The head recognition unit 35 recognizes a head image for all of the obtained initial head positions, and obtains a plurality of head position estimation results.

以上の処理は、フレーム単位で独立に実施されるとともに、所定のフレーム数にわたって繰り返し実施される。   The above processing is performed independently for each frame and is repeatedly performed over a predetermined number of frames.

頭部関連付け部36は、複数の連続フレームにわたる頭部位置推定結果を用い、対象の人物を追跡する隣接フレーム間で距離が所定の閾値よりも短く、かつ、フレーム間の頭部画像の類似度が所定の基準値以上である場合には同一人物とみなし、これを連結する。頭部画像間の類似度は、例えば、画像内の色分布頻度が重複する度合いを用いることができるものの、特に、これに限定されない。頭部関連付け部36は、複数フレーム中の検出頭部位置につき、連結操作を実施して、当該人物の追跡結果を得る(ステップS16)。   The head associating unit 36 uses the head position estimation result over a plurality of continuous frames, the distance between adjacent frames tracking the target person is shorter than a predetermined threshold, and the similarity of head images between frames Are equal to or greater than a predetermined reference value, they are regarded as the same person and are connected. The degree of similarity between the head images can be, for example, a degree of overlapping color distribution frequencies in the images, but is not particularly limited thereto. The head associating unit 36 performs a connection operation for the detected head positions in the plurality of frames to obtain the tracking result of the person (step S16).

次に、人数計測部37は、得られた複数の人物の追跡経路を計数する(ステップS17)。人数計測部37は、経路の特性が所定の条件を満たすものに限定して計数するようにしてもよい。また、人数計測部37は、経路を分類して、分類された経路ごとに計数するようにしてもよい。人数計測部37は、一例として、電車のドアに相当する位置など、特定の箇所を特定の方向に移動する人物のみを計数するようにしてもよい。   Next, the person counting unit 37 counts the obtained tracking paths of the plurality of persons (step S17). The number-of-people counting unit 37 may count only those whose path characteristics satisfy a predetermined condition. Further, the person counting unit 37 may classify the routes and count each classified route. As an example, the person counting unit 37 may count only persons who move in a specific direction in a specific place such as a position corresponding to a train door.

さらに、人数計測装置30によって計測された人数は、所定の時間ごとに出力されるようにしてもよい。また、計測された人数は、記憶装置に記録され、その時間的な変化を可視化しつつ、後で確認することができるようにしてもよい。   Furthermore, the number of people measured by the number-of-people measurement apparatus 30 may be output every predetermined time. Further, the measured number of people may be recorded in a storage device, and the change with time may be visualized and confirmed later.

本発明に係る人数計測装置、方法及びプログラムは、駅構内その他の開放空間における人物の計数に用いることができ、店舗又はフロア内における動線の解析にも用いることができる。   The number-of-people counting device, method, and program according to the present invention can be used for counting people in a station or other open space, and can also be used for analyzing a flow line in a store or a floor.

10、30 人数計測装置
11、31 動画入力部
12、32 座標決定部
13、33 頭部モデル設定部
14、34 エッジ探索部
15、35 頭部認識部
16、36 頭部関連付け部
17、37 人数計測部
20 頭部抽出部
70 コンピュータ
71 CPU
72 メモリ
73 ハードディスク
74 入力装置
75 出力装置
101 カメラ
102 対象人物
103 撮影領域
104 列車
105 頭部モデル
106 計測対象空間
201 撮像画面
10, 30 Number measuring device 11, 31 Video input unit 12, 32 Coordinate determining unit 13, 33 Head model setting unit 14, 34 Edge searching unit 15, 35 Head recognition unit 16, 36 Head association unit 17, 37 Measurement unit 20 Head extraction unit 70 Computer 71 CPU
72 Memory 73 Hard disk 74 Input device 75 Output device 101 Camera 102 Target person 103 Imaging region 104 Train 105 Head model 106 Measurement target space 201 Imaging screen

Claims (12)

複数の人を撮像した動画像の1フレームを構成する画像を入力し、入力した画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する頭部モデル設定部と、
設定された前記頭部モデルに基づいて、前記画像に含まれる人の頭部を抽出する頭部抽出部と、
前記動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける頭部関連付け部と、
互いに関連付けられた頭部の軌跡の本数に基づいて前記動画像に含まれる人数を計測する人数計測部と、を備えていることを特徴とする人数計測装置。
A head model corresponding to the size of the head expected in each part of the image when an image constituting a frame of a moving image obtained by imaging a plurality of people is input and the person is captured with respect to the input image A head model setting unit that sets the position while shifting the position,
Based on the set head model, a head extraction unit that extracts a human head included in the image;
A head associating unit that correlates heads extracted between a plurality of images included in the moving image;
A people counting device, comprising: a person counting unit that measures the number of people included in the moving image based on the number of head trajectories associated with each other.
撮像された空間に対する空間座標と前記動画像の画面座標との対応関係を決定する座標決定部をさらに備え、
前記頭部モデル設定部は、前記対応関係を参照して前記頭部モデルの大きさを決定することを特徴とする、請求項1に記載の人数計測装置。
A coordinate determination unit for determining a correspondence relationship between the space coordinates for the imaged space and the screen coordinates of the moving image;
The number measuring device according to claim 1, wherein the head model setting unit determines the size of the head model with reference to the correspondence relationship.
前記頭部抽出部は、前記頭部モデルの輪郭におけるエッジを探索することによって頭部を抽出するエッジ探索部をさらに備えていることを特徴とする、請求項1又は2に記載の人数計測装置。   The person counting device according to claim 1, wherein the head extraction unit further includes an edge search unit that extracts a head by searching for an edge in an outline of the head model. . 前記エッジ探索部は、前記頭部モデルの輪郭に対して前記エッジが所定の割合以上検出された場合に限り、人の頭部として抽出することを特徴とする、請求項3に記載の人数計測装置。   The person counting according to claim 3, wherein the edge search unit extracts a human head only when the edge is detected in a predetermined ratio or more with respect to a contour of the head model. apparatus. 前記頭部抽出部は、抽出された頭部が人の頭部であるか否かを学習機能に基づいて判定する頭部認識部をさらに備えていることを特徴とする、請求項1乃至4のいずれか1項に記載の人数計測装置。   The head extracting unit further includes a head recognizing unit that determines whether or not the extracted head is a human head based on a learning function. The person counting device according to any one of the above. 前記頭部関連付け部は、抽出された頭部のうちの位置が近いもの、又は、特徴量が近いものを互いに関連付けることを特徴とする、請求項1乃至5のいずれか1項に記載の人物計測装置。   6. The person according to claim 1, wherein the head associating unit associates the extracted heads whose positions are close or whose features are close to each other. Measuring device. 前記人数計測部は、前記軌跡のうちの所定の条件を満たすものの本数に基づいて前記動画像に含まれる人数を計測することを特徴とする人数計測装置。   The number-of-people measuring device is characterized in that the number of people included in the moving image is measured based on the number of the trajectories satisfying a predetermined condition. 前記所定の条件は、所定の期間に所定の領域を通過した軌跡であることを特徴とする、請求項7に記載の人数計測装置。   The person counting apparatus according to claim 7, wherein the predetermined condition is a trajectory that has passed through a predetermined region during a predetermined period. 前記動画像は、複数の人を斜め上方から撮像した動画像であることを特徴とする、請求項1乃至8のいずれか1項に記載の人数計測装置。   The person counting device according to any one of claims 1 to 8, wherein the moving image is a moving image obtained by imaging a plurality of people from obliquely above. 前記頭部モデルは、楕円であることを特徴とする、請求項1乃至9のいずれか1項に記載の人数計測装置。   The person counting apparatus according to claim 1, wherein the head model is an ellipse. コンピュータによる人数計測方法であって、
CPUが、複数の人を撮像した動画像の1フレームを構成する画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する工程と、
CPUが、設定された前記頭部モデルに基づいて、前記画像に含まれる人の頭部を抽出する工程と、
CPUが、前記動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける工程と、
CPUが、互いに関連付けられた頭部の軌跡の本数に基づいて前記動画像に含まれる人数を計測する工程と、を含むことを特徴とする人数計測方法。
A method for counting people using a computer,
The CPU shifts the position of the head model corresponding to the size of the head expected in each part of the image when an image of a person is captured with respect to an image constituting one frame of a moving image obtained by imaging a plurality of people. While setting the process,
A step of extracting a human head included in the image based on the set head model;
A step of associating a head extracted between a plurality of images included in the moving image with each other;
And a step of measuring the number of persons included in the moving image based on the number of head trajectories associated with each other.
複数の人を撮像した動画像の1フレームを構成する画像を入力する処理と、
入力された画像に対して、人を撮像した場合に画像の各部において期待される頭部の大きさに応じた頭部モデルを位置をずらしつつ設定する処理と、
設定された前記頭部モデルに基づいて、前記画像に含まれる人の頭部を抽出する処理と、
前記動画像に含まれる複数の画像の間で抽出された頭部を互いに関連付ける処理と、
互いに関連付けられた頭部の軌跡の本数に基づいて前記動画像に含まれる人数を計測する処理と、コンピュータに実行させることを特徴とするプログラム。
A process of inputting an image constituting one frame of a moving image obtained by imaging a plurality of people;
A process of setting the head model according to the size of the head expected in each part of the image when the person is imaged with respect to the input image while shifting the position;
Based on the set head model, a process of extracting a human head included in the image;
A process of associating heads extracted between a plurality of images included in the moving image;
A program for causing a computer to execute a process of measuring the number of persons included in the moving image based on the number of head trajectories associated with each other.
JP2009045910A 2009-02-27 2009-02-27 Device, method and program for measuring number of people Withdrawn JP2010198566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009045910A JP2010198566A (en) 2009-02-27 2009-02-27 Device, method and program for measuring number of people

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009045910A JP2010198566A (en) 2009-02-27 2009-02-27 Device, method and program for measuring number of people

Publications (1)

Publication Number Publication Date
JP2010198566A true JP2010198566A (en) 2010-09-09

Family

ID=42823195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009045910A Withdrawn JP2010198566A (en) 2009-02-27 2009-02-27 Device, method and program for measuring number of people

Country Status (1)

Country Link
JP (1) JP2010198566A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206018A (en) * 2012-03-28 2013-10-07 Oki Electric Ind Co Ltd Number of person tabulation server, number of passerby tabulation device and number of passerby tabulation system
WO2014207991A1 (en) 2013-06-28 2014-12-31 日本電気株式会社 Teaching data generating device, method, and program, and crowd state recognition device, method, and program
KR101557376B1 (en) * 2014-02-24 2015-10-05 에스케이 텔레콤주식회사 Method for Counting People and Apparatus Therefor
WO2016056301A1 (en) * 2014-10-10 2016-04-14 Necソリューションイノベータ株式会社 Fish counting device, fish counting method, fish count prediction device, fish count prediction method, fish counting system, and fish count prediction system
JP5976198B2 (en) * 2013-03-26 2016-08-23 株式会社日立国際電気 Number counting device and number counting method
US9934576B2 (en) 2013-08-27 2018-04-03 Nec Corporation Image processing system, image processing method, and recording medium
US10325160B2 (en) 2015-01-14 2019-06-18 Nec Corporation Movement state estimation device, movement state estimation method and program recording medium
JP2019101664A (en) * 2017-11-30 2019-06-24 富士通株式会社 Estimating program, estimating system, and estimating method
WO2020158909A1 (en) * 2019-02-01 2020-08-06 株式会社計数技研 Counting device, learner manufacturing device, counting method, and learner manufacturing method
US10810442B2 (en) 2016-09-13 2020-10-20 Nec Corporation People flow estimation device, people flow estimation method, and recording medium
US10936882B2 (en) 2016-08-04 2021-03-02 Nec Corporation People flow estimation device, display control device, people flow estimation method, and recording medium
JP2021043866A (en) * 2019-09-13 2021-03-18 キヤノン株式会社 Image analysis device, image analysis method, and program

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206018A (en) * 2012-03-28 2013-10-07 Oki Electric Ind Co Ltd Number of person tabulation server, number of passerby tabulation device and number of passerby tabulation system
JP5976198B2 (en) * 2013-03-26 2016-08-23 株式会社日立国際電気 Number counting device and number counting method
US9704259B2 (en) 2013-03-26 2017-07-11 Hitachi Kokusai Electric Inc. People counting device and people counting method
JPWO2014156733A1 (en) * 2013-03-26 2017-02-16 株式会社日立国際電気 Number counting device and number counting method
US10515294B2 (en) 2013-06-28 2019-12-24 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US11836586B2 (en) 2013-06-28 2023-12-05 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US10776674B2 (en) 2013-06-28 2020-09-15 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US11132587B2 (en) 2013-06-28 2021-09-28 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US9875431B2 (en) 2013-06-28 2018-01-23 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US10223620B2 (en) 2013-06-28 2019-03-05 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
WO2014207991A1 (en) 2013-06-28 2014-12-31 日本電気株式会社 Teaching data generating device, method, and program, and crowd state recognition device, method, and program
US9934576B2 (en) 2013-08-27 2018-04-03 Nec Corporation Image processing system, image processing method, and recording medium
CN105940430A (en) * 2014-02-24 2016-09-14 Sk电信有限公司 Person counting method and device for same
KR101557376B1 (en) * 2014-02-24 2015-10-05 에스케이 텔레콤주식회사 Method for Counting People and Apparatus Therefor
US9971941B2 (en) 2014-02-24 2018-05-15 Sk Telecom Co., Ltd. Person counting method and device for same
US20170290306A1 (en) * 2014-10-10 2017-10-12 Nec Solution Innovators, Ltd. Fish counting device, fish counting method, fish count prediction device, fish count prediction method, fish counting system, and fish count prediction system
JP2016081112A (en) * 2014-10-10 2016-05-16 Necソリューションイノベータ株式会社 Fish counter, fish counting method, prediction device for number of fish, prediction method for number of fish, fish counter system and prediction system for number of fish
WO2016056301A1 (en) * 2014-10-10 2016-04-14 Necソリューションイノベータ株式会社 Fish counting device, fish counting method, fish count prediction device, fish count prediction method, fish counting system, and fish count prediction system
US10325160B2 (en) 2015-01-14 2019-06-18 Nec Corporation Movement state estimation device, movement state estimation method and program recording medium
US10657386B2 (en) 2015-01-14 2020-05-19 Nec Corporation Movement state estimation device, movement state estimation method and program recording medium
US10755108B2 (en) 2015-01-14 2020-08-25 Nec Corporation Movement state estimation device, movement state estimation method and program recording medium
US11106920B2 (en) 2016-08-04 2021-08-31 Nec Corporation People flow estimation device, display control device, people flow estimation method, and recording medium
US11074461B2 (en) 2016-08-04 2021-07-27 Nec Corporation People flow estimation device, display control device, people flow estimation method, and recording medium
US10936882B2 (en) 2016-08-04 2021-03-02 Nec Corporation People flow estimation device, display control device, people flow estimation method, and recording medium
US10970558B2 (en) 2016-09-13 2021-04-06 Nec Corporation People flow estimation device, people flow estimation method, and recording medium
US10970559B2 (en) 2016-09-13 2021-04-06 Nec Corporation People flow estimation device, people flow estimation method, and recording medium
US10810442B2 (en) 2016-09-13 2020-10-20 Nec Corporation People flow estimation device, people flow estimation method, and recording medium
JP2019101664A (en) * 2017-11-30 2019-06-24 富士通株式会社 Estimating program, estimating system, and estimating method
JP2020126313A (en) * 2019-02-01 2020-08-20 株式会社計数技研 Counting device, learning machine manufacturing device, counting method, learning machine manufacturing method, and program
WO2020158909A1 (en) * 2019-02-01 2020-08-06 株式会社計数技研 Counting device, learner manufacturing device, counting method, and learner manufacturing method
JP2021043866A (en) * 2019-09-13 2021-03-18 キヤノン株式会社 Image analysis device, image analysis method, and program
US11915430B2 (en) 2019-09-13 2024-02-27 Canon Kabushiki Kaisha Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
JP7443002B2 (en) 2019-09-13 2024-03-05 キヤノン株式会社 Image analysis device, image analysis method, and program

Similar Documents

Publication Publication Date Title
JP2010198566A (en) Device, method and program for measuring number of people
JP6525453B2 (en) Object position estimation system and program thereof
JP5603403B2 (en) Object counting method, object counting apparatus, and object counting program
Liu et al. Detecting and counting people in surveillance applications
JP6148480B2 (en) Image processing apparatus and image processing method
JP6561830B2 (en) Information processing system, information processing method, and program
Barandiaran et al. Real-time people counting using multiple lines
CN103164706B (en) Object counting method and device based on video signal analysis
CN109359625A (en) The method and system of customer identification is judged based on head and shoulder detection and face recognition technology
US10318817B2 (en) Method and apparatus for surveillance
JP2016162232A (en) Method and device for image recognition and program
KR20110034545A (en) Imaging processing device and imaging processing method
KR101448391B1 (en) People counting system
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
WO2019220589A1 (en) Video analysis device, video analysis method, and program
US20080225131A1 (en) Image Analysis System and Image Analysis Method
KR20100093797A (en) Method and system for vision-based people counting in cctv
JP2010262527A (en) Passing person counting device, passing person counting method and passing person counting program
Kurilkin et al. A comparison of methods to detect people flow using video processing
JP5552946B2 (en) Face image sample collection device, face image sample collection method, program
KR101560810B1 (en) Space controled method and apparatus for using template image
CN114783040B (en) Detection method and detection device for candid shooting in building
Ivanov et al. Error weighted classifier combination for multi-modal human identification
JP2020077399A (en) Information processing device
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120501