JP2013156855A - Method for tracking mobile object and computer program - Google Patents

Method for tracking mobile object and computer program Download PDF

Info

Publication number
JP2013156855A
JP2013156855A JP2012017159A JP2012017159A JP2013156855A JP 2013156855 A JP2013156855 A JP 2013156855A JP 2012017159 A JP2012017159 A JP 2012017159A JP 2012017159 A JP2012017159 A JP 2012017159A JP 2013156855 A JP2013156855 A JP 2013156855A
Authority
JP
Japan
Prior art keywords
peak position
tracking
frame image
peak
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012017159A
Other languages
Japanese (ja)
Other versions
JP5461597B2 (en
Inventor
Hiroyuki Arai
啓之 新井
Naoki Ito
直己 伊藤
Isamu Igarashi
勇 五十嵐
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012017159A priority Critical patent/JP5461597B2/en
Publication of JP2013156855A publication Critical patent/JP2013156855A/en
Application granted granted Critical
Publication of JP5461597B2 publication Critical patent/JP5461597B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To reduce a calculation cost required for tracking process of a moving mobile body.SOLUTION: A method for tracking a mobile object includes: acquiring a frame image in chronological order from an image photographed with a camera; detecting foreground pixels that are pixels corresponding to a mobile object, from the frame image; projecting the detected foreground pixels on one dimension on the basis of a scale conversion coefficient prestored by a scale conversion coefficient storage unit; detecting a peak position of a projection value obtained by a one-dimensional projection step; and tracking a peak position by associating a peak position detected in a previous frame image with the peak position detected by the current frame image.

Description

本発明は、カメラで撮影した画像を解析することにより、その場所を移動している移動体を追跡する技術に関する。   The present invention relates to a technique for tracking a moving object moving in a place by analyzing an image photographed by a camera.

カメラ画像を利用して通過人数を計測するためには、画像上に人物が現れたことと通り過ぎたこととを検知する必要がある。このような検知を実現する様々な画像処理技術が提案されている。これらの技術は、その前提条件の違いから大きく2つに分けることができる。   In order to measure the number of passing people using a camera image, it is necessary to detect that a person has appeared on the image and that a person has passed. Various image processing techniques for realizing such detection have been proposed. These techniques can be roughly divided into two because of the difference in the preconditions.

一つ目の技術は、天井などから略真下向きにカメラを向ける場合である(例えば非特許文献1参照)。この場合、画像上で人物同士が重ならない形で撮影することができるため、画像上で人物が現れたこと、通り過ぎたことを、比較的容易に検知することができる。   The first technique is a case where the camera is directed almost directly downward from the ceiling or the like (see, for example, Non-Patent Document 1). In this case, since it is possible to shoot in a form in which the persons do not overlap each other on the image, it can be detected relatively easily that the person has appeared on the image and passed.

しかしながら、上述した非特許文献1では、略真下向きの撮影を前提としているため、人が重ならないで撮影できる範囲が狭くなるといった問題や、天井などにカメラを固定できない場合には適用できないといった問題がある。   However, in the above-mentioned Non-Patent Document 1, since it is assumed that the image is taken almost directly downward, there is a problem that the range in which an image can be taken without people overlapping becomes narrow, or a problem that it cannot be applied when the camera cannot be fixed to the ceiling or the like. There is.

これに対して、一般的なセキュリティカメラのように斜め下向き(例えば、斜め下に30度前後)に撮影することを前提とした技術も提案されている(例えば非特許文献2参照)。このように、斜め下向きのカメラでの計測が可能になれば、その適用場面は大きく広がることになる。   On the other hand, a technique based on the premise that an image is taken obliquely downward (for example, around 30 degrees obliquely downward) like a general security camera has been proposed (see, for example, Non-Patent Document 2). Thus, if measurement with a diagonally downward camera becomes possible, the application scene will spread greatly.

佐藤敦、外3名、「物体流の変動にロバストな動物体計数法」、電子情報通信学会秋季大会講演論文集、1994年、情報・システム、P.271Satoshi Sato and three others, “Animal counting method that is robust to fluctuations in body flow”, Proceedings of the IEICE Autumn Conference, 1994, Information and Systems, 271 大澤達哉、外5名、「MCMC法に基づく対象と環境に三次元モデルを用いた人物追跡」、電子情報通信学会論文誌、2008年、VOL.J91−D、No.8、pp.2137−2147Tatsuya Osawa, 5 others, “Person Tracking Using 3D Model for Object and Environment Based on MCMC Method”, IEICE Transactions, 2008, VOL. J91-D, no. 8, pp. 2137-2147

非特許文献2の技術は、被写体の画像上若しくは実空間上の2次元位置を時系列的に追跡(トラッキング)していく技術である。しかしながら、画像上での人物の重なりを許しながら、それらの位置の探索及び対応付けを2次元的に行おうとすると、どうしても計算コストが大きくなってしまうという問題がある。   The technique of Non-Patent Document 2 is a technique for tracking (tracking) a two-dimensional position of a subject on an image or in real space in time series. However, there is a problem in that the calculation cost is inevitably increased if two-dimensional search and association are performed while allowing overlapping of persons on the image.

近年、コンピュータの高速化に伴い実時間で追跡処理を行うことも可能になりつつある。しかしながら、複数のカメラの画像を同時に処理したい場合などにおいては、やはり計算コストが大きな問題となる。このような状況から、より計算コストの小さい追跡処理の実現に期待が寄せられている。
上記事情に鑑み、本発明は、移動している移動体の追跡処理に要する計算コストを低減する技術を提供することを目的としている。
In recent years, it has become possible to perform tracking processing in real time as computers become faster. However, when it is desired to process images from a plurality of cameras at the same time, the calculation cost is still a big problem. Under such circumstances, there is an expectation for realizing a tracking process with a lower calculation cost.
In view of the above circumstances, an object of the present invention is to provide a technique for reducing the calculation cost required for tracking processing of a moving mobile object.

本発明の一態様は、カメラによって撮影され映像から時系列順にフレーム画像を取得するフレーム画像取得ステップと、前記フレーム画像から移動体に対応する画素である前景画素を検出する前景検出ステップと、スケール変換係数記憶部によって予め記憶されているスケール変換係数に基づき、前記前景検出ステップで検出された前記前景画素を一次元上に射影する一次元射影ステップと、前記一次元射影ステップによって得られる射影値のピーク位置を検出するピーク位置検出ステップと、以前のフレーム画像において検出された前記ピーク位置と、現在のフレーム画像で検出された前記ピーク位置とを対応付けることによって前記ピーク位置の追跡を行うピーク位置追跡ステップと、を有する移動体追跡方法である。   One aspect of the present invention includes a frame image acquisition step of acquiring frame images in time-series order from video captured by a camera, a foreground detection step of detecting foreground pixels that are pixels corresponding to a moving object from the frame image, and a scale. A one-dimensional projection step for projecting the foreground pixels detected in the foreground detection step one-dimensionally based on a scale conversion factor stored in advance by a transformation coefficient storage unit, and a projection value obtained by the one-dimensional projection step A peak position that tracks the peak position by associating the peak position detected in the previous frame image with the peak position detected in the current frame image. And a tracking step.

本発明の一態様は、上記の移動体追跡方法であって、前記フレーム画像においてオプティカルフローを算出するオプティカルフロー算出ステップと、前記ピーク位置が、前記一次元上のどちらの向きに動いているか前記オプティカルフローに基づいて推定する移動方向検出ステップと、をさらに有し、前記ピーク位置追跡ステップにおいて、以前のフレーム画像において検出された前記ピーク位置と、現在のフレーム画像で検出された前記ピーク位置とを、推定された方向に基づいて対応付ける。   One aspect of the present invention is the mobile tracking method described above, wherein an optical flow calculation step of calculating an optical flow in the frame image and in which direction on the one-dimensional the peak position is moving A moving direction detection step for estimating based on an optical flow, and in the peak position tracking step, the peak position detected in the previous frame image, and the peak position detected in the current frame image; Are matched based on the estimated direction.

本発明の一態様は、コンピュータに対し、上記の移動体追跡方法を実行させるためのコンピュータプログラムである。   One embodiment of the present invention is a computer program for causing a computer to execute the above moving body tracking method.

本発明により、移動している移動体の追跡処理に要する計算コストを低減することが可能となる。   According to the present invention, it is possible to reduce the calculation cost required for the tracking process of a moving mobile object.

本発明の第1実施形態による通過人数計測装置の配置例を示す概念図である。It is a conceptual diagram which shows the example of arrangement | positioning of the passage number measuring device by 1st Embodiment of this invention. 本発明の第1実施形態による通過人数計測装置1の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the passage number measurement apparatus 1 by 1st Embodiment of this invention. 本発明の第1実施形態による通過人数計測方法の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of the passing person counting method by 1st Embodiment of this invention. 前景画素(シルエット)の具体例を示す図である。It is a figure which shows the specific example of a foreground pixel (silhouette). 本発明の第1実施形態による一次元射影の計算方法を説明するための概念図である。It is a conceptual diagram for demonstrating the calculation method of the one-dimensional projection by 1st Embodiment of this invention. 本発明の第1実施形態による一次元射影の処理の一例を示す概念図である。It is a conceptual diagram which shows an example of the process of the one-dimensional projection by 1st Embodiment of this invention. 本発明の第1実施形態によるピーク位置の検出方法(追跡候補ピークの生成)を説明するための概念図である。It is a conceptual diagram for demonstrating the detection method (generation of a tracking candidate peak) of the peak position by 1st Embodiment of this invention. 本発明の第1実施形態における追跡処理を説明するための概念図である。It is a conceptual diagram for demonstrating the tracking process in 1st Embodiment of this invention. 本発明の第1実施形態による、追跡オブジェクトの人数推定方法を説明するための概念図である。It is a conceptual diagram for demonstrating the number estimation method of the tracking object by 1st Embodiment of this invention. 本発明の第2実施形態による通過人数計測装置1の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the passage number measuring device 1 by 2nd Embodiment of this invention. 本発明の第2実施形態による通過人数計測方法の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of the passing person counting method by 2nd Embodiment of this invention. 本発明の第2実施形態による一次元射影の処理の一例を示す概念図である。It is a conceptual diagram which shows an example of the process of the one-dimensional projection by 2nd Embodiment of this invention.

[第1実施形態]
まず、本発明の第1実施形態について説明する。
図1は、本発明の第1実施形態による通過人数計測装置の配置例を示す概念図である。以下に説明する通過人数計測装置は、本発明における移動体追跡方法を適用して移動体を追跡することによって、カメラ2によって撮影される領域を通過した移動体の数を計測する装置である。以下の説明では、移動体の具体例として人物を例に用いているが、移動体は車、動物等の人物以外の物体であっても良い。
[First Embodiment]
First, a first embodiment of the present invention will be described.
FIG. 1 is a conceptual diagram showing an arrangement example of the passing number measuring device according to the first embodiment of the present invention. The passing person counting apparatus described below is an apparatus that measures the number of moving bodies that have passed through an area photographed by the camera 2 by tracking the moving bodies by applying the moving body tracking method of the present invention. In the following description, a person is used as a specific example of the moving body, but the moving body may be an object other than a person such as a car or an animal.

通過人数計測装置1は、カメラ2と情報処理装置3とを備える。図1の例では、カメラ2で撮影された映像データ(画像データ)を情報処理装置(パーソナルコンピュータ等)3に入力し、情報処理装置3上で画像処理を実施することで通過人数を計測する場合を示している。図1に示すように、本発明の第1実施形態では、カメラ2は一般のセキュリティカメラのように斜め下向きに対象エリアを撮影する。そして、情報処理装置3が、対象エリア内を移動する人物P1〜P3を計測する。   The passing number measuring device 1 includes a camera 2 and an information processing device 3. In the example of FIG. 1, video data (image data) captured by the camera 2 is input to an information processing apparatus (personal computer or the like) 3, and the number of passing people is measured by performing image processing on the information processing apparatus 3. Shows the case. As shown in FIG. 1, in the first embodiment of the present invention, the camera 2 captures a target area obliquely downward like a general security camera. Then, the information processing device 3 measures the persons P1 to P3 moving within the target area.

図2は、本発明の第1実施形態による通過人数計測装置1の機能構成を示す概略ブロック図である。情報処理装置3は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、通過人数計測プログラムを実行する。情報処理装置3は、通過人数計測プログラムの実行によって、フレーム画像取得部30、映像保存部31、前景検出部32、一次元射影部33、スケール変換係数記憶部34、ピーク位置検出部35、ピーク位置追跡部36、ピーク毎人数推定部37、追跡結果保存部38を備える装置として機能する。なお、情報処理装置3の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。通過人数計測プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。   FIG. 2 is a schematic block diagram showing a functional configuration of the passing number measuring device 1 according to the first embodiment of the present invention. The information processing device 3 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a passing-person counting program. The information processing device 3 executes the frame number acquisition unit 30, the video storage unit 31, the foreground detection unit 32, the one-dimensional projection unit 33, the scale conversion coefficient storage unit 34, the peak position detection unit 35, the peak by executing the passing number measurement program. It functions as an apparatus including a position tracking unit 36, a peak number of people estimation unit 37, and a tracking result storage unit 38. All or some of the functions of the information processing apparatus 3 may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). . The passing person counting program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system.

本発明の第1実施形態は、カメラ2から映像データを情報処理装置3で逐一取得しながら処理を行うリアルタイム型として構成されても良いし、情報処理装置3の映像保存部31に記録された映像データを読み出しながら処理していくバッチ型として構成されても良い。リアルタイム型の構成の場合には、映像保存部31は必須の構成ではない。バッチ型の構成の場合には、フレーム画像取得部30にカメラ2が接続されている必要は無い。また、バッチ型の場合、映像保存部31に記録される映像データは、カメラ2によって撮影された映像データである。   The first embodiment of the present invention may be configured as a real-time type that performs processing while acquiring video data from the camera 2 by the information processing device 3 one by one, or recorded in the video storage unit 31 of the information processing device 3 You may comprise as a batch type processed while reading video data. In the case of a real-time configuration, the video storage unit 31 is not an essential configuration. In the case of a batch type configuration, the camera 2 does not need to be connected to the frame image acquisition unit 30. In the case of the batch type, the video data recorded in the video storage unit 31 is video data taken by the camera 2.

フレーム画像取得部30は、カメラ2で撮影された映像データのフレーム画像を時系列順に入力する。前景検出部32は、入力されたフレーム画像から人物などの移動物体に対応する画素である前景画素を検出する。一次元射影部33は、予めスケール変換係数記憶部34に記憶されているスケール変換係数を参照し、前景画素を1次元のライン上に射影する。   The frame image acquisition unit 30 inputs frame images of video data captured by the camera 2 in time series. The foreground detection unit 32 detects foreground pixels that are pixels corresponding to a moving object such as a person from the input frame image. The one-dimensional projection unit 33 refers to the scale conversion coefficient stored in advance in the scale conversion coefficient storage unit 34 and projects the foreground pixels onto the one-dimensional line.

ピーク位置検出部35は、射影値からピーク位置を検出する。ピーク位置とは、ピーク(極大値)を与える1次元ライン上での位置である。ピーク位置追跡部36は、以前のフレーム画像において検出されていたピーク位置と、現在のフレームで検出されたピーク位置と、を対応付けて追跡する。ピーク毎人数推定部37は、射影値のピーク毎に射影値の大きさからピークに所属する人数を推定する。追跡結果保存部38は、ピークの出現、消滅及びピーク毎の推定人数を、追跡結果データとして保存する。   The peak position detector 35 detects the peak position from the projection value. The peak position is a position on a one-dimensional line that gives a peak (maximum value). The peak position tracking unit 36 tracks the peak position detected in the previous frame image in association with the peak position detected in the current frame. The number-of-peaks estimation unit 37 estimates the number of people belonging to the peak from the magnitude of the projection value for each peak of the projection value. The tracking result storage unit 38 stores the appearance and disappearance of peaks and the estimated number of people for each peak as tracking result data.

映像保存部31、スケール変換係数記憶部34及び追跡結果保存部38は、磁気ハードディスク装置や半導体記憶装置等の記憶装置40である。記憶装置40は、情報処理装置3に備えられても良いし、情報処理装置3の外部に接続されても良いし、着脱可能な外部メモリ(カード型記録媒体やUSBメモリなど)であってもよい。   The video storage unit 31, the scale conversion coefficient storage unit 34, and the tracking result storage unit 38 are storage devices 40 such as a magnetic hard disk device and a semiconductor storage device. The storage device 40 may be included in the information processing device 3, may be connected to the outside of the information processing device 3, or may be a removable external memory (such as a card-type recording medium or a USB memory). Good.

次に、本発明の第1実施形態の動作について説明する。
図3は、本発明の第1実施形態による通過人数計測方法の処理の流れを説明するためのフローチャートである。本発明の第1実施形態による通過人数計測方法は、計測を行う前に一度実施しておけばよい初期設定時の処理と、実際の計測時の処理とを含む。
Next, the operation of the first embodiment of the present invention will be described.
FIG. 3 is a flowchart for explaining the flow of processing of the passing person counting method according to the first embodiment of the present invention. The passing person counting method according to the first embodiment of the present invention includes a process at the time of initial setting and a process at the time of actual measurement which may be performed once before performing the measurement.

まず、初期設定時の処理の概要について説明する。初期設定時の処理では、カメラ2は、幾何的な性質が既知である被写体を撮影し、フレーム画像を取得する(ステップSa1)。次に、情報処理装置3は、撮影された被写体の画像を解析し、カメラパラメータを算出する(ステップSa2)。すなわち、情報処理装置3は、撮影された被写体の画像を解析することにより、カメラ2が撮影する実空間とカメラ2との関係(各画素が実空間のどこを撮影しているか)を計算する。ステップSa2の処理は、いわゆるカメラキャリブレーションである。   First, an outline of processing at the time of initial setting will be described. In the process at the time of initial setting, the camera 2 captures a subject having a known geometric property and acquires a frame image (step Sa1). Next, the information processing device 3 analyzes the photographed subject image and calculates camera parameters (step Sa2). That is, the information processing device 3 calculates the relationship between the real space photographed by the camera 2 and the camera 2 (where each pixel is photographed in the real space) by analyzing the photographed subject image. . The process of step Sa2 is so-called camera calibration.

カメラキャリブレーションにおいては、外部パラメータの推定と内部パラメータの推定とが行われる。外部パラメータの推定では、実空間におけるカメラ2の3次元位置(X,Y,Z)と、カメラ2の方向(θ、φ、ω)とを求める。3次元位置(X,Y,Z)において、例えばX及びYは床面上の二次元位置であり、Zは床面からの高さを表す。方向(θ、φ、ω)において、例えばθはX軸回りの回転を表し、φはY軸回りの回転を表し、ωはZの軸周りの回転を表す。内部パラメータの推定では、カメラ2の光学系の焦点距離や歪などを求める。情報処理装置3は、これらの両方の推定を行うことにより、フレーム画像の各画素が実空間のどこを撮影しているか判定することが可能となる。   In camera calibration, external parameter estimation and internal parameter estimation are performed. In the estimation of the external parameters, the three-dimensional position (X, Y, Z) of the camera 2 in the real space and the direction (θ, φ, ω) of the camera 2 are obtained. In the three-dimensional position (X, Y, Z), for example, X and Y are two-dimensional positions on the floor surface, and Z represents the height from the floor surface. In the direction (θ, φ, ω), for example, θ represents rotation about the X axis, φ represents rotation about the Y axis, and ω represents rotation about the Z axis. In the estimation of the internal parameters, the focal length and distortion of the optical system of the camera 2 are obtained. The information processing apparatus 3 can determine where each pixel of the frame image is captured in the real space by performing both of these estimations.

なお、本発明の第1実施形態において必要となる情報は、カメラ2の各画素が床面に対してどのような角度になっているか、である。3次元位置(X,Y,Z)のうち、床面座標を示す2次元座標(X,Y)の値は不要となる。カメラ2の外部パラメータ及び内部パラメータを算出するカメラキャリブレーションには、様々な技術が存在している。本実施形態では、どのような技術が適用されても良い。   The information required in the first embodiment of the present invention is what angle each pixel of the camera 2 is with respect to the floor surface. Of the three-dimensional position (X, Y, Z), the value of the two-dimensional coordinate (X, Y) indicating the floor surface coordinate becomes unnecessary. Various techniques exist for camera calibration for calculating external parameters and internal parameters of the camera 2. Any technique may be applied in the present embodiment.

カメラキャリブレーションが記載された参考文献としては、以下に示す参考文献がある。参考文献1(Isao Miyagawa、外2名、「Simple Camera Calibration From a Single Image Using Five Points on Two Orthogonal 1-D Objects」、IEEE TRANSACTIONS ON IMAGE PROCESSING、 VOL. 19、 NO. 6、JUNE 2010」)、参考文献2(特開2010−287074号公報)、参考文献3(特開2011−215082号公報)。   References describing camera calibration include the following references. Reference 1 (Isao Miyagawa, two others, “Simple Camera Calibration From a Single Image Using Five Points on Two Orthogonal 1-D Objects”, IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 19, NO. 6, JUNE 2010) Reference 2 (JP 2010-287074 A), Reference 3 (JP 2011-215082 A).

情報処理装置3は、カメラキャリブレーション結果に基づき、画像上の位置に対する大きさの違いを正規化するためのスケール変換係数を算出する(ステップSa3)。カメラ2で撮影された画像上では、手前に位置する人は画像上で大きな面積を占め、遠くに位置する人は画像上で小さな面積を占めることになる。そこで、情報処理装置3は、フレーム画像に写る人物の大きさが、画像上の場所でどのように変化するかを、定量的に計算することにより、スケール変換係数を算出する。   The information processing device 3 calculates a scale conversion coefficient for normalizing the difference in size with respect to the position on the image based on the camera calibration result (step Sa3). On the image photographed by the camera 2, the person located in front will occupy a large area on the image, and the person located far away will occupy a small area on the image. Therefore, the information processing device 3 calculates the scale conversion coefficient by quantitatively calculating how the size of the person shown in the frame image changes in the place on the image.

より具体的には、情報処理装置3は、上記カメラパラメータ(内部パラメータ及び外部パラメータ)を用いて、各画素(x,y)に対するスケール変換係数w(x,y)を求める。このスケール変換係数w(x,y)は、各画素と、その画素が撮影する実空間上の表面積との幾何的な関係に基づいて算出される。例えば、画像のどこかに一人分のシルエットが写っている場合に、そのシルエットを構成する画素の集合fに対して、式(1)が成立する。   More specifically, the information processing apparatus 3 obtains a scale conversion coefficient w (x, y) for each pixel (x, y) using the camera parameters (internal parameters and external parameters). The scale conversion coefficient w (x, y) is calculated based on the geometric relationship between each pixel and the surface area in the real space taken by the pixel. For example, when a silhouette for one person is shown somewhere in the image, the expression (1) is established for a set f of pixels constituting the silhouette.

スケール変換係数の具体的な計算方法は、参考文献4(新井啓之、外3名、「映像からの人数計測のための幾何不変量に関する検討」、映情学技報、vol.34、no.45、ME2010−163、pp.41−45)や、参考文献4に記載されている文献に記載されている。本発明においては、どのような手法が適用されても良い。   The specific calculation method of the scale conversion coefficient is described in Reference Document 4 (Hiroyuki Arai and three others, “Study on Geometric Invariant for Counting People from Video”, Eiji Jikho, Vol. 34, no. 45, ME 2010-163, pp. 41-45) and the literature described in Reference 4. Any technique may be applied in the present invention.

図4は、前景画素(シルエット)の具体例を示す図である。図4(A)における一人分の前景画素の集合を集合fと表し、図4(B)における一人分の前景画素の集合を集合f’と表し、図4(C)における一人分の前景画素の集合を集合f”と表すと、以下に示す式2が成立するようなs(x,y)(sの上にハットを表記)を定義できることが、参考文献4に示されている。(被写体の立ち位置によらず、被写体部分に対して和をとるとその和が定数になるような数値(s(x,y)(sの上にハットを表記)が存在する)   FIG. 4 is a diagram illustrating a specific example of foreground pixels (silhouettes). The set of foreground pixels for one person in FIG. 4A is represented as set f, the set of foreground pixels for one person in FIG. 4B is represented as set f ′, and the foreground pixel for one person in FIG. It is shown in Reference Document 4 that s (x, y) (a hat is expressed on s) can be defined such that the following expression 2 holds, if the set is represented as a set f ″. Regardless of the standing position of the subject, there is a numerical value (s (x, y) (hat is shown on s)) that makes the sum constant when taking the sum of the subject portion.

ここで、上記のs(x,y)(sの上にハットを表記)を用いて、スケール変換係数w(x,y)を式(3)のように表すと、式(4)が成立する。   Here, when the scale conversion coefficient w (x, y) is expressed as in equation (3) using the above s (x, y) (hat is shown on s), equation (4) is established. To do.

なお、参考文献4に厳密に準拠せずとも、各画素が実空間の人物の高さ付近において、どの程度の表面積に対応するか(画素の実空間での広がり具合)を定量的に見積もることにより、スケール変換係数w(x,y)を近似的に求めることも可能である。算出したスケール変換係数w(x,y)の値は、スケール変換係数テーブルとしてスケール変換係数記憶部34に記憶される。
以上が、初期設定時の処理である。初期設定時の処理は、必ずしも情報処理装置3において実行される必要は無い。例えば、一部又は全ての処理が人間によって実行されても良いし、他の情報処理装置によって実行されても良い。
In addition, without strictly complying with Reference 4, it is necessary to quantitatively estimate how much surface area each pixel corresponds to in the vicinity of the height of a person in the real space (the extent of the pixel in the real space). Thus, the scale conversion coefficient w (x, y) can also be obtained approximately. The calculated value of the scale conversion coefficient w (x, y) is stored in the scale conversion coefficient storage unit 34 as a scale conversion coefficient table.
The above is the process at the time of initial setting. The process at the time of initial setting is not necessarily executed by the information processing apparatus 3. For example, some or all of the processing may be executed by a human or may be executed by another information processing apparatus.

次に、実際の計測時の処理について説明する。情報処理装置3は、カメラ2又は映像保存部31から映像データを取得し、以下の処理(ステップSa10〜Sa18)を繰り返し行うことにより、人物の通過人数を計測する。   Next, processing during actual measurement will be described. The information processing device 3 acquires the video data from the camera 2 or the video storage unit 31, and measures the number of people passing by repeating the following processing (steps Sa10 to Sa18).

まず、フレーム画像取得部30は、カメラ2又は映像保存部31からフレーム画像を取得する(ステップSa10)。次に、前景検出部32は、入力されたフレーム画像を処理することにより、現時点のフレーム画像における前景画素を検出する(ステップSa11)。定常的にその場所に存在している物体に対応した画素を背景画素と呼ぶのに対して、一時的にその場所に現れた物体(ここでは主に人物)に対応する画素を前景画素と呼ぶ。また、前景画素と背景画素とをそれぞれ異なる値で表した画像を、以下の説明では「前景画像」という。   First, the frame image acquisition unit 30 acquires a frame image from the camera 2 or the video storage unit 31 (step Sa10). Next, the foreground detection unit 32 detects the foreground pixel in the current frame image by processing the input frame image (step Sa11). A pixel corresponding to an object that is regularly present at that location is called a background pixel, whereas a pixel corresponding to an object (here mainly a person) that temporarily appears at that location is called a foreground pixel. . Also, an image in which foreground pixels and background pixels are represented by different values is referred to as a “foreground image” in the following description.

前景画素の検出は、画像処理分野では古くから存在する技術であり、既に様々な方法が提案されている。例えば、前景検出部32は、過去の一定時間(例えば5分程度)の各画素の時間方向の平均値(もしくは時間方向の移動平均値)をとったものを背景画素とみなす。前景検出部32は、現在のフレーム画像と背景画素との差分の絶対値が一定以上の大きさを持つ画素を前景画素として検出する。本実施形態では、前景の検出方法を限定しない。   Detection of foreground pixels is a technique that has existed for a long time in the image processing field, and various methods have already been proposed. For example, the foreground detection unit 32 considers a pixel obtained by taking an average value in the time direction (or moving average value in the time direction) of each pixel for a certain past time (for example, about 5 minutes) as a background pixel. The foreground detection unit 32 detects a pixel whose absolute value of the difference between the current frame image and the background pixel is greater than a certain value as a foreground pixel. In the present embodiment, the foreground detection method is not limited.

次に、一次元射影部33は、スケール変換係数記憶部34に保存されているスケール変換係数を参照し、検出された前景画素を画像上のあるライン(例えばx軸)上に射影する(ステップSa12)。検出された現在の前景画像を式(5)のように表すと、x軸上への一次元射影p(x)は、式(6)のように表される。なお、式(6)の加算(シグマ)は、画像中の全ての画素(x,y)に対する和である。   Next, the one-dimensional projection unit 33 refers to the scale conversion coefficient stored in the scale conversion coefficient storage unit 34, and projects the detected foreground pixels onto a certain line (for example, the x axis) on the image (step). Sa12). When the detected current foreground image is expressed as in Expression (5), the one-dimensional projection p (x) on the x-axis is expressed as Expression (6). Note that the addition (sigma) in Expression (6) is the sum for all the pixels (x, y) in the image.

図5(A)〜(C)は、本発明の第1実施形態による一次元射影の計算方法を説明するための概念図である。図5(A)はスケール変換係数を示し、図5(B)は前景画像を示し、図5(C)は射影値を示す。まず、一次元射影部33は、射影値p(x,y)を0で初期化する(1)。次に、一次元射影部33は、画素(x,y)が前景の場合(2)、スケール変換係数w(x,y)を参照し(3)、射影値p(x)にw(x,y)を加算する(4)。一次元射影部33は、上記の処理を全ての画素(x,y)に対して実行することによって、x軸上への一次元射影p(x)を求める。   FIGS. 5A to 5C are conceptual diagrams for explaining a one-dimensional projection calculation method according to the first embodiment of the present invention. 5A shows the scale conversion coefficient, FIG. 5B shows the foreground image, and FIG. 5C shows the projection value. First, the one-dimensional projection unit 33 initializes the projection value p (x, y) with 0 (1). Next, when the pixel (x, y) is the foreground (2), the one-dimensional projection unit 33 refers to the scale conversion coefficient w (x, y) (3) and sets the projection value p (x) to w (x , Y) are added (4). The one-dimensional projection unit 33 obtains a one-dimensional projection p (x) on the x-axis by executing the above process on all the pixels (x, y).

なお、上述した射影処理において、射影する軸は必ずしもx軸上でなくともよい。例えば、画像を所定の角度だけ予め回転してから処理を行えば、上記のx軸への射影と同様の処理で、任意の直線上への一次元射影が可能となる。   In the projection processing described above, the axis to be projected does not necessarily have to be on the x axis. For example, if the processing is performed after the image has been rotated by a predetermined angle in advance, one-dimensional projection onto an arbitrary straight line can be performed by the same processing as the projection onto the x-axis.

また、どの方向を射影軸とするかは、その画像内での人物の移動方向を見て決めればよい。通路を概ね横方向から撮影する場合には、画像上での人物の動きは左右方向が支配的になる。そのため、後述する手法の特性を考えると、x軸(画像横方向)への射影でよい。一方、通路の手前から奥の方向に向かってカメラ2を向ける場合には、人の進行方向に対応する上下方向の軸を射影軸とすればよい。   Which direction is used as the projection axis may be determined by looking at the moving direction of the person in the image. When the passage is photographed from substantially the horizontal direction, the movement of the person on the image is dominant in the left-right direction. For this reason, in consideration of the characteristics of the method described later, projection onto the x-axis (the horizontal direction of the image) is sufficient. On the other hand, when the camera 2 is directed from the front of the passage toward the back, the vertical axis corresponding to the person's traveling direction may be used as the projection axis.

図6(A)〜(C)は、本発明の第1実施形態による一次元射影の処理の一例を示す概念図である。図6(A)は現在のフレーム画像の例、図6(B)は検出された現在の前景画像の例、図6(C)はx軸を射影軸とした場合の一次元射影の例である。なお、図6(C)には、射影後にx軸方向での平滑化処理(ガウシアンフィルタなど)を施した結果を示している。平滑化を行うことは、本発明の第1実施形態において必ずしも必要ではない。ただし、後述する処理(特に、ピーク位置検出)を現実的に安定して行うためには、射影値P(x)がx方向に対して滑らかに変化するようにしておくことが必要となる。そのため、平滑化を行うことは、処理制度の向上に寄与する。   FIGS. 6A to 6C are conceptual diagrams illustrating an example of a one-dimensional projection process according to the first embodiment of the present invention. 6A is an example of the current frame image, FIG. 6B is an example of the detected current foreground image, and FIG. 6C is an example of a one-dimensional projection when the x axis is the projection axis. is there. FIG. 6C shows the result of smoothing processing (such as a Gaussian filter) in the x-axis direction after projection. It is not always necessary to perform smoothing in the first embodiment of the present invention. However, in order to perform processing described below (in particular, peak position detection) in a practical and stable manner, it is necessary that the projection value P (x) changes smoothly in the x direction. Therefore, smoothing contributes to the improvement of the processing system.

平滑化方法については、本発明の第1実施形態では限定しない。ただし、射影値の和(全てのxに対するP(x)の和)が平滑化の前後で変化しない方法を適用することが好ましい。具体的には、規格化された線形フィルタ(フィルタの係数の和が1に規格化された線形フィルタ)を用いればよい。以下では、一次元の射影値と、一次元の射影値をx方向に平滑化した値とを区別せずに、いずれもP(x)と表す。   The smoothing method is not limited in the first embodiment of the present invention. However, it is preferable to apply a method in which the sum of projection values (the sum of P (x) for all x) does not change before and after smoothing. Specifically, a standardized linear filter (a linear filter in which the sum of filter coefficients is normalized to 1) may be used. Hereinafter, the one-dimensional projection value and the value obtained by smoothing the one-dimensional projection value in the x direction are not distinguished from each other, and both are represented as P (x).

次に、ピーク位置検出部35は、この一次元射影値P(x)からピーク位置を検出する(ステップSa13)。なお、ピーク位置の検出において、ピークとなる一次元射影値が予め設定しておいた閾値を超えない場合には、ノイズと見なして検出しないようにしてもよい。また、画像のx軸の両端(処理対象範囲が予め限定している場合には、その両端のx座標)のピークは検出対象とならない。検出されたピーク位置は、人物がそのx座標付近にいる可能性が高い場所と見なすことができる。したがって、ピーク位置検出部35は、検出されたピーク位置を追跡候補ピークとする。複数のピーク位置が検出された場合には、複数の追跡候補ピークが生成される。   Next, the peak position detector 35 detects the peak position from the one-dimensional projection value P (x) (step Sa13). In the detection of the peak position, if the one-dimensional projection value that becomes the peak does not exceed a preset threshold value, it may be regarded as noise and not detected. In addition, peaks at both ends of the x-axis of the image (when the processing target range is limited in advance, the x-coordinates at both ends) are not detected. The detected peak position can be regarded as a place where a person is likely to be near the x coordinate. Therefore, the peak position detection unit 35 sets the detected peak position as a tracking candidate peak. When a plurality of peak positions are detected, a plurality of tracking candidate peaks are generated.

図7(A)及び(B)は、本発明の第1実施形態によるピーク位置の検出方法(追跡候補ピークの生成)を説明するための概念図である。図7(A)は、画像内を右から左へ移動する人物を示している。図7(B)は、x軸(画像横方向)への射影値P(x)の変化を示している。図7(A)の左端に示すように、画像内に人物がない場合には、図7(B)の左端に示すように射影値のピークは検出されない。また、図7(A)の中央に示すように、画像端に人物Pが一部存在する場合には、図7(B)の中央に示すように射影値のピークは検出されない。図7(A)の右端に示すように、画像内に人物Pが存在する場合には、図7(B)の右端に示すように閾値以上のピークが検出される。   FIGS. 7A and 7B are conceptual diagrams for explaining a peak position detection method (generation of tracking candidate peaks) according to the first embodiment of the present invention. FIG. 7A shows a person moving from right to left in the image. FIG. 7B shows a change in the projection value P (x) on the x-axis (the horizontal direction of the image). As shown at the left end of FIG. 7 (A), when there is no person in the image, the peak of the projection value is not detected as shown at the left end of FIG. 7 (B). Further, as shown in the center of FIG. 7A, when a part of the person P exists at the end of the image, the peak of the projection value is not detected as shown in the center of FIG. 7B. As shown at the right end of FIG. 7A, when a person P exists in the image, a peak equal to or higher than the threshold is detected as shown at the right end of FIG.

次に、ピーク位置追跡部36は、各フレーム画像で検出された追跡候補ピークを、その位置に基づいて時間方向で対応付けていく処理(追跡処理)を実行する(ステップSa14)。次に、ピーク毎人数推定部37は、追跡処理により求められた追跡オブジェクトが何人の人物によって構成されるかを検出する(ステップSa15)。そして、ピーク毎人数推定部37は、追跡結果を追跡結果保存部38に保存(追記)する(ステップSa16)。   Next, the peak position tracking unit 36 performs processing (tracking processing) in which tracking candidate peaks detected in each frame image are associated in the time direction based on the position (step Sa14). Next, the peak number-of-people estimation unit 37 detects how many persons the tracking object obtained by the tracking process is composed of (step Sa15). Then, the peak number of people estimation unit 37 stores (adds) the tracking result in the tracking result storage unit 38 (step Sa16).

次に、情報処理装置3は、ユーザによる終了操作が指示されるなど、終了条件を満たすか否かを判別し(ステップSa17)、終了条件を満たさない場合には(ステップSa17−NO)、次のフレーム画像を処理対象とし(ステップSa18)、ステップSa10に戻って上述した処理を繰り返す。一方、終了条件を満たした場合には(ステップSb18のYES)、情報処理装置3は処理を終了する。   Next, the information processing apparatus 3 determines whether or not an end condition is satisfied, such as an instruction for an end operation by the user (step Sa17). When the end condition is not satisfied (step Sa17-NO), Is processed (step Sa18), the process returns to step Sa10 and the above-described processing is repeated. On the other hand, when the end condition is satisfied (YES in step Sb18), the information processing apparatus 3 ends the process.

次に、上述したステップSa14における追跡処理について詳細に説明する。
図8は、本発明の第1実施形態における追跡処理を説明するための概念図である。図8の最上段に示される図は、情報処理装置3が取得するフレーム画像(入力画像)の具体例を示す図である。以下の説明では、矢印で示すように、人物Pが画像の右端から現れて左に向かって移動していく状態が撮影されたフレーム画像が情報処理装置3によって取得される。図8には、時刻tの時点の入力画像が示されている。
図8において、入力画像の下方に位置する図は、時刻tにおける射影値を示す図である。そして、図8の最下段に示される図は、各フレーム画像で検出されたピーク位置を時系列順にプロットした時空間プロットを示す図である。横軸がx軸、縦軸が時間(上が現在、下に行くほど過去)を表している。人物Pが少しずつ左に移動するにつれて、ピークの位置が少しずつ左に移動している。このような時空間プロットにおいて、ピーク位置に基づいてピークの対応付けを行う方法には様々な方法がある。以下、その一例を具体的に説明する。
Next, the tracking process in step Sa14 described above will be described in detail.
FIG. 8 is a conceptual diagram for explaining the tracking process in the first embodiment of the present invention. 8 is a diagram illustrating a specific example of a frame image (input image) acquired by the information processing device 3. In the following description, as indicated by an arrow, the information processing apparatus 3 acquires a frame image in which a state in which the person P appears from the right end of the image and moves toward the left is captured. FIG. 8 shows an input image at time t.
In FIG. 8, the diagram located below the input image is a diagram showing the projection value at time t. And the figure shown in the lowest stage of FIG. 8 is a figure which shows the spatiotemporal plot which plotted the peak position detected by each frame image in time series order. The horizontal axis represents the x-axis, and the vertical axis represents the time (upward is present and past as it goes down). As the person P moves little by little to the left, the peak position gradually moves to the left. In such a spatiotemporal plot, there are various methods for associating peaks based on peak positions. Hereinafter, an example thereof will be specifically described.

まず、人物が一人もいない初期状態から、順を追って説明する。人物が一人もいない初期状態では、追跡候補ピークが存在していない。そのため、ピーク検出を行っても閾値を超えるピークが検出されない。この場合には、これ以上の処理は行わない。次に、画像内に1人の人物が現れ、ピークが検出されたとする。この時点では、過去に追跡していた人物が存在しないので、このピークを1人の人物(=追跡オブジェクト)とする。追跡オブジェクトのデータとしては、追跡オブジェクトのID(通し番号などでよい)と、そのピーク位置(x座標値:x0とする)とを記録しておく。   First, a description will be given in order from the initial state where there is no person. In the initial state where there is no person, no tracking candidate peak exists. Therefore, even if peak detection is performed, a peak exceeding the threshold is not detected. In this case, no further processing is performed. Next, it is assumed that one person appears in the image and a peak is detected. At this time, since there is no person who has been tracked in the past, this peak is defined as one person (= tracking object). As the tracking object data, the tracking object ID (such as a serial number) and its peak position (x coordinate value: x0) are recorded.

次のフレームにおいて、この人物が少し移動しており、別のx座標値x1にピークが検出されたとする。次の処理として、前回検出された追跡オブジェクト(前回検出されて追跡オブジェクトに設定されているピーク(x座標がx0))と、現在検出されたピークx1とが対応するかどうかを判定する。この判定処理は以下のように行われる。まず、x0とx1のx軸上での距離(差)を算出する。次に、この距離が所定の閾値より小さいか否か判定する。距離が閾値より小さい場合には、今回検出されたピーク(x座標値x1)が現時点の追跡オブジェクトに対応するものであると判定する。   Assume that in the next frame, this person has moved a little and a peak has been detected at another x-coordinate value x1. As the next process, it is determined whether or not the tracking object detected last time (the peak detected in the previous tracking object (x coordinate is x0)) and the currently detected peak x1 correspond to each other. This determination process is performed as follows. First, the distance (difference) on the x axis between x0 and x1 is calculated. Next, it is determined whether this distance is smaller than a predetermined threshold value. When the distance is smaller than the threshold value, it is determined that the peak (x coordinate value x1) detected this time corresponds to the current tracking object.

この場合、前回設定された追跡オブジェクトをx1に継承(追跡)する。一方、距離が閾値より大きい場合には、x1を新たな追跡オブジェクトとして判定する。また、複数の追跡候補ピークが閾値内の距離にある場合には、一番距離の小さいものへ継承(追跡)する。   In this case, the previously set tracking object is inherited (tracked) to x1. On the other hand, when the distance is larger than the threshold, x1 is determined as a new tracking object. In addition, when a plurality of tracking candidate peaks are at a distance within the threshold, they are inherited (tracked) to the one with the smallest distance.

このように、ピーク位置追跡部36は、追跡オブジェクトの前回のピーク位置と現在の追跡候補位置とを比較しながら追跡し、必要に応じて新たな追跡オブジェクトを生成していく。上記処理を繰り返すことにより、追跡が複数回成功した場合には、複数のピーク位置のデータがその追跡オブジェクトデータに記録されていく。なお、上述したように、ピークが次々と継承(追跡)されていく中で、過去数回分(その回数は予め設定しておく)のピーク座標を記録しておく。   In this way, the peak position tracking unit 36 tracks the previous peak position of the tracking object while comparing it with the current tracking candidate position, and generates a new tracking object as necessary. By repeating the above process, when tracking is successful a plurality of times, data of a plurality of peak positions are recorded in the tracking object data. As described above, the peak coordinates of the past several times (the number of times is set in advance) are recorded while the peaks are successively inherited (tracked).

追跡が複数回行われ、多数(所定の回数以上)のピーク位置が記録されている場合には、上述したような前回と現在との単純な位置比較ではなく、過去数回のピーク位置から、現在のピーク位置を予測しても良い。そして、予測位置からの距離が閾値内であるかを評価することにより、より正確な追跡が可能となる。   When tracking is performed a plurality of times and a large number of peak positions (a predetermined number of times or more) are recorded, not a simple position comparison between the previous time and the current time as described above, The current peak position may be predicted. Then, by evaluating whether the distance from the predicted position is within the threshold, more accurate tracking can be performed.

過去数回(例えば3回)のピーク位置の並びを参照し、その時空間画像での傾き(Δx:1フレーム毎に平均どのくらいxが変化するか)を求める。前回のピーク位置xnにΔxを加えたxn+Δxを現在の予測位置とする。そして、予め決めておいた閾値を上記予測位置に加算又は減算した値を予測範囲の両端とすることにより、過去数回の動きも踏まえた形での追跡を行うことができる。   By referring to the sequence of peak positions in the past several times (for example, three times), the inclination (Δx: how much x changes on average for each frame) in the spatiotemporal image is obtained. Xn + Δx obtained by adding Δx to the previous peak position xn is set as the current predicted position. Then, by setting a value obtained by adding or subtracting a predetermined threshold value to or from the predicted position as both ends of the predicted range, it is possible to perform tracking in the form of taking into account the past several movements.

なお、過去何回のピーク位置から予測するかを複数パターン用意しておき、その両方の条件に合致する場合にピークを継承する(追跡する)、もしくは、そのどちらかの条件に合致する場合にピークを継承(追跡)してもよい。これにより、より高度に判断(短時間の予測と長時間の予測とから総合的に判断)することも可能となる。図8には、過去3回のピーク位置から予測する短時間予測と、過去8回のピーク位置から予測する長時間予測とを示している。   In addition, prepare multiple patterns for how many times the peak position is predicted in the past, and if both conditions are met, the peak is inherited (tracked), or if either condition is met Peaks may be inherited (tracked). Thereby, it becomes possible to make a judgment at a higher level (overall judgment from a short-time prediction and a long-time prediction). FIG. 8 shows short-time prediction predicted from the past three peak positions and long-time prediction predicted from the past eight peak positions.

これらの処理を行いながら、ピーク位置追跡部36は、追跡オブジェクトに対応するピークが存在しなくなった時点で、その追跡オブジェクトデータを消去する。追跡処理を逐次実行していくことにより、追跡オブジェクトが生成された時点を「人物が現れた」とし、その追跡オブジェクトが消去された時点を「その人物が去った」として、通過人数を計測することができる。   While performing these processes, the peak position tracking unit 36 deletes the tracking object data when there is no peak corresponding to the tracking object. By sequentially executing the tracking process, the time when the tracking object is generated is assumed to be "person has appeared", and the time when the tracking object is deleted is assumed to be "the person has left", and the number of passing people is measured. be able to.

次に、上述したステップSa15におけるピーク毎の人数推定について詳細に説明する。追跡オブジェクトは、ピークを継承しながら追跡されていく。ピークは、一人の人物に対応するかも知れないし、複数の人物が固まって(集団で)移動しているものかも知れない。ピーク毎人数推定部37は、追跡オブジェクトが何人によって構成されるかを推定する。   Next, the estimation of the number of people for each peak in step Sa15 described above will be described in detail. The tracking object is tracked while inheriting the peak. The peak may correspond to a single person, or may be a group of people moving together (in groups). The peak number of people estimation unit 37 estimates how many people are included in the tracking object.

図9(A)及び(B)は、本発明の第1実施形態による、追跡オブジェクトの人数推定方法を説明するための概念図である。図9(A)に示すように、ピークが1つの場合には、ピークaの両側に予め指定された幅2L(左右にLずつ)の範囲を設定し、この範囲の一次元射影値P(x)の値を加算する。すなわち、x=xa−Lからx=xa+Lの範囲において、射影値p(x)を累積加算する。累積加算の結果が、ピークに属する人数の推定値である。なお、このような推定処理は、式(1)が成立していることを前提として可能となる。   FIGS. 9A and 9B are conceptual diagrams for explaining a method of estimating the number of tracking objects according to the first embodiment of the present invention. As shown in FIG. 9 (A), when there is one peak, a range of a predetermined width 2L (each left and right) is set on both sides of the peak a, and the one-dimensional projection value P ( Add the value of x). That is, the projection value p (x) is cumulatively added in the range of x = xa−L to x = xa + L. The result of cumulative addition is an estimated value of the number of people belonging to the peak. Note that such an estimation process is possible on the assumption that Expression (1) holds.

また、図9(B)のように、2つのピーク(ピークa及びピークb)が、上述した幅L以内の位置にある場合には、以下のように推定処理を行っても良い。まず、ピーク位置a及びピーク位置bの中点で、追跡オブジェクトを分離する。中点の座標(xab)は、xab=(xa+xb)/2として表すことができる。次に、ピークaに関しては、x=xa−Lからx=xabの範囲において、射影値p(x)を累積加算する。累積加算の結果が、ピークaに属する人数の推定値である。また、ピークbに関しては、x=xabからx=xb+Lの範囲において、射影値p(x)を累積加算する。累積加算の結果が、ピークbに属する人数の推定値である。なお、ピークa及びピークbの中点xabに代えて、ピークa及びピークbの間の極小値を与えるx座標(xmin)を求め、xminで分割してもよい。   Further, as shown in FIG. 9B, when the two peaks (peak a and peak b) are at positions within the width L described above, the estimation process may be performed as follows. First, the tracking object is separated at the midpoint between the peak position a and the peak position b. The coordinates of the midpoint (xab) can be expressed as xab = (xa + xb) / 2. Next, for the peak a, the projection value p (x) is cumulatively added in the range of x = xa−L to x = xab. The result of cumulative addition is an estimated value of the number of people belonging to peak a. For the peak b, the projection value p (x) is cumulatively added in the range of x = xab to x = xb + L. The result of the cumulative addition is an estimated value of the number of people belonging to the peak b. Note that, instead of the midpoint xab of the peak a and the peak b, an x coordinate (xmin) that gives a minimum value between the peak a and the peak b may be obtained and divided by xmin.

既知のシルエット(人物の標準的なシルエット(形状とサイズ))と実際の人物とは、形状、サイズとも一定のずれがある。ゆえに、1人の人物が写っている場合でも、ピーク毎の人数の推定値は、例えば0.85や、1.17など1.0に近い値をとるものの、必ずしも1.0には一致しない。また、2人の場合も同様に、1.82人などのように、2に近いが必ずしも2.0に一致しない。   A known silhouette (a standard silhouette of a person (shape and size)) and an actual person have a certain difference in shape and size. Therefore, even if one person is shown, the estimated value of the number of people for each peak takes a value close to 1.0 such as 0.85 or 1.17, but does not necessarily match 1.0. . Similarly, in the case of two people, it is close to 2, but not necessarily equal to 2.0, such as 1.82 people.

そこで、上記のようにピーク毎のp(x)の累積加算値をそのままの推定人数とせず、例えば小数点第一位で四捨五入することにより整数の値として人数の推定値としても良い。このような四捨五入の処理を追跡オブジェクトの全てのピークについて行うことで、各フレーム画像における推定人数が算出される。そして、それぞれの追跡オブジェクトが生成されてから消滅するまでの間の推定人数の統計値(平均値、最頻値など)を最終的なその追跡オブジェクトを構成する人数としても良い。これらの処理を継続的に行っていくことで、所定時間内にその場所を何人の人が通過したかを計測することができる。   Therefore, as described above, the accumulated addition value of p (x) for each peak is not used as the estimated number of people as it is, but may be an estimated value of the number of people as an integer value by rounding off to the first decimal place, for example. By performing such rounding processing for all the peaks of the tracking object, the estimated number of persons in each frame image is calculated. Then, a statistical value (average value, mode value, etc.) of the estimated number of persons from when each tracking object is generated until it disappears may be used as the final number of persons constituting the tracking object. By continuously performing these processes, it is possible to measure how many people have passed through the place within a predetermined time.

上述した第1実施形態によれば、カメラパラメータから求められるスケール変換係数を用いて計算される1次元射影値のピーク値を追跡することで、移動体の追跡処理において計算コストの低減化を図ることが可能となる。   According to the first embodiment described above, by tracking the peak value of the one-dimensional projection value calculated using the scale conversion coefficient obtained from the camera parameter, the calculation cost is reduced in the tracking process of the moving object. It becomes possible.

[第2実施形態]
次に、本発明の第2実施形態について説明する。なお、本発明の第2実施形態は、上記第1実施形態と同様の部分があるので、補足する形で説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. Since the second embodiment of the present invention has the same parts as the first embodiment, a supplementary description will be given.

図10は、本発明の第2実施形態による通過人数計測装置1の機能構成を示す概略ブロック図である。なお、図2に示される構成と同じ構成には、図2と同一の符号を付けて説明を省略する。
図10において、オプティカルフロー算出部41は、時間的に近接する複数枚のフレーム画像から、画像上でのみかけの速度場であるオプティカルフローを算出する。一次元射影部42は、予めスケール変換係数記憶部34に記憶されているスケール変換係数を参照し、前景画素とオプティカルフローとを1次元のライン上に射影する。ピーク位置・移動方向検出部43は、前景画素に関する射影値からピーク位置を検出する。さらに、ピーク位置・移動方向検出部43は、ピーク位置がライン上のどちらの向きに動いているかを示す移動方向を、オプティカルフローの射影結果から推定する。
FIG. 10 is a schematic block diagram showing a functional configuration of the passing person counting device 1 according to the second embodiment of the present invention. The same components as those shown in FIG. 2 are denoted by the same reference numerals as those in FIG.
In FIG. 10, an optical flow calculation unit 41 calculates an optical flow that is an apparent velocity field on an image from a plurality of temporally adjacent frame images. The one-dimensional projection unit 42 refers to the scale conversion coefficient stored in advance in the scale conversion coefficient storage unit 34 and projects the foreground pixels and the optical flow onto a one-dimensional line. The peak position / movement direction detection unit 43 detects the peak position from the projection value related to the foreground pixels. Further, the peak position / movement direction detection unit 43 estimates the movement direction indicating in which direction the peak position is moving on the line from the optical flow projection result.

ピーク位置追跡部44は、以前のフレーム画像において検出されていたピーク位置と現在のフレーム画像で検出されたピーク位置とを対応付ける。より具体的には、ピーク位置追跡部44は、第1実施形態でのピークの継承(追跡)における、ピーク間の距離(予測位置に含まれるかどうか)の評価基準に加え、過去の移動方向(瞬間の移動方向推定結果が整合するかどうか)の評価基準に基づいて総合的に継承(追跡)を行う。すなわち、ピーク位置だけでなく、ピークのオプティカルフローから判定された移動方向の情報にも基づいて追跡を行う。   The peak position tracking unit 44 associates the peak position detected in the previous frame image with the peak position detected in the current frame image. More specifically, the peak position tracking unit 44, in addition to the evaluation criteria for the distance between peaks (whether included in the predicted position) in the inheritance (tracking) of the peak in the first embodiment, the past movement direction Inheritance (tracking) is comprehensively performed based on the evaluation criteria (whether the instantaneous moving direction estimation results are consistent). In other words, the tracking is performed based not only on the peak position but also on the movement direction determined from the optical flow of the peak.

次に、第2実施形態の動作について説明する。
図11は、本発明の第2実施形態による通過人数計測方法の処理の流れを説明するためのフローチャートである。本発明の第2実施形態による通過人数計測方法は、上述した第1実施形態と同様に、計測を行う前に一度実施しておけばよい初期設定時の処理と、実際の計測時の処理とを含む。図11のステップSb1〜Sb4に示す初期設定時の処理は、第1実施形態における図3のステップSa1〜Sa4に示す初期設定時の処理と同じである。
Next, the operation of the second embodiment will be described.
FIG. 11 is a flowchart for explaining a process flow of the passing-person counting method according to the second embodiment of the present invention. The passing person counting method according to the second embodiment of the present invention is similar to the above-described first embodiment. The initial setting process and the actual measurement process may be performed once before the measurement is performed. including. The process at the initial setting shown in steps Sb1 to Sb4 in FIG. 11 is the same as the process at the initial setting shown in steps Sa1 to Sa4 in FIG. 3 in the first embodiment.

以下、第2実施形態における計測時の処理について説明する。情報処理装置3は、カメラ2又は映像保存部31から映像データを取得し、以下の処理(ステップSb10〜Sb19)を繰り返し行うことにより、人物の通過人数を計測する。   Hereinafter, the process at the time of measurement in 2nd Embodiment is demonstrated. The information processing apparatus 3 acquires the video data from the camera 2 or the video storage unit 31, and measures the number of people passing by repeating the following processing (steps Sb10 to Sb19).

まず、フレーム画像取得部30は、カメラ2又は映像保存部31からフレーム画像を取得する(ステップSb10)。次に、前景検出部32は、入力されたフレーム画像を処理することにより、現時点のフレーム画像における前景画素を検出する(ステップSb11)。次に、オプティカルフロー算出部41は、時間的に近接する複数枚のフレーム画像からオプティカルフローを算出する(ステップSb12)。 First, the frame image acquisition unit 30 acquires a frame image from the camera 2 or the video storage unit 31 (step Sb10). Next, the foreground detection unit 32 detects the foreground pixel in the current frame image by processing the input frame image (step Sb11). Next, the optical flow calculation unit 41 calculates an optical flow from a plurality of frame images that are close in time (step Sb12).

オプティカルフローを算出する処理は、時間的に連続した2枚、もしくは3枚以上の画像を用いて画像上の見かけの動き(速度場)を算出する処理である。オプティカルフローを算出する処理は、画像処理の分野では基本的な処理の一つとして知られている。オプティカルフローの算出方法には、様々なものが存在しており、本発明の第2実施形態ではその方法を限定しない。オプティカルフローを算出することで、画像上の各場所(各画素)で、どのような動きが観測されたかが得られる。つまり、速度場Vx(x,y)、Vy(x,y)を得ることができる。ここで、Vxはx方向での速度成分を示し、Vyはy方向の速度成分を示している。これらが各画素(x,y)について算出されているので、速度場をVx(x,y)、Vy(x,y)と表記する。   The process of calculating the optical flow is a process of calculating an apparent movement (speed field) on the image using two or three or more images that are temporally continuous. The process of calculating the optical flow is known as one of basic processes in the field of image processing. There are various optical flow calculation methods, and the second embodiment of the present invention does not limit the method. By calculating the optical flow, it is possible to obtain what kind of motion is observed at each location (each pixel) on the image. That is, the velocity fields Vx (x, y) and Vy (x, y) can be obtained. Here, Vx represents a velocity component in the x direction, and Vy represents a velocity component in the y direction. Since these are calculated for each pixel (x, y), the velocity field is expressed as Vx (x, y), Vy (x, y).

次に、一次元射影部42は、スケール変換係数記憶部34に保存されているスケール変換係数を参照し、検出された前景画素と算出されたオプティカルフローとを1次元のライン上、例えばx軸(水平方向)上に射影する(ステップSb13)。より具体的には、一次元射影部42は、現時点のフレーム画像において算出された速度場について、射影軸方向(この例ではx軸方向)の成分を見て、これが正の値であるか負の値であるか判定する。   Next, the one-dimensional projection unit 42 refers to the scale conversion coefficient stored in the scale conversion coefficient storage unit 34, and displays the detected foreground pixels and the calculated optical flow on a one-dimensional line, for example, the x-axis. Projecting upward (horizontal direction) (step Sb13). More specifically, the one-dimensional projection unit 42 looks at the component in the projection axis direction (in this example, the x-axis direction) for the velocity field calculated in the current frame image, and determines whether this is a positive value or a negative value. It is determined whether it is a value.

図12(A)〜(D)は、本発明の第2実施形態による一次元射影の処理の一例を示す概念図である。図12(A)が現在のフレーム画像の例、図12(B)が検出された現在の前景画像の例である。また、図12(C)が、図12(B)に示す前景画素の中で、右向きの速度場が観測された画素を点、左向きの速度場が観測された画素を斜線で可視化したものである。図12(D)及び(E)が、一次元射影の結果を示す射影画像の例である。なお、図12(D)及び(E)では、第1実施形態と同様、射影後にx軸方向での平滑化処理(ガウシアンフィルタなど)を施した結果を示している。一次元射影部42は、射影軸方向の成分が正であるものと負であるものとをそれぞれ分けて一次元射影する。例えば、一次元射影部42は、左向きの画素のみついてw(x,y)の値を参照しながら一次元射影する。その結果の例が、図12(D)である。さらに、一次元射影部42は、右向きの画素のみついてw(x,y)の値を参照しながら一次元射影する。その結果の例が、図12(E)である。   12A to 12D are conceptual diagrams illustrating an example of the one-dimensional projection process according to the second embodiment of the present invention. FIG. 12A shows an example of the current frame image, and FIG. 12B shows an example of the current foreground image detected. FIG. 12C is a diagram in which the pixels in which the rightward velocity field is observed are visualized with diagonal lines and the pixels in which the leftward velocity field is observed among the foreground pixels shown in FIG. 12B. is there. FIGS. 12D and 12E are examples of projected images showing the results of one-dimensional projection. 12D and 12E show the result of smoothing processing (Gaussian filter or the like) in the x-axis direction after projection, as in the first embodiment. The one-dimensional projecting unit 42 performs one-dimensional projection by dividing a positive component and a negative component in the projection axis direction. For example, the one-dimensional projection unit 42 performs one-dimensional projection for only the pixels facing left while referring to the value of w (x, y). An example of the result is FIG. Further, the one-dimensional projecting unit 42 performs the one-dimensional projection for only the right-facing pixels while referring to the value of w (x, y). An example of the result is FIG.

次に、ピーク位置・移動方向検出部43は、第1実施形態と同様に、前景の一次元射影からピーク位置を検出するとともに、ピーク位置における右向き画素の射影値と左向き画素の射影値とを比較する。ピーク位置・移動方向検出部43は、値の大きい方を、そのピーク位置での移動方向推定結果とする(ステップSb14)。すなわち、ピーク位置・移動方向検出部43は、ピークについては、その位置だけでなく、オプティカルフローに基づいてピークの瞬間での移動方向(右か左か)を判定する。   Next, as in the first embodiment, the peak position / movement direction detection unit 43 detects the peak position from the one-dimensional projection of the foreground, and calculates the projection value of the rightward pixel and the projection value of the leftward pixel at the peak position. Compare. The peak position / movement direction detector 43 sets the larger value as the movement direction estimation result at the peak position (step Sb14). That is, the peak position / movement direction detection unit 43 determines the movement direction (right or left) at the moment of the peak based on the optical flow as well as the position of the peak.

次に、ピーク位置追跡部44は、第1実施形態による継承(追跡)において、ピーク間の距離(予測位置に含まれるかどうか)の評価基準と、過去の移動方向(瞬間の移動方向推定結果が整合するかどうか)の評価基準とに基づいて、総合的に継承(追跡)を行う(ステップSb15)。すなわち、ピーク位置追跡部44は、ピーク位置の追跡時に、ピーク位置だけでなく、ピークのオプティカルフローから判定された瞬間での移動方向の情報も加味して追跡処理を実行する。   Next, in the inheritance (tracking) according to the first embodiment, the peak position tracking unit 44 evaluates the distance between peaks (whether it is included in the predicted position) and the past movement direction (instantaneous movement direction estimation result). Are inherited (tracked) comprehensively based on the evaluation criteria (whether or not match) (step Sb15). That is, at the time of tracking the peak position, the peak position tracking unit 44 executes the tracking process in consideration of not only the peak position but also information on the moving direction at the moment determined from the optical flow of the peak.

例えば、過去の瞬間での移動方向推定結果(正又は負)と、現在の追跡候補ピークの移動方向(正又は負)とが同じである場合に継承(追跡)し、異なる場合には継承しなくとも良い。このように、瞬間の移動方向に基づいて追跡を行うことによって、より精度よく追跡することが可能となる。   For example, when the movement direction estimation result (positive or negative) at the past moment is the same as the movement direction (positive or negative) of the current tracking candidate peak, it is inherited (tracked). Not necessary. In this way, tracking can be performed with higher accuracy by performing tracking based on the instantaneous moving direction.

次に、ピーク毎人数推定部37は、追跡処理により求められた追跡オブジェクトが何人の人物によって構成されるかを検出し(ステップSb16)、追跡結果を追跡結果保存部38に保存(追記)する(ステップSb17)。   Next, the number-of-peaks estimation unit 37 detects how many persons the tracking object obtained by the tracking process is configured (step Sb16), and stores (adds) the tracking result in the tracking result storage unit 38. (Step Sb17).

次に、情報処理装置3は、ユーザによる終了操作が指示されるなど、終了条件を満たすか否かを判別し(ステップSb18)、終了条件を満たさない場合には(ステップSb18−NO)、次のフレーム画像を処理対象とし(ステップSb19)、ステップSb10に戻って上述した処理を繰り返す。一方、終了条件を満たした場合には(ステップSb18のYES)、情報処理装置3は、処理を終了する。   Next, the information processing apparatus 3 determines whether or not an end condition is satisfied, such as an instruction for an end operation by the user (step Sb18). When the end condition is not satisfied (step Sb18-NO), Is processed (step Sb19), the process returns to step Sb10 and the above-described processing is repeated. On the other hand, when the end condition is satisfied (YES in step Sb18), the information processing apparatus 3 ends the process.

上述した第2実施形態によれば、カメラパラメータから求められるスケール変換係数を用いて計算される1次元射影値のピーク値を追跡することで、移動体の追跡処理において計算コストを低減することができる。また、本発明の第2実施形態によれば、瞬間の移動方向に基づいて追跡を行うことにより、より精度よく追跡することができる。   According to the second embodiment described above, by tracking the peak value of the one-dimensional projection value calculated using the scale conversion coefficient obtained from the camera parameter, the calculation cost can be reduced in the tracking process of the moving object. it can. Furthermore, according to the second embodiment of the present invention, tracking can be performed with higher accuracy by performing tracking based on the instantaneous moving direction.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…通過人数計測装置, 2…カメラ, 3…情報処理装置, 30…フレーム画像取得部, 31…映像保存部, 32…前景検出部, 33,42…一次元射影部, 34…スケール変換係数記憶部, 35…ピーク位置検出部, 36,44…ピーク位置追跡部, 37…ピーク毎人数推定部, 38…追跡結果保存部, 40…記録媒体, 41…オプティカルフロー算出部, 43…ピーク位置・移動方向検出部   DESCRIPTION OF SYMBOLS 1 ... Passage number measuring apparatus, 2 ... Camera, 3 ... Information processing apparatus, 30 ... Frame image acquisition part, 31 ... Image | video preservation | save part, 32 ... Foreground detection part, 33, 42 ... One-dimensional projection part, 34 ... Scale conversion coefficient Storage unit 35 ... Peak position detection unit 36,44 ... Peak position tracking unit 37 ... Peak number person estimation unit 38 ... Tracking result storage unit 40 ... Recording medium 41 ... Optical flow calculation unit 43 ... Peak position・ Moving direction detector

Claims (3)

カメラによって撮影され映像から時系列順にフレーム画像を取得するフレーム画像取得ステップと、
前記フレーム画像から移動体に対応する画素である前景画素を検出する前景検出ステップと、
スケール変換係数記憶部によって予め記憶されているスケール変換係数に基づき、前記前景検出ステップで検出された前記前景画素を一次元上に射影する一次元射影ステップと、
前記一次元射影ステップによって得られる射影値のピーク位置を検出するピーク位置検出ステップと、
以前のフレーム画像において検出された前記ピーク位置と、現在のフレーム画像で検出された前記ピーク位置とを対応付けることによって前記ピーク位置の追跡を行うピーク位置追跡ステップと、
を有する移動体追跡方法。
A frame image acquisition step of acquiring frame images in chronological order from video captured by a camera;
A foreground detection step of detecting a foreground pixel that is a pixel corresponding to a moving object from the frame image;
A one-dimensional projection step of projecting the foreground pixels detected in the foreground detection step one-dimensionally based on a scale conversion factor stored in advance by a scale conversion factor storage unit;
A peak position detection step for detecting a peak position of a projection value obtained by the one-dimensional projection step;
A peak position tracking step for tracking the peak position by associating the peak position detected in the previous frame image with the peak position detected in the current frame image;
A moving body tracking method.
前記フレーム画像においてオプティカルフローを算出するオプティカルフロー算出ステップと、
前記ピーク位置が、前記一次元上のどちらの向きに動いているか前記オプティカルフローに基づいて推定する移動方向検出ステップと、をさらに有し、
前記ピーク位置追跡ステップにおいて、以前のフレーム画像において検出された前記ピーク位置と、現在のフレーム画像で検出された前記ピーク位置とを、推定された方向に基づいて対応付ける、
請求項1に記載の移動体追跡方法。
An optical flow calculating step of calculating an optical flow in the frame image;
A moving direction detection step of estimating based on the optical flow whether the peak position is moving in the one-dimensional direction, and
In the peak position tracking step, the peak position detected in the previous frame image is associated with the peak position detected in the current frame image based on the estimated direction.
The moving body tracking method according to claim 1.
コンピュータに対し、請求項1又は請求項2に記載の移動体追跡方法を実行させるためのコンピュータプログラム。   The computer program for making a computer perform the mobile body tracking method of Claim 1 or Claim 2.
JP2012017159A 2012-01-30 2012-01-30 Moving object tracking method and computer program Active JP5461597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012017159A JP5461597B2 (en) 2012-01-30 2012-01-30 Moving object tracking method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012017159A JP5461597B2 (en) 2012-01-30 2012-01-30 Moving object tracking method and computer program

Publications (2)

Publication Number Publication Date
JP2013156855A true JP2013156855A (en) 2013-08-15
JP5461597B2 JP5461597B2 (en) 2014-04-02

Family

ID=49051965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012017159A Active JP5461597B2 (en) 2012-01-30 2012-01-30 Moving object tracking method and computer program

Country Status (1)

Country Link
JP (1) JP5461597B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175876A (en) * 1999-12-20 2001-06-29 Fujitsu Ltd Method and device for detecting moving body
JP2004213648A (en) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc Method and device for tracking object
JP2006098119A (en) * 2004-09-28 2006-04-13 Ntt Data Corp Object detector, object detection method, and object detection program
JP2006285878A (en) * 2005-04-04 2006-10-19 Nippon Hoso Kyokai <Nhk> Video analyzing device and video analyzing program
JP2007028282A (en) * 2005-07-19 2007-02-01 Megachips System Solutions Inc Camera system and intercom
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2009301242A (en) * 2008-06-11 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
JP2010165183A (en) * 2009-01-15 2010-07-29 Panasonic Electric Works Co Ltd Human body detection device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175876A (en) * 1999-12-20 2001-06-29 Fujitsu Ltd Method and device for detecting moving body
JP2004213648A (en) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc Method and device for tracking object
JP2006098119A (en) * 2004-09-28 2006-04-13 Ntt Data Corp Object detector, object detection method, and object detection program
JP2006285878A (en) * 2005-04-04 2006-10-19 Nippon Hoso Kyokai <Nhk> Video analyzing device and video analyzing program
JP2007028282A (en) * 2005-07-19 2007-02-01 Megachips System Solutions Inc Camera system and intercom
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2009301242A (en) * 2008-06-11 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
JP2010165183A (en) * 2009-01-15 2010-07-29 Panasonic Electric Works Co Ltd Human body detection device

Also Published As

Publication number Publication date
JP5461597B2 (en) 2014-04-02

Similar Documents

Publication Publication Date Title
JP6525453B2 (en) Object position estimation system and program thereof
JP6700752B2 (en) Position detecting device, position detecting method and program
Zeng et al. Silhouette-based gait recognition via deterministic learning
US10388018B2 (en) Image processing apparatus, image processing method, and storage medium
KR101283262B1 (en) Method of image processing and device thereof
JP3944647B2 (en) Object measuring apparatus, object measuring method, and program
JP5965293B2 (en) Camera pose estimation device and camera pose estimation program
JP6186834B2 (en) Target tracking device and target tracking program
JP2007004767A (en) Image recognition apparatus, method and program
CN108140291A (en) Mist detecting device, method and image processing equipment
KR20130121202A (en) Method and apparatus for tracking object in image data, and storage medium storing the same
KR102001636B1 (en) Apparatus and method of processing a depth image using a relative angle between an image sensor and a target object
KR20130082216A (en) Apparatus and method for tracking human hand by using color features
JP2017516238A (en) Object positioning by high-precision monocular movement
JP2014206907A5 (en)
JP2014235743A (en) Method and equipment for determining position of hand on the basis of depth image
JP2012073971A (en) Moving image object detection device, method and program
Ito et al. Accurate and robust planar tracking based on a model of image sampling and reconstruction process
Nguyen et al. Real time human tracking using improved CAM-shift
JP2012181710A (en) Object tracking device, method and program
JP5990042B2 (en) Passing number estimation method and computer program
JP7197011B2 (en) Height estimation device, height estimation method and program
JP6659095B2 (en) Image processing apparatus, image processing method, and program
JP5461597B2 (en) Moving object tracking method and computer program
JP6839116B2 (en) Learning device, estimation device, learning method, estimation method and computer program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140115

R150 Certificate of patent or registration of utility model

Ref document number: 5461597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350