JP2009151359A - Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recorded with moving object tracking program - Google Patents

Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recorded with moving object tracking program Download PDF

Info

Publication number
JP2009151359A
JP2009151359A JP2007326191A JP2007326191A JP2009151359A JP 2009151359 A JP2009151359 A JP 2009151359A JP 2007326191 A JP2007326191 A JP 2007326191A JP 2007326191 A JP2007326191 A JP 2007326191A JP 2009151359 A JP2009151359 A JP 2009151359A
Authority
JP
Japan
Prior art keywords
distribution
target state
tracking
moving object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007326191A
Other languages
Japanese (ja)
Other versions
JP4951490B2 (en
Inventor
Tatsuya Osawa
達哉 大澤
Kyoko Sudo
恭子 数藤
Hiroyuki Arai
啓之 新井
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007326191A priority Critical patent/JP4951490B2/en
Publication of JP2009151359A publication Critical patent/JP2009151359A/en
Application granted granted Critical
Publication of JP4951490B2 publication Critical patent/JP4951490B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To predict a moving prediction of a person in an actual environment, to restrain a repetition processing frequency required until a prediction result gets stable, and to make compatible high tracking precision and low computational cost. <P>SOLUTION: This moving object tracking device or the like stores three-dimensional structure of an actual world predicted preliminarily, an internal/external parameter of an image sensor such as a camera arranged in the actual world, and an action history of the person, into a three-dimensional environmental information database 21, and stores a probability distribution of a tracking object state estimated at each time, and the tracking object state having the maximum probability, into an object state distribution storage means 22. The moving object tracking device or the like introduces an action history distribution to expresses probably the sequential moving of the person at the next time from an optional position in the environment, using the action history of the person obtained by the tracking. A moving route according to an environmental factor is predicted therein by processing statistically the action histories, and the prediction precision is enhanced of course and is updated sequentially without requiring the presetting of the environmental factor. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、1又は複数の画像入力装置(例えば、カメラ等)を用いて、物体、動物、人物等の動物体対象の位置を追跡する動物体追跡装置、動物体追跡方法及び動物体追跡プログラム並びに動物体追跡プログラムを記録した記録媒体に関するものである。   The present invention relates to a moving object tracking device, a moving object tracking method, and a moving object tracking program for tracking the position of a moving object such as an object, an animal, or a person using one or a plurality of image input devices (for example, a camera). In addition, the present invention relates to a recording medium on which a moving object tracking program is recorded.

コンピュータビジョン分野では、複数のカメラの情報を利用して人物などの動く対象物体の追跡に関する研究が多く行われている(例えば、非特許文献1参照。)。   In the field of computer vision, many studies on tracking of a moving target object such as a person using information from a plurality of cameras have been conducted (for example, see Non-Patent Document 1).

また、MCMC法に基づいた確率統計手法を用いて直接人物の3次元位置の予測を行って、予測結果を実際の監視カメラ映像と比較することにより複数人物を追跡する方法が提案されている(例えば、非特許文献2参照。)。この手法は3次元復元という逆問題を回避することで安定した追跡結果を得ることが可能である。
大澤 達哉、ウ 小軍、若林 佳織、小池 秀樹, “映像モニタリングのための人物追跡技術” NTT技術ジャーナル 8月号(特集 映像モニタリングサービスを支える画像処理技術)、Aug.2007 T.Osawa,X.Wu,K.Sudo,K.Wakabayashi,H.Arai and T.Yasuno,“MCMC based Multi−body Tracking Using Full 3D Model of Both Target and Environment,”in Proc.of IEEE Int’l Conf.on Advanced Video and Signal based Surveillance(AVSS’07),London,UK,Sep.2007.
Further, a method has been proposed in which a three-dimensional position of a person is directly predicted using a probability statistical method based on the MCMC method, and a plurality of persons are tracked by comparing a prediction result with an actual surveillance camera image ( For example, refer nonpatent literature 2.). This method can obtain a stable tracking result by avoiding the inverse problem of three-dimensional restoration.
Tatsuya Osawa, U Minoru, Kaori Wakabayashi, Hideki Koike, “Person Tracking Technology for Video Monitoring” NTT Technical Journal August issue (Special Issue: Image Processing Technology Supporting Video Monitoring Service), Aug. 2007 T.A. Osawa, X .; Wu, K .; Sudo, K .; Wakabayashi, H .; Arai and T.A. Yasuno, “MCMC based Multi-body Tracking Using Full 3D Model of Both Target and Environment,” in Proc. of IEEE Int'l Conf. on Advanced Video and Signal based Survey (AVSS'07), London, UK, Sep. 2007.

前記非特許文献2では、MCMC法に基づいた反復処理を用いることで、人物の3次元位置に関し、反復毎に予測を行い、最終的にこの複数の予測結果の期待値を計算することで追跡を実現している。しかしながら、反復処理の初期段階では予測精度が悪いことがよく知られており、予測結果が安定するまでの不安定の予測結果を捨てる「burn−in」という処理を行った後に期待値の計算を行っている。   In Non-Patent Document 2, by using an iterative process based on the MCMC method, a three-dimensional position of a person is predicted for each iteration, and finally the expected values of the plurality of prediction results are calculated and tracked. Is realized. However, it is well known that the prediction accuracy is poor at the initial stage of the iterative process, and the expected value is calculated after performing a process called “burn-in” that discards the unstable prediction result until the prediction result becomes stable. Is going.

このため、高い追跡精度と低い計算コスト(すなわち少ない反復回数)を両立するためには、反復初期の予測精度を高め、予測結果が少ない反復回数で安定することが必要であるが、前記非特許文献2では、単純な線形予測にガウス雑音を加えることで予測を行っているため、実際の人物の動きとしては、生じる確率の少ない位置への移動についても多く予測を行ってしまうという問題を有している。   For this reason, in order to achieve both high tracking accuracy and low calculation cost (that is, a small number of iterations), it is necessary to improve the prediction accuracy at the initial iteration and stabilize the prediction result with a small number of iterations. In Reference 2, since the prediction is performed by adding Gaussian noise to simple linear prediction, there is a problem that the actual human motion predicts a large amount of movement to a position with a low probability of occurrence. is doing.

一般に人物の移動経路は、様々な環境要因によって、偏りが生じる。例えば、“通路”を例にとってみると通路方向に沿った移動経路が支配的になり、それ以外の移動経路をとることは、例外的になることが容易に考えられる。このような環境要因を人物の移動予測に取り入れることができれば、予測精度を向上させることが可能となり、上述の課題を解決することができるが、環境要因は、環境中の位置毎にばらばらであり、事前に設定することが困難である。また、何らかの要因により環境要因自体の意味が変質してしまう可能性があるため容易ではない。   In general, the movement path of a person is biased due to various environmental factors. For example, taking “passage” as an example, it is easily considered that the movement path along the direction of the path becomes dominant, and taking other movement paths is exceptional. If such environmental factors can be incorporated into human movement prediction, the prediction accuracy can be improved and the above-mentioned problems can be solved. However, the environmental factors are different for each position in the environment. , Difficult to set in advance. In addition, it is not easy because the meaning of the environmental factor itself may be altered by some factor.

本発明の目的は、上述のような従来技術の問題点を解決するためになされたものであり、動物体の移動予測を実際の環境で生じやすい予測をすることで、予測結果が安定するまでにかかる反復処理回数を抑え、高い追跡精度と低い計算コストを両立することできるとともに、三次元空間中に存在する複数の動物体の各時刻における位置、大きさを表す対象状態を逐次的に推定し、動物体を追跡するようにした動物体追跡装置、動物体追跡方法及び動物体追跡プログラム並びに動物体追跡プログラムを記録した記録媒体を提供することにある。   The object of the present invention is to solve the above-mentioned problems of the prior art, and by predicting the movement of an animal body that is likely to occur in an actual environment, until the prediction result is stabilized. In addition to reducing the number of iterations required to achieve high tracking accuracy and low computational cost, the target state representing the position and size of multiple moving objects in a three-dimensional space at each time can be estimated sequentially. It is another object of the present invention to provide a moving body tracking apparatus, a moving body tracking method, a moving body tracking program, and a recording medium recording the moving body tracking program.

そこで、本発明では、追跡によって得られた動物体の行動履歴を用い、逐次的に環境中の任意の位置から次の時刻にどのように動物体が移動するかを、確率的に表す行動履歴分布を導入する。この場合、行動履歴を統計的に処理することで、環境要因に従った移動経路の予測を行うことが可能となり、予測精度の向上が実現できることはもちろん、環境要因の事前設定を必要とせず、逐次的に更新されるため、前記問題についても解決することができる。   Therefore, in the present invention, using the behavior history of the moving object obtained by tracking, the behavior history that expresses how the moving object moves from the arbitrary position in the environment to the next time sequentially. Introduce distribution. In this case, by statistically processing the action history, it is possible to predict the travel route according to environmental factors, and it is possible to improve the prediction accuracy. Since the update is performed sequentially, the above problem can be solved.

上記課題を達成するために、請求項1に係る発明は、1又は複数のカメラ等の画像入力装置を用いて動物体の三次元位置、大きさなどの状態を追跡する装置であって、各時刻において撮影手段で撮影された画像を取得する手段と、取得した入力画像から追跡対象物体の写っている領域だけを抽出したシルエット画像を作成する手段と、予め計測しておいた実世界の三次元構造と実世界に配置された撮影手段の内部・外部パラメータおよび環境中での対象物体の行動履歴分布を記憶する三次元環境情報データベースと、三次元環境情報データベースの情報と前記シルエット画像とを用いて、各時刻において対象状態の確率分布を推定する手段と、各時刻において前記推定手段によって推定された対象状態の確率分布および最大の確率を持つ対象状態を記憶する対象状態分布記憶手段と、対象状態分布記憶手段に保存された対象状態の確率分布より各時刻において最大の確率を持つ対象状態を計算する手段と、前記三次元環境情報データベースに保存された行動履歴分布を前記対象状態の計算手段で計算された対象状態より行動履歴分布を計算する手段と、を備えることを特徴とする。   In order to achieve the above object, the invention according to claim 1 is an apparatus for tracking a state such as a three-dimensional position and size of a moving object using an image input device such as one or a plurality of cameras, Means for obtaining an image taken by the photographing means at the time, means for creating a silhouette image obtained by extracting only the area where the tracking target object is shown from the obtained input image, and a real-world tertiary previously measured A three-dimensional environment information database for storing the original structure and internal / external parameters of the photographing means arranged in the real world and the action history distribution of the target object in the environment, the information of the three-dimensional environment information database and the silhouette image Means for estimating the probability distribution of the target state at each time, and the target state probability distribution estimated by the estimating means at each time and the target having the maximum probability Target state distribution storage means for storing states, means for calculating a target state having the maximum probability at each time from the probability distribution of the target states stored in the target state distribution storage means, and stored in the three-dimensional environment information database Means for calculating an action history distribution from the target state calculated by the target state calculation means.

また、請求項2に係る発明は、請求項1において、前記行動履歴分布を計算する手段は、更新する行動履歴分布を決定する手段と、混合正規分布で表された行動履歴分布の中から対応する正規分布を決定する手段と、正規分布パラメータを更新する手段と、混合正規分布の混合率を更新する手段と、を有することを特徴とする。   The invention according to claim 2 is the invention according to claim 1, wherein the means for calculating the action history distribution corresponds to the means for determining the action history distribution to be updated and the action history distribution represented by a mixed normal distribution. Means for determining a normal distribution to be updated, means for updating normal distribution parameters, and means for updating the mixing ratio of the mixed normal distribution.

また、請求項3に係る発明は、請求項1又は2において、前記対象状態を、楕円体モデルの集合で表す手段と、各対象の位置を任意の平面上の位置(x,y)で表す手段と、各対象の大きさを楕円体モデルの半径rと高さhで表す手段と、したことを特徴とする。   According to a third aspect of the present invention, in the first or second aspect, the object state is represented by means of a set of ellipsoidal models, and the position of each object is represented by a position (x, y) on an arbitrary plane. And means for expressing the size of each object by the radius r and the height h of the ellipsoid model.

また、請求項4に係る発明は、1又は複数のカメラ等の画像入力装置を用いて動物体の三次元位置、大きさなどの状態を追跡する方法において、カメラ等の画像入力装置より、画像を取得するステップと、入力画像から追跡対象物体が写っている領域だけを抽出し、前記シルエット画像を作成手段によりシルエット画像を作成するステップと、追跡対象物体の状態の確率的分布を前記推定手段により推定するステップと、前記推定された対象状態分布より、最大確率を持つ対象状態を計算する手段により計算するステップと、前記計算された対象状態より行動履歴分布を計算する手段により計算するステップと、を有することを特徴とする。   According to a fourth aspect of the present invention, there is provided a method for tracking a state such as a three-dimensional position and size of a moving object using an image input device such as one or a plurality of cameras. Extracting only a region in which the tracking target object is shown from the input image, creating a silhouette image by the silhouette image creating means, and estimating the probabilistic distribution of the state of the tracking target object Calculating by means for calculating a target state having a maximum probability from the estimated target state distribution, and calculating by means for calculating an action history distribution from the calculated target state; It is characterized by having.

また、請求項5に係る発明は、請求項4において、前記行動履歴分布を計算するステップは、更新する行動履歴分布を決定するステップと、混合正規分布で表された行動履歴分布の中から対応する正規分布を決定するステップと、正規分布パラメータを更新するステップと、混合正規分布の混合率を更新するステップと、を有することを特徴とする。   The invention according to claim 5 is the invention according to claim 4, wherein the step of calculating the behavior history distribution corresponds to the step of determining the behavior history distribution to be updated from the behavior history distribution represented by a mixed normal distribution. Determining a normal distribution to be updated, updating a normal distribution parameter, and updating a mixing ratio of the mixed normal distribution.

また、請求項6に係る発明は、請求項4又は5において、前記対象状態を、楕円体モデルの集合で表すステップと、各対象の位置を任意の平面上の位置(x,y)で表すステップと、各対象の大きさを楕円体モデルの半径rと高さhで表すステップと、したことを特徴とする。   The invention according to claim 6 is the method according to claim 4 or 5, wherein the object state is represented by a set of ellipsoidal models, and the position of each object is represented by a position (x, y) on an arbitrary plane. And a step of expressing the size of each object by a radius r and a height h of an ellipsoid model.

また、請求項7に係る発明は、請求項1乃至6のいずれか1項に記載の動物体追跡装置または動物体追跡方法を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とするプログラムである。   The invention according to claim 7 is characterized in that the moving object tracking device or moving object tracking method according to any one of claims 1 to 6 is described by a computer program and can be executed. It is a program to do.

また、請求項8に係る発明は、請求項1乃至6のいずれか1項に記載の動物体追跡装置または動物体追跡方法を、コンピュータで実行可能に記載したプログラムを記録したことを特徴とする記録媒体である。   The invention according to claim 8 is characterized in that a program that records the execution of the moving object tracking device or moving object tracking method according to any one of claims 1 to 6 as being executable by a computer is recorded. It is a recording medium.

本発明によれば、大きさの異なる複数の動物体に対し、複数のカメラからの映像を統合することにより、安定してその個々の動きを追跡することができる。また、行動履歴分布の活用により、予測の収束にかかる時間も速く、高速、高精度な追跡を可能とする。   According to the present invention, it is possible to stably track individual movements of a plurality of moving objects having different sizes by integrating images from a plurality of cameras. Moreover, by utilizing the action history distribution, the time required for convergence of the prediction is fast, and high-speed and high-precision tracking is possible.

以下本発明の実施の形態を図面に基づいて説明する。図1は本発明の実施の形態を示す動物体追跡装置の構成説明図で、図1において、本発明は、画像の取得手段11と、シルエット画像の作成手段12と、対象状態分布の推定手段13と、対象状態の計算手段14と、行動履歴分布計算手段15と、三次元環境情報データベース21と、対象状態分布記憶手段22とで構成される。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram for explaining the configuration of a moving object tracking apparatus according to an embodiment of the present invention. In FIG. 1, the present invention relates to an image acquisition means 11, a silhouette image creation means 12, and a target state distribution estimation means. 13, a target state calculation unit 14, an action history distribution calculation unit 15, a three-dimensional environment information database 21, and a target state distribution storage unit 22.

画像の取得手段11は、各時刻に撮影された画像データを取得する手段であり、例えば、デジタルカメラやビデオカメラ等の画像センサなどで構成されている。   The image acquisition unit 11 is a unit that acquires image data taken at each time, and includes, for example, an image sensor such as a digital camera or a video camera.

シルエット画像の作成手段12は、前記取得された画像データから対象の写っている領域のみを抽出した画像、すなわちシルエット画像を作成する。   The silhouette image creating means 12 creates an image obtained by extracting only the region where the object is captured from the acquired image data, that is, a silhouette image.

対象状態分布の推定手段13は、前時刻に得られた対象状態分布を初期状態として、シルエット画像の作成手段12により作成されたシルエット画像と三次元環境情報データベース21を用いて対象状態の確率分布を推定し、対象状態分布記憶手段22に保存されている前時刻の対象状態分布を現時刻の対象状態分布に更新する。   The target state distribution estimating unit 13 sets the target state distribution obtained at the previous time as an initial state, and uses the silhouette image created by the silhouette image creating unit 12 and the three-dimensional environment information database 21 to generate a probability distribution of the target state. And the target state distribution at the previous time stored in the target state distribution storage unit 22 is updated to the target state distribution at the current time.

対象状態の計算手段14は、現時刻の対象状態分布が保存された対象状態分布記憶手段22を用いて、最大確率を取る対象状態を計算し、対象状態分布記憶手段22を更新する。   The target state calculation unit 14 uses the target state distribution storage unit 22 in which the target state distribution at the current time is stored, calculates the target state that takes the maximum probability, and updates the target state distribution storage unit 22.

行動履歴分布計算手段15は、三次元環境情報データベース21に保存された行動履歴分布を対象状態の計算手段14で計算された対象状態を用いて更新する。   The action history distribution calculating unit 15 updates the action history distribution stored in the three-dimensional environment information database 21 using the target state calculated by the target state calculating unit 14.

三次元環境情報データベース21は、予め計測しておいた実世界の三次元構造情報と設置されているカメラなどの画像の取得手段11のカメラ内部パラメータ(焦点距離、画像中心などのパラメータ)、カメラ外部パラメータ(設置されているカメラの三次元位置および姿勢情報)および行動履歴分布計算手段15によって計算された行動履歴分布を保存する。   The three-dimensional environment information database 21 includes real-world three-dimensional structure information measured in advance, camera internal parameters (parameters such as focal length and image center) of the image acquisition means 11 such as a camera installed, camera, and the like. The external parameters (3D position and orientation information of the installed camera) and the behavior history distribution calculated by the behavior history distribution calculating means 15 are stored.

対象状態分布記憶手段22は、対象状態分布の推定手段13によって推定された対象状態の確率的分布および対象状態の計算手段14によって計算された最大確率を取る対象状態を記憶する。   The target state distribution storage unit 22 stores the target state that takes the probabilistic distribution of the target state estimated by the target state distribution estimation unit 13 and the maximum probability calculated by the target state calculation unit 14.

次に本発明の実施形態の一例を詳細に説明する。本発明は、三次元空間中に存在する複数の物体や人物の各時刻における位置、大きさを表す対象状態を逐次的に推定し、物体や人物を追跡することである。   Next, an example of an embodiment of the present invention will be described in detail. The present invention is to sequentially estimate a target state representing the position and size of each of a plurality of objects and persons existing in a three-dimensional space at each time, and track the objects and persons.

本実施形態では、例えば図2のように平面上を歩行する複数の人物H1,H2…HKを追跡対象とし、ここでは、C台の位置と姿勢を固定されたビデオカメラ(カメラ(1,2…C))を用いて追跡を行う例について示す。カメラ(1,2…C)は、同じ撮影間隔で同期して画像の取得を行うものと仮定して以下説明する。   In this embodiment, for example, as shown in FIG. 2, a plurality of persons H1, H2,... HK walking on a plane are set as tracking targets, and here, video cameras (cameras (1, 2, An example of tracking using C)) will be described. The following description will be made on the assumption that the cameras (1, 2,... C) acquire images synchronously at the same shooting interval.

通常、空間中には追跡の対象でない非対象物体Bが存在しており、予めこの非対象物体Bの三次元構造データは、手作業によるCADデータの作成やレンジファインダの利用、カメラ映像からの三次元復元などを利用してこの構造情報を予め計測しておくことができる。   Usually, there is a non-target object B that is not a target to be tracked in the space, and the three-dimensional structure data of the non-target object B in advance is created manually by using CAD data, using a range finder, This structural information can be measured in advance using three-dimensional restoration or the like.

この三次元構造データは、XY平面が床面と一致し、高さ方向がZ軸と一致する座標系に変換するものとする。また、配置されたC台、全てのカメラのカメラ内部のパラメータの校正、および三次元位置(x,y,z)と姿勢(Φ、θ、γ)を取得した三次元構造データと同じ座標系で求める。これは、よく知られるカメラキャリブレーションと呼ばれる処理であり、様々な手法がすでに提案されており、簡単に実現できる。   This three-dimensional structure data is converted into a coordinate system in which the XY plane coincides with the floor surface and the height direction coincides with the Z axis. In addition, the same coordinate system as the three-dimensional structure data obtained by calibrating the parameters in the cameras of the arranged C units, all the cameras, and acquiring the three-dimensional position (x, y, z) and posture (Φ, θ, γ) Ask for. This is a well-known process called camera calibration, and various methods have already been proposed and can be easily realized.

これら三次元構造データとC台のカメラの三次元位置および姿勢を、三次元環境情報データベース21に予め記憶しておく。また、取得した三次元構造データをXY平面上で格子状に区切り、格子を構成する各々の枠に対して、行動履歴に基づき、次の時刻にどのように移動するかを予測する行動履歴分布を保存する。具体的には、移動ベクトルを成分とした確率分布を用いる。例えば、混合正規分布などである。   These three-dimensional structure data and the three-dimensional positions and postures of the C cameras are stored in the three-dimensional environment information database 21 in advance. Also, an action history distribution that predicts how to move at the next time based on the action history for each frame constituting the lattice by dividing the acquired three-dimensional structure data into a grid on the XY plane Save. Specifically, a probability distribution using a movement vector as a component is used. For example, a mixed normal distribution.

また、格子状の区切り方は、まったく任意であるが、一例を挙げれば図3のように実寸で、10cm四方で格子状に区切るということが考えられる。   In addition, although the grid-like partitioning method is completely arbitrary, for example, it can be considered that the grid is partitioned into a grid of 10 cm square in actual size as shown in FIG.

本実施形態では、一例として、図4のように楕円体を人物の形状を近似したモデルeと考え、人物の位置を床面上の二次元座標値(x,y)、人物の大きさを楕円体の半径rと高さhで表すこととする。   In this embodiment, as an example, as shown in FIG. 4, an ellipsoid is considered as a model e approximating the shape of a person, the position of the person is represented by a two-dimensional coordinate value (x, y) on the floor, and the size of the person. The ellipsoid is represented by a radius r and a height h.

複数の人物の状態を表す状態Sは、各人物の位置、大きさを表すベクトルM(人物モデル)を並べたものによって表す。状態Sの次元数は、追跡人数に応じて変化する。すなわち、ベクトルMが、四次元ベクトルであるので、K人追跡時には、4K次元ベクトルとなる。時刻tにおける状態Stは以下の式1で表される。 The state S representing the state of a plurality of persons is represented by a vector M (person model) representing the position and size of each person. The number of dimensions of the state S changes according to the number of people tracked. That is, since the vector M is a four-dimensional vector, it becomes a 4K-dimensional vector when tracking K people. State S t at time t is expressed by Equation 1 below.

状態Sを構成する人物iの位置、大きさ、形を表す時刻tにおけるモデルMi,tは、以下の式2で表される四次元ベクトルである。 The model M i, t at time t representing the position, size, and shape of the person i constituting the state S is a four-dimensional vector represented by the following Expression 2.

ただし、ここでxiおよびyiは、床平面状での人物iの位置を示す二次元座標値(x,y)であり、riおよびhiは、人物を楕円体で近似した際の楕円体のパラメータ半径rおよび高さhを表す。 Here, x i and y i are two-dimensional coordinate values (x, y) indicating the position of the person i on the floor plane, and r i and h i are obtained when the person is approximated by an ellipsoid. It represents the parameter radius r and height h of the ellipsoid.

本実施形態は、以上説明した各時刻tにおける状態Stを推定することで、複数人物の状態を逐次推定し、追跡を行うものである。 This embodiment is above-described to estimate the state S t at each time t, sequentially estimating the state of the plurality of persons, and performs tracking.

図5は本実施形態の動作を示すフローチャートの一例であり、図1、図2を参照して述べる。まず、画像の取得手段11により、カメラ(1,2…C)で同期撮影された画像データ(Im1,Im2,…Imc)を取得する(S301)。 FIG. 5 is an example of a flowchart showing the operation of the present embodiment, which will be described with reference to FIGS. First, the image acquisition means 11 acquires image data (Im 1 , Im 2 ,... Im c ) synchronously captured by the camera (1, 2... C) (S301).

次にシルエット画像の作成手段12により、前記カメラ(1,2…C)から取得した画像データ(Im1,Im2,…Imc)に対し、それぞれのシルエット画像(Sil1,Sil2,…Silc)を作成する(S302)。シルエット画像とは、図6のように撮影した画像の対象が写っている領域の輝度値が「1」、他の領域が「0」である2値画像のことで、501は入力画像、502が作成されたシルエット画像の一例である。このような画像は、背景差分法やフレーム間差分法などのよく知られた方法を利用することで簡単に生成することができる。 Next, the silhouette image creation means 12 applies the respective silhouette images (Sil 1 , Sil 2 ,...) To the image data (Im 1 , Im 2 ,... Im c ) acquired from the cameras (1, 2... C). Sil c) to create a (S302). The silhouette image is a binary image in which the luminance value of the area where the object of the photographed image is shown in FIG. 6 is “1” and the other area is “0”, 501 is the input image, 502 Is an example of a silhouette image created. Such an image can be easily generated by using a well-known method such as a background difference method or an inter-frame difference method.

次に前時刻に計算された状態St-1から、反復処理を行うことで現時刻tの状態Stの確率分布を推定する(S303)。以下図7を用いて説明する。 From the state S t-1 calculated for the previous time then estimates the probability distribution of the state S t at the current time t by iterating (S303). This will be described below with reference to FIG.

状態Stの確率分布の推定は、複数回、(B+P)回の状態生成処理によって行われる。最初のB回の反復処理によって得られた状態は捨て、最後のP回に得られた状態をStの状態分布として保存する。このP個の状態は全て等確率で起こりうると考える(burn−in)。 Estimation of probability distribution over states S t, a plurality of times is performed by (B + P) times the state generation process. It discarded resulting state by the first B iterations, to save the state obtained at the end of P times as the state distribution of S t. We consider that all the P states can occur with equal probability (burn-in).

ここでは、時刻tでn回目の反復処理で生成された状態をS’t,nと記述することにする。 Here, the state generated by the nth iteration at time t is described as S ′ t, n .

まず、更新回数n=0(S’t,0=St-1)として処理が開始される。S401では変化タイプの選択を行う。変化タイプとは、状態を変化させる処理のタイプを表すものであり、次の4種類から成る。 First, the process is started with the update count n = 0 (S ′ t, 0 = S t−1 ). In S401, a change type is selected. The change type represents the type of processing for changing the state, and consists of the following four types.

1:人物の追加、2:人物の消去、3:人物の位置変更、4:人物の大きさ変更。まず、現在の状態として誰も人物を追跡していない場合(Sが0ベクトル)には、必ず(1:人物の追加)が選択される。それ以外の場合には、各タイプが選ばれる確率を予め任意に設定しておき、確率的に4つのタイプから選択を行う。例えば、タイプ1:0.1、タイプ2:0.1、タイプ3:0.4、タイプ4:0.4というように各タイプが選ばれる確率を設定することが可能である。   1: Add person, 2: Delete person, 3: Change person position, 4: Change person size. First, when no person is tracking a current state (S is a 0 vector), (1: Add person) is always selected. In other cases, the probability that each type is selected is set arbitrarily in advance, and the probability is selected from four types. For example, it is possible to set the probability that each type is selected such as type 1: 0.1, type 2: 0.1, type 3: 0.4, and type 4: 0.4.

次に、S402では、いま、反復回数がn回目だとすると「n−1」回目に生成された状態S’t,n-1を用いて、暫定的な変化状態S*を計算する。以下タイプ別に処理を説明する。 Next, in S402, if the number of iterations is n, the temporary change state S * is calculated using the state S ′ t, n−1 generated at the “n−1” th time. The processing will be described below for each type.

1:人物の追加が選ばれた場合には、新たなモデルMn,tを状態S’t,n-1に追加する。例えば、これは以下のようにして設定することができる。 1: When addition of a person is selected, a new model M n, t is added to the state S ′ t, n−1 . For example, this can be set as follows.

三次元環境情報データベース21により人物の空間上で取り得る位置の範囲が分かっているものと仮定し、ここでは、この範囲を   It is assumed that the range of possible positions in the person's space is known from the three-dimensional environment information database 21, and here, this range is

とする。また、人物を近似する楕円体の大きさを表すパラメータrおよびhに関しては、人物の大きさに関する経験的な事前知識(3mを超える身長の人はいないなど)から同様にして取り得る値の範囲を制限することができる。ここでは、この範囲を And Regarding the parameters r and h representing the size of an ellipsoid that approximates a person, a range of values that can be similarly taken from empirical prior knowledge about the size of the person (no person with a height exceeding 3 m, etc.) Can be limited. Here is this range

とする。 And

以上のような条件下でx,y,r,hのそれぞれのパラメータに関して一様乱数を発生させることで、モデルMn,tを生成することができる。これは、人物が新たに追跡範囲に入ってきたことを表す。 By generating uniform random numbers for the parameters x, y, r, and h under the above conditions, the model M n, t can be generated. This represents that a person has newly entered the tracking range.

また、予め入退室する場所、例えば、ドアの場所などの情報が得られていれば、その近辺だけを入退室エリアにすることも同様に可能である。   In addition, if information such as a place to enter / exit in advance, for example, the location of a door, is obtained, it is also possible to make only the vicinity thereof an entrance / exit area.

2:人物の消去が選択された場合には、状態S’t,n-1を構成するモデルMi,tからランダムに一つのモデルを選択し、選択されたモデルMi,tを状態S’t,n-1から削除する。これは追跡していた人物が追跡範囲から消えたことを表す。 2: When deletion of a person is selected, one model is randomly selected from the models M i, t constituting the state S ′ t, n−1 , and the selected model M i, t is changed to the state S 'Delete from t, n-1 . This indicates that the person being tracked has disappeared from the tracking range.

3:人物の位置変更が選択された場合には、状態S’t,n-1を構成するモデルMi,tからランダムに一つのモデルを選択し、選択されたモデルMi,tの要素の内、人物の二次元平面上での位置(xi,t,yi,t)から次の式4に従って変化させた暫定的な位置(x’i,t,y’i,t)を予測する。 3: When the position change of the person is selected, one model is selected at random from the models M i, t constituting the state S ′ t, n−1, and the elements of the selected model M i, t , The temporary position (x ′ i, t , y ′ i, t ) changed from the position (x i, t , y i, t ) of the person on the two-dimensional plane according to the following equation 4 Predict.

ただし、dx,dyは位置(xi,t,yi,t)を含む格子区間に保存された行動履歴分布を用いて計算される値であり、行動履歴分布に従ったサンプリングによってdx,dyの値を得る。これは、よく知られたメトロポリス・ヘイスティング法や棄却サンプリング法など任意の確率分布に従ったサンプリングを実現する手法を利用することで実現可能である。 However, d x, d y is a value calculated by using the position (x i, t, y i , t) the stored action history distributed grating sections containing, d by sampling in accordance with the action history distribution x, obtain the value of d y. This can be realized by using a method that realizes sampling according to an arbitrary probability distribution, such as the well-known Metropolis-Hasting method or the rejection sampling method.

以上のように決定した暫定的な位置を用いて式5によりモデルM’i,tを、 Using the provisional position determined as described above, the model M ′ i, t is expressed by Equation 5

とする。 And

4:人物の大きさ変更が選択された場合には、状態S’t,n-1を構成するモデルMiからランダムに一つのモデルを選択し、選択されたモデルMiの要素の内、人物を近似する楕円体の半径rおよび高さhを表す(ri,t,hi,t)から次の式6に従って変化させた暫定的な形、大きさパラメータ(r’i,t,h’i,t)を計算する。 4: When a change in the size of a person is selected, one model is randomly selected from the models M i constituting the state S ′ t, n−1, and among the elements of the selected model M i , A provisional shape and size parameter (r ′ i, t ,) changed from (r i, t , h i, t ) representing the radius r and height h of an ellipsoid approximating a person according to the following equation (6): h ′ i, t ) is calculated.

ただし、δr、δhはそれぞれ一次元のガウスノイズであり、そのパラメータは実験的に任意の値に決めることができる。この暫定的な形、大きさパラメータを用いて式7によりモデルM’i,tを、 However, δ r and δ h are one-dimensional Gaussian noises, and their parameters can be experimentally determined to arbitrary values. Using this provisional shape and size parameters, the model M ′ i, t is

とする。 And

暫定状態S*は、現在時刻tで反復回数がn回目だとすれば、「n−1」回目に生成された状態S’t,n-1を変化させたものになる。タイプ1であれば新たなモデルMn,tを加えた状態、タイプ2であれば選択されたモデルMi,tを消去した状態、タイプ3およびタイプ4であれば選択されたモデルMi,tを変化させて生成したモデルM’i,tに置き換えたものになる。 The provisional state S * is obtained by changing the state S ′ t, n−1 generated at the “n−1” th time, assuming that the number of iterations is nth at the current time t. If type 1 is added, a new model M n, t is added; if type 2 is selected, the selected model M i, t is deleted; if type 3 and type 4, the selected model M i, t is selected . The model M ′ i, t is generated by changing t .

次に暫定的に変化させた暫定状態S*を用いて、シルエット画像の作成(S302)で作成されたシルエット画像(Sil1,Sil2,…Silc)をシミュレートした画像、すなわち、シミュレーション画像(Sim1,Sim2,…Simc)を作成する(S403)。 Next, an image simulating the silhouette image (Sil 1 , Sil 2 ,... Sil c ) created in the creation of the silhouette image (S 302) using the temporarily changed provisional state S * , that is, a simulation image (Sim 1 , Sim 2 ,... Sim c ) are created (S403).

まず、三次元環境情報データベース21と対象状態を組み合わせることで実世界をシミューレートした仮想シーンを構築する。三次元環境情報データベース21には、実世界の三次元構造の情報が三次元の点群として、もしくはポリゴンデータとして、床面がXY平面、高さ方向がZ軸となるような座標系で保存されているものとする。この三次元構造内にS403で計算された暫定的な対象状態S*に基づいた楕円体の三次元モデルを複数配置することができる。 First, a virtual scene simulating the real world is constructed by combining the three-dimensional environment information database 21 and the target state. The three-dimensional environment information database 21 stores real-world three-dimensional structure information as a three-dimensional point cloud or polygon data in a coordinate system in which the floor surface is the XY plane and the height direction is the Z axis. It is assumed that A plurality of three-dimensional models of ellipsoids based on the provisional target state S * calculated in S403 can be arranged in this three-dimensional structure.

次に三次元環境情報データベース21に保存されている、実世界上に配置されたカメラの内部パラメータ(焦点距離、画像中心など)と外部パラメータ(カメラの三次元位置と姿勢)を用いて、仮想シーンを仮想カメラへ投影することで、シミュレーション画像を作成する。   Next, using the internal parameters (focal length, image center, etc.) and external parameters (camera 3D position and orientation) stored in the 3D environment information database 21 in the real world, A simulation image is created by projecting a scene onto a virtual camera.

この投影処理は一例として非特許文献2に記載の方法を用いて一意に行なうことができる。この際、画像上の楕円体領域の値を「1」、それ以外の領域の値を「0」とする2値画像とすることで、シルエット画像(Sil1,Sil2,…Silc)をシミュレートしたシミュレーション画像(Sim1,Sim2,…Simc)を作成することができる。
以上の処理がS403である。
As an example, this projection processing can be performed uniquely using the method described in Non-Patent Document 2. At this time, a silhouette image (Sil 1 , Sil 2 ,... Sil c ) is obtained by setting a binary image in which the value of the ellipsoidal region on the image is “1” and the value of the other region is “0”. Simulated simulation images (Sim 1 , Sim 2 ,... Sim c ) can be created.
The above process is S403.

次にこの暫定状態S*が尤もらしいか判断するために、尤度を計算する(S404)。これは事前知識による対象状態自体の確からしさの判定およびS302で作成されたシルエット画像(Sil1,Sil2,…Silc)とS403で生成されたシミュレーション画像(Sim1,Sim2,…Simc)の比較により行う。 Next, in order to determine whether or not the provisional state S * is likely, the likelihood is calculated (S404). This silhouette image created in the determination and S302 of certainty of the subject state itself by prior knowledge (Sil 1, Sil 2, ... Sil c) and generated in step S403 has been simulated image (Sim 1, Sim 2, ... Sim c ).

事前知識による状態の確からしさの判定には2種類ある。
一つは、三次元環境による制限である。三次元環境情報データベース21を用いて、人物状態の位置(x,y)に応じて、存在確率に重みをつけることができる。本実施形態では、人物は床平面上に存在していることを仮定しており、空間中で対象以外に存在している静止物体の上によじ昇ったりすることはない仮定している。そこで、例えば、人物の存在している位置(x,y)における三次元構造の高さに反比例する以下の式8で表されるペナルティ関数P(S*)を用意することで、存在確率に重みを付けることが可能である。
There are two types of determination of the probability of a state based on prior knowledge.
One is a limitation due to the three-dimensional environment. Using the three-dimensional environment information database 21, the existence probability can be weighted according to the position (x, y) of the person state. In the present embodiment, it is assumed that the person exists on the floor plane, and it is assumed that the person does not climb up on a stationary object other than the object in the space. Therefore, for example, by preparing a penalty function P (S * ) represented by the following equation 8 that is inversely proportional to the height of the three-dimensional structure at the position (x, y) where the person exists, It is possible to add a weight.

ただし、h(Mi,t)はモデルMi,tの要素中の位置(xi,t,yi,t)における三次元構造のZ値、αは定数で、実験的に任意に設定可能であるが、例えば、床平面に傾斜があるなどして、人物が立つ位置によってZ値が大きく変化する場合には、αを大きくする必要がある。 However, h (M i, t ) is the Z value of the three-dimensional structure at the position (x i, t , y i, t ) in the element of the model M i, t , α is a constant, and is arbitrarily set experimentally Although it is possible, for example, when the Z value changes greatly depending on the position where the person stands because the floor plane is inclined, α needs to be increased.

また、もう一つは、追跡している人物同士が三次元空間上で重なることがないという条件である。いま、この実施形態では、人物を楕円体で近似しているため、個々の楕円体が重ならない条件、すなわち異なる二つの楕円体の中心同士の距離が、二つの楕円体の半径の和より大きいことを満たす必要がある。   The other is a condition that the persons being tracked do not overlap in the three-dimensional space. Now, in this embodiment, since the person is approximated by an ellipsoid, the condition that the individual ellipsoids do not overlap, that is, the distance between the centers of two different ellipsoids is greater than the sum of the radii of the two ellipsoids. It is necessary to satisfy that.

二人の人物同士が三次元空間上で重ならないようにするために、次の式9で表される距離R、すなわち二人の人物を表す楕円体の中心同士の距離に応じたペナルティ関数E(S*)を設定する。 In order to prevent two persons from overlapping each other in a three-dimensional space, a penalty function E corresponding to the distance R represented by the following Expression 9, that is, the distance between the centers of ellipsoids representing the two persons. Set (S * ).

ただしxn,t,yn,tは、人物nの位置x座標、y座標を示す。
楕円体の距離が近くなるとペナルティを与える関数Eは、例えば、以下の式10のように設定できる。
Here, x n, t and y n, t indicate the position x coordinate and y coordinate of the person n.
The function E that gives a penalty when the distance between the ellipsoids becomes short can be set as shown in Equation 10 below, for example.

ただし、βは定数で、実験的に任意に設定可能であり、環境の混雑度によって最適なパラメータを選ぶ。例えば、混雑度が高く、人物同士の接触が頻繁に起こる場合、βを小さくするとこのような状態も尤度が極端に小さくならない。 However, β is a constant and can be arbitrarily set experimentally, and an optimum parameter is selected according to the degree of congestion in the environment. For example, when the degree of congestion is high and people frequently contact each other, the likelihood does not become extremely small if β is reduced.

次にシルエット画像の作成(S302)により、作成されたシルエット画像(Sil1,Sil2,…Silc)とシミュレーション画像(Sim1,Sim2,…Simc)の比較について説明する。これは例えば、以下の式11の評価式によって計算を行うことができる。 Next, a comparison between the created silhouette image (Sil 1 , Sil 2 ,... Sil c ) and the simulation image (Sim 1 , Sim 2 ,... Sim c ) by creating a silhouette image (S 302) will be described. This can be calculated by, for example, the following evaluation formula (11).

ただし、(k,l)は画像のk行l列成分を示す。
式11ではC台のカメラ全ての情報統合を行っており、複数の視点の情報を使って評価を行っている。
However, (k, l) indicates a k-row l-column component of the image.
In Expression 11, information of all the C cameras is integrated, and evaluation is performed using information from a plurality of viewpoints.

最終的に暫定状態S*の尤度Lは、式12によって表され、積演算によって計算される。 Finally, the likelihood L of the provisional state S * is expressed by Equation 12 and calculated by product operation.

以上の処理がS404である。 The above process is S404.

次にS405では、S404で計算された尤度を用いて、暫定状態S*を受け入れて更新するか、もしくは拒否するかの演算を行う。これは受け入れ拒否判断確率Aの計算によって決定する。受け入れ拒否判断確率Aは、例えば以下の式13により計算することが可能である。 In step S405, the likelihood calculated in step S404 is used to calculate whether to accept and update the provisional state S * or reject the provisional state S * . This is determined by calculating the acceptance rejection judgment probability A. The acceptance refusal determination probability A can be calculated, for example, by the following equation (13).

ここで、現在n回目の反復処理だとすると、L’は「n−1」回目に更新されたS’t,n-1の尤度を表す。つまり前回の状態よりも今回の状態のほうが、尤度が高ければ必ず受け入れ、そうでなければL/L’の確率で暫定状態S*を採用する。 Here, if it is the nth iteration, L ′ represents the likelihood of S ′ t, n−1 updated at the “n−1” th time. That is, the current state is accepted if the likelihood is higher than the previous state, and if not, the provisional state S * is adopted with a probability of L / L ′.

ここで、暫定状態S*が採用されれば、S’t,n=S*とし、採用が拒否されればS’t,n=S’t,n-1として、S407の条件判断ステップへと進む。 Here, if the provisional state S * is adopted, S ′ t, n = S * is set, and if the adoption is rejected, S ′ t, n = S ′ t, n−1 is set and the condition determination step of S407 is performed. Proceed with

S407では反復処理が規定の回数行われたかの判断が行われる。反復回数nが任意に決定できる定数BとPの和で表されるB+P回を超えていれば処理を終了する。   In S407, it is determined whether the iterative process has been performed a prescribed number of times. If the number of iterations n exceeds B + P times represented by the sum of constants B and P that can be arbitrarily determined, the process is terminated.

また、nがB回を超えていれば得られた状態S’t,nを状態分布記憶手段22に保存しておく。すなわち、P個の状態が対象状態分布記憶手段22に保存されることになり、このP個の状態全てが等確率に起こりうると考え、これを状態分布とする。
以上、述べた処理がS303である。
If n exceeds B times, the obtained state S ′ t, n is stored in the state distribution storage means 22. That is, P states are stored in the target state distribution storage unit 22, and it is considered that all the P states can occur with equal probability, and this is set as a state distribution.
The process described above is S303.

次にS304では、S303で得られた状態分布から最大確率を持つ状態の計算を行う。状態分布を構成するP個の状態は全て等確率で起こると仮定しているため、最大確率を持つ状態Stは以下の式14によって計算することができる。 Next, in S304, the state having the maximum probability is calculated from the state distribution obtained in S303. Since the P number of states constituting the state distribution is assumed to occur at all equal probability, the state S t with the maximum probability can be calculated by the following equation 14.

また、4K次元の変化ベクトルVを以下の式15により求める。   Further, a 4K-dimensional change vector V is obtained by the following Expression 15.

ただし、初期時刻t=0,および追跡人数が増えた場合には、対応するモデルがないため、この要素を「0」とする。このようにして計算したStおよびVを対象状態分布記憶手段22に保存する。 However, when the initial time t = 0 and the number of tracking persons increases, there is no corresponding model, so this element is set to “0”. St and V calculated in this way are stored in the target state distribution storage means 22.

次に、S305では、行動履歴分布の計算を行う。行動履歴分布は任意の確率分布モデルで表すことが可能であるが、ここでは、簡単のため混合正規分布の例で説明を行う。初期時刻t=0においては、環境要因が分からないため、全ての格子区間において事前分布を設定する必要がある。   Next, in S305, an action history distribution is calculated. The action history distribution can be represented by an arbitrary probability distribution model. Here, for simplicity, an example of a mixed normal distribution will be described. At the initial time t = 0, environmental factors are not known, so it is necessary to set a prior distribution in all grid sections.

一例として、全ての格子区間において一律に図8のような8方向+滞留の9方向を表す9つの正規分布をすべて同じ混合率、すなわち全ての正規分布が1/9の混合率を持つように、初期状態を設定してもよい。このように設定すれば、現在の位置からほぼ等方的に移動する分布の良い近似となる。各正規分布の初期パラメータ(平均値および分散)は実現環境(場所、処理間隔など)に大きく依存するため実験的に定めることとする。   As an example, all the nine normal distributions representing the eight directions and the nine directions of dwelling as shown in FIG. 8 are uniformly mixed in all lattice sections so that all the normal distributions have a mixing ratio of 1/9. The initial state may be set. By setting in this way, a good approximation of the distribution moving isotropically from the current position is obtained. Since the initial parameters (average value and variance) of each normal distribution largely depend on the realization environment (location, processing interval, etc.), they are determined experimentally.

U個の正規分布で表された行動履歴分布Aを式で表すと以下のようになる。   The behavior history distribution A represented by U normal distributions is expressed as follows.

ここで、vi,tはモデルMi,tの変化ベクトル、Uは混合分布の数、wu,μu,σuはそれぞれ混合分布を構成する分布u(u=1〜U)の混合率、平均値、分散、Iは2×2の行列単位を表す。 Here, v i, t is the change vector of the model M i, t , U is the number of mixture distributions, w u , μ u , and σ u are the mixtures of the distributions u (u = 1 to U) constituting the mixture distribution. Rate, average value, variance, I represents a 2 × 2 matrix unit.

次の時刻からは移動履歴分布の更新を行っていくことで環境要因の学習を行っていく。以下、図9を用いて説明する。   From the next time, environmental factors are learned by updating the movement history distribution. Hereinafter, a description will be given with reference to FIG.

まず、i=1として開始され、更新行動履歴分布の決定(S501)を行う。これはどの格子区間の行動履歴分布を更新するかを決定する処理であり、モデルMi,tに対応する前時刻のモデルMi,t-1の(xi,t-1,yi,t-1)を含む格子区間の行動履歴分布を選ぶことにする。 First, i = 1 is started, and an update action history distribution is determined (S501). This is a process of determining whether to update the action history distribution of which grid sections, model M i, models of time before that corresponds to t M i, t-1 of the (x i, t-1, y i, Let us select the action history distribution of the grid section including t-1 ).

次に対応する正規分布の決定(S502)では、混合された正規分布の中から対応する正規分布を決定する。これはvi,tのx,y成分と最も近い平均値を持つ正規分布を対応正規分布として決定する。 Next, in the determination of the corresponding normal distribution (S502), the corresponding normal distribution is determined from the mixed normal distributions. This determines the normal distribution having the average value closest to the x and y components of v i, t as the corresponding normal distribution.

次に正規分布パラメータの更新(S503)では、前記S502で決定された正規分布のパラメータを以下の式17、式18により更新する。   Next, in the normal distribution parameter update (S503), the normal distribution parameters determined in S502 are updated by the following Expressions 17 and 18.

γは学習の速さを表す値で「0〜1」の間で経験的(画像のフレームレートや環境の変化の具合を考慮)に決定する。   γ is a value representing the speed of learning, and is determined empirically between 0 and 1 (considering changes in image frame rate and environment).

次に混合率の更新S504では以下の式19により混合率の更新を行う。   Next, in the mixture ratio update S504, the mixture ratio is updated by the following equation 19.

ここで、Bu,tはuが選択された正規分布の場合は「1」で、そのほかの場合は「0」である。 Here, B u, t is “1” in the case of a normal distribution with u selected, and “0” in other cases.

最後にS505では、処理が終了かどうかの確認を行う。iがKすなわち追跡人数を超えていれば終了、そうでなければ、i=i+1として、S501に戻る。以上、述べたようにして行動履歴分布を更新していく。   Finally, in S505, it is confirmed whether or not the process is finished. If i exceeds K, that is, the number of tracked persons, the process ends. If not, i = i + 1, and the process returns to S501. As described above, the action history distribution is updated.

次にS306では、追跡を終了するかどうかのチェックを行う。追跡が終了なら処理を終了とし、まだ追跡を継続するのならば、画像の取得(S301)の処理を行う。   Next, in S306, it is checked whether or not the tracking is finished. If the tracking is completed, the process is terminated. If the tracking is still continued, the process of acquiring an image (S301) is performed.

以上、述べた処理を繰り返すことで動的に人数の変化する複数の人物の状態を効率的に逐次推定することが可能となる。   As described above, it is possible to efficiently and sequentially estimate the states of a plurality of persons whose number of persons dynamically changes by repeating the processing described above.

さらに、本実施形態では、S405の処理において、一例としてシルエット画像とシミュレーション画像の比較に画像の取得手段11を用いたが、画像間の類似度を取る評価関数、例えば単純な積演算を利用しても同様に実現できる。また、本実施形態では、S405の処理において、一例として環境のペナルティ関数として高さ方向で重みを付けた「式8」を用いたが、人物の存在位置の重みを表現できる関数であれば、任意の関数を利用することができることは当然である。   Furthermore, in the present embodiment, the image acquisition unit 11 is used for the comparison between the silhouette image and the simulation image as an example in the process of S405. However, an evaluation function that takes similarity between images, for example, a simple product operation is used. However, it can be realized similarly. In the present embodiment, in the processing of S405, as an example, “Equation 8” weighted in the height direction is used as the environmental penalty function. However, if the function can express the weight of the position of the person, Of course, any function can be used.

また、本実施形態では、S405の処理において、一例として人物の接近に関するペナルティ関数として「式10」を用いたが人物が重なった際にペナルティを与えることのできる、任意の関数を利用することができることは当然である。   In the present embodiment, in the process of S405, as an example, “Equation 10” is used as a penalty function related to the approach of a person. However, any function that can give a penalty when people overlap is used. It is natural that we can do it.

なお、図1に示した装置における各手段の一部若しくは全部の機能をコンピュータのプログラムで構成し、そのプログラムを、コンピュータを用いて実行して、本発明を実現することができること、あるいは、図5、図7、図9に示した処理の手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、フレキシブルディスクや、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。このように、記録媒体やネットワークにより提供されたプログラムをコンピュータにインストールすることで、本発明が実施可能となる。   1 may be realized by configuring a part or all of the functions of each unit in the apparatus shown in FIG. 1 with a computer program and executing the program using the computer. 5. The processing procedure shown in FIG. 7, FIG. 7 and FIG. 9 can be configured by a computer program, and it is needless to say that the program can be executed by the computer. The information can be recorded on a readable recording medium, for example, a flexible disk, MO, ROM, memory card, CD, DVD, removable disk, and can be stored or distributed. It is also possible to provide the above program through a network such as the Internet or electronic mail. In this way, the present invention can be implemented by installing a program provided by a recording medium or a network in a computer.

以下に、上述の動物体追跡装置を用いて、二台のビデオカメラ(カメラ1およびカメラ2)から得られた映像を処理して、追跡範囲に一人ずつ侵入してくる二人の人物を追跡した結果を、図5に示した処理フローを用いて述べる。   Below, using the moving object tracking device described above, the images obtained from the two video cameras (camera 1 and camera 2) are processed to track two persons entering the tracking range one by one. The results will be described using the processing flow shown in FIG.

まず、処理が開始されると、カメラ画像の取得を行う(S301)。図10は二台のカメラ1,2から取得した画像列の一部であり、上段が、カメラ1からの画像(701〜706)、下段が、カメラ2からの画像(707〜712)である。   First, when the process is started, a camera image is acquired (S301). FIG. 10 is a part of an image sequence acquired from two cameras 1 and 2, and the upper row is an image from the camera 1 (701 to 706), and the lower row is an image from the camera 2 (707 to 712). .

次に得られたカメラ画像からシルエット画像を作成する(S302)。背景差分法を用いて作成したシルエット画像を図11に示す。図10と同じように上段が、カメラ1から作成したシルエット画像(801〜806)、下段が、カメラ2から作成したシルエット画像(807〜812)であり、図11の各シルエット画像は、図10において同じ位置に示されている画像と対応している。   Next, a silhouette image is created from the obtained camera image (S302). A silhouette image created using the background subtraction method is shown in FIG. As in FIG. 10, the upper row is a silhouette image (801 to 806) created from the camera 1, and the lower row is a silhouette image (807 to 812) created from the camera 2. Each silhouette image in FIG. Corresponds to the image shown at the same position.

次にS303にて対象状態分布の推定を行う。ここでは、状態を、行動履歴分布を用いて逐次更新させながら、その状態をシミュレートしたシミュレーション画像の作成を行って、その評価を行う。   Next, the target state distribution is estimated in S303. Here, while the state is sequentially updated using the action history distribution, a simulation image simulating the state is created and evaluated.

図12において、上段はシルエット画像、下段は上段のシルエット画像をシミュレートしたシミュレーション画像の一部である。このように様々な状態に変化させながらシミュレーション画像を作成し、尤度の計算、受け入れ拒否演算により状態分布を作成する。   In FIG. 12, the upper part is a silhouette image, and the lower part is a part of a simulation image simulating the upper silhouette image. In this way, a simulation image is created while changing to various states, and a state distribution is created by calculation of likelihood and acceptance rejection calculation.

S304ではS303で推定された対象状態分布より対象状態の計算を行い、現在、最大確率を取る状態を求め、これを現時刻での状態として出力する。また同時に前時刻と現時刻での状態の変化ベクトルを求める。そして、S305では計算された対象状態より行動履歴分布を更新する。   In step S304, the target state is calculated from the target state distribution estimated in step S303, and the current state having the highest probability is obtained, and this is output as the state at the current time. At the same time, the state change vectors at the previous time and the current time are obtained. In S305, the behavior history distribution is updated from the calculated target state.

図13に計算された最大確率を取る状態を表現した画像を示す。図13は、それぞれ上段が、カメラ1からの画像(901〜906)、中段が、最大確率を取る状態をシミュレートした画像(907〜912)、下段が、俯瞰図として天井にカメラを設置されているとして最大確率を取る状態をシミュレートした画像(913〜918)であり、人物H1と人物H2が少し時間を置いて追跡範囲に侵入した後に、すれ違い、最後にまた追跡範囲から退出する様子を明確に追跡できていることを示している。また追跡する人数が0人→1人→2人→0人のように動的に変化しているが、人物の出現と消失を行いながら安定して追跡していることが確認できる。   FIG. 13 shows an image representing a state taking the maximum probability calculated. In FIG. 13, the upper row is an image (901 to 906) from the camera 1, the middle row is an image (907 to 912) simulating a state where the maximum probability is obtained, and the lower row is a camera installed on the ceiling as an overhead view. It is an image (913 to 918) simulating a state where the maximum probability is taken as if the person H1 and person H2 have entered the tracking range after a while and then pass each other and finally exit the tracking range again It is shown that it can be traced clearly. In addition, the number of people to be tracked changes dynamically as 0 → 1 → 2 → 0, but it can be confirmed that the person is tracked stably while the appearance and disappearance of the person.

S306では現時刻までで、追跡を終了とする場合には、処理を終了し、そうでない場合には、S301の画像の取得へと戻る。   In S306, if the tracking is to be ended up to the current time, the process is ended, and if not, the process returns to the acquisition of the image in S301.

以上述べた処理を繰り返すことで本実施形態では、2人の人物が接近してすれ違うシーケンスにおいても安定した追跡を行なうことができる。   By repeating the processing described above, in this embodiment, stable tracking can be performed even in a sequence in which two persons approach and pass each other.

本発明の動物体追跡装置の一実施形態を示す構成図である。It is a block diagram which shows one Embodiment of the moving body tracking device of this invention. 本発明の動物体追跡装置の一実施形態における画像データ取得の様子を示す説明図である。It is explanatory drawing which shows the mode of the image data acquisition in one Embodiment of the moving body tracking device of this invention. 行動履歴分布の一例を示す説明図である。It is explanatory drawing which shows an example of action history distribution. 本発明の動物体追跡装置の一実施形態で用いる対象の三次元モデルである楕円体モデルを示す説明図である。It is explanatory drawing which shows the ellipsoidal model which is a three-dimensional model of the object used with one Embodiment of the moving body tracking device of this invention. 本発明の動物体追跡方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the moving body tracking method of this invention. 入力画像に対応するシルエット画像を示す説明図である。It is explanatory drawing which shows the silhouette image corresponding to an input image. 対象状態分布の推定(S303)の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of estimation of object state distribution (S303). 行動履歴分布の初期状態の一例を示す説明図である。It is explanatory drawing which shows an example of the initial state of action history distribution. 行動履歴分布の計算(S305)の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of calculation of action history distribution (S305). カメラから取得した画像列の一部を示す画像図であるIt is an image figure which shows a part of image sequence acquired from the camera. カメラから取得した画像列の一部から作成したシルエット画像図である。It is the silhouette image figure created from a part of image sequence acquired from the camera. シルエット画像および予測結果より、シルエット画像をシミュレートした画像の一部を示す画像図である。It is an image figure which shows a part of image which simulated the silhouette image from the silhouette image and the prediction result. 入力画像の一部および入力画像から計算した対象状態をシミュレートした画像と俯瞰した画像を示す画像図である。It is an image figure which shows the image which looked down and the image which simulated the object state calculated from a part of input image and the input image.

符号の説明Explanation of symbols

11…画像の取得手段
12…シルエット画像の作成手段
13…対象状態分布の推定手段
14…対象状態の計算手段
15…行動履歴分布計算手段
21…三次元環境情報データベース
22…対象状態分布記憶手段
S301〜S306,S401〜S407,S501〜S506…ステップ
701〜712、901〜906…カメラ画像
801〜812…シルエット画像
907〜918…計算した状態をシミュレートした画像
DESCRIPTION OF SYMBOLS 11 ... Image acquisition means 12 ... Silhouette image creation means 13 ... Target state distribution estimation means 14 ... Target state calculation means 15 ... Action history distribution calculation means 21 ... Three-dimensional environment information database 22 ... Target state distribution storage means S301 S306, S401 to S407, S501 to S506 ... Steps 701 to 712, 901 to 906 ... Camera image 801 to 812 ... Silhouette image 907 to 918 ... Simulated image

Claims (8)

1又は複数のカメラ等の画像入力装置を用いて動物体の三次元位置、大きさなどの状態を追跡する装置であって、
各時刻において撮影手段で撮影された画像を取得する手段と、
取得した入力画像から追跡対象物体の写っている領域だけを抽出したシルエット画像を作成する手段と、
予め計測しておいた実世界の三次元構造と実世界に配置された撮影手段の内部・外部パラメータおよび環境中での対象物体の行動履歴分布を記憶する三次元環境情報データベースと、
三次元環境情報データベースの情報と前記シルエット画像とを用いて、各時刻において対象状態の確率分布を推定する手段と、
各時刻において前記推定手段によって推定された対象状態の確率分布および最大の確率を持つ対象状態を記憶する対象状態分布記憶手段と、
対象状態分布記憶手段に保存された対象状態の確率分布より各時刻において最大の確率を持つ対象状態を計算する手段と、
前記三次元環境情報データベースに保存された行動履歴分布を前記対象状態の計算手段で計算された対象状態より行動履歴分布を計算する手段と、
を備え、
前記対象状態分布記憶手段に保存されている前時刻の対象状態分布を、現時刻の対象状態分布に、また、前記対象状態の計算手段で計算された最大確率を持つ対象状態にそれぞれ更新し、前記三次元環境情報データベースに保存されている行動履歴分布を前記行動履歴分布計算手段で計算された対象状態を用いて更新することを特徴とする動物体追跡装置。
A device that tracks the state of a moving object such as a three-dimensional position and size using an image input device such as one or more cameras,
Means for acquiring images taken by the photographing means at each time;
Means for creating a silhouette image obtained by extracting only the region where the tracking target object is shown from the acquired input image;
A three-dimensional environment information database that stores the three-dimensional structure of the real world measured in advance and the internal and external parameters of the imaging means arranged in the real world and the action history distribution of the target object in the environment;
Means for estimating the probability distribution of the target state at each time using the information of the three-dimensional environment information database and the silhouette image;
A target state distribution storage unit that stores a probability distribution of the target state estimated by the estimation unit at each time and a target state having a maximum probability;
Means for calculating the target state having the maximum probability at each time from the probability distribution of the target state stored in the target state distribution storage means;
Means for calculating the behavior history distribution from the target state calculated by the target state calculation means for the behavior history distribution stored in the three-dimensional environment information database;
With
Update the target state distribution at the previous time stored in the target state distribution storage means to the target state distribution at the current time, and to the target state having the maximum probability calculated by the target state calculation means, The moving object tracking device, wherein the behavior history distribution stored in the three-dimensional environment information database is updated using the target state calculated by the behavior history distribution calculation means.
請求項1記載の動物体追跡装置において、
前記行動履歴分布を計算する手段は、
更新する行動履歴分布を決定する手段と、
混合正規分布で表された行動履歴分布の中から対応する正規分布を決定する手段と、
正規分布パラメータを更新する手段と、
混合正規分布の混合率を更新する手段と、
を有することを特徴とする動物体追跡装置。
The moving object tracking device according to claim 1,
The means for calculating the behavior history distribution includes:
Means for determining an action history distribution to be updated;
Means for determining a corresponding normal distribution from the behavior history distribution represented by a mixed normal distribution;
Means for updating normal distribution parameters;
Means for updating the mixing ratio of the mixed normal distribution;
A moving object tracking device characterized by comprising:
請求項1又は2記載の動物体追跡装置において、
前記対象状態は、
楕円体モデルの集合で表す手段と、
各対象の位置を任意の平面上の位置(x,y)で表す手段と、
各対象の大きさを楕円体モデルの半径rと高さhで表す手段と、
したことを特徴とする動物体追跡装置。
The moving object tracking device according to claim 1 or 2,
The target state is
Means for representing a set of ellipsoidal models;
Means for representing the position of each object by a position (x, y) on an arbitrary plane;
Means for representing the size of each object by the radius r and height h of the ellipsoid model;
A moving object tracking device characterized by that.
各時刻において撮影手段で撮影された画像を取得する手段と、
取得した入力画像から追跡対象物体の写っている領域だけを抽出したシルエット画像を作成する手段と、
予め計測しておいた実世界の三次元構造と実世界に配置された撮影手段の内部・外部パラメータおよび環境中での対象物体の行動履歴分布を記憶する三次元環境情報データベースと、
三次元環境情報データベースの情報と前記シルエット画像とを用いて、各時刻において対象状態の確率分布を推定する手段と、
各時刻において前記推定手段によって推定された対象状態の確率分布および最大の確率を持つ対象状態を記憶する対象状態分布記憶手段と、
対象状態分布記憶手段に保存された対象状態の確率分布より各時刻において最大の確率を持つ対象状態を計算する手段と、
前記三次元環境情報データベースに保存された行動履歴分布を前記対象状態の計算手段で計算された対象状態より行動履歴分布を計算する手段と、
を備え、
1又は複数のカメラ等の画像入力装置を用いて動物体の三次元位置、大きさなどの状態を追跡する方法において、
カメラ等の画像入力装置より、画像を取得するステップと、
入力画像から追跡対象物体が写っている領域だけを抽出し、前記シルエット画像を作成手段によりシルエット画像を作成するステップと、
追跡対象物体の状態の確率的分布を前記推定手段により推定するステップと、
前記推定された対象状態分布より、最大確率を持つ対象状態を計算する手段により計算するステップと、
前記計算された対象状態より行動履歴分布を計算する手段により計算するステップと、
を有することを特徴とする動物体追跡方法。
Means for acquiring images taken by the photographing means at each time;
Means for creating a silhouette image obtained by extracting only the region where the tracking target object is shown from the acquired input image;
A three-dimensional environment information database that stores the three-dimensional structure of the real world measured in advance and the internal and external parameters of the imaging means arranged in the real world and the action history distribution of the target object in the environment;
Means for estimating the probability distribution of the target state at each time using the information of the three-dimensional environment information database and the silhouette image;
A target state distribution storage unit that stores a probability distribution of the target state estimated by the estimation unit at each time and a target state having a maximum probability;
Means for calculating the target state having the maximum probability at each time from the probability distribution of the target state stored in the target state distribution storage means;
Means for calculating the behavior history distribution from the target state calculated by the target state calculation means for the behavior history distribution stored in the three-dimensional environment information database;
With
In a method for tracking a state such as a three-dimensional position and size of a moving object using an image input device such as one or a plurality of cameras,
Acquiring an image from an image input device such as a camera;
Extracting only the region in which the tracking target object is shown from the input image, and creating a silhouette image by the silhouette image creating means;
Estimating the probability distribution of the state of the tracking target object by the estimating means;
From the estimated target state distribution, calculating by means for calculating the target state having the maximum probability;
Calculating by means for calculating an action history distribution from the calculated target state;
An object tracking method comprising:
請求項4記載の動物体追跡方法において、
前記行動履歴分布を計算するステップは、更新する行動履歴分布を決定するステップと、
混合正規分布で表された行動履歴分布の中から対応する正規分布を決定するステップと、
正規分布パラメータを更新するステップと、
混合正規分布の混合率を更新するステップと、
を有することを特徴とする動物体追跡方法。
The moving body tracking method according to claim 4,
Calculating the behavior history distribution includes determining a behavior history distribution to be updated;
Determining a corresponding normal distribution from the behavior history distribution represented by a mixed normal distribution;
Updating normal distribution parameters;
Updating the mixing ratio of the mixed normal distribution;
An object tracking method comprising:
請求項4又は5記載の動物体追跡方法において、
前記対象状態を、
楕円体モデルの集合で表すステップと、
各対象の位置を任意の平面上の位置(x,y)で表すステップと、
各対象の大きさを楕円体モデルの半径rと高さhで表すステップと、
したことを特徴とする動物体追跡方法。
In the moving body tracking method according to claim 4 or 5,
The target state is
A step represented by a set of ellipsoidal models;
Expressing the position of each object by a position (x, y) on an arbitrary plane;
Expressing the size of each object by the radius r and height h of the ellipsoid model;
A moving body tracking method characterized by that.
請求項1乃至6のいずれか1項に記載の動物体追跡装置または動物体追跡方法を、コンピュータプログラムで記載してそれを実行可能にした
ことを特徴とする動物体追跡プログラム。
A moving object tracking program characterized in that the moving object tracking device or moving object tracking method according to any one of claims 1 to 6 is described in a computer program and is executable.
請求項1乃至6のいずれか1項に記載の動物体追跡装置または動物体追跡方法を、コンピュータで実行可能に記載したプログラムを記録した
ことを特徴とする動物体追跡プログラムを記録した記録媒体。
A recording medium recording a moving body tracking program, wherein the moving body tracking device or the moving body tracking method according to any one of claims 1 to 6 is recorded by a computer.
JP2007326191A 2007-12-18 2007-12-18 Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program Expired - Fee Related JP4951490B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007326191A JP4951490B2 (en) 2007-12-18 2007-12-18 Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007326191A JP4951490B2 (en) 2007-12-18 2007-12-18 Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program

Publications (2)

Publication Number Publication Date
JP2009151359A true JP2009151359A (en) 2009-07-09
JP4951490B2 JP4951490B2 (en) 2012-06-13

Family

ID=40920484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007326191A Expired - Fee Related JP4951490B2 (en) 2007-12-18 2007-12-18 Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program

Country Status (1)

Country Link
JP (1) JP4951490B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102122239A (en) * 2011-03-21 2011-07-13 日照市活点网络科技有限公司 Method for processing 3D images of Internet of things
JP2012159958A (en) * 2011-01-31 2012-08-23 Secom Co Ltd Moving object tracking device
JP2013522747A (en) * 2010-03-17 2013-06-13 アイシス イノベーション リミテッド How to track targets in video data
JP2013242728A (en) * 2012-05-21 2013-12-05 Secom Co Ltd Image monitoring device
JP5682563B2 (en) * 2009-08-20 2015-03-11 日本電気株式会社 Moving object locus identification system, moving object locus identification method, and moving object locus identification program
US9245189B2 (en) 2010-11-29 2016-01-26 Denso Corporation Object appearance frequency estimating apparatus
JP5870230B1 (en) * 2015-10-15 2016-02-24 株式会社スーパーリージョナル Watch device, watch method and watch program
WO2019138638A1 (en) * 2018-01-09 2019-07-18 三菱電機株式会社 Movement path estimation device, movement path estimation system, and movement path estimation method
JP2020119447A (en) * 2019-01-28 2020-08-06 キヤノン株式会社 Image processing system, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255058A (en) * 1997-03-14 1998-09-25 Toshiba Corp Movement detector and movement detecting method
WO2007138885A1 (en) * 2006-05-26 2007-12-06 The University Of Tokyo Structure and design method for database of motion data, and database system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255058A (en) * 1997-03-14 1998-09-25 Toshiba Corp Movement detector and movement detecting method
WO2007138885A1 (en) * 2006-05-26 2007-12-06 The University Of Tokyo Structure and design method for database of motion data, and database system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大澤 達哉: "MCMC法に基づく3次元環境情報を用いた複数人物追跡", FIT2006 第5回情報科学技術フォーラム, JPN6011046497, 21 August 2006 (2006-08-21), JP, pages 187 - 190, ISSN: 0002008985 *
杉村 大輔: "行動履歴を反映させた適応的環境属性を伴う三次元人物追跡", 情報処理学会研究報告, vol. 第2006巻,第115号, JPN6011046498, 10 November 2006 (2006-11-10), JP, pages 171 - 178, ISSN: 0002008986 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5682563B2 (en) * 2009-08-20 2015-03-11 日本電気株式会社 Moving object locus identification system, moving object locus identification method, and moving object locus identification program
US8989438B2 (en) 2009-08-20 2015-03-24 Nec Corporation Mobile body track identification system
JP2013522747A (en) * 2010-03-17 2013-06-13 アイシス イノベーション リミテッド How to track targets in video data
US9245189B2 (en) 2010-11-29 2016-01-26 Denso Corporation Object appearance frequency estimating apparatus
JP2012159958A (en) * 2011-01-31 2012-08-23 Secom Co Ltd Moving object tracking device
CN102122239A (en) * 2011-03-21 2011-07-13 日照市活点网络科技有限公司 Method for processing 3D images of Internet of things
JP2013242728A (en) * 2012-05-21 2013-12-05 Secom Co Ltd Image monitoring device
JP5870230B1 (en) * 2015-10-15 2016-02-24 株式会社スーパーリージョナル Watch device, watch method and watch program
JP2017076272A (en) * 2015-10-15 2017-04-20 株式会社スーパーリージョナル Watching apparatus, watching method, and watching program
WO2019138638A1 (en) * 2018-01-09 2019-07-18 三菱電機株式会社 Movement path estimation device, movement path estimation system, and movement path estimation method
WO2019138443A1 (en) * 2018-01-09 2019-07-18 三菱電機株式会社 Movement path estimation device, movement path estimation system, and movement path estimation method
JPWO2019138638A1 (en) * 2018-01-09 2020-01-16 三菱電機株式会社 Travel route estimation device, travel route estimation system, and travel route estimation method
JP2020119447A (en) * 2019-01-28 2020-08-06 キヤノン株式会社 Image processing system, image processing method, and program
JP7330708B2 (en) 2019-01-28 2023-08-22 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP4951490B2 (en) 2012-06-13

Similar Documents

Publication Publication Date Title
JP4951490B2 (en) Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program
Bautista et al. Gaudi: A neural architect for immersive 3d scene generation
CN109211277B (en) State determination method and device of visual inertial odometer and electronic equipment
Gao et al. Object tracking using firefly algorithm
CN107980150A (en) Three dimensions is modeled
JPWO2018051944A1 (en) People flow estimation device, people flow estimation method and program
CN109063549B (en) High-resolution aerial video moving target detection method based on deep neural network
KR20200075727A (en) Method and apparatus for calculating depth map
AU2018379393A1 (en) Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments
CN110942484B (en) Camera self-motion estimation method based on occlusion perception and feature pyramid matching
CN113689539A (en) Dynamic scene real-time three-dimensional reconstruction method and device based on implicit optical flow field
EP3998582A1 (en) Three-dimensional model generation method and three-dimensional model generation device
JP2005174353A (en) Object detection
JP2008134939A (en) Moving object tracking apparatus, moving object tracking method, moving object tracking program with the method described therein, and recording medium with the program stored therein
JP2023079022A (en) Information processing device and information generation method
JP2004220292A (en) Object tracking method and device, program for object tracking method, and recording medium with its program recorded
CN114266693A (en) Image processing method, model generation method and equipment
JP4759447B2 (en) Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method
KR100635883B1 (en) System for real-time objects tracking
JP4673241B2 (en) Moving object tracking device, moving object tracking method, and recording medium storing program realizing the method
JP2010187130A (en) Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein
JP2005242646A (en) People flow measuring system, people flow measuring method and people flow measuring program
JP4923000B2 (en) MULTI-OBJECT TRACKING METHOD, MULTI-OBJECT TRACKING DEVICE, MULTI-OBJECT TRACKING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
CN112101287B (en) Image processing method, device, equipment and storage medium
JP7205630B2 (en) Label estimation device, label estimation method, and label estimation program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees