JP2002218449A - Device for tracking moving object - Google Patents

Device for tracking moving object

Info

Publication number
JP2002218449A
JP2002218449A JP2001008682A JP2001008682A JP2002218449A JP 2002218449 A JP2002218449 A JP 2002218449A JP 2001008682 A JP2001008682 A JP 2001008682A JP 2001008682 A JP2001008682 A JP 2001008682A JP 2002218449 A JP2002218449 A JP 2002218449A
Authority
JP
Japan
Prior art keywords
tracking
moving object
person
observation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001008682A
Other languages
Japanese (ja)
Other versions
JP3520050B2 (en
Inventor
Akira Uchiumi
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP2001008682A priority Critical patent/JP3520050B2/en
Publication of JP2002218449A publication Critical patent/JP2002218449A/en
Application granted granted Critical
Publication of JP3520050B2 publication Critical patent/JP3520050B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a moving object tracking device capable of acquiring the position information of an object and stably identifying the object wherever the object is. SOLUTION: Cameras 2#1 to 2#n respectively independently fetch downward images, and individual observing parts 4#1 to 4#n acquire the position information of a person in response to the matter that a corresponding camera picks up the person directly under the camera, acquire information for identifying his/her face and clothes in response to the matter that another camera picks up the side of the person and perform feature extraction processing. Obtained feature quantity is made to correspond to each target to be tracked based on a predictive observation position sent from a tracking part 8 and subsequently transmitted to the tracking part 8, and the feature quantity that cannot be made to correspond is sent to a finding part 6. The finding part 6 detects a new person by using uncorresponded point information. The detection results of the new person are transmitted to the tracking part 8. The tracking part 8 updates each person information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は移動物体追跡装置
に関し、特に、非同期で得られる多視点画像により移動
物体を追跡する移動物体追跡装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a moving object tracking apparatus, and more particularly to a moving object tracking apparatus that tracks a moving object with a multi-viewpoint image obtained asynchronously.

【0002】[0002]

【従来の技術】異なる視点で得られる複数の画像からシ
ーン内の奥行き情報を得るステレオ計測は、画像からの
3次元情報の復元を主要な課題の1つとするコンピュー
タビジョン研究において重要な位置を占めている。
2. Description of the Related Art Stereo measurement, which obtains depth information in a scene from a plurality of images obtained from different viewpoints, occupies an important position in computer vision research in which restoring three-dimensional information from images is one of the main tasks. ing.

【0003】ステレオ計測において特に重要となるのが
画像間の対応付けであり、誤った対応付けを少なくする
ために特徴量を適切に選択したり(Marr D. And Poggio
T.A theory of human stereo vision. In Roy. Soc. L
ondon, pp. 301−328.1979)、より多くの
視点を有効に利用する手法(Ramakant Nevatia. Depth
measurement by motion stereo. Computer Graphics an
d Image Processing vol. 5, pp.203−214,19
76)が開発されてきた。これらは主に、静的なシーン
を対象としたものであり、この場合のステレオ法の持つ
誤差については既に多くの報告がある(Jeffrey J. Rod
riguez and J. K. Aggarwal. Stochastic Analysis of
stereo quantization error. IEEE Pattern Anal. Mach
ine Intell., Vol.12, No.5,pp.467−470,
5 1992)。
[0003] In stereo measurement, what is particularly important is correspondence between images. In order to reduce erroneous correspondence, a feature amount is appropriately selected (Marr D. And Poggio).
TA theory of human stereo vision. In Roy. Soc. L
ondon, pp. 301-328. 1979), a method of effectively using more viewpoints (Ramakant Nevatia. Depth)
measurement by motion stereo. Computer Graphics an
d Image Processing vol. 5, pp. 203-214, 19
76) has been developed. These are mainly for static scenes, and there have been many reports of errors in the stereo method in this case (Jeffrey J. Rod
riguez and JK Aggarwal.Stochastic Analysis of
stereo quantization error. IEEE Pattern Anal. Mach
ine Intell., Vol. 12, No. 5, pp. 467-470,
5 1992).

【0004】動きを持つシーンを対象とした研究では、
ステレオ観測に基づくロボットのナビゲーション(Larr
y Matthies and Steven A. Shafer. Error Modeling in
stereo navigation. IEEE Rebotics and Automation,
vol. RA-3, No.3, pp.239−248, 1987)、
1台のカメラによる既知形状のトラッキング(Akio Kos
aka and Goichi Nakazawa. Vision-based motion track
ing of rigid objectsusing prediction of uncertaini
es. In Proc. of International Conference on Roboti
cs and Automation, pp.2637−2644,195
5)、ステレオ計測による既知形状のトラッキング(Ge
m-Sun J. Young and Rama Chellappa. 3-dmotion estim
ation using a sequence of noisy stereo images: Mod
els, estimation, and Uniqueness results. IEEE Patt
ern Anal. Machine Intell., Vol.12,No.8,pp.7
35−759,1990)、ステレオ観測に基づく複数
物体の追跡(Jae-Woong Yi and Jun-Ho Oh. Recursive
resolving algorithm for multiple stereo and motion
matches. Image and Vision Computing, Vol.15,pp.
181−196,1997)などが提案されている。画
像特徴を対象とする物体モデルと関連付けながら複数物
体を追跡するこれらの問題設定は、「動きの対応付け」
(Motion Correspondence)として知られている(Ingem
ar J. Cox.A review of statical data association te
chniques for motion correspondence. International
Journal of Computer Vision, Vol.10:1, pp.53
−66,1993)。
In research on scenes with motion,
Robot Navigation Based on Stereo Observation (Larr
y Matthies and Steven A. Shafer.Error Modeling in
stereo navigation.IEEE Rebotics and Automation,
vol. RA-3, No. 3, pp. 239-248, 1987),
Tracking of known shape with one camera (Akio Kos
aka and Goichi Nakazawa.Vision-based motion track
ing of rigid objects using prediction of uncertaini
es.In Proc. of International Conference on Roboti
cs and Automation, pp. 2637-2644, 195
5) Tracking of known shape by stereo measurement (Ge
m-Sun J. Young and Rama Chellappa.3-dmotion estim
ation using a sequence of noisy stereo images: Mod
els, estimation, and Uniqueness results.IEEE Patt
ern Anal. Machine Intell., Vol.12, No.8, pp.7
35-759, 1990), tracking of multiple objects based on stereo observation (Jae-Woong Yi and Jun-Ho Oh. Recursive)
resolving algorithm for multiple stereo and motion
matches.Image and Vision Computing, Vol. 15, pp.
181-196, 1997). These question settings, which track multiple objects while associating image features with the target object model, are called "motion association"
(Motion Correspondence) (Ingem
ar J. Cox.A review of statical data association te
chniques for motion correspondence. International
Journal of Computer Vision, Vol. 10: 1, pp. 53
-66, 1993).

【0005】[0005]

【発明が解決しようとする課題】ところで、上述した従
来の手法はいずれも、一定間隔で複数視点の観測が同時
に行なわれ、または静止シーン(同時観測と等価)であ
ることを前提としている。観測を同時に行なった場合、
同じ物理的特徴を観測することになるので動きの対応付
けが容易になる。
By the way, all of the above-mentioned conventional methods are based on the premise that observations from a plurality of viewpoints are simultaneously performed at a fixed interval or a static scene (equivalent to simultaneous observation). If you observe at the same time,
Since the same physical feature is observed, it is easy to associate motion.

【0006】しかしながら、同時観測を行なう従来の手
法においても、時系列で物体を追跡するためには異なる
時刻間で「動きの対応付け」が依然として必要となる。
[0006] However, even in the conventional method of performing simultaneous observation, "correlation of motion" is still required between different times in order to track an object in time series.

【0007】さらに、従来の多視点画像を利用したシス
テムの多くは、追跡時の位置情報の獲得のために視点間
で同時に観測が行なわれていることを前提としているた
め、各視点で得られた画像を処理する際には、全体の処
理速度は最も処理の遅いプロセスにより制限されるとい
う問題があった。また、このようなシステムでは画像情
報のやり取りの他に視点間の同期を行なうための手段を
別途必要とする。これら同期を前提とした従来のシステ
ムの持つ問題は、利用する視点数が増加するに伴いより
顕著になる。
Furthermore, many conventional systems using multi-viewpoint images are based on the premise that observations are performed simultaneously between viewpoints in order to acquire position information during tracking. When processing an image, the overall processing speed is limited by the slowest process. In addition, such a system requires a separate means for synchronizing between viewpoints in addition to the exchange of image information. These problems of the conventional system on the premise of synchronization become more remarkable as the number of viewpoints used increases.

【0008】そこで、本願発明者は特願平11−308
187号において、複数のカメラによって画像を取り込
み得られた画像に対して特徴抽出処理を行なう「移動物
体追跡装置」を提案した。しかし、この移動物体追跡装
置で画像から追跡対象に関する複数種類の情報を獲得に
有利な視点(カメラ位置)が他の情報の獲得にも有利で
あるとは限らない。
Therefore, the inventor of the present application has filed Japanese Patent Application No. 11-308.
No. 187 proposed a “moving object tracking device” that performs a feature extraction process on an image captured and obtained by a plurality of cameras. However, a viewpoint (camera position) that is advantageous in acquiring a plurality of types of information on a tracking target from an image in the moving object tracking device is not always advantageous in acquiring other information.

【0009】たとえば、図25に示すように天井に設置
したカメラ2により人物MANの追跡を行なう場合、位
置情報と服の色や背丈などの物体固有の情報の両方を検
出していたため、位置情報に関しては一方しか得られな
いようなカメラ配置に対応できず、追跡の安定性が低く
なる場合があった。
For example, when the person 2 is tracked by the camera 2 installed on the ceiling as shown in FIG. 25, both the position information and the information unique to the object such as the color of the clothes and the height of the clothes are detected. However, it was not possible to cope with a camera arrangement in which only one of them could be obtained, and the tracking stability was sometimes lowered.

【0010】すなわち、図25において矢印aはカメラ
2の真下に人物MANの存在しているときに位置検出で
きる精度が高く、かつ人物MANが2人存在していても
両者を分離して検出できる精度の高いことを示してい
る。矢印bはカメラ2から人物MANが離れるほど人物
MAN固有の情報を検出でき、人物を同定できる精度の
高いことを示している。
[0010] That is, in FIG. 25, the arrow a indicates that the position can be detected with high accuracy when the person MAN is present directly below the camera 2, and that the two can be detected separately even if two persons MAN exist. It indicates that the accuracy is high. The arrow b indicates that the more the person MAN is away from the camera 2, the more the information unique to the person MAN can be detected, and the higher the accuracy of identifying the person.

【0011】それゆえに、この発明の主たる目的は、物
体がいずれの位置にあっても位置情報の獲得,物体の同
定を安定に行なえる移動物体追跡装置を提供することで
ある。
SUMMARY OF THE INVENTION It is, therefore, a primary object of the present invention to provide a moving object tracking apparatus capable of stably acquiring position information and identifying an object regardless of the position of the object.

【0012】[0012]

【課題を解決するための手段】この発明は、シーン内を
移動する移動物体を多視点で追跡する移動物体追跡装置
であって、シーン内で一定の高さでかつ一定の間隔を隔
てた複数の視点から下方向を撮影するための複数の撮影
手段と、複数の撮影手段のそれぞれに対応して設けら
れ、対応する撮像手段が下方向の移動物体を撮像したこ
とに応じて、当該移動物体の位置情報を獲得し、他の撮
像手段が当該移動物体の側方を撮像したことに応じて、
当該移動物体を同定するための情報を獲得し、獲得結果
から特徴点を抽出して観測情報として出力する複数の観
測手段と、複数の観測手段のうち特徴点を抽出した観測
手段からの要求に従い、複数の観測手段の観測情報を統
合することにより移動物体の状態を予測する追跡手段と
を備えて構成される。
SUMMARY OF THE INVENTION The present invention relates to a moving object tracking apparatus for tracking a moving object moving in a scene from multiple viewpoints, comprising a plurality of moving objects having a fixed height and a fixed interval in the scene. A plurality of photographing means for photographing the moving object in the downward direction from the viewpoint of the camera; and a plurality of photographing means provided in correspondence with each of the plurality of photographing means. Acquisition of the position information of, according to the other imaging means image the side of the moving object,
Obtains information for identifying the moving object, extracts a feature point from the obtained result and outputs it as observation information, and according to a request from the observation means that extracted the feature point among the plurality of observation means. And tracking means for predicting the state of the moving object by integrating observation information from a plurality of observation means.

【0013】また、複数の観測手段は、追跡手段から送
られてくる予測観測位置を基にして各追跡目標と対応付
けして追跡手段に送信し、さらに、複数の観測手段によ
って対応付けられなかった特徴量を受けて新規の移動物
体を検出して追跡手段に送る発見手段を含み、追跡手段
は発見手段によって発見された新規の移動物体に基づい
て各移動物体情報を更新することを特徴とする。
The plurality of observing means are associated with each tracking target based on the predicted observation position sent from the tracking means and transmitted to the tracking means, and are not associated with the plurality of observing means. Detecting means for detecting a new moving object in response to the feature amount and sending the detected moving object to the tracking means, wherein the tracking means updates each moving object information based on the new moving object detected by the detecting means. I do.

【0014】また、複数の観測手段のそれぞれは、対応
する撮影手段から受ける画像を背景画像と移動物体領域
とに分割する領域分割手段と、領域分割手段により取出
された移動物体領域の重心点を求め、特徴点として重心
点の情報を出力する手段とを含む。
[0014] Each of the plurality of observation means includes an area dividing means for dividing an image received from the corresponding photographing means into a background image and a moving object area, and a center of gravity of the moving object area extracted by the area dividing means. Means for calculating and outputting information of the center of gravity as the feature point.

【0015】さらに、追跡手段は計算機で構成され、複
数の観測手段のそれぞれは、計算機で構成され、複数の
観測手段のそれぞれと追跡手段とは相互通信を行なう。
Further, the tracking means is constituted by a computer, and each of the plurality of observation means is constituted by a computer, and each of the plurality of observation means communicates with the tracking means.

【0016】[0016]

【発明の実施の形態】図1は、この発明の一実施形態の
カメラの配置図である。図1において、複数のカメラ2
#1,2#2,2#3が一定の高さの室内の天井に、撮
影方向が下方向に向くように一定に間隔で埋め込まれて
いる。これらの天井に埋め込まれたカメラ2#1,2#
2,2#3により人物の追跡を行なう場合、追跡に必要
な情報として位置情報と、服の色や背丈などの物体固有
の情報が用いられる。
FIG. 1 is a layout diagram of a camera according to an embodiment of the present invention. In FIG. 1, a plurality of cameras 2
# 1, # 2, and # 2 are embedded at regular intervals in the ceiling of a room at a fixed height so that the shooting direction is downward. Cameras 2 # 1, 2 # embedded in these ceilings
When a person is tracked by 2, 2 # 3, position information and information unique to the object such as clothes color and height are used as information necessary for tracking.

【0017】位置情報の獲得には他の物体との隠れを避
けるために人物の真上のカメラを利用する方が、複数の
人物を分離して観測できるので有利となる。たとえば、
カメラ2#2の下方の位置では、前述の図25で説明し
たようにカメラ2#2による位置検出(分離)は容易と
なるが、他のカメラ2#1,2#3では側方の観測とな
るため、位置検出が困難となる。矢印aは各カメラ2#
1,2#2,2#3のそれぞれの真下にある物体の位置
検出精度が高いことを示している。
In order to obtain position information, it is advantageous to use a camera directly above a person in order to avoid hiding from other objects, since a plurality of persons can be separately observed. For example,
At the position below the camera 2 # 2, the position detection (separation) by the camera 2 # 2 is facilitated as described with reference to FIG. 25, but the other cameras 2 # 1 and 2 # 3 observe the side. Therefore, position detection becomes difficult. Arrow a indicates each camera 2 #
This indicates that the position detection accuracy of the object directly below each of 1, 2 # 2 and 2 # 3 is high.

【0018】一方、服の色や背丈や顔画像といった固有
情報は、カメラ2#2よりもカメラ2#1,2#3が側
方を観測するため有利となる。矢印bは各カメラ2#
1,2#2,2#3がそれぞれ側方を観測したときに固
有情報の取得が良好になることを示している。
On the other hand, the unique information such as the color of the clothes, the height and the face image is more advantageous because the cameras 2 # 1 and 2 # 3 observe the sides more than the camera 2 # 2. Arrow b indicates each camera 2 #
This indicates that the acquisition of the unique information becomes good when 1, 2, and 2 # 3 observe the sides, respectively.

【0019】この発明は、図1に示すようにカメラ2#
1,2#2,2#3を天井に配置し、人物との距離に応
じて各カメラをいずれの情報の獲得に利用するかを切換
えることで広範囲にわたり、隠れの影響を受けにくくし
対象物の同定,位置検出の両方を安定に行なうことを可
能にする。
According to the present invention, as shown in FIG.
1, 2 # 2 and 2 # 3 are placed on the ceiling, and by switching which camera is used to acquire which information according to the distance to the person, the object is less affected by hiding over a wide area. It is possible to perform both identification and position detection stably.

【0020】図2はこの発明の一実施形態における移動
物体追跡装置1の全体構成を示すブロック図である。図
2を参照して、移動物体追跡装置1は、図1に示すよう
に天井に配置されるカメラ2♯1,2♯2,…,2♯n
と、観測部4♯1,4♯2,…,4♯nと、発見部6
と、追跡部8を含む。
FIG. 2 is a block diagram showing the overall configuration of the moving object tracking device 1 according to one embodiment of the present invention. Referring to FIG. 2, moving object tracking device 1 includes cameras 2 # 1, 2 # 2,..., 2 # n arranged on the ceiling as shown in FIG.
, 4 観 測 n, observation units 4♯1, 4♯2,.
And a tracking unit 8.

【0021】観測部4♯1,4♯2,…,4♯nのそれ
ぞれは、カメラ2♯1,2♯2,…,2♯nにそれぞれ
対応して設けられる(以下総称的に、カメラ2、観測部
4とそれぞれ記す)。そして、各観測部4#1,4#
2,…,4#nには各カメラ2#1,2#2,…,2#
nの撮像出力が与えられている。観測部4♯1、4♯2
…4♯n、発見部6および追跡部8のそれぞれは、互い
に独立して動作することが可能である。たとえば、これ
らは異なる計算機で構成され、それぞれの計算機をロー
カルエリアネットワークLANで接続する。
Each of the observation sections 4 # 1, 4 # 2,..., 4 # n is provided corresponding to each of the cameras 2 # 1, 2 # 2,. 2. Observation unit 4). And each observation part 4 # 1, 4 #
Each camera 2 # 1, 2 # 2,..., 2 #
n imaging outputs are provided. Observation unit 4♯1, 4♯2
.., 4♯n, the discovery unit 6 and the tracking unit 8 can operate independently of each other. For example, they are composed of different computers, and each computer is connected by a local area network LAN.

【0022】図中、記号A0は観測部4から追跡部8に
送信される対応点(追跡目標)の観測情報を表し、記号
A1は観測部4から発見部6に送信される未対応点(追
跡目標と対応のとれない点)の観測情報を表し、記号A
2は追跡部8から観測部4に送信される予測位置情報を
表し、記号A3は発見部6から追跡部8に送信される新
規人物の位置情報(初期値)を表し、記号A4は追跡部
8から発見部4に送信される位置情報(更新後)を表わ
している。
In the figure, a symbol A0 represents observation information of a corresponding point (tracking target) transmitted from the observation unit 4 to the tracking unit 8, and a symbol A1 represents an uncorresponding point (the tracking target) transmitted from the observation unit 4 to the discovery unit 6. Represents the observation information of points that cannot be matched with the tracking target), and the symbol A
2 represents predicted position information transmitted from the tracking unit 8 to the observation unit 4, symbol A3 represents position information (initial value) of a new person transmitted from the finding unit 6 to the tracking unit 8, and symbol A4 is the tracking unit. 8 represents the position information (after updating) transmitted to the discovery unit 4.

【0023】観測部4は、対応するカメラが真下の人物
を撮像したことに応じて、その人物の位置情報を獲得
し、他のカメラがその人物の側方を撮像したことに応じ
て少なくとも顔,服装を同定するための情報を獲得し、
獲得結果から特徴抽出処理を行なう。
The observing section 4 acquires the position information of the person in response to the corresponding camera capturing the image of the person directly below, and at least obtains the face information in response to the other camera capturing the side of the person. , Acquire information to identify clothes,
A feature extraction process is performed from the obtained result.

【0024】なお、カメラは必ずしも真下の人物や人物
を側方から撮像するものに限定されず、たとえばロボッ
トが暴走する様子や、犬や猫などの動物などが移動する
様子を上方および側方から撮像できればよい。各観測部
4は独立に動作する。観測部4で得られた特徴量(重心
点および距離変換値)は、後述する追跡部8から送信さ
れてくる予測位置情報A2をもとに追跡目標と対応付け
られた後に、観察時間の情報とともに追跡部8に送信さ
れる。対応がとれなかった特徴量は未対応点の観測情報
A1として、発見部6に送信される。
Note that the camera is not necessarily limited to an image of a person directly below or a person from the side. For example, a state in which a robot runs away or an animal such as a dog or a cat moves is viewed from above and from the side. What is necessary is just to be able to image. Each observation unit 4 operates independently. The feature amount (centroid and distance conversion value) obtained by the observation unit 4 is associated with the tracking target based on the predicted position information A2 transmitted from the tracking unit 8 described later, and then the observation time information Is transmitted to the tracking unit 8. The feature amount that could not be corresponded is transmitted to the discovery unit 6 as observation information A1 of an uncorresponding point.

【0025】発見部6では、送信されてきた未対応点の
観測情報A1を用いて、シーンの中に新らたに現れた人
物(新規人物)の検出を行なう。新規人物についての検
出結果、すなわち新規人物の位置情報A3は、追跡部8
に送信される。これにより、新規人物は、新たな追跡目
標として追加される。そして、追跡部8において追跡が
開始される。
The discovery unit 6 detects a newly appearing person (new person) in the scene by using the transmitted uncorresponding observation information A1. The detection result of the new person, that is, the position information A3 of the new person,
Sent to. Thereby, a new person is added as a new tracking target. Then, tracking is started in the tracking unit 8.

【0026】追跡部8では、新規人物の位置情報A3を
初期値とし、観測情報A0を入力値として、カルマンフ
ィルタを用いて人物の位置情報を更新し、さらに観測モ
デルに基づき位置を予測する。予測位置情報A2は、観
測部4に送信される。発見部6には、後述するように位
置情報(更新後)A4が送信される。
The tracking section 8 updates the position information of the person using the Kalman filter, using the position information A3 of the new person as an initial value, the observation information A0 as an input value, and predicts the position based on the observation model. The predicted position information A2 is transmitted to the observation unit 4. The location information (after update) A4 is transmitted to the discovery unit 6 as described later.

【0027】図3はこの発明の一実施形態の動作を説明
するためのフローチャートであり、図4は図3の各人物
領域と追跡モデルの対応付けおよび位置・姿勢推定動作
を示すフローチャートであり、図5は天井に設置したカ
メラからの距離に基づく人物像の変化例を示す図であ
る。
FIG. 3 is a flowchart for explaining the operation of one embodiment of the present invention. FIG. 4 is a flowchart showing the correspondence between each person area and the tracking model and the position / posture estimation operation in FIG. FIG. 5 is a diagram illustrating an example of a change in a human image based on a distance from a camera installed on a ceiling.

【0028】観測部4は図3に示すステップ(図示では
SPと略称する)SP1において、カメラ2から対応す
る画像信号が入力されると、ステップSP2において人
物領域を検出する。ステップSP3において人物を検出
したか否かを判別する。人物を検出するまでステップS
P1〜SP3を繰り返す。人物の存在を検出すると、ス
テップSP4において、人物を観測した時刻を追跡部8
に送信する。その結果、観測部4は追跡部8から追跡モ
デルと観測時刻により算出した位置・姿勢および顔画
像,服装などの人物特徴の予測値を受信する。
In step SP1 shown in FIG. 3 (abbreviated as SP in FIG. 3), when the corresponding image signal is input from the camera 2, the observation section 4 detects a person area in step SP2. In step SP3, it is determined whether a person has been detected. Step S until a person is detected
P1 to SP3 are repeated. When the presence of the person is detected, at step SP4, the time at which the person was observed is tracked by the tracking unit 8.
Send to As a result, the observation unit 4 receives from the tracking unit 8 the position / posture calculated based on the tracking model and the observation time, and the predicted values of human characteristics such as face images and clothes.

【0029】ステップSP6において、各人物領域と追
跡モデルとを対応付ける。この処理は図4(a)に示す
処理を実行することにより行なわれる。すなわち、ステ
ップSP21において、各人物領域を特定し、ステップ
SP22において位置・姿勢を推定する。この処理は図
4(b)に示す処理で行なわれる。ステップSP31に
おいて位置推定が行なわれ、ステップSP32において
各人物領域とカメラ2との距離dを算出する。距離dの
制約下で姿勢を推定し、信頼度(重み)を算出する。姿
勢の推定は、図5に示すようにカメラから距離d離れた
人物がとり得る回転(姿勢角)のシルエット情報に基づ
いて行なわれる。
In step SP6, each person area is associated with a tracking model. This processing is performed by executing the processing shown in FIG. That is, in step SP21, each person area is specified, and in step SP22, the position / posture is estimated. This process is performed by the process shown in FIG. In step SP31, position estimation is performed. In step SP32, the distance d between each person region and the camera 2 is calculated. The posture is estimated under the constraint of the distance d, and the reliability (weight) is calculated. The posture is estimated based on silhouette information of a rotation (posture angle) that can be taken by a person at a distance d from the camera as shown in FIG.

【0030】その後、図4(a)に示すステップSP2
3において頭部領域画像,服の色などの人物特徴を抽出
するとともに信頼度(重み)を算出する。そして、ステ
ップSP24において位置・姿勢情報,人物特徴情報に
よる対応付け処理を行う。ステップSP25においてす
べての人物領域について処理を終えたか否かを判別し、
終えていなければ次の人物領域について処理するために
ステップSP21に戻る。すべての人物領域について処
理を終えていれば、図3に示すステップSP7に進む。
Thereafter, step SP2 shown in FIG.
In step 3, human characteristics such as a head region image and clothes color are extracted, and the reliability (weight) is calculated. Then, in step SP24, an association process based on the position / posture information and the person characteristic information is performed. In step SP25, it is determined whether or not the processing has been completed for all the person areas,
If not, the process returns to step SP21 to process the next person area. If the processing has been completed for all the person regions, the process proceeds to step SP7 shown in FIG.

【0031】ステップSP7において、各人物領域を特
定し、ステップSP8において追跡モデルと対応関係が
あるか否かを判別する。追跡モデルと対応関係があれば
ステップSP9において位置・姿勢および人物特徴など
の観測情報を追跡ノードに送信し、その際カメラ2との
距離に応じた信頼度を付加する。もし、追跡モデルと対
応関係がなければステップSP10において位置・姿勢
および人物特徴などの観測情報を発見ノードに送信し、
その際カメラ2との距離に応じた信頼度を付加する。ス
テップSP11においてすべての人物領域について処理
を終えたか否かを判別し、終えていなければステップS
P7の戻り、終えていればステップSP1に戻る。
At step SP7, each person area is specified, and at step SP8, it is determined whether or not there is a correspondence with the tracking model. If there is a correspondence with the tracking model, in step SP9, observation information such as the position / posture and the person's characteristic is transmitted to the tracking node, and at that time, a reliability corresponding to the distance from the camera 2 is added. If there is no corresponding relationship with the tracking model, in step SP10, the observation information such as the position / posture and the person characteristic is transmitted to the discovery node,
At that time, a reliability corresponding to the distance from the camera 2 is added. In step SP11, it is determined whether or not the processing has been completed for all the person areas.
Return to P7, and if it is completed, return to step SP1.

【0032】ここで、この発明の一実施形態において用
いる人体モデルについて図6を用いて説明する。図6
は、本発明の実施の形態において用いる人体モデルにつ
いて説明するための図である。図中、X、Y、Zは世界
座標系の3軸を示している。人物MANは、楕円柱hで
モデル化している。人物モデルhの中心軸Xhを、人物
の回転軸とし、法線軸(回転軸Xhと垂直な短軸方向の
軸)とX軸とがなす角rを人物の姿勢角とする。なお、
人物MANの回転軸Xhは、床面(X軸およびY軸がな
す平面)に対して垂直であると仮定する。カメラ2は、
人物の回転軸Xh、すなわちZ軸に垂直に配置される。
Here, a human body model used in one embodiment of the present invention will be described with reference to FIG. FIG.
FIG. 3 is a diagram for describing a human body model used in the embodiment of the present invention. In the figure, X, Y, and Z indicate three axes of the world coordinate system. The person MAN is modeled by an elliptical cylinder h. The center axis Xh of the person model h is set as the rotation axis of the person, and the angle r between the normal axis (the axis in the short axis direction perpendicular to the rotation axis Xh) and the X axis is set as the posture angle of the person. In addition,
It is assumed that the rotation axis Xh of the person MAN is perpendicular to the floor (the plane defined by the X axis and the Y axis). Camera 2
It is arranged perpendicular to the rotation axis Xh of the person, that is, the Z axis.

【0033】次に、図2に示す観測部4について説明す
る。図7は、観測部4の構成の概要について説明するた
めの図である。図7を参照して、観測部4は、領域分割
回路10、画素値算出回路12、重心点選択回路14、
および特徴点対応づけ回路16を含む。
Next, the observation section 4 shown in FIG. 2 will be described. FIG. 7 is a diagram for describing an outline of the configuration of the observation unit 4. Referring to FIG. 7, the observation unit 4 includes a region dividing circuit 10, a pixel value calculating circuit 12, a centroid point selecting circuit 14,
And a feature point association circuit 16.

【0034】領域分割回路10、画素値算出回路12お
よび重心点選択回路14は、入力した人物画像に基づき
特徴抽出処理を行なう。特徴点対応づけ回路16は、当
該抽出された特徴点と追跡目標(モデル)間の対応付け
を行なう。
The area dividing circuit 10, the pixel value calculating circuit 12, and the center-of-gravity point selecting circuit 14 perform a feature extracting process based on the input human image. The feature point associating circuit 16 associates the extracted feature points with the tracking target (model).

【0035】領域分割回路10は、入力画像を、人物領
域と背景領域とに分割する。たとえば、「連続画像に基
づく階層的適応による人物追跡のための画像分割」コン
ピュータビジョンおよびパターン認識(CVPR′9
8),IEEEコンピュータ学会論文誌,p.911〜
916に、領域分割の手法が記載されている。
The area dividing circuit 10 divides an input image into a person area and a background area. For example, “Image Segmentation for Person Tracking by Hierarchical Adaptation Based on Continuous Images” Computer Vision and Pattern Recognition (CVPR'9
8), IEEE Computer Society Transactions, p. 911-
916 describes a method of region division.

【0036】具体的には、カメラで撮影した現フレーム
の画像と、前後フレームの画像との差分を2値化し、差
分画像のいくつかのフレームを重ね合せることによりマ
スク画像を生成する(すなわち、粗い分割により大まか
な動物体領域を抽出する)。マスク画像のサイズが一定
範囲にあるときは、さらに輝度情報、色情報、またはピ
クスタ情報、テクスチャ情報ならびにこれらのいずれか
の組合せにより当該パラメータの分布を推定し、さらに
推定されたパラメータの分布によって、新たに得られた
画像上の各画素について当該動物体領域の存在する確率
を算出する(すなわち、精密な分割を行なう)。これに
より、カメラにとらえられる入力画像の中から人物領域
を切り出す。
More specifically, a mask image is generated by binarizing the difference between the image of the current frame photographed by the camera and the images of the preceding and succeeding frames, and superimposing several frames of the difference image (that is, a mask image). A rough moving object region is extracted by a coarse division). When the size of the mask image is within a certain range, the luminance information, the color information, or the pixel information, the texture information and a combination of any of these are used to estimate the distribution of the parameter. For each pixel on the newly obtained image, the probability that the moving object region exists is calculated (that is, precise division is performed). Thus, a person region is cut out from the input image captured by the camera.

【0037】続いて、画素値算出回路12において、得
られた人物画像に対して距離変換を行なう。具体的に
は、人物領域を構成する画素の各々から人物領域の境界
までの最短距離を示す画素値を算出する。重心点選択回
路14は、人物領域内で画素値が最大となる点を当該人
物領域の重心点(すなわち特徴点)として選択する。重
心点における画素値を距離変換値とする。重心点と重心
点の距離変換値(重心点距離変換値)とを特徴量として
用いる。
Subsequently, the pixel value calculation circuit 12 performs distance conversion on the obtained human image. Specifically, a pixel value indicating the shortest distance from each of the pixels constituting the person region to the boundary of the person region is calculated. The center-of-gravity point selection circuit 14 selects a point having a maximum pixel value in the person area as a center-of-gravity point (that is, a feature point) of the person area. The pixel value at the center of gravity is defined as a distance conversion value. A centroid point and a distance conversion value of the centroid point (centroid point distance conversion value) are used as the feature amount.

【0038】具体的には、領域分割回路10からは、図
8(a)に示すような2値化画像が出力される。画素値
算出回路12では、図8(a)に示す2値化画像に対し
て、図8(b)に示す距離変換画像を生成する。図8
(b)では、距離変換値が大きい画素ほど黒く表され、
距離変換値が小さい画素ほど白く表されている。人体の
輪郭から遠くなるにつれ画素の色が濃くなっている。重
心点選択回路14は、図8(b)における記号“X”に
相当する画素を、重心点として選択する。当該距離変換
による重心点検出は、人物のポーズの変化の影響を受け
にくいという特徴がある。
More specifically, the area dividing circuit 10 outputs a binarized image as shown in FIG. The pixel value calculation circuit 12 generates a distance conversion image shown in FIG. 8B for the binarized image shown in FIG. FIG.
In (b), a pixel having a larger distance conversion value is represented in black,
Pixels with smaller distance conversion values are represented whiter. As the distance from the contour of the human body increases, the color of the pixel becomes darker. The centroid selection circuit 14 selects a pixel corresponding to the symbol “X” in FIG. 8B as a centroid. The detection of the center of gravity by the distance conversion has a feature that it is hardly affected by a change in the pose of the person.

【0039】続いて、抽出された重心点と既に発見され
ている追跡目標との間の対応付けを行なう特徴点対応づ
け回路16について説明する。図9は、特徴点の対応付
け処理について説明するための図である。図中、記号2
0♯1、20♯2、…、20♯k、…、20♯m、…、
20♯nのそれぞれは、カメラ2♯1、2♯2、…、2
♯k、…、2♯m、…、2♯nにより得られる画像面を
それぞれ表わしている(以下、総称的に、画像面20と
記す)。
Next, a description will be given of the feature point associating circuit 16 for associating the extracted center of gravity with a tracking target that has already been discovered. FIG. 9 is a diagram for explaining the feature point associating process. In the figure, symbol 2
0♯1, 20♯2, ..., 20♯k, ..., 20♯m, ...,
Each of 20、2n is a camera 2♯1, 2♯2,.
, 2m,..., 2n (hereinafter, generically referred to as an image plane 20).

【0040】時刻taにカメラ2♯kにより、時刻tb
にカメラ2♯mにより、観測がそれぞれ行なわれたもの
とする(ただし、ta<tbとする)。時刻taでは、
2人の人物h0,h1が存在し、時刻tbにおいて人物
h2がシーン内に初めて現われたとする。
At time ta, camera 2 @ k uses time tb
First, it is assumed that observation is performed by the camera 2 m (however, ta <tb). At time ta,
It is assumed that two persons h0 and h1 exist, and the person h2 first appears in the scene at time tb.

【0041】画像面20に付した記号×は、各画像にお
いて検出された重心点を示している。この場合、時刻t
aにおける画像面20♯kから、2つの重心点(特徴
点)が検出され、時刻tbにおける画像面20♯mか
ら、3つの重心点(特徴点)が検出される。
The symbol x attached to the image plane 20 indicates the center of gravity detected in each image. In this case, the time t
Two centroid points (feature points) are detected from the image plane 20 @ k at a, and three centroid points (feature points) are detected from the image plane 20 @ m at time tb.

【0042】人物h0,h1のそれぞれについては、追
跡部8への問合せにより、時刻taまでの観測結果に基
づき時刻tbの予測位置を得る。後述するように、追跡
部8では、人物の動きを等速運動で仮定しており、ある
時刻tにおける人物hjの予測位置は、2次元のガウス
分布で表わされる。世界座標系における人物hjの時刻
tにおける位置を位置Xhj,tとし、当該2次元のガウス
分布の平均を/Xhj,t、共分散行列を/Shj,tと記す。
平均および共分散行列は、予測位置情報A0として、追
跡部8から送信される。
For each of the persons h0 and h1, the predicted position at the time tb is obtained by an inquiry to the tracking unit 8 based on the observation result up to the time ta. As will be described later, in the tracking unit 8, the motion of the person is assumed to be constant speed motion, and the predicted position of the person hj at a certain time t is represented by a two-dimensional Gaussian distribution. The position of the person hj at time t in the world coordinate system is referred to as position X hj, t , the average of the two-dimensional Gaussian distribution is referred to as / X hj, t , and the covariance matrix is referred to as / Shj, t .
The average and covariance matrix are transmitted from the tracking unit 8 as predicted position information A0.

【0043】なお、式では、/Xhj,tを、記号Xhj,t
上に“−”を付したものとして表現し、/Shj,tを、記
号Shj,tの上に“−”を付したものとして表現する。
In the expression, / X hj, t is expressed as a symbol X hj, t with "-" added thereto, and / S hj, t is expressed as a symbol "S hj, t "-".

【0044】予測位置の分布N(/Xhj,t、/Shj,t
を画像20♯i(i=1、2、…、n)に弱透視投影す
ると、式(1)で示される確率からなる1次元ガウス分
布n(/xhj,t,i、/shj,t,iが得られる。これは、画
像20♯iにおける人物の存在確率を示している。式
(1)において、記号xは、世界座標系での人物位置X
を画像面上に投影したもの、記号/xは、世界座標系に
おける平均/Xを画像面上に投影したもの、記号/s
は、世界座標系における共分散行列/Sを画像面上に投
影したものをそれぞれ表わしている。なお、式では、/
xを、記号xの上に“−”を付したものとして表現し、
/sを、記号sの上に“−”を付したものとして表現す
る。
Prediction position distribution N (/ X hj, t , / S hj, t )
Is weakly perspective projected on an image 20♯i (i = 1, 2,..., N) to obtain a one-dimensional Gaussian distribution n (/ x hj, t, i , / s hj, t, i is obtained, which indicates the probability of the presence of a person in the image 20♯i.In equation (1), the symbol x is the person position X in the world coordinate system.
Is projected onto the image plane, symbol / x is the projection of the average / X in the world coordinate system onto the image plane, symbol / s
Represents the projection of the covariance matrix / S in the world coordinate system onto the image plane. In the equation,
x is represented as "-" added to the symbol x,
/ S is expressed as "-" added to the symbol s.

【0045】[0045]

【数1】 (Equation 1)

【0046】式(1)に表わされる確率を最大にする特
徴点を観測時間での人物hjに対応する観測値とし、当
該特徴点にhjのラベルを付ける。ラベル付けられた特
徴点の観測情報A0は、追跡部8に送信される。ただ
し、複数の人物と対応付けができた特徴点については、
観測時点でオクルージョンが発生していると判断し、送
信を停止する。
The feature point that maximizes the probability expressed by the equation (1) is set as the observation value corresponding to the person hj at the observation time, and the feature point is labeled hj. The observation information A0 of the labeled feature points is transmitted to the tracking unit 8. However, for feature points that can be associated with multiple people,
It determines that occlusion has occurred at the time of observation, and stops transmission.

【0047】これらの処理の後、対応付けがされていな
い特徴点については、未知の人物、すなわち新規人物に
属するものとし、未対応の観測情報A1として、位置お
よび時間が発見部6に送信される。なお、図9において
は、人物h2についての観測情報A1が、発見部6に送
信される。
After these processes, the feature points not associated with each other are assumed to belong to an unknown person, that is, a new person, and the position and time are transmitted to the discovery unit 6 as unsupported observation information A1. You. In FIG. 9, observation information A1 on the person h2 is transmitted to the discovery unit 6.

【0048】続いて、図2に示す追跡部8について説明
する。追跡部8では、観測部4のそれぞれから送られて
きた観測情報A0に基づき、追跡目標人物の位置・方向
を更新する。
Next, the tracking section 8 shown in FIG. 2 will be described. The tracking unit 8 updates the position and direction of the tracking target person based on the observation information A0 sent from each of the observation units 4.

【0049】図10は、図2に示す追跡部8の構成の概
要について説明するための図である。図10を参照し
て、追跡部8は、位置推定回路22および方向角推定回
路24を含む。位置推定回路22は、観測部4から得ら
れる重心点位置に基づき、予測位置を推定し、推定結果
を方向推定回路24に出力する。方向角推定回路24
は、位置推定回路22から出力される推定結果に従い、
観測部4から得られる重心点距離変換値に基づき方向角
を推定する。
FIG. 10 is a diagram for explaining an outline of the configuration of the tracking unit 8 shown in FIG. Referring to FIG. 10, tracking section 8 includes a position estimation circuit 22 and a direction angle estimation circuit 24. The position estimating circuit 22 estimates a predicted position based on the position of the center of gravity obtained from the observation unit 4, and outputs the estimation result to the direction estimating circuit 24. Direction angle estimation circuit 24
Is based on the estimation result output from the position estimation circuit 22,
The direction angle is estimated based on the center-of-gravity point distance conversion value obtained from the observation unit 4.

【0050】まず、位置推定回路22における位置推定
処理について詳しく述べる。追跡中の人物の位置は、各
観測部4において対応付けられた特徴情報(重心点位
置)を用いて更新される。図11は、位置推定処理につ
いて説明するための図である。図11を参照して、カメ
ラ2♯iと画像面20♯iとの距離を距離li、カメラ
2♯iと人物hjとの距離を距離Lhj,iと記す。エピポ
ーラ線とY軸とがなす角度をwhj,iと記す。
First, the position estimating process in the position estimating circuit 22 will be described in detail. The position of the person being tracked is updated using the characteristic information (center-of-gravity point position) associated with each observation unit 4. FIG. 11 is a diagram for describing the position estimation processing. Referring to FIG. 11, the distance between camera 2 # i and image plane 20 # i is referred to as distance l i , and the distance between camera 2 # i and person hj is referred to as distance L hj, i . The angle between the epipolar line and the Y axis is denoted by w hj, i .

【0051】位置推定処理においては、人物は等速運動
をしているものと仮定する。時刻tにおける人物hjの
状態を、世界座標(X、Y)上で、式(2)および
(3)で表わす。ただし、初期状態は、発見部6から送
信される新規人物(モデル)の情報によって決定される
ものとする。行列に付される“′”は、転置を表わして
いる。
In the position estimating process, it is assumed that the person is moving at a constant speed. The state of the person hj at the time t is expressed by the equations (2) and (3) on the world coordinates (X, Y). However, it is assumed that the initial state is determined by the information of the new person (model) transmitted from the discovery unit 6. "'" Added to the matrix indicates transposition.

【0052】∧Xhj,t-1を時刻(t−1)における人物
位置Xhjの推定値とし、∧Shj,t-1を、推定値∧X
hj,t-1の分散行列とすると、時刻tでの状態は式(4)
および式(5)でそれぞれ表わされる。式では、∧X
hj,t-1を、記号Xhj,t-1の上に“∧”を付したものとし
て表現し、∧Shj,t-1を、記号Shj,t-1の上に“∧”を
付したものとして表現する。
Let ∧X hj, t-1 be the estimated value of the person position X hj at time (t-1), and ∧S hj, t-1 be the estimated value ∧X
Assuming that the variance matrix is hj, t-1 , the state at time t is given by equation (4)
And equation (5). In the formula, ∧X
hj, a t-1, symbol X hj, expressed as marked with "∧" over the t-1, ∧S hj, a t-1, symbol S hj, on the t-1 "∧" It is expressed as the one with.

【0053】なお、遷移行列Fは、式(6)で表わされ
る(Δt:t−1→t)。また、記号Qは、遷移におけ
る共分散行列を表わしている。
The transition matrix F is represented by the following equation (6) (Δt: t−1 → t). The symbol Q represents a covariance matrix at the transition.

【0054】[0054]

【数2】 (Equation 2)

【0055】ここで、観測部4♯iにより1回目の観測
が行なわれたものとする。観測部4♯iから送られてき
た位置情報により、この観測は、式(7)〜(9)で表
わすことができる。
Here, it is assumed that the first observation is performed by the observation unit 4 # i. Based on the position information sent from the observation unit 4 # i, this observation can be represented by the equations (7) to (9).

【0056】H=[1 0 0 0] …(7)H = [1 0 0 0] (7)

【0057】[0057]

【数3】 (Equation 3)

【0058】記号Ciは、カメラの位置を、記号R
hj,t,iは、エピポーラ線とY軸とがなす角度whj,t,i
時計回りの回転を表わしている。なお、記号eは、観測
誤差を表わしており、平均0、標準偏差σhj,t,iとす
る。標準誤差σhj,t,iは、カメラの距離が大きくなるほ
ど増加すると考え、式(9)のように表わす。
[0058] symbol C i is, the position of the camera, the symbols R
hj, t, i represents the clockwise rotation of the angle w hj, t, i between the epipolar line and the Y axis. The symbol e represents an observation error, which is assumed to be mean 0 and standard deviation σ hj, t, i . The standard error σ hj, t, i is considered to increase as the distance of the camera increases, and is expressed as in equation (9).

【0059】ここでは、カメラの位置Ciと人物(X
hj,t)との間の距離Lhj,t,iは未知数のため、Xhj,t
予測位置/Xhj,tにより算出した距離/Lhj,t,iを近似
値として使用する(式では、/Lhj,t,iを、記号L
hj,t,iの上に“−”を付したものとして表現する)。
[0059] In this case, the camera position C i and the person of (X
hj, the distance L hj between t), t, i because of unknown, X hj, predicted position / X hj of t, the distance is calculated by t / L hj, using t, a i as an approximation ( In the formula, / L hj, t, i is represented by the symbol L
hj, t, i are expressed as "-".

【0060】式(8)の観測式では、左辺は観測情報
を、右辺は人物位置を画像に投影した結果をそれぞれ表
わしている。
In the observation equation (8), the left side represents observation information, and the right side represents the result of projecting the position of the person on the image.

【0061】位置推定回路22では、以上の観測モデル
によりカルマンフィルタを構成し、人物hjの状態を更
新する。
The position estimation circuit 22 forms a Kalman filter based on the above observation model, and updates the state of the person hj.

【0062】[0062]

【数4】 (Equation 4)

【0063】各カメラごとに、独立に式(10)および
(11)による更新処理を行ない、状態予測を行なう。
時刻(t+1)における人物hjの状態予測は、平均を
/X hj,t+1、共分散行列を/Shj,t+1とするガウス分布
で与えられる。状態予測の結果は、観測部4の要求に応
じて計算・送信され、上述したとおり特徴点の対応づけ
に利用される。カメラが検出可能な範囲外へ移動した人
物モデルは削除し、その人物の追跡を中止する。
Formula (10) and formula (10) are independently set for each camera.
The update process according to (11) is performed, and the state is predicted.
The state prediction of the person hj at the time (t + 1)
/ X hj, t + 1, The covariance matrix / Shj, t + 1Gaussian distribution
Given by The result of the state prediction corresponds to the request of the observation unit 4.
Calculated and transmitted in the same way, and associating feature points as described above
Used for Person who has moved out of range where the camera can detect
The object model is deleted and tracking of the person is stopped.

【0064】続いて、方向角推定回路24の処理につい
て説明する。方向角推定回路24では、人物の姿勢角r
(図6参照)を、オクルージョンを生じない重心点距離
変換値を用いて推定する。この推定は、図12に示す人
体の観測モデル(楕円体モデル)に基づいて行なう。図
12を参照して、カメラ2で撮影された画像上における
楕円体の幅をsとして重心点距離変換値を用いる。弱透
視変換を仮定すると光軸と楕円体モデル(人物)の回転
軸の法線とがなす角をθとして、観測される重心点距離
変換値sは、式(12)に従うことになる。ここで、式
(12)における記号Lは、楕円体モデルの回転軸から
カメラまでの距離を示しており、記号AおよびBは定数
である。観測がガウス誤差を伴うと仮定すると、重心点
距離変換値sが観測される確率P(s|θ)は、式(1
3)のように表わされる。なお、定数A,Bと誤差の分
散σsとは、学習用データにより予め決定しておく。
Next, the processing of the direction angle estimation circuit 24 will be described. In the direction angle estimation circuit 24, the posture angle r of the person
(See FIG. 6) is estimated using the center-of-gravity point distance conversion value that does not cause occlusion. This estimation is performed based on the human observation model (ellipsoid model) shown in FIG. Referring to FIG. 12, the center-of-gravity point distance conversion value is used assuming that the width of the ellipsoid on the image captured by camera 2 is s. Assuming the weak perspective transformation, the angle-of-gravity point distance conversion value s to be observed follows Expression (12), where θ is the angle between the optical axis and the normal to the rotation axis of the ellipsoid model (person). Here, the symbol L in Expression (12) indicates the distance from the rotation axis of the ellipsoid model to the camera, and the symbols A and B are constants. Assuming that the observation involves a Gaussian error, the probability P (s | θ) of observing the center-of-gravity point distance conversion value s is expressed by the equation (1)
It is expressed as 3). The constants A and B and the error variance σ s are determined in advance based on the learning data.

【0065】[0065]

【数5】 (Equation 5)

【0066】人体の姿勢は、オイラー角(a、e、r)
により表現できる。ここで、rは、方位角(姿勢角)
を、aは方位角を、eは仰角をそれぞれ表わしている。
方位角aおよび仰角eは、人体の回転軸方向により決定
されるため、回転軸回りの回転角rのみが未知数となっ
ている。
The posture of the human body is determined by the Euler angles (a, e, r)
Can be expressed by Here, r is the azimuth angle (posture angle).
, A represents an azimuth angle, and e represents an elevation angle.
Since the azimuth angle a and the elevation angle e are determined by the direction of the rotation axis of the human body, only the rotation angle r around the rotation axis is unknown.

【0067】人体の法線ベクトルNは、式(14)で表
わされる。したがって、カメラ2♯iの光軸ベクトルC
と人体の法線ベクトルNとがなす角θi(r)は、式
(15)で表わされることになる。
The normal vector N of the human body is expressed by equation (14). Therefore, the optical axis vector C of the camera 2♯i
The angle θ i (r) formed between the normal vector N of the human body and the normal vector N is expressed by Expression (15).

【0068】 N=RZ(a)RY(e)RX(r)e …(14) θci(r)=cos-1・NT・C …(15) なお、式(14)において、RZ、RY、RXはそれぞ
れ、Z、Y、X軸に関する回転行列を示し、eZは、Z
軸方向の単位ベクトルを示している。また、式(15)
において、記号NTは、法線ベクトルNの転置ベクトル
を示している。
N = R Z (a) R Y (e) R X (r) e (14) θ ci (r) = cos −1 · N T · C (15) In the equation (14), , R Z , R Y , and R X denote rotation matrices about the Z, Y, and X axes, respectively, and e Z denotes Z
The unit vector in the axial direction is shown. Equation (15)
, The symbol NT indicates a transposed vector of the normal vector N.

【0069】n台のカメラ2♯1〜2♯nによって、重
心点距離変換値の組W(s1、s2、…、sn)が観測さ
れる確率Pは、式(13)により、式(16)で表わさ
れる。式(16)における確率P(W|r)を最大とす
る値rを姿勢角の推定値とする。
The probability P that the set W (s 1 , s 2 ,..., S n ) of the center-of-gravity point distance conversion values is observed by the n cameras 2 # 1 to 2 #n is expressed by the following equation (13). It is represented by equation (16). The value r that maximizes the probability P (W | r) in Expression (16) is set as the estimated value of the posture angle.

【0070】[0070]

【数6】 (Equation 6)

【0071】方位角推定は、上述した位置推定と同様
に、観測が行なわれるごとに更新される。なお、図12
に示す観測モデルは、入力を観測部4から送信される特
徴情報(重心点距離変換値s)とし、式(17)で表わ
される状態rhj,tを有することになる。なお、オクルー
ジョンの有無は、特徴点の対応付けの際に判定されてお
り、オクルージョンが生じた場合は観測情報としては用
いられない。
The azimuth estimation is updated every time an observation is performed, as in the above-described position estimation. FIG.
The observation model shown in (1) has the state r hj, t represented by Expression (17), using the input as the feature information (the center-of-gravity point distance conversion value s) transmitted from the observation unit 4. The presence or absence of occlusion is determined at the time of associating feature points, and is not used as observation information when occlusion occurs.

【0072】続いて、図2に示す発見部6の概要につい
て説明する。発見部6では、シーンに新たに登場した人
物(新規人物)を検出し、対応するモデルを追跡部8に
追加する。
Next, the outline of the discovery unit 6 shown in FIG. 2 will be described. The discovery unit 6 detects a person who has newly appeared in the scene (a new person) and adds a corresponding model to the tracking unit 8.

【0073】観測情報は非同期に獲得されるため、通常
のステレオ対応をそのまま適用することができない。そ
こで、次のような時系列情報による対応(発見)手法を
用いる。
Since the observation information is obtained asynchronously, normal stereo correspondence cannot be applied as it is. Therefore, the following (discovery) method using time series information is used.

【0074】まず、観測部4のそれぞれから送られてき
た未対応点の観測情報のうち、異なる4時刻の観測情報
を各1点ずつ選出する(γと記す)。観測時刻t1,t
2,t3,t4のそれぞれに対して、観測視点をそれぞ
れC1,C2,C3,C4とする。観測情報を入力として、
上述したカルマンフィルタの更新処理(式(8))を行
なう。ただし、初期分散/Shj,t=0とする。
First, among the observation information of the uncorresponding points sent from each of the observation units 4, observation information at four different times is selected one by one (denoted by γ). Observation time t1, t
Observation viewpoints are respectively C 1 , C 2 , C 3 , and C 4 for each of 2, 2, t3, and t4. With observation information as input,
The above-described Kalman filter update processing (formula (8)) is performed. However, it is assumed that initial dispersion / Shj, t = 0.

【0075】この操作により、4回の観測における予測
軌道が得られる。この予測軌道を用いて、式(4)を用
いて位置推定を行なう(ただし、Δt=t4−ti:i
=1,2,3のいずれか)。位置推定結果の集合を[∧
t1,∧Xt2,∧Xt3,∧Xt 4]とする。
By this operation, a predicted trajectory in four observations is obtained. Using this predicted trajectory, position estimation is performed using equation (4) (where Δt = t4-ti: i
= 1, 2, 3). The set of position estimation results is [∧
X t1, ∧X t2, ∧X t3 , and ∧X t 4].

【0076】上述したように、式(7)の観測式では、
左辺は観測情報を、右辺は人物位置を画像に投影した結
果をそれぞれ表わしている。観測情報と人物位置を画像
に投影した結果との差として、式(17)に示すマハラ
ノビス距離を用いた誤差評価関数f(γ)を定義する。
As described above, in the observation expression of Expression (7),
The left side shows the observation information, and the right side shows the result of projecting the person's position on the image. An error evaluation function f (γ) using the Mahalanobis distance shown in Expression (17) is defined as the difference between the observation information and the result of projecting the person position on the image.

【0077】[0077]

【数7】 (Equation 7)

【0078】式(17)に示す評価関数の値が一定のし
きい値以内である組合せは、新規人物に属する特徴点集
合とし、最新観測時刻(ここではt4)における推定位
置を初期発見位置として追跡部8に送信する。
A combination in which the value of the evaluation function shown in Expression (17) is within a certain threshold value is a feature point set belonging to a new person, and an estimated position at the latest observation time (here, t4) is set as an initial discovery position. Transmit to the tracking unit 8.

【0079】次に、本発明の有効性を明らかにするた
め、以下のような2つのシミュレーション実験を行なっ
た。図13は、位置追従の精度を確認するためのシミュ
レーション実験について説明するための図である。図1
3に示すシミュレーション実験では、2台のカメラ(2
♯1,2♯2)を用い、点線で示す円軌道を周期10×
fで等速円運動する追跡対象物体h0を観測した。tf
は、カメラの撮影間隔である。カルマンフィルタには、
等速直線運動のモデルを与えた。観測は平行射影を仮定
し、実験では2台のカメラ2♯1および2♯2のそれぞ
れの光軸がなす角度θを4通り(0°、30°、45
°、90°)に設定した。それぞれの条件において、カ
メラ2♯1とカメラ2♯2との撮影時間のずれΔtを0
からtf/2まで変化させ、カメラ2♯1の観測からtf
後の(カメラ2♯1の撮影面に平行な方向についての)
位置予測誤差を記録した。
Next, the following two simulation experiments were performed to clarify the effectiveness of the present invention. FIG. 13 is a diagram for describing a simulation experiment for confirming the accuracy of position following. Figure 1
In the simulation experiment shown in FIG. 3, two cameras (2
Using {1, 2} 2), a circular orbit indicated by a dotted line has a period of 10 ×
The tracking target object h0 that makes a uniform circular motion at t f was observed. t f
Is the shooting interval of the camera. The Kalman filter has
A model of constant velocity linear motion was given. Observation is assumed to be parallel projection. In the experiment, four angles θ (0 °, 30 °, 45 °) formed by the respective optical axes of the two cameras 2 # 1 and 2 # 2 are set.
°, 90 °). Under each condition, the difference Δt in the photographing time between the camera 2 # 1 and the camera 2 # 2 is set to 0.
From t f / up to 2 is varied, t f from the observation of the camera 2♯1
Later (in the direction parallel to the shooting plane of camera 2-1)
The position prediction error was recorded.

【0080】図14は、図13に対する実験結果を説明
するための図である。図14において、横軸は撮影時間
のずれΔtを、縦軸は予測誤差を示している。図14に
示すように、光軸のなす角度θが0°、30°、45°
である場合は特に、撮影間隔の増加に伴い予測誤差が減
少し、Δt=tf/2において予測誤差は最小値をとっ
た。これにより、追跡対象物体の運動がカルマンフィル
タの前提となる運動モデルから外れる場合に、特に、非
同期観測を行なうことにより同期観測に比べて高い追従
性が得られることがわかる。
FIG. 14 is a diagram for explaining the results of experiments on FIG. In FIG. 14, the horizontal axis represents the shift Δt of the photographing time, and the vertical axis represents the prediction error. As shown in FIG. 14, the angle θ between the optical axes is 0 °, 30 °, 45 °
In particular, in the case of, the prediction error decreased with an increase in the photographing interval, and the prediction error took the minimum value at Δt = t f / 2. Accordingly, when the motion of the object to be tracked deviates from the motion model that is the premise of the Kalman filter, it can be seen that, in particular, higher tracking performance can be obtained by performing asynchronous observation as compared with synchronous observation.

【0081】図15は、複数人物の動きを推定する能力
を明らかにするためのシミュレーション実験について説
明するための図である。図15に示すシミュレーション
実験では、5台のカメラ2♯1〜2♯5を配置する。カ
メラはそれぞれ、対応する観測部を構成する1台の計算
機に接続されている。画像処理は、これらの計算機上で
行なわれる。処理速度は約1〜2frame/secである。
FIG. 15 is a diagram for explaining a simulation experiment for clarifying the ability to estimate the motion of a plurality of persons. In the simulation experiment shown in FIG. 15, five cameras 2 # 1 to 2 # 5 are arranged. Each of the cameras is connected to one computer constituting a corresponding observation unit. Image processing is performed on these computers. The processing speed is about 1-2 frames / sec.

【0082】各計算機は、ローカルエリアネットワーク
LANに接続されており、内部時計を互いに同期させて
いる。発見部6および追跡部8をそれぞれ構成する図示
しない2台の計算機がローカルエリアネットワークLA
Nに接続されている。
Each computer is connected to the local area network LAN and synchronizes internal clocks with each other. Two computers (not shown) configuring the discovery unit 6 and the tracking unit 8 are respectively connected to the local area network LA.
N.

【0083】各カメラは予めすべてキャリブレーション
されており、各観測部4のキャリブレーション情報は、
観測情報(観測時間、特徴点)とともに発見部6および
追跡部8にそれぞれ送信される。実験では、2人の人物
h0、h1についての位置追跡を行なった。図15に示
すように、2人の人物h0、h1が順にシーン55内に
現われる。
Each camera has been calibrated in advance, and the calibration information of each observation unit 4 is
It is transmitted to the discovery unit 6 and the tracking unit 8 together with the observation information (observation time, feature point). In the experiment, position tracking was performed on two persons h0 and h1. As shown in FIG. 15, two persons h0 and h1 appear in the scene 55 in order.

【0084】図16〜図20は、図15に対する実験結
果を説明するための図である。図15に示すシミュレー
ション実験において、各カメラで得られた特徴点の時間
ごとの推移を表わしている。図16はカメラ2♯1に、
図17はカメラ2♯2に、図18はカメラ2♯3に、図
19はカメラ2♯4に、図20はカメラ2♯5にそれぞ
れ対応している。図16〜図20において、横軸は時
間、縦軸は追跡位置を表わしている。
FIGS. 16 to 20 are diagrams for explaining the experimental results for FIG. In the simulation experiment shown in FIG. 15, the transition of the feature point obtained by each camera over time is shown. FIG. 16 shows the camera 2-1.
17 corresponds to camera 2 # 2, FIG. 18 corresponds to camera 2 # 3, FIG. 19 corresponds to camera 2 # 4, and FIG. 20 corresponds to camera 2 # 5. 16 to 20, the horizontal axis represents time, and the vertical axis represents the tracking position.

【0085】図16〜図20を参照して、追跡当初は、
カメラ2♯1以外ではほとんど特徴点が観測されないた
め、人物の発見が行なわれない。1人目の人物が実験環
境(シーン55)の中央に近づくにつれ、他の視点(カ
メラ2♯3、2♯4、2♯5)でも特徴点が得られ、追
跡が開始される(開始から約20秒が過ぎ)。同様にし
て、2人目の人物の移動に伴い約37秒過ぎに2人目の
人物の追跡が開始される。図16〜図20に示す○は1
人目の人物の追跡結果を示し、×は2人目の人物の追跡
結果を示している。以上の実験結果から、本発明により
複数人物の追跡が可能であることが示されたと言える。
Referring to FIGS. 16 to 20, at the beginning of tracking,
Since a feature point is hardly observed except for the camera 2♯1, no person is found. As the first person approaches the center of the experimental environment (scene 55), feature points are obtained from other viewpoints (cameras 2♯3, 2♯4, 2♯5), and tracking is started (about from the start). 20 seconds have passed). Similarly, tracking of the second person is started about 37 seconds after the movement of the second person. 16 shown in FIG. 16 to FIG.
The × indicates the tracking result of the second person, and × indicates the tracking result of the second person. From the above experimental results, it can be said that the present invention can track a plurality of persons.

【0086】上述の実施形態では、複数の視点で非同期
に撮影した画像内の特徴点に基づいて、人物の動きを追
跡するようにしたが、次に人物固有の属性値を抽出し、
その抽出結果を観測情報として出力し、抽出した属性値
に基づいて対応する人物の状態を検出し、検出された状
態に応じて人物の追跡モデルを切換えるような実施形態
について説明する。たとえば、人物が着席している間に
移動する可能性は極めて少ないと考えられるので、位置
推定値の信頼度を大きくする。
In the above-described embodiment, the movement of a person is tracked based on feature points in an image taken asynchronously from a plurality of viewpoints. Next, attribute values unique to the person are extracted.
An embodiment will be described in which the extraction result is output as observation information, the state of the corresponding person is detected based on the extracted attribute value, and the tracking model of the person is switched according to the detected state. For example, it is considered that the possibility of a person moving while seated is extremely low, so the reliability of the position estimation value is increased.

【0087】図21はこの発明の第2の実施形態の観測
部と追跡部の概要を示す図であり、第1の実施形態の図
7および図10に対応している。図21において、領域
分割回路10と画素値算出回路12と中心点選択回路1
4は図7と同じであるが、この実施形態の観測部4に
は、新たにシルエットの高さ検出回路17が設けられ
る。シルエットの高さ検出回路17は領域分割回路10
で2値化された2値化画像から人物の高さを検出する。
FIG. 21 is a diagram showing an outline of an observation unit and a tracking unit according to the second embodiment of the present invention, and corresponds to FIGS. 7 and 10 of the first embodiment. In FIG. 21, the area dividing circuit 10, the pixel value calculating circuit 12, and the center point selecting circuit 1
4 is the same as that of FIG. 7, but the observation unit 4 of this embodiment is newly provided with a silhouette height detection circuit 17. The silhouette height detection circuit 17 is a region division circuit 10
Detects the height of the person from the binarized image binarized by.

【0088】図22は人物が立っているときと着席して
いるときの2値化画像を示す図である。シルエットの高
さ検出回路17は図22(a)に示すように、2値化画
像の高さT1と図22(b)に示す2値化画像の高さT
2を検出する。たとえば、人物が立っている場合にはT
1が180cmであり、人物が着席していればT2が1
40cmというように検出する。シルエットの高さ検出
回路17の検出出力は特徴点対応づけ回路16に与えら
れる。
FIG. 22 is a diagram showing a binarized image when a person is standing and when a person is seated. As shown in FIG. 22A, the silhouette height detection circuit 17 calculates the height T1 of the binarized image and the height T of the binarized image shown in FIG.
2 is detected. For example, if a person is standing, T
1 is 180 cm and T2 is 1 if a person is seated.
It is detected as 40 cm. The detection output of the silhouette height detection circuit 17 is provided to the feature point association circuit 16.

【0089】特徴点対応づけ回路16は第1の実施形態
で説明したように、重心点選択回路14で抽出された重
心点と既に発見されている追跡目標との間の対応づけを
行なうが、シルエットの高さ検出回路17の検出出力に
基づいて、対応づけられた人物の身長を測定した情報を
観測情報に含めて追跡部8に出力する。
As described in the first embodiment, the feature point association circuit 16 associates the centroid point extracted by the centroid point selection circuit 14 with the tracking target already found. Based on the detection output of the silhouette height detection circuit 17, information obtained by measuring the height of the associated person is included in the observation information and output to the tracking unit 8.

【0090】一方、追跡部8は、図10に示した構成に
加えて、図21に示すように高さ情報抽出回路30と背
たけ変換回路32と状態推定回路34とを含む。高さ情
報抽出回路30は観測部4から追跡部8に送られてくる
観測情報から高さ情報を抽出し、背たけ変換回路32に
与える。背たけ変換回路32は観測情報から抽出された
高さ情報を背たけに変換する。
On the other hand, the tracking section 8 includes a height information extraction circuit 30, a backrest conversion circuit 32, and a state estimation circuit 34, as shown in FIG. 21, in addition to the configuration shown in FIG. The height information extraction circuit 30 extracts height information from the observation information sent from the observation unit 4 to the tracking unit 8 and supplies the height information to the backrest conversion circuit 32. The back conversion circuit 32 converts the height information extracted from the observation information into a back.

【0091】状態推定回路34は、この背たけがたとえ
ば180cmから140cmに変化すれば、人物が立っ
ている状態から着席した状態になったものと推定する。
逆に、背たけが140cmから180cmに変化すれ
ば、人物が着席している状態から立上がったものと推定
する。
If this backrest changes from, for example, 180 cm to 140 cm, the state estimating circuit 34 estimates that the person has changed from a standing state to a seated state.
Conversely, when the backrest changes from 140 cm to 180 cm, it is estimated that the person has risen from a seated state.

【0092】観測部4と追跡部8は前述の図10と同様
にして動作し、追跡部8は観測部4から得られる観測情
報に含まれる重心点位置に基づいて予測位置を推定し、
その推定結果に基づいて方向角を推定し、複数の人物の
うちの特定の人物を追跡する。
The observation unit 4 and the tracking unit 8 operate in the same manner as in FIG. 10 described above, and the tracking unit 8 estimates a predicted position based on the centroid position included in the observation information obtained from the observation unit 4,
The direction angle is estimated based on the estimation result, and a specific person among the plurality of persons is tracked.

【0093】観測部4から追跡部8に送られる観測情報
のうち、高さ情報は高さ情報抽出回路30によって抽出
され、背たけ変換回路32で背たけに変換され、状態推
定回路34によって人物が立っている状態であるかある
いは着席している状態であるかが推定される。追跡部8
では推定された状態に応じて追跡する人物を切換える。
すなわち、追跡していた人物が着席した状態であれば、
もはやその人物は移動することがないので、他の人物を
追跡する。
[0093] Of the observation information sent from the observation unit 4 to the tracking unit 8, height information is extracted by a height information extraction circuit 30, converted into a back by a back conversion circuit 32, and a person is estimated by a state estimation circuit 34. Is estimated to be standing or sitting. Tracking unit 8
Then, the person to be tracked is switched according to the estimated state.
That is, if the person being tracked is seated,
Since the person no longer moves, follow other people.

【0094】なお、上述の説明は人物が立っている状態
と着席している状態を推定するようにしたが、これに限
ることなく人物が停止している状態から移動を開始する
状態または移動している状態から停止する状態のような
行動情報を推定するようにしてもよい。その場合には、
人物の動きが一定以上の速度になれば動いている状態と
推定し、速度が0になれば停止していると推定すればよ
い。この場合、前述の式(4)〜(6)は次の式(1
8)〜(20)に置き換えられる。これらの式は時刻t
aに行なわれた前回の観測までの情報から、時刻tbにお
ける人物h1の状態の予測を行なう場合を示している。
In the above description, the state where the person is standing and the state where the person is seated are estimated. However, the present invention is not limited to this. Behavior information such as a state of stopping from a state of being stopped may be estimated. In that case,
When the speed of the person reaches a certain speed or more, it is estimated that the person is moving, and when the speed becomes zero, it is estimated that the person stops. In this case, the above equations (4) to (6) are converted into the following equation (1).
8) to (20). These equations are at time t
from information up to the observation of the last performed in a, shows a case where the prediction of the state of the person h 1 at time t b.

【0095】[0095]

【数8】 (Equation 8)

【0096】上記式でQx,ΔtはΔt間の運動の揺ら
ぎを示しており、この大きさは現在の運動の状態により
変化すると考えられる。上述の実施形態では、この値を
歩行幅は大,停止中は中,着席中は小というように変化
させることが考えられる。このように、運動モデルを変
化させることで、推定結果の信頼性を物体の運動状態に
応じて評価することが可能となる。
In the above equation, Q x and Δt indicate the fluctuation of the movement between Δt, and it is considered that this magnitude changes depending on the current state of the movement. In the embodiment described above, it is conceivable that this value is changed such that the walking width is large, while the vehicle is stopped, it is medium, and when it is seated, it is small. As described above, by changing the motion model, the reliability of the estimation result can be evaluated according to the motion state of the object.

【0097】図21に示した第2の実施形態では、人物
が立っているかあるいは着席中であるかの状態推定およ
び人物が停止しているかあるいは移動を開始したかの状
態を推定するようにした。しかし、観測される各画像の
特徴と追跡モデルの対応づけにおいて、位置情報に代え
て画像から観測可能な対象物体固有の属性値を用いるこ
ともできる。ここで、固有の属性値としては、前述の対
象物体の背たけや行動情報に限ることなく服の色なども
考えられる。
In the second embodiment shown in FIG. 21, the state estimation is made as to whether a person is standing or sitting and the state whether the person is stopped or has started moving. . However, in associating the feature of each observed image with the tracking model, an attribute value unique to the target object observable from the image can be used instead of the position information. Here, the unique attribute value is not limited to the back of the target object and the action information described above, but may be the color of the clothes.

【0098】図23はそのような実施形態を示すブロッ
ク図である。図23に示した観測部4には図21に示し
たシルエットの高さ検出回路17に代えて、シルエット
の高さ,色検出回路18が設けられ、追跡部8には図2
1の高さ抽出回路30と背たけ変換回路32に代えて、
高さ,色情報抽出回路36と背たけ,色変換回路38が
設けられる。観測部4のシルエットの高さ,色検出回路
18は図21で説明したように人物の高さを検出すると
ともに、図20に示すように領域分割された画像のうち
の胸の部分(図24の斜線で示す部分)の平均色も検出
して特徴点対応づけ回路16に与える。
FIG. 23 is a block diagram showing such an embodiment. The observation section 4 shown in FIG. 23 is provided with a silhouette height and color detection circuit 18 instead of the silhouette height detection circuit 17 shown in FIG.
1 instead of the height extraction circuit 30 and the backrest conversion circuit 32,
A height and color information extraction circuit 36 and a back, and a color conversion circuit 38 are provided. The silhouette height and color detection circuit 18 of the observation unit 4 detects the height of the person as described with reference to FIG. 21 and also detects the chest portion (FIG. 24) in the image divided into regions as shown in FIG. (Shown by the diagonal lines) is also detected and given to the feature point association circuit 16.

【0099】一方、追跡部8の高さ,色情報抽出回路3
6は観測情報から高さ情報と色情報とを抽出し、背た
け,色変換回路38は高さ情報と色情報とから背たけや
色を変換し、状態推定回路34が人物の状態を推定す
る。この場合、前回の観測で得られた色情報Stnと今回
の観測で得られた色情報Stn+1は次式で示される。
On the other hand, the height and color information extraction circuit 3 of the tracking unit 8
Numeral 6 extracts height information and color information from the observation information, the backing and color conversion circuit 38 converts the backing and color from the height information and the color information, and the state estimating circuit 34 estimates the state of the person. . In this case, the color information Stn obtained in the previous observation and the color information Stn + 1 obtained in the current observation are represented by the following equations.

【0100】[0100]

【数9】 (Equation 9)

【0101】このように、観測情報として背たけや色情
報というような対象物体固有の属性値を用いることによ
り、対象物体が接近している場合であっても混同してし
まうことがないという利点がある。
As described above, by using attribute values unique to the target object, such as backrest and color information, as observation information, there is an advantage that confusion does not occur even when the target object is approaching. is there.

【0102】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【0103】[0103]

【発明の効果】以上のように、この発明によれば、シー
ン内で一定の高さでかつ一定の間隔を隔てた複数の視点
から下方向を撮影手段によって撮影し、撮像手段が下方
向の移動物体を撮像したことに応じて、当該移動物体の
位置情報を獲得し、他の撮像手段が当該移動物体の側方
を撮像したことに応じて、その移動物体を同定するため
の情報を獲得し、獲得結果から特徴点を抽出して観測情
報として出力し、特徴点を抽出した観測手段からの要求
に従い、複数の観測手段の観測情報を統合することによ
り移動物体の状態を予測するすることができ、物体がい
ずれの位置にあっても位置情報の獲得,物体の同定を安
定に行なうことができ、観移動物体を高精度に追従する
ことが可能となる
As described above, according to the present invention, the downward direction is photographed by the photographing means from a plurality of viewpoints at a constant height and at a constant interval in the scene, and the photographing means moves downward. Acquiring the position information of the moving object in response to the imaging of the moving object, and acquiring information for identifying the moving object in response to the other imaging means imaging the side of the moving object. Then, extract the feature points from the obtained results, output them as observation information, and predict the state of the moving object by integrating the observation information from multiple observation means according to the request from the observation means that extracted the feature points. It is possible to obtain position information and identify an object stably regardless of the position of the object, and to follow a moving object with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施形態のカメラの配置図であ
る。
FIG. 1 is a layout view of a camera according to an embodiment of the present invention.

【図2】 この発明の実施の形態による移動物体追跡装
置1の全体構成を示すブロック図である。
FIG. 2 is a block diagram showing an overall configuration of a moving object tracking device 1 according to an embodiment of the present invention.

【図3】 この発明の一実施形態の動作を説明するため
のフローチャートである。
FIG. 3 is a flowchart for explaining the operation of the embodiment of the present invention;

【図4】 図3の各人物領域と追跡モデルの対応付けお
よび位置・姿勢推定動作を示すフローチャートであり、
FIG. 4 is a flowchart showing the association between each person region and the tracking model and the position / posture estimation operation of FIG. 3,

【図5】 天井に設置したカメラによって撮像した人物
像の変化例を示す図である。
FIG. 5 is a diagram illustrating a change example of a human image captured by a camera installed on a ceiling.

【図6】 この発明の一実施の形態において用いた人体
モデルについて説明するための図である。
FIG. 6 is a diagram for describing a human body model used in one embodiment of the present invention.

【図7】 観測部の構成の概要について説明するための
図である。
FIG. 7 is a diagram for describing an outline of a configuration of an observation unit.

【図8】 観測部における特徴抽出処理について説明す
るための図である。
FIG. 8 is a diagram for describing a feature extraction process in an observation unit.

【図9】 特徴点の対応付け処理について説明するため
の図である。
FIG. 9 is a diagram for explaining feature point association processing;

【図10】 図2に示す追跡部の構成の概要について説
明するための図である。
FIG. 10 is a diagram illustrating an outline of a configuration of a tracking unit illustrated in FIG. 2;

【図11】 位置推定処理について説明するための図で
ある。
FIG. 11 is a diagram for describing position estimation processing.

【図12】 方向角推定回路における処理を説明するた
めの図である。
FIG. 12 is a diagram for explaining processing in a direction angle estimation circuit.

【図13】 位置追従の精度を確認するためのシミュレ
ーション実験について説明するための図である。
FIG. 13 is a diagram for describing a simulation experiment for confirming the accuracy of position following.

【図14】 図13に対する実験結果を説明するための
図である。
FIG. 14 is a diagram for explaining an experimental result with respect to FIG. 13;

【図15】 複数人物の動きを推定する能力を明らかに
するためのシミュレーション実験について説明するため
の図である。
FIG. 15 is a diagram for describing a simulation experiment for clarifying the ability to estimate the motion of a plurality of persons.

【図16】 図15に対する実験結果を説明するための
図である。
FIG. 16 is a diagram for explaining an experimental result for FIG. 15;

【図17】 図15に対する実験結果を説明するための
図である。
17 is a diagram for explaining an experimental result with respect to FIG.

【図18】 図15に対する実験結果を説明するための
図である。
FIG. 18 is a diagram for explaining an experimental result for FIG. 15;

【図19】 図15に対する実験結果を説明するための
図である。
FIG. 19 is a diagram for explaining an experimental result for FIG. 15;

【図20】 図15に対する実験結果を説明するための
図である。
FIG. 20 is a diagram for explaining an experimental result for FIG. 15;

【図21】 この発明の第2の実施形態の観測部と追跡
部の態様を示す図である。
FIG. 21 is a diagram illustrating aspects of an observation unit and a tracking unit according to the second embodiment of the present invention.

【図22】 人物が立っているときと着席しているとき
の2値化画像を示す図である。
FIG. 22 is a diagram illustrating a binarized image when a person is standing and when a person is seated.

【図23】 この発明の第3の実施形態の観測部と追跡
部の態様を示す図である。
FIG. 23 is a diagram illustrating aspects of an observation unit and a tracking unit according to a third embodiment of the present invention.

【図24】 領域分割された画像のうちの胸の部分の平
均色を検出する状態を示す図である。
FIG. 24 is a diagram illustrating a state in which an average color of a chest portion in an area-divided image is detected.

【図25】 天井に設置したカメラにより人物の追跡を
行なう例を示す図である。
FIG. 25 is a diagram illustrating an example of tracking a person by a camera installed on a ceiling.

【符号の説明】[Explanation of symbols]

1 移動物体追跡装置、2♯1〜2♯n カメラ、4♯
1〜4♯n 観測部、6 発見部、8 追跡部、10
領域分割回路、12 画素値算出回路、14重心点選択
回路、16 特徴点対応づけ回路、17 シルエットの
高さ検出回路、18 シルエットの高さ,色検出回路、
22 位置推定回路、24 方向角推定回路、30 高
さ情報抽出回路、32 背たけ変換回路、34 状態推
定回路、36 高さ,色情報抽出回路、38 背たけ,
色変換回路。
1 Moving object tracking device, 2♯1-2♯n camera, 4♯
1-4♯n Observation unit, 6 discovery unit, 8 tracking unit, 10
Area division circuit, 12 pixel value calculation circuit, 14 center of gravity selection circuit, 16 feature point association circuit, 17 silhouette height detection circuit, 18 silhouette height and color detection circuit,
22 position estimation circuit, 24 direction angle estimation circuit, 30 height information extraction circuit, 32 back conversion circuit, 34 state estimation circuit, 36 height and color information extraction circuit, 38 back
Color conversion circuit.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA19 BA02 BA11 CA01 CA12 CA16 DA07 DB02 DB06 DC06 DC08 DC09 DC25 DC36 5C022 AA00 AB61 AB62 AB63 AB64 AB65 AC69 CA02 5C054 AA01 CA04 CC05 CD03 CG05 CH08 FC12 FE09 FE11 FF02 HA14 HA18 HA19 5L096 AA02 BA02 CA05 EA43 FA60 FA67 FA69 GA08 GA38 GA55 HA05 JA11  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5L096 AA02 BA02 CA05 EA43 FA60 FA67 FA69 GA08 GA38 GA55 HA05 JA11

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 シーン内を移動する移動物体を多視点で
追跡する移動物体追跡装置であって、 前記シーン内で一定の高さでかつ一定の間隔を隔てた複
数の視点から下方向を撮影するための複数の撮影手段
と、 前記複数の撮影手段のそれぞれに対応して設けられ、対
応する撮像手段が下方向の移動物体を撮像したことに応
じて、当該移動物体の位置情報を獲得し、他の撮像手段
が当該移動物体の側方を撮像したことに応じて、当該移
動物体を同定するための情報を獲得し、獲得結果から特
徴点を抽出して観測情報として出力する複数の観測手段
と、 前記複数の観測手段のうち前記特徴点を抽出した観測手
段からの要求に従い、前記複数の観測手段の観測情報を
統合することにより前記移動物体の状態を予測する追跡
手段とを備えた、移動物体追跡装置。
1. A moving object tracking apparatus for tracking a moving object moving in a scene from multiple viewpoints, wherein a downward direction is photographed from a plurality of viewpoints at a certain height and at a certain interval in the scene. A plurality of photographing means for performing, and provided in correspondence with each of the plurality of photographing means, and acquires position information of the moving object in response to the corresponding imaging means imaging a moving object in a downward direction. A plurality of observations that acquire information for identifying the moving object in response to the other imaging means imaging the side of the moving object, extract feature points from the obtained result, and output as observation information. Means, and a tracking means for predicting the state of the moving object by integrating observation information of the plurality of observation means in accordance with a request from the observation means that extracted the feature point among the plurality of observation means. , Moving object tracking Trace device.
【請求項2】 前記複数の観測手段は、前記追跡手段か
ら送られてくる予測観測位置を基にして各追跡目標と対
応付けして前記追跡手段に送信し、さらに前記複数の観
測手段によって対応付けられなかった特徴量を受けて新
規の移動物体を検出して前記追跡手段に送る発見手段を
含み、 前記追跡手段は前記発見手段によって発見された新規の
移動物体に基づいて各移動物体情報を更新することを特
徴とする、請求項1に記載の移動物体追跡装置。
2. The plurality of observing means, based on the predicted observing position sent from the tracking means, transmit to the tracking means in association with each tracking target, and further correspond to the plurality of observing means. Receiving means for detecting a new moving object in response to the unattached feature amount and sending the detected moving object to the tracking means, wherein the tracking means calculates each moving object information based on the new moving object detected by the finding means; The moving object tracking device according to claim 1, wherein the moving object tracking device is updated.
【請求項3】 前記複数の観測手段のそれぞれは、 前記対応する撮影手段から受ける画像を背景画像と移動
物体領域とに分割する領域分割手段と、 前記領域分割手段により取出された移動物体領域の重心
点を求め、前記特徴点として前記重心点の情報を出力す
る手段とを含む、請求項1記載の移動物体追跡装置。
3. Each of the plurality of observation units includes: a region dividing unit that divides an image received from the corresponding photographing unit into a background image and a moving object region; and a moving object region extracted by the region dividing unit. 2. A moving object tracking apparatus according to claim 1, further comprising: means for obtaining a center of gravity and outputting information on the center of gravity as the feature point.
【請求項4】 前記追跡手段は、計算機で構成され、 前記複数の観測手段のそれぞれは、計算機で構成され、 前記複数の観測手段のそれぞれと前記追跡手段とは、相
互通信を行なう、請求項1記載の移動物体追跡装置。
4. The tracking means is constituted by a computer, each of the plurality of observation means is constituted by a computer, and each of the plurality of observation means communicates with the tracking means. 2. The moving object tracking device according to 1.
JP2001008682A 2001-01-17 2001-01-17 Moving object tracking device Expired - Fee Related JP3520050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001008682A JP3520050B2 (en) 2001-01-17 2001-01-17 Moving object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001008682A JP3520050B2 (en) 2001-01-17 2001-01-17 Moving object tracking device

Publications (2)

Publication Number Publication Date
JP2002218449A true JP2002218449A (en) 2002-08-02
JP3520050B2 JP3520050B2 (en) 2004-04-19

Family

ID=18876264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001008682A Expired - Fee Related JP3520050B2 (en) 2001-01-17 2001-01-17 Moving object tracking device

Country Status (1)

Country Link
JP (1) JP3520050B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005111880A1 (en) * 2004-05-14 2005-11-24 Supreme System Consulting Corporation Behavior analysis device
WO2008108458A1 (en) * 2007-03-07 2008-09-12 Omron Corporation Face image acquiring system, face checking system, face image acquiring method, face checking method, face image acquiring program and face checking program
CN100444152C (en) * 2004-06-03 2008-12-17 佳能株式会社 Camera system, camera, and camera control method
JP2009116871A (en) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc Method and apparatus for extending function of mirror using information related to mirrored content and motion
JP2010014699A (en) * 2008-06-05 2010-01-21 Toppan Printing Co Ltd Shape measuring apparatus and shape measuring method
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device
JP2010206404A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2010206405A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2011188082A (en) * 2010-03-05 2011-09-22 Shimizu Corp Management system of work place environment
JP2015002547A (en) * 2013-06-18 2015-01-05 富士通株式会社 Image processing apparatus, program, and image processing method
WO2020241057A1 (en) * 2019-05-29 2020-12-03 コニカミノルタ株式会社 Image processing system, image processing program, and image processing method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005111880A1 (en) * 2004-05-14 2005-11-24 Supreme System Consulting Corporation Behavior analysis device
CN100444152C (en) * 2004-06-03 2008-12-17 佳能株式会社 Camera system, camera, and camera control method
WO2008108458A1 (en) * 2007-03-07 2008-09-12 Omron Corporation Face image acquiring system, face checking system, face image acquiring method, face checking method, face image acquiring program and face checking program
JP2009116871A (en) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc Method and apparatus for extending function of mirror using information related to mirrored content and motion
JP2010014699A (en) * 2008-06-05 2010-01-21 Toppan Printing Co Ltd Shape measuring apparatus and shape measuring method
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device
JP2010206404A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2010206405A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2011188082A (en) * 2010-03-05 2011-09-22 Shimizu Corp Management system of work place environment
JP2015002547A (en) * 2013-06-18 2015-01-05 富士通株式会社 Image processing apparatus, program, and image processing method
WO2020241057A1 (en) * 2019-05-29 2020-12-03 コニカミノルタ株式会社 Image processing system, image processing program, and image processing method
JPWO2020241057A1 (en) * 2019-05-29 2020-12-03
JP7067672B2 (en) 2019-05-29 2022-05-16 コニカミノルタ株式会社 Image processing system, image processing program, and image processing method

Also Published As

Publication number Publication date
JP3520050B2 (en) 2004-04-19

Similar Documents

Publication Publication Date Title
JP4148281B2 (en) Motion capture device, motion capture method, and motion capture program
JP5211069B2 (en) Human posture estimation and tracking using labeling
JP2007310707A (en) Apparatus and method for estimating posture
JP2009146406A (en) Visually tracking an object in real world using 2d appearance and multicue depth estimations
US10636190B2 (en) Methods and systems for exploiting per-pixel motion conflicts to extract primary and secondary motions in augmented reality systems
JP7379065B2 (en) Information processing device, information processing method, and program
JP2009536731A5 (en)
Zhu et al. Constrained optimization for human pose estimation from depth sequences
JP4761670B2 (en) Moving stereo model generation apparatus and method
JP3520050B2 (en) Moving object tracking device
CN115376034A (en) Motion video acquisition and editing method and device based on human body three-dimensional posture space-time correlation action recognition
JP6922348B2 (en) Information processing equipment, methods, and programs
Gall et al. Drift-free tracking of rigid and articulated objects
KR102371127B1 (en) Gesture Recognition Method and Processing System using Skeleton Length Information
JP3411889B2 (en) Automatic camera calibration method
Lee et al. Human body tracking with auxiliary measurements
JP3401512B2 (en) Moving object tracking device
JP6659095B2 (en) Image processing apparatus, image processing method, and program
JP2002008043A (en) Device and method for analyzing action
JPH0792369B2 (en) Image measuring device
Ginhoux et al. Model-based object tracking using stereo vision
JP2009048305A (en) Shape analysis program and shape analysis apparatus
Cordea et al. 3D head pose recovery for interactive virtual reality avatars
JP2019197278A (en) Image processing apparatus, method of controlling image processing apparatus, and program
WO2022018811A1 (en) Three-dimensional posture of subject estimation device, three-dimensional posture estimation method, and program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040130

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees