JP2009266155A - Apparatus and method for mobile object tracking - Google Patents

Apparatus and method for mobile object tracking Download PDF

Info

Publication number
JP2009266155A
JP2009266155A JP2008118217A JP2008118217A JP2009266155A JP 2009266155 A JP2009266155 A JP 2009266155A JP 2008118217 A JP2008118217 A JP 2008118217A JP 2008118217 A JP2008118217 A JP 2008118217A JP 2009266155 A JP2009266155 A JP 2009266155A
Authority
JP
Japan
Prior art keywords
image
corresponding point
dimensional position
tracking
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008118217A
Other languages
Japanese (ja)
Inventor
Atsushi Chihoshi
淳 千星
Tetsuo Aikawa
徹郎 相川
Yoshinori Sato
美徳 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008118217A priority Critical patent/JP2009266155A/en
Publication of JP2009266155A publication Critical patent/JP2009266155A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile object tracking apparatus which can track a mobile object with high accuracy without carrying out a complicated process. <P>SOLUTION: The mobile object tracking apparatus is provided with: at least two pieces of photographing means 1a and 1b which are in a known positional relationship; an image storing section 4 with a signal processing unit 3 for fetching a photographed image through a fetching means 2 at constant intervals and where the fetched image is stored; a corresponding point measuring means 5 for obtaining a corresponding point; a corresponding point detection determining means 6 for determining whether or not the corresponding point is correctly obtained; a three-dimensional position measuring means 7 for measuring a three-dimensional position of the mobile object in the image when the corresponding point is detected; a three-dimensional position estimating means 8 for waiting for a next image input when the corresponding point cannot be detected, checking whether the mobile object exists by using the images which are of before and after that time when the corresponding point could not be detected, and then estimating the three-dimensional position from the images before and after the image when existent; and a mobile object tracking means 9 for obtaining a track of the mobile object from the three-dimensional position obtained by the three-dimensional position measuring means or the three-dimensional position estimating means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影された画像の移動体の情報が失われた場合でもこの移動体の追跡を行える移動体追跡装置及びその方法に関する。   The present invention relates to a moving body tracking apparatus and method for tracking a moving body even when information on the moving body of a captured image is lost.

一般に、この種の移動体追跡する方法としては、個々の移動体に無線発信機を設け無線情報から移動体を追跡する方法や移動体を撮影装置により撮影した画像から移動体を抽出して追跡する方法等種々の方法が考案されている。   In general, as a method of tracking a moving object of this type, a wireless transmitter is provided for each moving object, and the moving object is tracked from wireless information, or the moving object is extracted from an image captured by an imaging device and tracked. Various methods have been devised, such as a method to do this.

この中で、画像による追跡方法は、移動体に特別な装置を必要としないので、広域の不特定多数の移動体を追跡することが可能になり、さらに複数の撮影装置から同時に得た画像から移動体の3次元位置を計測して移動体の追跡を行う方法が考案されている。   Among these, the tracking method using an image does not require a special device for the moving body, so it becomes possible to track a large number of unspecified moving bodies, and from images obtained simultaneously from a plurality of imaging devices. A method of tracking the moving body by measuring the three-dimensional position of the moving body has been devised.

このような移動体追跡装置として、例えば、特許文献1に示すように、移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラムからなる移動体の追跡を行う方法が知られている。この特許文献1では、ステレオ画像から移動体の占める割合を計測し、混雑レベルに応じてテンプレートを変化させることにより移動体の識別を容易にし、さらにオプティカルフロー等の方法によって移動体の追跡を行うものである。また、移動体が重なった際には複数の移動体をひとつの領域としてラベリング処理を行い、ラップ率という考え方を用いて移動体を分離する手法が知られている。   As such a mobile body tracking device, for example, as shown in Patent Document 1, a mobile body detection system, a mobile body detection device, a mobile body detection method, and a method for tracking a mobile body including a mobile body detection program are known. ing. In this Patent Document 1, the proportion of a moving object is measured from a stereo image, the template is changed according to the congestion level to facilitate the identification of the moving object, and the moving object is tracked by a method such as an optical flow. Is. Also, a technique is known in which when a moving body overlaps, a labeling process is performed with a plurality of moving bodies as one region, and the moving body is separated using a concept of a lap rate.

また、特許文献2に示すように、歩行者検出装置という移動体の追跡を行う装置が知られている。この特許文献2では、ステレオ画像により3次元位置情報のうち高さ情報を用いて移動体(歩行者)の分離を行うことにより、移動体の検出精度を向上させるものである。
特開2005−235104号公報 特開2002−24986号公報
Moreover, as shown in Patent Document 2, there is known an apparatus for tracking a moving body called a pedestrian detection apparatus. In this patent document 2, the detection accuracy of a moving object is improved by separating a moving object (pedestrian) using height information among three-dimensional position information using a stereo image.
JP-A-2005-235104 JP 2002-24986 A

上述した従来の移動体追跡装置においては、3次元情報の計測が可能であるときには有効であると考えられる。   In the conventional mobile tracking device described above, it is considered effective when three-dimensional information can be measured.

しかし、画像上で移動体が重なり3次元情報が得られない場合があるために、移動体の分離ができないという課題があった。   However, there is a problem that the moving bodies cannot be separated because the moving bodies may overlap on the image and three-dimensional information may not be obtained.

また、特許文献1に示すように、複数の移動体をひとつのラベルとして処理し、移動体を分離する手法も提案されている。   In addition, as shown in Patent Document 1, a method of processing a plurality of moving objects as one label and separating the moving objects has been proposed.

しかし、移動体の動きによっては異なる移動体を追跡する可能性がある。このようなときには、複数のテンプレートを準備して複雑な処理を必要とする等の課題があった。   However, depending on the movement of the moving body, there is a possibility of tracking a different moving body. In such a case, there are problems such as preparing a plurality of templates and requiring complicated processing.

本発明は上記課題を解決するためになされたもので、時系列画像を利用することにより複雑な処理を行うことなく、精度良く移動体の追跡が行える移動体追跡装置及びその方法を提供することを目的とする。   The present invention has been made to solve the above problems, and provides a moving body tracking apparatus and method for tracking a moving body with high accuracy without performing complicated processing by using time-series images. With the goal.

上記目的を達成するため、本発明は、既知の位置関係にある少なくとも2台の撮影手段と、この撮影手段で撮影された画像が画像取り込み手段を介して取り込まれる信号処理装置と、を有する移動体追跡装置において、前記信号処理装置が、前記画像取り込み手段を介して取り込まれた前記画像から対応点が検出される対応点計測手段と、この対応点が検出されているか否かを判定する対応点検出判定手段と、前記対応点が検出された場合に前記画像中の移動体の3次元位置が計測される3次元位置計測手段と、前記対応点が検出できない場合には、前記対応点が検出できなかった前後の時間の前記画像から3次元位置が推定される3次元位置推定手段と、前記3次元位置計測手段又は3次元位置推定手段で求められた前記3次元位置より前記移動体の追跡が行える移動体追跡手段と、を備えることを特徴とするものである。   In order to achieve the above object, the present invention provides a movement having at least two photographing means having a known positional relationship and a signal processing device in which an image photographed by the photographing means is captured via the image capturing means. In the body tracking device, the signal processing device and a corresponding point measuring unit that detects a corresponding point from the image captured via the image capturing unit, and a correspondence that determines whether or not the corresponding point is detected A point detection determination unit; a three-dimensional position measurement unit that measures a three-dimensional position of a moving object in the image when the corresponding point is detected; and a corresponding point that is not detected when the corresponding point cannot be detected. A three-dimensional position estimation means for estimating a three-dimensional position from the images before and after the detection failure, and the three-dimensional position obtained by the three-dimensional position measurement means or the three-dimensional position estimation means. And moving object tracking device that enables tracking of the moving object and is characterized in that it comprises.

また、上記目的を達成するため、本発明は、少なくとも2台の撮像手段により撮像された画像を用いて移動体を追跡する移動体追跡方法において、前記画像において前記移動体の情報が失われた場合、この情報が失われた時間の前後の時間に得られる前記画像を用いて前記移動体の追跡ができることを特徴とするものである。   In order to achieve the above object, according to the present invention, in a moving body tracking method for tracking a moving body using images picked up by at least two image pickup means, information on the moving body is lost in the image. In this case, the moving object can be tracked using the images obtained before and after the time when this information is lost.

本発明の移動体追跡装置及びその方法によれば、少なくとも2台の撮影手段で撮影した画像のうち一方の画像において移動体が他の移動体に隠れて見えなくなった場合においても、時系列画像を用いて移動体の3次元位置を推定し、移動体を精度よく追跡することができる。   According to the moving object tracking device and the method of the present invention, even when the moving object is hidden behind another moving object in one of the images captured by at least two imaging means, the time-series image is displayed. Can be used to estimate the three-dimensional position of the moving body and track the moving body with high accuracy.

以下、本発明に係る移動体追跡装置及びその方法の実施の形態について、図面を参照して説明する。ここで、同一又は類似の部分には共通の符号を付すことにより、重複説明を省略する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a mobile tracking device and method according to the present invention will be described below with reference to the drawings. Here, the same or similar parts are denoted by common reference numerals, and redundant description is omitted.

図1は、本発明の実施の形態の移動体追跡装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the mobile tracking device according to the embodiment of the present invention.

まず、移動体追跡装置の構成について、図1を用いて説明する。   First, the configuration of the mobile tracking device will be described with reference to FIG.

本図に示すように、移動体追跡装置は、既知の位置関係にある撮影手段1である2台のカメラ1a、1bと、このカメラ1a、1bで撮影された画像が一定の時間間隔で画像取り込み手段2を介して取り込まれる信号処理装置3を備えている。   As shown in this figure, the moving body tracking device has two cameras 1a and 1b, which are imaging means 1 having a known positional relationship, and images taken by the cameras 1a and 1b at regular time intervals. A signal processing device 3 to be captured via the capturing means 2 is provided.

この信号処理装置3は、取り込んだ画像を保存する画像保存部4と、取り込んだ画像から対応点を求める対応点計測手段5と、対応点が正確に求められているか否かを判定する対応点検出判定手段6と、この対応点が検出された場合に画像中の移動体の3次元位置を計測する3次元位置計測手段7を備えている。   The signal processing device 3 includes an image storage unit 4 that stores the captured image, a corresponding point measuring unit 5 that determines a corresponding point from the captured image, and a correspondence check that determines whether the corresponding point is accurately determined. An output determining means 6 and a three-dimensional position measuring means 7 for measuring the three-dimensional position of the moving body in the image when this corresponding point is detected are provided.

また、この信号処理装置3は、この対応点が検出できない場合には次の画像入力を待ち、対応点が検出できなかった前後の時間の画像を用いて移動体が存在するかを確認し、存在した場合には前後の画像から3次元位置を推定する3次元位置推定手段8と、上述の3次元位置計測手段7又は3次元位置推定手段8で求められた3次元位置より移動体の軌跡が求められる移動体追跡手段9を備えている。   In addition, when the corresponding point cannot be detected, the signal processing device 3 waits for the next image input, confirms whether a moving body exists using images before and after the corresponding point cannot be detected, If there is a three-dimensional position estimation means 8 for estimating the three-dimensional position from the preceding and following images, and the trajectory of the moving object from the three-dimensional position obtained by the above-described three-dimensional position measurement means 7 or the three-dimensional position estimation means 8. Mobile body tracking means 9 is required.

このように構成された本実施の形態において、図2、図3を用いて、2台のカメラ1a、1bにより位置情報を求める手法について説明する。   In the present embodiment configured as described above, a method for obtaining position information using two cameras 1a and 1b will be described with reference to FIGS.

図2は、図1の信号処理部の処理を示すフロー図であり、図3は、図1の撮影画像のイメージを示す説明図である。   FIG. 2 is a flowchart showing processing of the signal processing unit in FIG. 1, and FIG. 3 is an explanatory diagram showing an image of the captured image in FIG.

まず、撮影手段1である2台のカメラ1a、1bは、固定され既知の位置関係にある。   First, the two cameras 1a and 1b which are the photographing means 1 are fixed and have a known positional relationship.

移動体追跡を開始する前に、それぞれのカメラ1a、1bについて3次元位置と画像上の位置を結びつけるカメラパラメータを求めておく。このカメラパラメータは、予め複数の既知の3次元座標(xi,yi,zi)(iは基準点の番号で1〜nとし、最低6点が必要である)を持つテストキューブ等をカメラ1a、1bを用いて同時に撮影する。テストキューブ(test cube)とは、三面が直交し、高精度に平面研磨された立方体の内側のコーナーの形をした表面を持ち、この面にプリズムその他の部品を接触させて、それら部品の高さ、ピラミッド、分解能等を検出するのに用いるデバイスのことである。   Before starting the moving body tracking, camera parameters that associate the three-dimensional position and the position on the image are obtained for each of the cameras 1a and 1b. This camera parameter includes a test cube or the like having a plurality of known three-dimensional coordinates (xi, yi, zi) (i is a reference point number 1 to n, and at least 6 points are required). Shoot simultaneously using 1b. A test cube has a cube-shaped surface that has three corners orthogonal to each other and is polished with high precision. The prism and other components are brought into contact with this surface to increase the height of these components. It is a device used to detect pyramids, resolution, etc.

このカメラ1a、1bを用いて同時に撮影した画像をそれぞれ右画像ImR、左画像ImLとする(S1)。   Images simultaneously captured using the cameras 1a and 1b are set as a right image ImR and a left image ImL, respectively (S1).

この右画像ImR、左画像ImLにおける画像をパターンマッチングして(S2)、対応点が求められる(S3)。   Pattern matching is performed on the images in the right image ImR and the left image ImL (S2), and corresponding points are obtained (S3).

一例として、このカメラ1a、1bを用いて同時に撮影した右画像ImR、左画像ImL上で基準点iに対応する画像上の点(u1i、v1i)及び(u2i,v2i)を求め、以下の(1)式、(2)式において、i=1〜nを同時に満たすカメラパラメータPを演算することにより、カメラパラメータP1、P2が求められる。   As an example, the points (u1i, v1i) and (u2i, v2i) on the image corresponding to the reference point i on the right image ImR and the left image ImL photographed simultaneously using the cameras 1a and 1b are obtained, and the following ( In the equations 1) and (2), camera parameters P1 and P2 are obtained by calculating camera parameters P that simultaneously satisfy i = 1 to n.

λ1(u1i,v1i,1)=P1(xi,yi,zi,1) (1)
λ2(u2i,v2i,1)=P2(xi,yi,zi,1) (2)
2台のカメラ1a、1bそれぞれにおける上記カメラパラメータP1、P2を求めた後にカメラ1a、1bの間で同期を取り、カメラ1a、1bの時刻tにおける右画像ImR(t)、左画像ImL(t)の対応点が求められる(S3)。
λ1 (u1i, v1i, 1) = P1 (xi, yi, zi, 1) (1)
λ2 (u2i, v2i, 1) = P2 (xi, yi, zi, 1) (2)
After obtaining the camera parameters P1 and P2 for the two cameras 1a and 1b, respectively, the cameras 1a and 1b are synchronized, and the right image ImR (t) and the left image ImL (t ) Is obtained (S3).

さらに、信号処理装置3により、右画像ImR(t)、左画像ImL(t)の対応点を求めた後に、この対応点の3次元座標が演算により求められる(S4)。   Further, after the corresponding points of the right image ImR (t) and the left image ImL (t) are obtained by the signal processing device 3, the three-dimensional coordinates of the corresponding points are obtained by calculation (S4).

この対応点の検索は、例えば、入力された画像のうち一方の画像の3×3画素を基準とし、もう一方の画像全体中の任意の3×3画素との差分処理を行い、最も違いの少ない3×3画素を求めることにより、対応点を検出することができる。この対応点が検出できれば、予め求めたカメラパラメータPを用いて3次元位置座標を演算により求めることができる(S4)。   The search for the corresponding point is performed by, for example, performing a difference process with an arbitrary 3 × 3 pixel in the whole of the other image on the basis of 3 × 3 pixels of one of the input images, and making the most difference. Corresponding points can be detected by obtaining a small number of 3 × 3 pixels. If this corresponding point can be detected, the three-dimensional position coordinates can be obtained by calculation using the camera parameter P obtained in advance (S4).

上述のように、正確にカメラパラメータP1、P2が求められ、正確に画像間の対応点を検出できれば、比較的容易に2台のカメラ1a、1bを用いて画像上の物体の3次元位置を求めることができる。なお、この上記した位置情報の求め方や対応点検索方法は、数ある手法の一例であり、この手法に限定されるものではない。   As described above, if the camera parameters P1 and P2 are accurately obtained and the corresponding points between the images can be accurately detected, the three-dimensional position of the object on the image can be relatively easily determined using the two cameras 1a and 1b. Can be sought. Note that the above-described method of obtaining position information and the corresponding point search method are examples of a number of methods, and are not limited to this method.

時系列画像から移動体を認識する方法については、オプティカルフローと呼ばれるパターンマッチングを用いて移動ベクトルを求め、移動体の動きを推定する手法がある。オプティカルフローは、2次元平面内での移動体の検出手法である。   As a method for recognizing a moving object from a time-series image, there is a method for estimating a movement of a moving object by obtaining a movement vector using pattern matching called an optical flow. The optical flow is a method for detecting a moving object in a two-dimensional plane.

ここでは、右画像ImR(t−Δt)と右画像ImR(t)、又は左画像ImL(t−Δt)と左画像ImL(t)を用いて、オプティカルフローを使ってそれぞれ右画像ImR又は左画像ImL内における時系列画像の移動体が求められる。右画像ImR(t−Δt)内における点aが、左画像ImL(t−Δt)内の点bへ移動したことが求められたとすると、上述した3次元位置座標手法を用いて点a、bについての3次元位置座標を求めれば、点aに関する移動軌跡を求めることができる(S9)。   Here, using the right image ImR (t−Δt) and the right image ImR (t), or the left image ImL (t−Δt) and the left image ImL (t), respectively, using the optical flow, the right image ImR or the left image A moving body of a time-series image in the image ImL is obtained. If it is determined that the point a in the right image ImR (t−Δt) has moved to the point b in the left image ImL (t−Δt), the points a and b are obtained using the above-described three-dimensional position coordinate method. If the three-dimensional position coordinate for is obtained, the movement locus for the point a can be obtained (S9).

しかしながら、3次元位置を求める場合や時系列画像での移動先を求める場合と共に、撮影される画像によっては3次元位置や移動先を正確に求めることができないことがある。 例えば、図3を用いて人物を追跡する場合について考察する。図3は、図1の撮影画像のイメージを示す説明図で、(a)はその右画像と左画像のイメージ図、(b)はその対応点が検出できていないと判断した場合のイメージ図である。   However, when obtaining a three-dimensional position or obtaining a movement destination in a time-series image, it may not be possible to accurately obtain a three-dimensional position or a movement destination depending on a captured image. For example, consider the case of tracking a person with reference to FIG. FIG. 3 is an explanatory diagram showing an image of the photographed image of FIG. 1, (a) is an image diagram of the right image and the left image, and (b) is an image diagram when it is determined that the corresponding point cannot be detected. .

本図に示すように、複数の人物が映っている画像から人物を追跡する場合について考察する。   Consider the case where a person is tracked from an image showing a plurality of persons as shown in FIG.

時刻(t−Δt)までは、人物A、Bが右画像ImR、左画像ImLそれぞれに写っており対応点を検出することができる(S3)。従って、人物A、Bそれぞれの3次元的位置を求めることができ、かつ右画像ImR、左画像ImL内での時間経過後の移動先についても計測可能であるので、人物A、Bそれぞれの動きを追跡することが可能である。   Until the time (t−Δt), the persons A and B appear in the right image ImR and the left image ImL, respectively, and corresponding points can be detected (S3). Accordingly, the three-dimensional positions of the persons A and B can be obtained, and the movement destination after the elapse of time in the right image ImR and the left image ImL can be measured. Can be tracked.

時刻tにおいては、右画像ImR(t)では人物A、B共に画像内に写っているが、左画像ImL(t)では人物Aは人物Bと重なっており画像中に人物Aを検出することはできない。3次元位置を求める場合に、右画像ImRを基準画像として人物Aが写っている領域において、上述のように3×3画素の差分処理を行って対応点を自動的に検出するので、差分値が大きい場合でも検索した範囲内において最も差分の少ない点を対応点として検出するために、不適切な位置に対応点が検出されてしまう。この結果、不適切な位置として人物Aの3次元位置が求められることになる。   At time t, in the right image ImR (t), both the persons A and B appear in the image, but in the left image ImL (t), the person A overlaps with the person B, and the person A is detected in the image. I can't. When obtaining the three-dimensional position, the corresponding point is automatically detected by performing the difference processing of 3 × 3 pixels as described above in the region where the person A is captured with the right image ImR as the reference image. Even if is large, the point with the smallest difference in the searched range is detected as the corresponding point, so that the corresponding point is detected at an inappropriate position. As a result, the three-dimensional position of the person A is obtained as an inappropriate position.

また、左画像ImL(t−Δt)と左画像ImL(t)においても、不適切な位置として移動先が求められることになる。この結果、移動体の正確な追跡が不可能となることがある。   Further, in the left image ImL (t−Δt) and the left image ImL (t), the movement destination is obtained as an inappropriate position. As a result, accurate tracking of the moving object may not be possible.

ここでは、図1の対応点計測手段5である対応点検出部で検出した対応点が、正しい対応点であるか否かの判定を対応点検出判定手段6である対応点検出判定部で行い、不適切な移動体の追跡を防止する判定方式の例について以下に述べる。   Here, it is determined by the corresponding point detection determination unit which is the corresponding point detection determination unit 6 whether the corresponding point detected by the corresponding point detection unit which is the corresponding point measurement unit 5 of FIG. An example of a determination method for preventing inappropriate tracking of a moving object will be described below.

この判定については、例えば、右画像ImR(t)、左画像ImL(t)を用いて3次元位置を検出する場合において、上述したように3×3画素の差分処理する場合には、対応点の有無により差分値の大きさに違いが生じる。   Regarding this determination, for example, in the case of detecting a three-dimensional position using the right image ImR (t) and the left image ImL (t), as described above, in the case of performing the difference processing of 3 × 3 pixels, the corresponding points A difference occurs in the magnitude of the difference value depending on the presence or absence of.

ここでは、差分値の大きさにしきい値を設けて、しきい値以下の場合は正常に対応点が存在すると判定し、しきい値以上の場合には対応点が正しく検出できていないと判定を行う。   Here, a threshold value is set for the magnitude of the difference value, and if it is less than or equal to the threshold value, it is determined that the corresponding point exists normally. I do.

対応点が正しく検出できていると判定した場合には、予め求めたカメラパラメータP1、P2と右画像ImR及び左画像ImLとの対応点の座標を用いて対応点の3次元位置を求める。右画像ImR(右画像ImLでもよい)における時刻(t−Δt)との対応点から移動軌跡が求められる。   If it is determined that the corresponding point is correctly detected, the three-dimensional position of the corresponding point is obtained using the coordinates of the corresponding point between the camera parameters P1 and P2 obtained in advance and the right image ImR and the left image ImL. The movement trajectory is obtained from the corresponding point with the time (t−Δt) in the right image ImR (or the right image ImL).

対応点が正しく検出できていないと判断した場合には、その時刻tにおける3次元位置を求める処理を行わず、次の時刻(t+Δt)における画像入力を待ち、時刻(t−Δt)、時刻t、時刻(t+Δt)を用いて時刻tにおける移動体の有無及び3次元位置を図1の3次元位置推定手段8を用いて推定する。   If it is determined that the corresponding point has not been correctly detected, the process for obtaining the three-dimensional position at the time t is not performed, the image input at the next time (t + Δt) is waited, and the time (t−Δt) and time t The presence / absence of a moving object and the three-dimensional position at time t are estimated using the three-dimensional position estimation means 8 in FIG. 1 using time (t + Δt).

次に、上述の対応点が検出できていない(S5)と判断した場合の処理について以下に述べる。   Next, a process when it is determined that the corresponding point has not been detected (S5) will be described below.

1.移動体の有無確認:
時刻(t−Δt)と時刻tの右画像ImR及び右画像ImLのそれぞれについて対応点検索を実施する。ここでは、対応点の有無のみを検出する。右画像ImR、左画像ImLどちらか一方の画像に対応点があった場合には、移動体が有るものと判定する(S6)。両方の画像に対応点がない場合には、移動体はないものと判定する(S7)。
1. Check for moving objects:
Corresponding point search is performed for each of the right image ImR and the right image ImL at time (t−Δt) and time t. Here, only the presence or absence of corresponding points is detected. If there is a corresponding point in either the right image ImR or the left image ImL, it is determined that there is a moving object (S6). If there is no corresponding point in both images, it is determined that there is no moving object (S7).

2.移動体の位置推定:
移動体が存在すると判定された場合には、時刻(t−Δt)と時刻(t+Δt)のそれぞれの右画像ImRと左画像ImLを用いて上記時刻tにおける移動軌跡を求める方法と同様に、時刻(t−Δt)から時刻(t+Δt)における移動軌跡を求め、例えば、線形補間により時刻tの3次元位置を推定する(S8)。
2. Position estimation of moving object:
If it is determined that a moving object is present, the time of time (t−Δt) and the time (t + Δt) using the right image ImR and the left image ImL, respectively, as in the method for obtaining the movement locus at the time t, A movement trajectory at time (t + Δt) is obtained from (t−Δt), and the three-dimensional position at time t is estimated by, for example, linear interpolation (S8).

なお、上記1.の「移動体の有無確認」において、両方の画像に対応点がない場合に直ぐに移動体はないものとせずに、さらに時刻(t+2Δt)、時刻(t+3Δt)と時間経過後の画像を用いて移動体の有無を判定し、時刻(t+Δt)、時刻(t+2Δt)における移動体の位置を推定することもできる。上述のように、移動体追跡装置では画像上で移動体が重なった場合においても、前後の時系列データを用いて移動体の追跡が可能となる。   The above 1. In “Confirmation of presence / absence of moving object”, if there is no corresponding point in both images, it is determined that there is no moving object immediately, and further, moving using time (t + 2Δt), time (t + 3Δt), and the image after the elapse of time. The presence or absence of a body can be determined, and the position of the moving body at time (t + Δt) and time (t + 2Δt) can also be estimated. As described above, the moving object tracking apparatus can track the moving object using the time series data before and after the moving object overlaps on the image.

本実施の形態によれば、2台のカメラカメラ1a、1bで撮影した画像のうち一方の画像で移動体が他の移動体に隠れて見えなくなった場合においても、時系列画像を用いて移動体の位置を推定することが可能である。かくして、画像上に対応点が得られない場合でも、時系列画像を用いて3次元位置を推定可能なので、移動体を精度よく追跡することができる。   According to the present embodiment, even when one of the images taken by the two camera cameras 1a and 1b is hidden behind another moving body and cannot be seen, it is moved using a time-series image. It is possible to estimate the position of the body. Thus, even when no corresponding point is obtained on the image, the three-dimensional position can be estimated using the time-series image, so that the moving object can be tracked with high accuracy.

次に、本発明の第2の実施の形態の移動体追跡装置について説明する。本実施の形態の構成は、図1と同一であり、信号処理装置3の機能の一部が異なるものである。   Next, a mobile tracking device according to a second embodiment of the present invention will be described. The configuration of the present embodiment is the same as that of FIG. 1, and a part of the function of the signal processing device 3 is different.

第1の実施の形態の移動体追跡装置と同様に、時刻tまでの移動体を追跡し、時刻(t+Δt)における移動領域を推定する。ここでは、歩行者等が一定速度で移動する際の移動体を想定する。   Similar to the moving body tracking apparatus of the first embodiment, the moving body up to time t is tracked, and the moving area at time (t + Δt) is estimated. Here, a moving body when a pedestrian or the like moves at a constant speed is assumed.

例えば、時刻t=(t−Δt)、時刻tにおいて、移動体はそれぞれ(x、y)、(x+Δx、y+Δy)に存在することが計測されたとする。この場合は、t=(t+Δt)における移動体の位置は線形に移動したと仮定すると、(x+2Δx、y+2Δy)にあると推定できるので、パターンマッチングを行う領域を(x+2Δx、y+2Δy)に係る周辺領域に限定する。   For example, it is assumed that at time t = (t−Δt) and time t, it is measured that the moving body exists at (x, y) and (x + Δx, y + Δy), respectively. In this case, assuming that the position of the moving body at t = (t + Δt) has moved linearly, it can be estimated that the position is (x + 2Δx, y + 2Δy). Limited to.

本実施の形態によれば、パターンマッチングを行う領域を限定することにより、処理時間の高速化を図ることができる。   According to the present embodiment, the processing time can be increased by limiting the region where pattern matching is performed.

なお、本実施の形態においては、移動体が線形に移動することを仮定したが、過去の3点以上の点を用いて2次フィッテイング等で移動体の位置をより精度良く推定することも可能である。   In this embodiment, it is assumed that the moving body moves linearly, but it is also possible to estimate the position of the moving body more accurately by secondary fitting or the like using the past three or more points. Is possible.

以上本発明の実施の形態について説明してきたが、本発明は、上述したような各実施の形態に何ら限定されるものではなく、各実施の形態の構成を組み合わせて、本発明の主旨を逸脱しない範囲で種々変形して実施することができる。   The embodiments of the present invention have been described above. However, the present invention is not limited to the embodiments described above, and departs from the gist of the present invention by combining the configurations of the embodiments. Various modifications can be made without departing from the scope.

本発明の実施の形態の移動体追跡装置の構成を示すブロック図。The block diagram which shows the structure of the mobile tracking device of embodiment of this invention. 図1の信号処理装置の処理を示すフロー図。The flowchart which shows the process of the signal processing apparatus of FIG. 図1の撮影画像のイメージを示す説明図で、(a)はその右画像と左画像のイメージ図、(b)はその対応点が検出できていないと判断した場合のイメージ図。2A and 2B are explanatory diagrams showing images of the photographed image of FIG. 1, in which FIG. 1A is an image diagram of the right image and the left image, and FIG.

符号の説明Explanation of symbols

1…撮影手段、1a,1b…カメラ、2…画像取り込み手段、3…信号処理装置、4…画像保存部、5…対応点計測手段、6…対応点検出判定手段、7…3次元位置計測手段、8…3次元位置推定手段、9…移動体追跡手段、10…移動体、A,B…人物、ImR…右画像、ImL…左画像。   DESCRIPTION OF SYMBOLS 1 ... Imaging | photography means, 1a, 1b ... Camera, 2 ... Image capture means, 3 ... Signal processing apparatus, 4 ... Image storage part, 5 ... Corresponding point measurement means, 6 ... Corresponding point detection determination means, 7 ... Three-dimensional position measurement Means 8 ... Three-dimensional position estimation means 9 ... Moving body tracking means 10 ... Moving body, A, B ... Person, ImR ... Right image, ImL ... Left image.

Claims (3)

既知の位置関係にある少なくとも2台の撮影手段と、この撮影手段で撮影された画像が画像取り込み手段を介して取り込まれる信号処理装置と、を有する移動体追跡装置において、
前記信号処理装置が、
前記画像取り込み手段を介して取り込まれた前記画像から対応点が検出される対応点計測手段と、
この対応点が検出されているか否かを判定する対応点検出判定手段と、
前記対応点が検出された場合に前記画像中の移動体の3次元位置が計測される3次元位置計測手段と、
前記対応点が検出できない場合には、前記対応点が検出できなかった前後の時間の前記画像から3次元位置が推定される3次元位置推定手段と、
前記3次元位置計測手段又は3次元位置推定手段で求められた前記3次元位置より前記移動体の追跡が行える移動体追跡手段と、
を備えることを特徴とする移動体追跡装置。
In a mobile tracking device having at least two imaging means having a known positional relationship, and a signal processing device in which an image captured by the imaging means is captured via the image capturing means,
The signal processing device is
Corresponding point measuring means for detecting corresponding points from the image captured via the image capturing means;
Corresponding point detection determining means for determining whether or not this corresponding point is detected;
3D position measuring means for measuring the 3D position of the moving body in the image when the corresponding point is detected;
If the corresponding point cannot be detected, a three-dimensional position estimating means for estimating a three-dimensional position from the images before and after the corresponding point could not be detected;
Moving body tracking means capable of tracking the moving body from the three-dimensional position obtained by the three-dimensional position measuring means or the three-dimensional position estimating means;
A moving body tracking device comprising:
少なくとも2台の撮像手段により撮像された画像を用いて移動体を追跡する移動体追跡方法において、
前記画像において前記移動体の情報が失われた場合、この情報が失われた時間の前後の時間に得られる前記画像を用いて前記移動体の追跡ができることを特徴とする移動体追跡方法。
In a moving body tracking method for tracking a moving body using images picked up by at least two image pickup means,
A method of tracking a moving object, wherein when the information on the moving object is lost in the image, the moving object can be tracked using the images obtained before and after the time when the information is lost.
ある時刻までの前記移動体の軌跡から次の時刻における前記移動体の位置を予測し、パターンマッチングを行う領域を予想される前記移動体の周辺領域に限定することを特徴とする請求項2記載の移動体追跡方法。   The position of the said mobile body in the next time is estimated from the locus | trajectory of the said mobile body to a certain time, and the area | region which performs pattern matching is limited to the surrounding area | region of the said mobile body expected. Moving body tracking method.
JP2008118217A 2008-04-30 2008-04-30 Apparatus and method for mobile object tracking Pending JP2009266155A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008118217A JP2009266155A (en) 2008-04-30 2008-04-30 Apparatus and method for mobile object tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008118217A JP2009266155A (en) 2008-04-30 2008-04-30 Apparatus and method for mobile object tracking

Publications (1)

Publication Number Publication Date
JP2009266155A true JP2009266155A (en) 2009-11-12

Family

ID=41391878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008118217A Pending JP2009266155A (en) 2008-04-30 2008-04-30 Apparatus and method for mobile object tracking

Country Status (1)

Country Link
JP (1) JP2009266155A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103093212A (en) * 2013-01-28 2013-05-08 北京信息科技大学 Method and device for clipping facial images based on face detection and face tracking
JP2014119427A (en) * 2012-12-19 2014-06-30 Fujitsu Semiconductor Ltd Spot search device and spot search method
WO2016021121A1 (en) * 2014-08-05 2016-02-11 パナソニック株式会社 Correcting and verifying method, and correcting and verifying device
JP2017516101A (en) * 2014-06-19 2017-06-15 ラヴィジオン・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Method for measuring the spatial displacement vector field
KR20180048048A (en) * 2016-11-02 2018-05-10 국방과학연구소 3d tracking apparatus and method using stereo camera

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03224680A (en) * 1990-01-31 1991-10-03 Kyoei Kogyo Kk Electrolytic magnetization method of water and device therefor
JPH03224580A (en) * 1990-01-31 1991-10-03 Fuji Electric Co Ltd Processing method of moving image
JPH1166319A (en) * 1997-08-21 1999-03-09 Omron Corp Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP2003013816A (en) * 2001-06-28 2003-01-15 Hino Motors Ltd Intake pre-cleaner structure
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2003030628A (en) * 2001-07-18 2003-01-31 Fujitsu Ltd Relative position measuring instrument
JP2003346157A (en) * 2002-05-23 2003-12-05 Toshiba Corp Object tracking device and object tracking method
JP2006284372A (en) * 2005-03-31 2006-10-19 Toshiba Corp Image processing device and image processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03224680A (en) * 1990-01-31 1991-10-03 Kyoei Kogyo Kk Electrolytic magnetization method of water and device therefor
JPH03224580A (en) * 1990-01-31 1991-10-03 Fuji Electric Co Ltd Processing method of moving image
JPH1166319A (en) * 1997-08-21 1999-03-09 Omron Corp Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP2003013816A (en) * 2001-06-28 2003-01-15 Hino Motors Ltd Intake pre-cleaner structure
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2003030628A (en) * 2001-07-18 2003-01-31 Fujitsu Ltd Relative position measuring instrument
JP2003346157A (en) * 2002-05-23 2003-12-05 Toshiba Corp Object tracking device and object tracking method
JP2006284372A (en) * 2005-03-31 2006-10-19 Toshiba Corp Image processing device and image processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119427A (en) * 2012-12-19 2014-06-30 Fujitsu Semiconductor Ltd Spot search device and spot search method
CN103093212A (en) * 2013-01-28 2013-05-08 北京信息科技大学 Method and device for clipping facial images based on face detection and face tracking
JP2017516101A (en) * 2014-06-19 2017-06-15 ラヴィジオン・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Method for measuring the spatial displacement vector field
WO2016021121A1 (en) * 2014-08-05 2016-02-11 パナソニック株式会社 Correcting and verifying method, and correcting and verifying device
JPWO2016021121A1 (en) * 2014-08-05 2017-05-25 パナソニック株式会社 Correction confirmation method and correction confirmation apparatus
US10334159B2 (en) 2014-08-05 2019-06-25 Panasonic Corporation Correcting and verifying method, and correcting and verifying device
KR20180048048A (en) * 2016-11-02 2018-05-10 국방과학연구소 3d tracking apparatus and method using stereo camera
KR101895125B1 (en) * 2016-11-02 2018-09-04 국방과학연구소 3d tracking apparatus and method using stereo camera

Similar Documents

Publication Publication Date Title
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
KR101072876B1 (en) Method and apparatus for estimating position in a mobile robot
US11132810B2 (en) Three-dimensional measurement apparatus
JP4963964B2 (en) Object detection device
Goncalves et al. A visual front-end for simultaneous localization and mapping
JP2019194616A (en) Position detection method, device and equipment based upon image, and storage medium
US20160117824A1 (en) Posture estimation method and robot
JP2006268345A (en) Image processing device and image processing method
JP2016070674A (en) Three-dimensional coordinate calculation device, three-dimensional coordinate calculation method, and three-dimensional coordinate calculation program
US10650535B2 (en) Measurement device and measurement method
JP2006010376A (en) Correlation method of stereo image and three-dimensional data generation device
US10515459B2 (en) Image processing apparatus for processing images captured by a plurality of imaging units, image processing method, and storage medium storing program therefor
CN103688292A (en) Image display apparatus and image display method
JP2009266155A (en) Apparatus and method for mobile object tracking
KR101674298B1 (en) Method for distance calculation using a camera lens focal length information
JP2008309595A (en) Object recognizing device and program used for it
JP5743935B2 (en) Object detection apparatus and object detection method
KR20150142475A (en) Apparatus for obstacle detection and method thereof
KR101578891B1 (en) Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition
JP2010003253A (en) Motion estimation device
JP2007114168A (en) Image processing method, device, and program
KR102410300B1 (en) Apparatus for measuring position of camera using stereo camera and method using the same
JP2018092547A (en) Image processing apparatus, image processing method, and program
JP2006309450A (en) Image recognition device and image recognition method
JP2007010419A (en) Three-dimensional shape of object verifying system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121204