JP2008033818A - Object tracking device and its control method, object tracking system, object tracking program, and recording medium recording the program - Google Patents

Object tracking device and its control method, object tracking system, object tracking program, and recording medium recording the program Download PDF

Info

Publication number
JP2008033818A
JP2008033818A JP2006209008A JP2006209008A JP2008033818A JP 2008033818 A JP2008033818 A JP 2008033818A JP 2006209008 A JP2006209008 A JP 2006209008A JP 2006209008 A JP2006209008 A JP 2006209008A JP 2008033818 A JP2008033818 A JP 2008033818A
Authority
JP
Japan
Prior art keywords
correlation window
image
object tracking
unit
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006209008A
Other languages
Japanese (ja)
Other versions
JP4882577B2 (en
Inventor
Chitei Aizawa
知禎 相澤
Hironori Koitabashi
宏礼 小板橋
Yoshiro Murata
芳郎 村田
Yoshinobu Asokawa
佳誠 麻生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2006209008A priority Critical patent/JP4882577B2/en
Publication of JP2008033818A publication Critical patent/JP2008033818A/en
Application granted granted Critical
Publication of JP4882577B2 publication Critical patent/JP4882577B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object tracking device or the like capable of realizing speed improvement of object tracking processing. <P>SOLUTION: The object tracking device 3 is provided with a storing part 9 storing stereoscopic-photographed image from photographing equipment 2 via an image input part 7, and an object tracking part 8 tracking an object in stereoscopic-photographed images on the basis of a plurality of stereoscopic-photographed images at different points of time. The object tracking part 8 is provided with a characteristic point extracting part 11 using the stereoscopic-photographed images to extract a characteristic point and calculate an actual position of the extracted characteristic point, a correlation window setting part 13 setting an area on the photographed image being an area on the photographed image including the extracted characteristic point and having a size calculated on the basis of the calculated actual position of the characteristic point as an image of an object correlation window, and a collating part 14 uniforming sizes of the set image of the object correlation window and a stored image of a reference correlation window and carrying out collation. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、互いに異なる時刻で撮影した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する物体追跡装置およびその制御方法、物体追跡システム、物体追跡プログラム、ならびに該プログラムを記録した記録媒体に関するものである。   The present invention relates to an object tracking device that tracks an object in the captured image based on a plurality of captured images captured at different times, a control method thereof, an object tracking system, an object tracking program, and a record in which the program is recorded It relates to the medium.

従来、車両、人、物などの物体の動きをカメラによって動画像として撮影し、その動画像を解析することによって、撮影されている物体を追跡する物体追跡システムが提供されており、例えば特許文献1〜3に開示されている。物体を追跡することにより、物体が所定領域を通過する数を測定することができ、物体の速度や動線を把握することができる。   2. Description of the Related Art Conventionally, an object tracking system for tracking a captured object by capturing the motion of an object such as a vehicle, a person, or an object as a moving image by a camera and analyzing the moving image has been provided. 1-3. By tracking an object, the number of objects passing through a predetermined area can be measured, and the speed and flow line of the object can be grasped.

さらに、物体追跡システムは、例えば自動車の動きを認識することによって交通管制や自動車運転アシストなどの用途に用いることが可能である。また、例えば公共の場での通行人、および店舗内での客などの動きを認識することによって、通行状況調査、および顧客行動調査などの用途に用いることが可能である。また、例えば工場の生産ラインにおける生産対象物の動き、ならびに作業者の動きを認識することによって、生産管理、生産計画などの用途に用いることが可能である。   Furthermore, the object tracking system can be used for applications such as traffic control and automobile driving assistance by recognizing movement of an automobile, for example. In addition, for example, by recognizing movements of passers-by in public places and customers in stores, it can be used for purposes such as traffic situation surveys and customer behavior surveys. Further, for example, by recognizing the movement of the production object in the production line of the factory and the movement of the worker, it can be used for applications such as production management and production planning.

このような物体追跡システムでは、互いに異なる時刻での撮影による複数の撮影画像間で、撮影画像中の同一物体を対応付けることにより物体を追跡している。例えば、特許文献1には、ビデオカメラや気象レーダー装置などにより得られる時系列画像の濃度変化に応じて、時系列画像中の対象物体の動きを計測することにより、物体の追跡を行うことが開示されている。   In such an object tracking system, an object is tracked by associating the same object in a captured image between a plurality of captured images captured at different times. For example, Patent Document 1 discloses that an object can be tracked by measuring a movement of a target object in a time-series image in accordance with a density change of the time-series image obtained by a video camera, a weather radar device, or the like. It is disclosed.

また、特許文献2に記載の物体追跡装置では、複数のカメラで物体を撮像し、撮像した複数の画像からステレオ画像処理によって、上記物体までの距離を計測し、計測した距離を用いて物体を検出している。そして、検出した物体の領域から、画像の輝度情報などの特徴量をテンプレートとして抽出し、マッチングを行って物体の追跡を行っている。   In the object tracking device described in Patent Document 2, an object is imaged by a plurality of cameras, the distance to the object is measured by stereo image processing from the captured images, and the object is detected using the measured distance. Detected. Then, feature quantities such as luminance information of the image are extracted as templates from the detected object region, and matching is performed to track the object.

また、特許文献3に記載の前方車両追跡システムでは、レーザレーダを用いて自車両の進行方向前方をスキャニングして、前方車両とその位置とを検出するとともに、前方車両までの距離とを計測する。前方車両を検出した場合、検出した前方車両の位置に対応する撮影画像上の位置に、上記前方車両の追跡用テンプレートを作成し、作成した追跡用テンプレートから、上記距離変化による大きさ変化を考慮してテンプレートマッチングを行うことにより車両追跡を行っている。
特開平10−197543号公報(平成10年(1998)7月31日公開) 特開平11−252587号公報(平成11年(1999)9月17日公開) 特開2004−53278号公報(平成16年(2004)2月19日公開)
Further, in the forward vehicle tracking system described in Patent Document 3, the front of the host vehicle is scanned using a laser radar to detect the forward vehicle and its position and measure the distance to the forward vehicle. . When a preceding vehicle is detected, a tracking template for the preceding vehicle is created at a position on the captured image corresponding to the detected position of the preceding vehicle, and the size change due to the distance change is taken into account from the created tracking template. The vehicle is tracked by performing template matching.
JP 10-197543 A (published July 31, 1998) JP 11-252587 A (published September 17, 1999) JP 2004-53278 A (published February 19, 2004)

上記のような物体の追跡処理をリアルタイムに処理する場合、処理時間を短くすることが必要となる。例えば車両などのように対象物の移動が高速である場合には、動画像における単位時間あたりのフレーム数を多くする必要があるが、この場合、各フレーム間の時間が短くなり、この短いフレーム間の時間内で上記対応付けを完了させる必要がある。   When the object tracking process as described above is processed in real time, it is necessary to shorten the processing time. For example, when the movement of an object is fast, such as a vehicle, it is necessary to increase the number of frames per unit time in a moving image. In this case, the time between frames is shortened, and this short frame It is necessary to complete the association within the time period.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、物体の追跡処理の高速化を実現できる物体追跡装置などを提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an object tracking device and the like that can realize high-speed object tracking processing.

上記課題を解決するため、本発明に係る物体追跡装置は、互いに異なる時点での撮影によって作成された複数の撮影画像を取得する画像取得手段と、取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する物体追跡手段とを備える物体追跡装置であって、過去の撮影による撮影画像中の物体の部分的形状を特徴付ける特徴点を含む上記撮影画像の一部領域を参照相関窓として、該参照相関窓の画像情報を記憶する記憶手段をさらに備えており、上記画像取得手段は、互いに異なる位置から同時に撮影された複数の撮影画像であるステレオ撮影画像を、或る時点に撮影された上記撮影画像として取得しており、上記物体追跡手段は、上記画像取得手段が取得した上記ステレオ撮影画像のうち少なくとも2つの撮影画像を利用して、上記特徴点を抽出すると共に、抽出した特徴点の実際の位置に関する情報である実位置情報を算出する特徴点抽出手段と、該特徴点抽出手段が抽出した特徴点を含む上記撮影画像の一部領域であって、上記特徴点抽出手段が算出した上記特徴点の実位置情報に基づいて算出されたサイズを有する上記撮影画像の一部領域を、対象相関窓として設定する相関窓設定手段と、該相関窓設定手段が設定した対象相関窓の画像と、上記記憶手段が記憶する参照相関窓の画像とを、サイズを揃えて照合する照合手段とを備えることを特徴としている。   In order to solve the above-described problem, the object tracking device according to the present invention includes an image acquisition unit that acquires a plurality of captured images created by capturing at different points in time, and the imaging based on the acquired plurality of captured images. An object tracking device comprising an object tracking means for tracking an object in an image, wherein a reference correlation window is used to refer to a partial region of the captured image including feature points that characterize a partial shape of the object in a captured image obtained by past imaging The image acquisition unit further includes a storage unit that stores image information of the reference correlation window, and the image acquisition unit captures a stereo captured image, which is a plurality of captured images simultaneously captured from different positions, at a certain point in time. And the object tracking means uses at least two captured images among the stereo captured images acquired by the image acquiring means, A feature point extracting means for extracting the feature point and calculating actual position information, which is information relating to the actual position of the extracted feature point, and a part of the photographed image including the feature point extracted by the feature point extracting means A correlation window setting unit that sets a partial region of the captured image having a size calculated based on the actual position information of the feature point calculated by the feature point extraction unit as a target correlation window; The image processing apparatus is characterized by further comprising collating means for collating the image of the target correlation window set by the correlation window setting means and the image of the reference correlation window stored by the storage means with the same size.

また、本発明に係る物体追跡装置の制御方法は、互いに異なる時点での撮影によって作成された複数の撮影画像を取得し、取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する物体追跡装置であって、過去の撮影による撮影画像中の物体の部分的形状を特徴付ける特徴点を含む上記撮影画像の一部領域を参照相関窓として、該参照相関窓の画像情報を記憶する記憶手段を備える物体追跡装置の制御方法であって、上記課題を解決するために、互いに異なる時点での撮影によって作成された複数の撮影画像を取得する画像取得ステップと、取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する物体追跡ステップとを含んでおり、上記画像取得ステップは、互いに異なる位置から同時に撮影された複数の撮影画像であるステレオ撮影画像を、或る時点に撮影された上記撮影画像として取得しており、上記物体追跡ステップは、上記画像取得ステップにて取得された上記ステレオ撮影画像のうち少なくとも2つの撮影画像を利用して、上記特徴点を抽出すると共に、抽出した特徴点の実際の位置に関する情報である実位置情報を算出する特徴点抽出ステップと、該特徴点抽出ステップにて抽出された特徴点を含む上記撮影画像上の一部領域であって、上記特徴点抽出ステップにて算出された特徴点の実位置情報に基づいて算出されたサイズを有する上記撮影画像の一部領域を、対象相関窓として設定する相関窓設定ステップと、該相関窓設定ステップにて設定された対象相関窓の画像と、上記記憶手段が記憶する参照相関窓の画像とを、サイズを揃えて照合する照合ステップとを含むことを特徴としている。   The object tracking device control method according to the present invention acquires a plurality of captured images created by capturing images at different times, and tracks an object in the captured image based on the acquired captured images. An object tracking device that stores image information of a reference correlation window using a partial area of the captured image including a feature point that characterizes a partial shape of an object in a captured image obtained by past imaging as a reference correlation window. An object tracking device control method comprising a storage means, in order to solve the above problems, an image acquisition step for acquiring a plurality of captured images created by shooting at different points in time, and a plurality of acquired captured images An object tracking step of tracking an object in the captured image based on the image acquisition step, wherein the image acquisition step includes a plurality of captured images captured simultaneously from different positions. And the object tracking step uses at least two of the stereo captured images acquired in the image acquiring step. A feature point extracting step of extracting the feature point and calculating actual position information that is information on an actual position of the extracted feature point, and the feature point extracted in the feature point extracting step. A partial area of the photographed image having a size calculated based on the actual position information of the feature point calculated in the feature point extraction step is set as a target correlation window. The correlation window setting step, the image of the target correlation window set in the correlation window setting step, and the reference correlation window image stored in the storage means are collated with the same size. It is characterized in that it comprises a verification step that.

ここで、撮影画像は、物体を追跡可能な画像であれば、カラー画像であってもよいし、輝度情報のみを含む白黒画像であってもよい。また、撮影画像は、例えば鮮鋭化処理などのように、物体の追跡を容易にするための画像処理が行われた画像であってもよい。   Here, the captured image may be a color image or a black and white image including only luminance information as long as the image can be traced. The captured image may be an image that has been subjected to image processing for facilitating tracking of an object, such as sharpening processing.

また、特徴点の例としては、撮影画像または処理画像において輝度急激に変化する部分が挙げられる。また、実位置情報の例としては、撮影を行う撮影装置から特徴点までの距離の情報、撮影空間に予め設定された座標上の位置情報、などが挙げられる。   Moreover, as an example of the feature point, there is a portion where the luminance changes rapidly in the captured image or the processed image. Examples of the actual position information include information on the distance from the photographing device that performs photographing to the feature point, position information on coordinates set in advance in the photographing space, and the like.

上記の構成または方法によると、ステレオ撮影画像のうち少なくとも2つの撮影画像を利用して、特徴点を抽出すると共に、抽出した特徴点の実位置情報を算出している。これにより、特徴点から画像上の物体を特定し、特定した物体の実位置情報を算出する従来の場合に比べて、物体を特定する処理を省略できる。また、撮影画像または処理画像を多数の小領域に分割し、分割した小領域ごとに実位置情報を算出する従来の場合に比べて、実位置情報を算出する回数を減少できる。したがって、従来の場合に比べて、撮影画像から特徴点の実位置情報を算出するまでの処理を高速化することができる。   According to the above configuration or method, feature points are extracted and actual position information of the extracted feature points is calculated using at least two captured images among stereo captured images. As a result, the object specifying process can be omitted as compared with the conventional case in which the object on the image is specified from the feature points and the actual position information of the specified object is calculated. Further, the number of times of calculating the actual position information can be reduced as compared with the conventional case where the captured image or the processed image is divided into a large number of small areas and the actual position information is calculated for each divided small area. Therefore, compared with the conventional case, it is possible to speed up the processing until the actual position information of the feature point is calculated from the captured image.

また、抽出した特徴点を含む対象相関窓を設定し、設定した対象相関窓の画像と参照相関窓の画像とを照合している。これにより、物体を含むテンプレートを用いて探索対象の画像に対しテンプレートマッチングを行う従来の場合に比べて、比較するサイズを小さくすることができ、かつ、比較回数を著しく減少することができる。その結果、上記照合の処理を高速化することができる。   Further, a target correlation window including the extracted feature points is set, and the set target correlation window image and the reference correlation window image are collated. Thereby, compared with the conventional case where template matching is performed on an image to be searched using a template including an object, the size to be compared can be reduced, and the number of comparisons can be significantly reduced. As a result, the collation process can be speeded up.

したがって、本発明に係る物体追跡装置および該装置の制御方法は、物体の追跡処理の高速化を実現することができる。   Therefore, the object tracking device and the control method for the device according to the present invention can realize speeding up of the object tracking processing.

さらに、抽出した特徴点を含む対象相関窓のサイズを、該特徴点の実位置情報に基づいて決定している。これにより、物体が撮影装置に対して接近または離間することにより、撮影画像上の物体のサイズが変化しても、対象相関窓のサイズを同様に変化させることができる。したがって、参照相関窓および対象相関窓のサイズを、特徴点に対応する物体の部分的形状に適合したサイズとすることができるので、参照相関窓の画像と対象相関窓の画像との照合の精度をさらに向上させることができる。   Further, the size of the target correlation window including the extracted feature point is determined based on the actual position information of the feature point. Thereby, even if the size of the object on the captured image changes as the object approaches or moves away from the imaging device, the size of the target correlation window can be changed in the same manner. Therefore, the size of the reference correlation window and the target correlation window can be set to a size suitable for the partial shape of the object corresponding to the feature point, so that the accuracy of matching between the reference correlation window image and the target correlation window image is increased. Can be further improved.

なお、画像取得手段または画像取得処理は、互いに異なる時点に撮影された複数の撮影画像を、動画像として連続的に取得してもよいし、静止画像として間欠的に取得してもよい。   Note that the image acquisition unit or the image acquisition process may acquire a plurality of captured images captured at different times as a moving image or intermittently as a still image.

本発明に係る物体追跡装置では、前記照合手段は、上記対象相関窓の画像および上記参照相関窓の画像に関して、大きい方のサイズを小さい方のサイズに縮小して照合することが好ましい。この場合、小さい方のサイズで画像どうしの照合が行われるので、照合の処理に必要な演算量を抑えることができる。したがって、物体の追跡処理をさらに高速化することができる。   In the object tracking device according to the present invention, it is preferable that the collating unit collates the image of the target correlation window and the image of the reference correlation window by reducing the larger size to the smaller size. In this case, since the images are collated with the smaller size, the amount of calculation required for the collation processing can be suppressed. Therefore, it is possible to further speed up the object tracking process.

ところで、通常、画像を拡大または縮小する場合に補間処理が行われる。このとき、画像を拡大する場合に比べて、画像を縮小する場合の方が、上記補間処理によって画像の誤情報が混入する可能性が低い。したがって、上記の構成によると、照合の精度をさらに向上させることができ、その結果、物体を精度良く追跡することができる。   Incidentally, interpolation processing is usually performed when an image is enlarged or reduced. At this time, when the image is reduced, it is less likely that erroneous information of the image is mixed by the interpolation process than when the image is enlarged. Therefore, according to the above configuration, the accuracy of matching can be further improved, and as a result, the object can be tracked with high accuracy.

本発明に係る物体追跡装置では、上記物体追跡手段は、上記参照相関窓に含まれる特徴点の位置に基づいて、該特徴点が移動し得る範囲を探索範囲として設定する探索範囲設定手段をさらに備えており、上記照合手段は、上記探索範囲設定手段が設定した探索範囲内に特徴点を含む対象相関窓の画像と、上記参照相関窓の画像とを照合することが好ましい。   In the object tracking device according to the present invention, the object tracking means further includes search range setting means for setting, as a search range, a range in which the feature point can move based on the position of the feature point included in the reference correlation window. The collating unit preferably collates the image of the target correlation window including a feature point within the search range set by the search range setting unit and the image of the reference correlation window.

ここで、特徴点が移動し得る範囲は、例えば、特徴点の進行方向および速度、特徴点に対応する物体が到達可能な最高速度、上記物体に対する制約された進行方向などを利用して設定することができる。また、フレーム毎に照合処理を実行する場合であって、フレーム間で物体がさほど移動しない場合、特徴点から所定範囲内を特徴点が移動し得る範囲としてもよい。   Here, the range in which the feature point can move is set using, for example, the traveling direction and speed of the feature point, the maximum speed at which the object corresponding to the feature point can reach, the restricted traveling direction with respect to the object, and the like. be able to. Further, in the case where the collation process is executed for each frame and the object does not move so much between the frames, a range in which the feature point can move within a predetermined range from the feature point may be set.

上記の構成によると、照合の対象となる対象相関窓を、探索範囲内に特徴点を有するものに限定するので、対象相関窓の画像を参照相関窓の画像に照合する回数を減少させることができる。したがって、物体の追跡処理をさらに高速化することができる。   According to the above configuration, the target correlation window to be collated is limited to those having feature points within the search range, so that the number of times of collating the image of the target correlation window with the image of the reference correlation window can be reduced. it can. Therefore, it is possible to further speed up the object tracking process.

ところで、ステレオ撮影画像を利用すると、撮影画像上の位置と実際の位置との間の変換処理を容易に実行できる。したがって、探索範囲は、画像上の位置の範囲であってもよいし、実際の位置の範囲であってもよい。   By the way, when a stereo photographed image is used, a conversion process between a position on the photographed image and an actual position can be easily executed. Therefore, the search range may be a range of positions on the image, or may be a range of actual positions.

また、特徴点抽出手段が探索範囲内の特徴点のみを抽出してもよいし、相関窓設定手段が探索範囲内の特徴点に対してのみ対象相関窓を設定してもよい。これらの場合、特徴点の抽出処理や対象相関窓の設定処理の処理数を減らすことができるので、物体の追跡処理をさらに高速化することができる。   Further, the feature point extracting means may extract only the feature points within the search range, or the correlation window setting means may set the target correlation window only for the feature points within the search range. In these cases, the number of feature point extraction processes and target correlation window setting processes can be reduced, so that the object tracking process can be further accelerated.

ところで、撮影画像中の物体のサイズと、撮影を行う撮影装置から上記物体までの撮影距離とは、反比例の関係にある。すなわち、撮影画像中の物体の部分的形状のサイズと、撮影装置から上記部分的形状を特徴付ける特徴点までの撮影距離とは、反比例の関係にある。   By the way, the size of the object in the captured image and the imaging distance from the imaging device that performs imaging to the object are in an inversely proportional relationship. That is, the size of the partial shape of the object in the photographed image and the photographing distance from the photographing device to the feature point characterizing the partial shape are in an inversely proportional relationship.

そこで、上記実位置情報は、上記撮影を行う撮影装置から上記特徴点までの撮影距離の情報であり、上記記憶手段は、上記参照相関窓に含まれる特徴点に関する上記撮影距離の情報を、該当する参照相関窓に関連付けて記憶しており、上記相関窓設定手段は、式:(上記参照相関窓のサイズ)=(上記対象相関窓のサイズ)×(上記対象相関窓に含まれる特徴点に関する上記撮影距離)/(上記参照相関窓に含まれる特徴点に関する上記撮影距離)、に基づいて上記参照相関窓のサイズを決定することが好ましい。   Therefore, the actual position information is information on the shooting distance from the shooting device that performs the shooting to the feature point, and the storage unit applies the shooting distance information on the feature point included in the reference correlation window. The correlation window setting means relates to a feature point included in the target correlation window: Equation (size of the reference correlation window) = (size of the target correlation window) × It is preferable to determine the size of the reference correlation window based on (the shooting distance) / (the shooting distance regarding the feature points included in the reference correlation window).

ところで、撮影画像上の物体の形状は時間と共に変化する。このため、参照相関窓が対応する撮影画像の撮影時刻と、対象相関窓が対応する撮影画像の撮影時刻との期間が長くなるにつれて、照合の精度が低下することになる。   By the way, the shape of the object on the captured image changes with time. For this reason, as the period between the shooting time of the shot image corresponding to the reference correlation window and the shooting time of the shot image corresponding to the target correlation window becomes longer, the accuracy of the collation decreases.

そこで、上記照合手段は、上記照合の結果、上記参照相関窓に画像が最も類似する対象相関窓に関する情報を、新たな参照相関窓に関する情報として上記記憶手段に記憶することが好ましい。この場合、最近の撮影画像に関する参照相関窓を利用して照合を行うことができるので、照合の精度が低下することを防止できる。なお、新たな参照相関窓に関する情報は、既存の参照相関窓の情報に対して、追加するように記憶手段に記憶してもよいし、更新するように記憶手段に記憶してもよい。   In view of this, it is preferable that the collating unit stores information on the target correlation window whose image is most similar to the reference correlation window in the storage unit as information on a new reference correlation window. In this case, since collation can be performed using a reference correlation window related to a recent photographed image, it is possible to prevent degradation of collation accuracy. Note that the information on the new reference correlation window may be stored in the storage unit so as to be added to the information on the existing reference correlation window, or may be stored in the storage unit so as to be updated.

本発明に係る物体追跡装置では、上記記憶手段は、上記参照相関窓に対応する撮影画像が撮影された撮影時点に関する情報を、上記参照相関窓と関連付けて記憶していることが好ましい。この場合、参照相関窓が対応する撮影画像の撮影時点から、対象相関窓が対応する撮影画像の撮影時点まで期間を算出できるので、特徴点の速度を算出することができる。なお、撮影時点に関する情報としては、撮影時刻の情報の他に、フレームの通し番号などが挙げられる。   In the object tracking device according to the present invention, it is preferable that the storage unit stores information related to the shooting time point when the shot image corresponding to the reference correlation window is shot in association with the reference correlation window. In this case, since the period can be calculated from the shooting time of the shot image corresponding to the reference correlation window to the shooting time of the shot image corresponding to the target correlation window, the speed of the feature point can be calculated. Note that the information related to the shooting time includes the serial number of the frame in addition to the shooting time information.

ところで、撮影画像中に含まれる特徴点の数は、1個の場合もあれば、複数個の場合もある。撮影画像中に複数の特徴点が含まれる場合には、個々の特徴点を追跡できることが望ましい。そこで、上記記憶手段は、異なる特徴点に関する複数の参照相関窓に関する情報を記憶していることが好ましい。この場合、照合処理は、参照相関窓ごとに行われることになる。   By the way, the number of feature points included in the captured image may be one or plural. When a plurality of feature points are included in a captured image, it is desirable that individual feature points can be tracked. Therefore, it is preferable that the storage unit stores information regarding a plurality of reference correlation windows regarding different feature points. In this case, the matching process is performed for each reference correlation window.

なお、互いに異なる位置から同時に撮影する第1撮影部および第2撮影部を備えた撮影装置と、該撮影装置から、互いに異なる時点に撮影された複数の撮影画像を取得し、取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する上記構成の物体追跡装置とを備える物体追跡システムであれば、上述と同様の効果を奏する。   In addition, the imaging device provided with the 1st imaging | photography part and the 2nd imaging | photography part which image | photograph simultaneously from a mutually different position, and the some imaging | photography image | photographed from the imaging | photography apparatus at different time points are acquired, If the object tracking system includes the object tracking device configured as described above that tracks an object in the captured image based on the image, the same effects as described above can be obtained.

なお、上記物体追跡装置における物体追跡手段を、物体追跡プログラムによりコンピュータ上で機能させることができる。さらに、上記物体追跡プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記物体追跡プログラムを実行させることができる。   The object tracking means in the object tracking device can be made to function on a computer by an object tracking program. Furthermore, the object tracking program can be executed on an arbitrary computer by storing the object tracking program in a computer-readable recording medium.

以上のように、本発明に係る物体追跡装置は、特徴点を抽出し、抽出した特徴点を含む対象相関窓を設定し、設定した対象相関窓の画像と参照相関窓の画像とを照合しているので、物体を特定する処理を省略でき、したがって、物体の追跡処理を高速化できるという効果を奏する。さらに、抽出した特徴点を含む対象相関窓のサイズを、該特徴点の実位置情報に基づいて決定することにより、参照相関窓および対象相関窓のサイズを、特徴点に対応する物体の部分的形状に適合したサイズとすることができるので、参照相関窓の画像と対象相関窓の画像との照合の精度をさらに向上できるという効果を奏する。   As described above, the object tracking device according to the present invention extracts feature points, sets a target correlation window including the extracted feature points, and collates the set target correlation window image with the reference correlation window image. Therefore, the process of specifying the object can be omitted, and therefore the object tracking process can be speeded up. Further, by determining the size of the target correlation window including the extracted feature point based on the actual position information of the feature point, the size of the reference correlation window and the target correlation window is set to a part of the object corresponding to the feature point. Since the size can be adapted to the shape, it is possible to further improve the accuracy of matching between the image of the reference correlation window and the image of the target correlation window.

〔実施の形態1〕
本発明の一実施形態について図1〜図8を参照して説明する。
[Embodiment 1]
An embodiment of the present invention will be described with reference to FIGS.

(物体追跡システムの構成)
図1は、本実施形態に係る物体追跡システム1の概略構成を示している。本実施形態の物体追跡システム1は、道路を走行中の車両を追跡して、車両の数および速度を測定するものであるが、本発明はこれに限定されるものではない。図示のように、物体追跡システム1は、撮影装置2、物体追跡装置3、および表示装置4を備える構成である。
(Configuration of object tracking system)
FIG. 1 shows a schematic configuration of an object tracking system 1 according to the present embodiment. Although the object tracking system 1 of this embodiment tracks a vehicle traveling on a road and measures the number and speed of the vehicles, the present invention is not limited to this. As illustrated, the object tracking system 1 is configured to include an imaging device 2, an object tracking device 3, and a display device 4.

撮影装置2は、道路の上方に設置され、道路の所定領域を俯瞰撮影するものである。撮影装置2は、道路の所定領域を互いに異なる位置から同時に撮影する第1撮像部5および第2撮像部6を備えている。第1撮像部5および第2撮像部6は、例えばCCD(charge coupled device)やCMOS(complementary metal oxide semiconductor)撮像素子などの撮像素子によって構成される。第1撮像部5および第2撮像部6は、撮影した時系列の撮影画像データを物体追跡装置3に送信する。   The photographing device 2 is installed above a road and photographs a predetermined area of the road from a bird's-eye view. The imaging device 2 includes a first imaging unit 5 and a second imaging unit 6 that simultaneously capture a predetermined area of a road from different positions. The first imaging unit 5 and the second imaging unit 6 are configured by an imaging element such as a CCD (charge coupled device) or a CMOS (complementary metal oxide semiconductor) imaging element, for example. The first imaging unit 5 and the second imaging unit 6 transmit time-series captured image data that has been captured to the object tracking device 3.

本実施形態では、撮影装置2は、ビデオ撮影を行い、撮影した動画像データを時系列の撮影画像データとして物体追跡装置3に送信している。なお、以下では、第1撮像部5および第2撮像部6が撮影した2組の動画像データを「ステレオ動画像データ」と総称する。また、上記2組の動画像データのうち、或るフレームにおける2組の静止画像データを「ステレオ撮影画像データ」と総称する。   In the present embodiment, the imaging device 2 performs video shooting and transmits the captured moving image data to the object tracking device 3 as time-series captured image data. Hereinafter, two sets of moving image data captured by the first imaging unit 5 and the second imaging unit 6 are collectively referred to as “stereo moving image data”. Of the two sets of moving image data, two sets of still image data in a certain frame are collectively referred to as “stereo shot image data”.

なお、撮影装置2は、第1撮像部5および第2撮像部6を一体に備えるステレオカメラによって構成されてもよいし、第1撮像部5および第2撮像部6として2台のカメラによって構成されてもよい。撮影装置2が2台のカメラによって構成されている場合、第1撮像部5および第2撮像部6は、上記撮影に必要な各種パラメータが予め相互に校正されているものとする。また、カメラ間の距離が既知であり、物体追跡装置3に記憶されているものとする。   The imaging device 2 may be configured by a stereo camera integrally including the first imaging unit 5 and the second imaging unit 6, or may be configured by two cameras as the first imaging unit 5 and the second imaging unit 6. May be. When the imaging device 2 is configured by two cameras, the first imaging unit 5 and the second imaging unit 6 assume that various parameters necessary for the imaging are calibrated in advance. Further, it is assumed that the distance between the cameras is known and stored in the object tracking device 3.

また、撮影装置2は、3つ以上の撮像部を備える構成であってもよい。撮影部が増えると、被写体の実際の位置に関する情報である実位置情報を精度良く取得できる。また、撮影装置2は、スチル撮影を間欠的に行って、静止画像のデータを物体追跡装置3に間欠的に送信しても良い。なお、スチル撮影を行う間隔が変化する場合には、撮影時刻のデータを物体追跡装置3に送信する必要がある。   The imaging device 2 may be configured to include three or more imaging units. When the number of photographing units is increased, real position information that is information related to the actual position of the subject can be obtained with high accuracy. In addition, the imaging device 2 may intermittently transmit still images and intermittently transmit still image data to the object tracking device 3. In addition, when the interval at which the still photographing is performed changes, it is necessary to transmit photographing time data to the object tracking device 3.

物体追跡装置3は、撮影装置2が互いに異なる時刻に撮影することによって作成された複数の撮影画像に基づいて、該撮影画像中に含まれる車両を追跡するものである。物体追跡装置3は、追跡結果のデータを表示装置4に送信する。   The object tracking device 3 tracks a vehicle included in the captured image based on a plurality of captured images created by the imaging device 2 capturing images at different times. The object tracking device 3 transmits the tracking result data to the display device 4.

本実施形態の物体追跡装置3では、撮影装置2から取得したステレオ撮影画像を利用して、撮影画像中の物体の部分的形状を特徴付ける特徴点を抽出すると共に、抽出した特徴点の実際の位置(実位置)を算出している。これにより、特徴点から画像上の物体を特定し、特定した物体の実位置を算出する従来の場合に比べて、物体を特定する処理を省略できる。また、撮影画像を多数の小領域に分割し、分割した小領域ごとに実位置を算出する場合に比べて、実位置を算出する回数が少なくて済む。したがって、本実施形態の物体追跡装置3は、従来の場合に比べて、撮影画像から特徴点の実位置を算出するまでの処理を高速化することができる。   In the object tracking device 3 according to the present embodiment, the feature points characterizing the partial shape of the object in the photographed image are extracted using the stereo photographed image acquired from the photographing device 2, and the actual positions of the extracted feature points are (Actual position) is calculated. Thereby, compared with the conventional case where an object on an image is specified from feature points and the actual position of the specified object is calculated, the process of specifying the object can be omitted. Further, the number of times of calculating the actual position can be reduced compared to the case where the captured image is divided into a large number of small areas and the actual position is calculated for each of the divided small areas. Therefore, the object tracking device 3 of the present embodiment can speed up the processing until the actual position of the feature point is calculated from the captured image, as compared with the conventional case.

また、本実施形態の物体追跡装置3では、抽出した特徴点を含む対象相関窓を設定し、設定した対象相関窓の画像と参照相関窓の画像とを照合している。これにより、物体を含むテンプレートを用いて探索対象の画像に対しテンプレートマッチングを行う場合に比べて、比較するサイズを小さくすることができ、かつ、比較回数を著しく減少することができる。その結果、上記照合の処理を高速化することができる。   In the object tracking device 3 of the present embodiment, a target correlation window including the extracted feature points is set, and the set target correlation window image and the reference correlation window image are collated. As a result, the size to be compared can be reduced and the number of comparisons can be significantly reduced as compared with the case where template matching is performed on an image to be searched using a template including an object. As a result, the collation process can be speeded up.

したがって、本実施形態の物体追跡装置3は、物体の追跡処理の高速化を実現することができる。なお、物体追跡装置3の詳細な構成については後述する。   Therefore, the object tracking device 3 of the present embodiment can realize speeding up of the object tracking process. The detailed configuration of the object tracking device 3 will be described later.

表示装置4は、物体追跡装置3による車両の追跡結果を表示するものであり、例えばCRT(Cathode Ray Tube)、液晶表示素子など、画像の表示を行うことが可能な各種表示デバイスによって構成される。   The display device 4 displays the result of tracking the vehicle by the object tracking device 3, and is configured by various display devices capable of displaying an image, such as a CRT (Cathode Ray Tube) or a liquid crystal display element. .

次に、物体追跡装置3の詳細について説明する。物体追跡装置3は、画像入力部(画像取得手段)7、物体追跡部(物体追跡手段)8、記憶部(記憶手段)9、および表示制御部10を備える構成である。   Next, details of the object tracking device 3 will be described. The object tracking device 3 includes an image input unit (image acquisition unit) 7, an object tracking unit (object tracking unit) 8, a storage unit (storage unit) 9, and a display control unit 10.

画像入力部7は、撮影装置2の第1撮像部5および第2撮像部6が撮影したステレオ動画像データを撮影装置2から受け付けるものである。画像入力部7が受け付けたステレオ動画像データは、記憶部9に記憶される。   The image input unit 7 receives stereo moving image data captured by the first imaging unit 5 and the second imaging unit 6 of the imaging device 2 from the imaging device 2. Stereo moving image data received by the image input unit 7 is stored in the storage unit 9.

記憶部9は、各種の情報を記憶するものであり、例えばHDD(Hard Disk Drive)、フラッシュメモリなどの記憶デバイスによって構成される。本実施形態では、記憶部9は、撮影装置2からのステレオ動画像データを記憶する。また、記憶部9は、参照相関窓の画像データおよびサイズデータと、撮影装置2から、上記参照相関窓に対応する特徴点までの撮影距離のデータとを関連付けて記憶している。   The storage unit 9 stores various types of information, and includes a storage device such as an HDD (Hard Disk Drive) or a flash memory. In the present embodiment, the storage unit 9 stores stereo moving image data from the imaging device 2. In addition, the storage unit 9 stores image data and size data of the reference correlation window and shooting distance data from the imaging device 2 to the feature point corresponding to the reference correlation window in association with each other.

物体追跡部8は、記憶部9が記憶するステレオ動画像データおよび参照相関窓の画像データを利用して、動画像中の車両を追跡するものである。具体的には、物体追跡部8は、動画像中の車両の部分的形状を特徴付ける特徴点を追跡するものである。物体追跡部8は、特徴点抽出部(特徴点抽出手段)11、相関窓設定部(相関窓設定手段)13、および照合部(照合手段)14を備える構成である。   The object tracking unit 8 uses the stereo moving image data and the reference correlation window image data stored in the storage unit 9 to track the vehicle in the moving image. Specifically, the object tracking unit 8 tracks feature points that characterize the partial shape of the vehicle in the moving image. The object tracking unit 8 includes a feature point extraction unit (feature point extraction unit) 11, a correlation window setting unit (correlation window setting unit) 13, and a collation unit (collation unit) 14.

特徴点抽出部11は、記憶部9が記憶するステレオ動画像データのうち、最新のフレームのステレオ撮影画像データを記憶部9から読み出し、読み出したステレオ撮影画像データを利用して、撮影画像中の上記特徴点を抽出すると共に、抽出した特徴点の実位置情報を算出するものである。ここで、実位置情報は、実際の位置に関する情報であり、例えば、特徴点の実際の位置における三次元情報や、撮影装置2から特徴点の実際の位置までの撮影距離などが挙げられる。特徴点抽出部11は、抽出した各特徴点に関して、撮影画像中の座標データと実位置情報のデータとを相関窓設定部13に送信する。なお、特徴点の抽出方法の詳細と実位置情報の算出方法の詳細とについては後述する。   The feature point extraction unit 11 reads out the stereo shot image data of the latest frame from the stereo moving image data stored in the storage unit 9 from the storage unit 9 and uses the read out stereo shot image data in the shot image. The feature points are extracted, and the actual position information of the extracted feature points is calculated. Here, the actual position information is information related to the actual position, and includes, for example, three-dimensional information at the actual position of the feature point, a shooting distance from the image capturing device 2 to the actual position of the feature point, and the like. The feature point extraction unit 11 transmits the coordinate data in the captured image and the data of the actual position information to the correlation window setting unit 13 for each extracted feature point. The details of the feature point extraction method and the actual position information calculation method will be described later.

相関窓設定部13は、特徴点を含む撮影画像上の小領域、または例えば濃淡画像のような、撮影画像に処理を施した処理画像上の小領域を対象相関窓として設定するものである。相関窓設定部13は、設定された対象相関窓の画像データを照合部14に送信する。   The correlation window setting unit 13 sets, as a target correlation window, a small area on a captured image including feature points or a small area on a processed image obtained by processing a captured image, such as a grayscale image. The correlation window setting unit 13 transmits the set image data of the target correlation window to the matching unit 14.

本実施形態では、相関窓設定部13は、特徴点抽出部11からの各特徴点の実位置情報のデータに基づいて対象相関窓のサイズを決定して、対象相関窓を設定している。これにより、物体が撮影装置2に対して接近または離間することにより、撮影画像上の物体のサイズが変化しても、対象相関窓のサイズを同様に変化させることができる。したがって、参照相関窓および対象相関窓のサイズを、特徴点に対応する物体の部分的形状に適合したサイズとすることができるので、参照相関窓の画像と対象相関窓の画像との照合の精度をさらに向上させることができる。   In the present embodiment, the correlation window setting unit 13 determines the size of the target correlation window based on the actual position information data of each feature point from the feature point extraction unit 11, and sets the target correlation window. Thereby, even if the size of the object on the captured image changes as the object approaches or moves away from the imaging apparatus 2, the size of the target correlation window can be changed in the same manner. Therefore, the size of the reference correlation window and the target correlation window can be set to a size suitable for the partial shape of the object corresponding to the feature point, so that the accuracy of matching between the reference correlation window image and the target correlation window image is increased. Can be further improved.

照合部14は、相関窓設定部13から取得した対象相関窓の画像と、記憶部9から取得した参照相関窓の画像とを照合するものである。これにより、照合部14は、対象相関窓を参照相関窓に対応付けることができる。すなわち、互いに異なる時刻における撮影画像中の特徴点同士を対応付けることができる。なお、照合の詳細については後述する。   The collation unit 14 collates the image of the target correlation window acquired from the correlation window setting unit 13 and the image of the reference correlation window acquired from the storage unit 9. Thereby, the collation part 14 can match | combine a target correlation window with a reference correlation window. That is, the feature points in the captured image at different times can be associated with each other. Details of the verification will be described later.

なお、対象相関窓のサイズが参照相関窓のサイズと異なる場合、上記照合を行うことが困難となる。そこで、照合部14は、参照相関窓と対象相関窓とのサイズを揃えてから上記照合を行っている。   If the size of the target correlation window is different from the size of the reference correlation window, it is difficult to perform the above collation. Therefore, the collation unit 14 performs the collation after aligning the sizes of the reference correlation window and the target correlation window.

照合部14は、照合の結果、対象相関窓を参照相関窓に対応付けた場合、対応付けた対象相関窓に含まれる特徴点の座標データを、表示制御部10に送信する。さらに、照合部14は、対応付けた対象相関窓の画像データを新たな参照相関窓の画像データとして、上記フレームに関する時刻またはフレーム番号のデータと共に記憶部9に記憶させる。なお、上記対象相関窓の画像データは、以前の参照相関窓の画像データを更新するように記憶部9に記憶されてもよい。   When the collation unit 14 associates the target correlation window with the reference correlation window as a result of the collation, the collation unit 14 transmits the coordinate data of the feature points included in the associated target correlation window to the display control unit 10. Furthermore, the collation unit 14 stores the image data of the associated target correlation window as new reference correlation window image data in the storage unit 9 together with the time or frame number data related to the frame. The image data of the target correlation window may be stored in the storage unit 9 so as to update the image data of the previous reference correlation window.

表示制御部10は、表示装置4が表示する表示画像を制御するものである。具体的には、表示制御部10は、記憶部9が記憶する最新のフレームの撮影画像を表示させると共に、照合部14からの座標データに基づいて、特徴点の移動を示す情報を表示させるように表示装置を制御する。これにより、ユーザは、物体の移動量を把握することができる。   The display control unit 10 controls the display image displayed by the display device 4. Specifically, the display control unit 10 displays the latest frame captured image stored in the storage unit 9 and displays information indicating the movement of the feature point based on the coordinate data from the matching unit 14. Control the display device. Thereby, the user can grasp the amount of movement of the object.

なお、表示制御部10は、特徴点の移動を示す情報を、表示装置4に出力する代わりに、印刷装置を介して印刷媒体に印刷したり、記録装置を介して記録媒体に記録したり、通信装置および通信媒体を介して他の装置に伝送したりしてもよい。   The display control unit 10 prints the information indicating the movement of the feature points on the printing medium via the printing device instead of outputting the information to the display device 4, records the information on the recording medium via the recording device, It may be transmitted to another device via a communication device and a communication medium.

(物体追跡処理の流れ)
図2は、上記構成の物体追跡システム1における物体追跡処理の流れを示している。図示のように、まず、ステップ101(以降、S101のように称する)において、撮影装置2が道路の所定領域に対し撮影を行うことにより、撮影装置2から1フレームのステレオ撮影画像のデータを物体追跡装置3の画像入力部7が取得する。取得した1フレームのステレオ撮影画像のデータは、記憶部9に記憶される。
(Flow of object tracking process)
FIG. 2 shows a flow of object tracking processing in the object tracking system 1 having the above-described configuration. As shown in the figure, first, in step 101 (hereinafter referred to as S101), the photographing apparatus 2 photographs a predetermined area of the road, so that one frame of the stereo photographed image data is obtained from the photographing apparatus 2. Acquired by the image input unit 7 of the tracking device 3. The acquired one-frame stereo image data is stored in the storage unit 9.

次に、特徴点抽出部11が、記憶部9に記憶されたステレオ撮影画像のデータを利用して、ステレオ撮影画像中の特徴点を抽出すると共に、抽出した特徴点の三次元情報を取得する(S102)。図3は、特徴点抽出部11が特徴点を抽出する処理の流れを示しており、図4(a)〜(c)は、特徴点を抽出する処理の過程で取得される画像を示している。   Next, the feature point extraction unit 11 extracts the feature point in the stereo shot image using the data of the stereo shot image stored in the storage unit 9 and acquires the three-dimensional information of the extracted feature point. (S102). FIG. 3 shows a flow of processing in which the feature point extraction unit 11 extracts feature points, and FIGS. 4A to 4C show images acquired in the process of extracting feature points. Yes.

まず、最新のフレームのステレオ撮影画像のデータを記憶部9から取得する(S150)。図4(a)は、記憶部9から取得したステレオ撮影画像のデータから構成されるステレオ撮影画像のうち、何れか1つの撮影画像を示している。   First, the data of the stereo image of the latest frame is acquired from the storage unit 9 (S150). FIG. 4A shows any one captured image among stereo captured images composed of stereo captured image data acquired from the storage unit 9.

次に、ステレオ撮影画像からエッジの抽出処理が行われる(S151)。図4(b)は、図4(a)に示される撮影画像に対しエッジの抽出処理が施された画像を示している。図示のように、上記エッジの抽出処理により、輝度変化が所定値以上であるエッジが抽出される。   Next, edge extraction processing is performed from the stereo image (S151). FIG. 4B shows an image obtained by performing edge extraction processing on the photographed image shown in FIG. As shown in the drawing, an edge whose luminance change is equal to or greater than a predetermined value is extracted by the edge extraction process.

なお、上記エッジの抽出処理は、対象が自動車の場合には、水平なエッジを抽出することが好ましく、対象が人の場合には、コーナ部分のエッジを抽出することが好ましい。また、エッジを抽出するフィルタとしては、例えば、Sobelフィルタ、Harrisフィルタ、ラプラシアンフィルタなどの公知のフィルタを用いることができる。   The edge extraction process preferably extracts a horizontal edge when the object is a car, and preferably extracts an edge of a corner portion when the object is a person. Moreover, as a filter which extracts an edge, well-known filters, such as a Sobel filter, a Harris filter, a Laplacian filter, can be used, for example.

次に、ステレオ撮影画像のそれぞれから抽出したエッジの三次元情報を、ステレオ法を用いて算出する(S152)。算出されたエッジの三次元情報から、エッジの道路からの高さを求めることができる。なお、ステレオ法については、公知の文献(例えば、徐剛、辻三郎、「3次元ビジョン」、共立出版株式会社、1998年4月20日、初版)に記載されているので、本願ではその詳細を省略する。   Next, the three-dimensional information of the edges extracted from each of the stereo photographed images is calculated using the stereo method (S152). The height of the edge from the road can be obtained from the calculated three-dimensional information of the edge. The stereo method is described in publicly known literature (for example, Xugang, Saburo Saburo, “3D Vision”, Kyoritsu Publishing Co., Ltd., April 20, 1998, first edition). Omitted.

次に、道路からの高さが所定の範囲内にあるエッジを特徴点として抽出する(S154)。ここで、上記所定の範囲とは、上記エッジが自動車由来のものである可能性が高いと判断される範囲のことであり、例えば、路面や床よりも高く、看板や天井よりも低い範囲等である。図4(c)は、抽出された複数のエッジのうち、自動車のエッジである可能性が高いエッジのみを残した状態を示している。この残ったエッジが特徴点として抽出される。ステップ154の後、特徴点の抽出処理を終了して、元のルーチンに戻る。なお、図4(c)に示されるように、特徴点が複数個存在する場合には、特徴点ごとに以下の処理が行われる。   Next, an edge whose height from the road is within a predetermined range is extracted as a feature point (S154). Here, the predetermined range is a range in which the edge is determined to have a high possibility of being derived from an automobile, for example, a range that is higher than a road surface or a floor and lower than a signboard or a ceiling. It is. FIG. 4C shows a state in which only the edges that are highly likely to be automobile edges are left among the plurality of extracted edges. This remaining edge is extracted as a feature point. After step 154, the feature point extraction process ends, and the process returns to the original routine. As shown in FIG. 4C, when there are a plurality of feature points, the following processing is performed for each feature point.

図2に戻ると、相関窓設定部13が、特徴点抽出部11が抽出した特徴点に関する対象相関窓を設定する(S103)。このとき、設定される対象相関窓のサイズは、撮影装置2から上記特徴点の実際の位置までの撮影距離に基づいて決定される。この撮影距離は、図3に示されるステップ152において、ステレオ法を用いてエッジの三次元情報を算出する場合に求めることができる。   Returning to FIG. 2, the correlation window setting unit 13 sets a target correlation window related to the feature points extracted by the feature point extraction unit 11 (S103). At this time, the size of the target correlation window to be set is determined based on the photographing distance from the photographing device 2 to the actual position of the feature point. This shooting distance can be obtained when the three-dimensional information of the edge is calculated using the stereo method in step 152 shown in FIG.

相関窓設定部13が行う対象相関窓の設定処理の詳細について、図5〜図8を参照して説明する。図5は、物体の三次元上の位置を、撮影装置2を基準として示すカメラ座標(X,Y,Z)と、物体の画像上の位置を示す画像座標(x,y)との関係を示している。物体に関して、実際の三次元上の位置(X,Y,Z)と画像上の位置(x,y)との対応関係は、次式で表すことができる。なお、撮影装置2の焦点距離をfとし、スカラー量の係数をsとする。   Details of the target correlation window setting process performed by the correlation window setting unit 13 will be described with reference to FIGS. FIG. 5 shows the relationship between the camera coordinates (X, Y, Z) indicating the three-dimensional position of the object with reference to the photographing apparatus 2 and the image coordinates (x, y) indicating the position of the object on the image. Show. With respect to an object, the correspondence relationship between the actual three-dimensional position (X, Y, Z) and the position (x, y) on the image can be expressed by the following equation. It is assumed that the focal length of the photographing apparatus 2 is f and the scalar coefficient is s.

式(1)を展開すると、x=f×X/Z,y=f×Y/Zとなる。すなわち、物体の画像中の大きさは、撮影装置2から上記物体までの撮影距離Zに反比例することになる。したがって、相関窓設定部13は、記憶部9から読み出した参照相関窓の画像データに対応付けられたサイズデータおよび撮影距離のデータと、特徴点抽出部11が抽出した特徴点の撮影距離のデータとを用いて、次式により対象相関窓のサイズを算出する。
(対象相関窓のサイズ)=(参照相関窓のサイズ)×(参照相関窓に含まれる特徴点に関する撮影距離)/(特徴点抽出部が抽出した特徴点に関する撮影距離) ・・・(2)。
When formula (1) is expanded, x = f × X / Z and y = f × Y / Z. That is, the size of the object in the image is inversely proportional to the shooting distance Z from the shooting device 2 to the object. Therefore, the correlation window setting unit 13 stores the size data and shooting distance data associated with the image data of the reference correlation window read from the storage unit 9 and the shooting distance data of the feature points extracted by the feature point extraction unit 11. And the size of the target correlation window is calculated by the following equation.
(Size of target correlation window) = (Size of reference correlation window) × (Shooting distance related to feature points included in reference correlation window) / (Shooting distance related to feature points extracted by feature point extraction unit) (2) .

そして、相関窓設定部13は、特徴点抽出部11が抽出した特徴点を含む対象相関窓を、式(2)から算出したサイズで設定する。   Then, the correlation window setting unit 13 sets the target correlation window including the feature points extracted by the feature point extraction unit 11 with the size calculated from Expression (2).

図6は、以前のフレームにおけるステレオ撮影画像のうち、何れか1つの撮影画像と、該撮影画像に設定された参照相関窓RWとを示している。また、図7(a)・(b)は、図4(a)に示されるような最新のフレームにおける撮影画像を示している。このうち、図7(a)は、本実施形態の一例であって、式(2)から算出したサイズで対象相関窓TWを設定する場合を示している。また、図7(b)は、本実施形態の比較例であって、参照相関窓RWのサイズと同じサイズで対象相関窓TW’を設定する場合を示している。なお、対象相関窓TW,TW’は、相関窓設定部13が設定するものの一部のみを図示している。   FIG. 6 shows one of the stereo captured images in the previous frame, and the reference correlation window RW set for the captured image. FIGS. 7A and 7B show captured images in the latest frame as shown in FIG. Among these, FIG. 7A is an example of the present embodiment, and shows a case where the target correlation window TW is set with the size calculated from the equation (2). FIG. 7B is a comparative example of the present embodiment and shows a case where the target correlation window TW ′ is set with the same size as the reference correlation window RW. Note that only a part of the target correlation windows TW and TW ′ set by the correlation window setting unit 13 is illustrated.

図6に示される以前のフレームの撮影画像と、図7(a)および(b)に示される最新のフレームの撮影画像とを比較すると、車両が撮影装置2側に接近しており、このため、車両の画像上の大きさが増大していることが理解できる。このため、図7(b)に示されるように、参照相関窓RWのサイズと対象相関窓TW’のサイズとを同じにした場合、参照相関窓RWに含まれる車両の部分的形状が、対象相関窓TW’からはみ出す虞がある。このとき、参照相関窓RWと対象相関窓TW’との正確な照合が困難となる。   When the captured image of the previous frame shown in FIG. 6 and the latest captured image of the frame shown in FIGS. 7A and 7B are compared, the vehicle is close to the imaging device 2 side. It can be understood that the size of the vehicle image increases. For this reason, as shown in FIG. 7B, when the size of the reference correlation window RW and the size of the target correlation window TW ′ are the same, the partial shape of the vehicle included in the reference correlation window RW is the target. There is a risk of protruding from the correlation window TW ′. At this time, it is difficult to accurately check the reference correlation window RW and the target correlation window TW ′.

また、この問題点を回避するために、参照相関窓RWおよび対象相関窓TW’のサイズを大きくすることが考えられる。しかしながらこの場合、照合すべき画素数が増加して演算量が増大し、その結果、物体の追跡処理が遅延することになる。   In order to avoid this problem, it is conceivable to increase the sizes of the reference correlation window RW and the target correlation window TW ′. However, in this case, the number of pixels to be collated increases and the amount of calculation increases. As a result, the object tracking process is delayed.

これに対し、本実施形態では、式(2)から算出したサイズで対象相関窓TWを設定しているため、図7(a)に示されるように、参照相関窓RWに含まれる車両の部分的形状が、対象相関窓TWに過不足無く含まれることになる。したがって、参照相関窓RWと対象相関窓TWとの正確な照合が可能となる。   On the other hand, in this embodiment, since the target correlation window TW is set with the size calculated from the equation (2), as shown in FIG. 7A, the portion of the vehicle included in the reference correlation window RW. The target shape is included in the target correlation window TW without excess or deficiency. Therefore, it is possible to accurately check the reference correlation window RW and the target correlation window TW.

ところで、従来のテンプレートマッチングにおいて、テンプレートを上記撮影距離に応じて拡大または縮小することが考えられる。図8は、図6に示される参照相関窓RWの画像をテンプレートとして、テンプレートマッチングを行う場合を比較例として示している。この場合、図示のように、撮影画像をスキャンしてテンプレートと比較し、テンプレートに類似する撮影画像上の一部分を特定することになる。   By the way, in the conventional template matching, it is conceivable to enlarge or reduce the template according to the shooting distance. FIG. 8 shows a case where template matching is performed using the image of the reference correlation window RW shown in FIG. 6 as a template as a comparative example. In this case, as shown in the figure, the photographed image is scanned and compared with the template, and a part on the photographed image similar to the template is specified.

しかしながら、上記の場合では、テンプレートの拡大または縮小のため、スキャンする全ての位置の撮影距離を算出する必要がある。このため、演算量が著しく増大することになり、その結果、物体の追跡処理が遅延することになる。   However, in the above case, it is necessary to calculate shooting distances at all positions to be scanned in order to enlarge or reduce the template. For this reason, the amount of calculation increases remarkably, and as a result, the object tracking process is delayed.

これに対し、本実施形態では、特徴点の存在する位置の撮影距離のみを算出し、図7(a)に示されるように、撮影距離に応じた対象相関窓TWを設定しているので、上記のテンプレートマッチングを行う場合に比べて、演算量が少なくて済み、その結果、物体の追跡処理を高速化することができる。   On the other hand, in the present embodiment, only the shooting distance at the position where the feature point exists is calculated, and the target correlation window TW corresponding to the shooting distance is set as shown in FIG. Compared with the template matching described above, the amount of calculation is small, and as a result, the object tracking process can be speeded up.

図2に戻ると、照合部14は、相関窓設定部13が設定した対象相関窓の画像を、記憶部9が記憶する参照相関窓の画像と照合する(S104)。これにより、照合部14は、参照相関窓の画像に最も類似する対象相関窓の画像を特定でき、特定した対象相関窓を上記参照相関窓に対応付けることができる。すなわち、互いに異なる時刻における撮影画像中の特徴点同士を対応付けることができる。   Returning to FIG. 2, the collation unit 14 collates the image of the target correlation window set by the correlation window setting unit 13 with the image of the reference correlation window stored in the storage unit 9 (S104). Thereby, the collation part 14 can identify the image of the target correlation window most similar to the image of the reference correlation window, and can associate the identified target correlation window with the reference correlation window. That is, the feature points in the captured image at different times can be associated with each other.

この照合の一例としては、参照相関窓のサイズと対象相関窓のサイズとを揃えた上で、次式のような正規化相互相関法などを用いて類似度を算出することが挙げられる。この場合、最も類似度の高い対象相関窓が、参照相関窓と対応付けられる。   As an example of this collation, the size of the reference correlation window and the size of the target correlation window are matched, and the similarity is calculated using a normalized cross-correlation method such as the following equation. In this case, the target correlation window with the highest similarity is associated with the reference correlation window.

ここで、類似度をSとし、サイズが揃えられた参照相関窓の輝度情報をG(t)とし、サイズが揃えられた対象相関窓の輝度情報をG(t+Δt)とし、サイズが揃えられた参照相関窓および対象相関窓のサイズをm×nとしている。なお、時刻tは、参照相関窓に関する撮影画像が撮影された時刻を示しており、時刻(t+Δt)は、対象相関窓に関する撮影画像が撮影された時刻を示している。 Here, the similarity is S, the luminance information of the reference correlation window having the same size is G (t), the luminance information of the target correlation window having the same size is G (t + Δt), and the sizes are the same. The size of the reference correlation window and the target correlation window is m × n. Note that time t indicates the time when the captured image related to the reference correlation window is captured, and time (t + Δt) indicates the time when the captured image regarding the target correlation window is captured.

また、上記照合の他の例としては、参照相関窓のサイズと対象相関窓のサイズとを揃えた上で、対象相関窓および参照相関窓に関して、対応する画素値の差の絶対値の総和(絶対差分和)を求めることが挙げられる。この場合、絶対差分和が最小となる対象相関窓が、最も類似度の高い対象相関窓となるので、該当する対象相関窓を参照相関窓と対応付けられる。   Further, as another example of the above collation, the size of the reference correlation window and the size of the target correlation window are aligned, and the sum of the absolute values of the corresponding pixel value differences (with respect to the target correlation window and the reference correlation window) ( (Absolute difference sum) is obtained. In this case, the target correlation window with the smallest absolute difference sum becomes the target correlation window with the highest degree of similarity, so that the corresponding target correlation window is associated with the reference correlation window.

次に、表示制御部10は、記憶部9が記憶する最新のフレームの撮影画像を表示させると共に、照合部14の照合の結果、参照相関窓に対応付けられた対象相関窓を表示させるように表示装置を制御する(S105)。これにより、ユーザは、物体の移動量を把握することができる。その後、ステップ101に戻って、上記動作を繰り返す。   Next, the display control unit 10 displays the captured image of the latest frame stored in the storage unit 9 and displays the target correlation window associated with the reference correlation window as a result of the collation by the collation unit 14. The display device is controlled (S105). Thereby, the user can grasp the amount of movement of the object. Then, it returns to step 101 and repeats the said operation | movement.

〔実施の形態2〕
次に、本発明の別の実施形態について図9および図10を参照して説明する。なお、説明の便宜上、上記実施形態に記載した各構成および各処理と同様の構成および処理については、上記実施形態と同じ符号を用い、その説明を省略する。また、本実施形態の物体追跡システムは、図1に示される物体追跡システム1と比較して、物体追跡装置の物体追跡部が異なるのみであり、その他の構成は同様である。このため、本実施形態では、物体追跡部の構成および処理を主として説明する。
[Embodiment 2]
Next, another embodiment of the present invention will be described with reference to FIGS. For convenience of explanation, the same reference numerals as those in the above embodiment are used for the same elements and processes as those in the above embodiment, and the description thereof is omitted. Further, the object tracking system of this embodiment is different from the object tracking system 1 shown in FIG. 1 only in the object tracking unit of the object tracking apparatus, and the other configurations are the same. Therefore, in the present embodiment, the configuration and processing of the object tracking unit will be mainly described.

図9は、本実施形態に係る物体追跡システム20の概略構成を示している。図示のように、物体追跡システム20は、撮影装置2、物体追跡装置21、および表示装置4を備える構成である。   FIG. 9 shows a schematic configuration of the object tracking system 20 according to the present embodiment. As illustrated, the object tracking system 20 is configured to include an imaging device 2, an object tracking device 21, and a display device 4.

物体追跡装置21は、画像入力部7、物体追跡部22、記憶部9、および表示制御部10を備える構成である。物体追跡部22は、記憶部9が記憶するステレオ動画像データおよび参照相関窓の画像データを利用して、動画像中の車両の特徴点を追跡するものである。物体追跡部22は、図1に示される物体追跡部8に比べて、相関窓設定部13および照合部14の間に画像縮小部(照合手段)23が追加されている点が異なり、その他の構成は同様である。   The object tracking device 21 includes an image input unit 7, an object tracking unit 22, a storage unit 9, and a display control unit 10. The object tracking unit 22 tracks the feature points of the vehicle in the moving image by using the stereo moving image data and the reference correlation window image data stored in the storage unit 9. The object tracking unit 22 is different from the object tracking unit 8 shown in FIG. 1 in that an image reduction unit (collation unit) 23 is added between the correlation window setting unit 13 and the collation unit 14. The configuration is the same.

画像縮小部23は、相関窓設定部13が設定した対象相関窓の画像と、記憶部9が記憶する参照相関窓の画像とのうち、サイズの大きい方をサイズの小さい方に縮小するものである。したがって、照合部14は、サイズの小さい方に揃えられた対象相関窓および参照相関窓の画像どうしを照合することになる。   The image reduction unit 23 reduces the larger one of the target correlation window image set by the correlation window setting unit 13 and the reference correlation window image stored in the storage unit 9 to the smaller one. is there. Therefore, the collation unit 14 collates the images of the target correlation window and the reference correlation window that are aligned in the smaller size.

図10は、上記構成の物体追跡システム20における物体追跡処理の流れを示している。図示のように、まず、撮影装置2が道路の所定領域に対し撮影を行うことにより、撮影装置2から1フレームのステレオ撮影画像のデータを、物体追跡装置21の画像入力部7が取得して、記憶部9に記憶させる(S101)。   FIG. 10 shows the flow of an object tracking process in the object tracking system 20 having the above configuration. As shown in the figure, first, the image input device 7 of the object tracking device 21 obtains one frame of stereo image data from the image pickup device 2 when the image pickup device 2 takes an image of a predetermined area of the road. Then, it is stored in the storage unit 9 (S101).

次に、特徴点抽出部11が、記憶部9に記憶されたステレオ撮影画像のデータを利用して、ステレオ撮影画像中の特徴点を抽出すると共に、抽出した特徴点の三次元情報を取得する(S102)。次に、相関窓設定部13が、特徴点抽出部11が抽出した特徴点に関する対象相関窓を設定する(S103)。以上は、図2に示される物体追跡処理と同様である。   Next, the feature point extraction unit 11 extracts the feature point in the stereo shot image using the data of the stereo shot image stored in the storage unit 9 and acquires the three-dimensional information of the extracted feature point. (S102). Next, the correlation window setting unit 13 sets a target correlation window related to the feature points extracted by the feature point extraction unit 11 (S103). The above is the same as the object tracking process shown in FIG.

次に、画像縮小部23は、相関窓設定部13が設定した対象相関窓の画像と、記憶部9が記憶する参照相関窓の画像とのうち、サイズの大きい方をサイズの小さい方に縮小する(S201)。この場合、上記小さい方のサイズで画像どうしの照合が行われるので、照合処理に必要な演算量を抑えることができる。したがって、本実施形態では、物体を迅速に追跡することができる。   Next, the image reduction unit 23 reduces the larger size of the target correlation window image set by the correlation window setting unit 13 and the reference correlation window image stored in the storage unit 9 to the smaller size. (S201). In this case, since the images are collated with the smaller size, the amount of calculation required for the collation processing can be suppressed. Therefore, in this embodiment, an object can be tracked quickly.

その後、図2に示される物体追跡処理と同様に、照合部14は、相関窓設定部13が設定した対象相関窓の画像を、記憶部9が記憶する参照相関窓の画像と照合し(S104)、表示制御部10は、上記照合の結果を表示させるように表示装置4を制御する(S105)。その後、ステップ101に戻って、上記動作を繰り返す。   After that, as in the object tracking process shown in FIG. 2, the collation unit 14 collates the image of the target correlation window set by the correlation window setting unit 13 with the image of the reference correlation window stored in the storage unit 9 (S104). The display control unit 10 controls the display device 4 to display the result of the above collation (S105). Then, it returns to step 101 and repeats the said operation | movement.

ところで、画像を良好に拡大する場合には、画素どうしの間に新たな画素を追加し、追加の画素の画素値を、付近の画素の画素値に基づいて補間することになる。すなわち、拡大後の画像の情報量(画素値の総数)は、拡大前の画像の既知の情報量よりも多くなる。このため、増加分の情報には、実際とは異なる誤情報が含まれる可能性が高くなる。   By the way, when enlarging an image satisfactorily, a new pixel is added between the pixels, and the pixel value of the additional pixel is interpolated based on the pixel values of neighboring pixels. That is, the information amount (total number of pixel values) of the image after enlargement is larger than the known information amount of the image before enlargement. For this reason, there is a high possibility that the increase information includes erroneous information different from the actual information.

一方、画像を良好に縮小する場合には、付近の複数の画素を1つの画素に減らすことになるが、このときも、残存する画素の画素値を、付近の複数の画素の画素値に基づいて補間することになる。しかしながら、縮小後の画像の情報量は、縮小前の画像の既知の情報量よりも少ないので、上記誤情報が含まれる可能性が低い。   On the other hand, in the case of reducing an image satisfactorily, a plurality of neighboring pixels are reduced to one pixel. At this time, the pixel values of the remaining pixels are also based on the pixel values of the plurality of neighboring pixels. Will be interpolated. However, since the information amount of the image after the reduction is smaller than the known information amount of the image before the reduction, there is a low possibility that the erroneous information is included.

したがって、本実施形態では、画像の拡大により誤情報が増加することを防止できるので、照合の精度を向上することができる。その結果、物体を精度良く追跡することができる。なお、補間の方法については、公知の文献(例えば、高木幹雄、外1名、「新編 画像解析ハンドブック」、財団法人東京大学出版会、2004年9月10日、初版)に記載されているので、本願ではその説明を省略する。   Therefore, in this embodiment, it is possible to prevent an increase in erroneous information due to image enlargement, so that the accuracy of matching can be improved. As a result, the object can be tracked with high accuracy. The interpolation method is described in publicly known documents (for example, Mikio Takagi, 1 other person, “New Image Analysis Handbook”, The University of Tokyo Press, September 10, 2004, first edition). In the present application, the description is omitted.

〔実施の形態3〕
次に、本発明の他の実施形態について図11〜図13を参照して説明する。なお、説明の便宜上、上記実施形態に記載した各構成および各処理と同様の構成および処理については、上記実施形態と同じ符号を用い、その説明を省略する。また、本実施形態の物体追跡システムは、図1に示される物体追跡システム1と比較して、物体追跡装置の物体追跡部が異なるのみであり、その他の構成は同様である。このため、本実施形態では、物体追跡部の構成および処理を主として説明する。
[Embodiment 3]
Next, another embodiment of the present invention will be described with reference to FIGS. For convenience of explanation, the same reference numerals as those in the above embodiment are used for the same elements and processes as those in the above embodiment, and the description thereof is omitted. Further, the object tracking system of this embodiment is different from the object tracking system 1 shown in FIG. 1 only in the object tracking unit of the object tracking apparatus, and the other configurations are the same. Therefore, in the present embodiment, the configuration and processing of the object tracking unit will be mainly described.

図11は、本実施形態に係る物体追跡システム30の概略構成を示している。図示のように、物体追跡システム30は、撮影装置2、物体追跡装置31、および表示装置4を備える構成である。   FIG. 11 shows a schematic configuration of the object tracking system 30 according to the present embodiment. As illustrated, the object tracking system 30 includes an imaging device 2, an object tracking device 31, and a display device 4.

物体追跡装置31は、画像入力部7、物体追跡部32、記憶部9、および表示制御部10を備える構成である。物体追跡部32は、記憶部9が記憶するステレオ動画像データおよび参照相関窓の画像データを利用して、動画像中の車両の特徴点を追跡するものである。物体追跡部32は、図1に示される物体追跡部8に比べて、特徴点抽出部11および相関窓設定部13の間に探索範囲設定部(探索範囲設定手段)33が追加されている点が異なり、その他の構成は同様である。   The object tracking device 31 includes an image input unit 7, an object tracking unit 32, a storage unit 9, and a display control unit 10. The object tracking unit 32 uses the stereo moving image data stored in the storage unit 9 and the image data of the reference correlation window to track the feature points of the vehicle in the moving image. The object tracking unit 32 is different from the object tracking unit 8 shown in FIG. 1 in that a search range setting unit (search range setting means) 33 is added between the feature point extraction unit 11 and the correlation window setting unit 13. However, other configurations are the same.

探索範囲設定部33は、照合部14にて参照相関窓と画像の照合を行う対象相関窓の探索範囲を設定するものである。具体的には、探索範囲設定部33は、参照相関窓に含まれる特徴点の実位置情報を記憶部9から読み出し、上記特徴点の実際の位置から、車両が移動し得る範囲を上記探索範囲として設定するものである。   The search range setting unit 33 sets the search range of the target correlation window in which the collation unit 14 collates the reference correlation window and the image. Specifically, the search range setting unit 33 reads the actual position information of the feature points included in the reference correlation window from the storage unit 9, and determines the range in which the vehicle can move from the actual position of the feature points. Is set as

また、探索範囲設定部33は、特徴点抽出部11が抽出した特徴点のうち、設定した探索範囲内の特徴点のみに関して、撮影画像中の座標データと実位置情報のデータとを相関窓設定部13に送信する。   Further, the search range setting unit 33 sets the correlation window between the coordinate data in the captured image and the data of the actual position information for only the feature points within the set search range among the feature points extracted by the feature point extraction unit 11. To the unit 13.

ここで、車両が移動し得る範囲とは、参照相関窓に対応する過去の撮影画像のフレームから、現在処理中のフレーム(最新のフレーム)までの期間Δtに、車両が移動可能な範囲をいう。この範囲は、車両の最高速度、車線などを利用して求めることができる。   Here, the range in which the vehicle can move refers to the range in which the vehicle can move during a period Δt from the frame of the past captured image corresponding to the reference correlation window to the currently processed frame (latest frame). . This range can be determined using the maximum speed of the vehicle, the lane, and the like.

本実施形態では、車両の最高速度を利用して上記車両が移動し得る範囲を求めている。このため、車両の最高速度ベクトルvを上述のカメラ座標系で記憶部9に記憶している。   In the present embodiment, the range in which the vehicle can move is obtained using the maximum speed of the vehicle. For this reason, the maximum speed vector v of the vehicle is stored in the storage unit 9 in the above-described camera coordinate system.

なお、本実施形態では、探索範囲設定部33は、特徴点の実位置情報を利用している。しかしながら、上述の式(1)のようにカメラ座標と画像座標とは容易に変換できるので、探索範囲設定部33は、特徴点の画像上の位置情報を利用することもできる。   In the present embodiment, the search range setting unit 33 uses actual position information of feature points. However, since the camera coordinates and the image coordinates can be easily converted as in the above equation (1), the search range setting unit 33 can also use the position information of the feature points on the image.

図12は、上記構成の物体追跡システム30における物体追跡処理の流れを示している。図示のように、まず、撮影装置2が道路の所定領域に対し撮影を行うことにより、撮影装置2から1フレームのステレオ撮影画像のデータを、物体追跡装置31の画像入力部7が取得して、記憶部9に記憶させる(S101)。特徴点抽出部11が、記憶部9に記憶されたステレオ撮影画像のデータを利用して、ステレオ撮影画像中の特徴点を抽出すると共に、抽出した特徴点の三次元情報を取得する(S102)。以上は、図2に示される物体追跡処理と同様である。   FIG. 12 shows the flow of an object tracking process in the object tracking system 30 having the above configuration. As shown in the figure, first, the image input unit 7 of the object tracking device 31 obtains one frame of stereo image data from the image capturing device 2 when the image capturing device 2 captures a predetermined area of the road. Then, it is stored in the storage unit 9 (S101). The feature point extraction unit 11 extracts the feature points in the stereo shot image using the data of the stereo shot image stored in the storage unit 9, and acquires the three-dimensional information of the extracted feature points (S102). . The above is the same as the object tracking process shown in FIG.

次に、探索範囲設定部33は、照合部14にて参照相関窓と画像の照合を行う対象相関窓の探索範囲を設定する(S301)。具体的には、まず、探索範囲設定部33は、車両の最高速度ベクトルvの情報とを記憶部9から読み出し、カメラ座標系での車両の移動し得る範囲(Rx,Ry,Rz)を次式に基づいて算出する。ここで、Δtは、参照相関窓に対応するフレームに関する時刻から最新のフレームに関する時刻までの期間を示している。   Next, the search range setting unit 33 sets the search range of the target correlation window in which the collation unit 14 collates the reference correlation window and the image (S301). Specifically, first, the search range setting unit 33 reads the information on the maximum speed vector v of the vehicle from the storage unit 9, and next determines the range (Rx, Ry, Rz) in which the vehicle can move in the camera coordinate system. Calculate based on the formula. Here, Δt indicates a period from the time related to the frame corresponding to the reference correlation window to the time related to the latest frame.

参照相関窓に含まれる特徴点の実位置から、上記式(4)にて算出された範囲(Rx,Ry,Rz)までが、カメラ座標系における上記探索範囲となる。図13は、図4(a)に示されるような最新のフレームにおける撮影画像と、図6に示される参照相関窓RWに対して設定された探索範囲SRとを示している。 The search range in the camera coordinate system is from the actual position of the feature point included in the reference correlation window to the range (Rx, Ry, Rz) calculated by the above equation (4). FIG. 13 shows the captured image in the latest frame as shown in FIG. 4A and the search range SR set for the reference correlation window RW shown in FIG.

次に、探索範囲設定部33は、特徴点抽出部11が抽出した特徴点のうち、探索範囲外の特徴点を除外する。残りの特徴点に関しては、図2に示される物体追跡処理と同様に、相関窓設定部13が対象相関窓を設定する(S103)。そして、照合部14は、相関窓設定部13が設定した対象相関窓の画像を、記憶部9が記憶する参照相関窓の画像と照合し(S104)、表示制御部10は、上記照合の結果を表示させるように表示装置4を制御する(S105)。その後、ステップ101に戻って、上記動作を繰り返す。   Next, the search range setting unit 33 excludes feature points outside the search range from the feature points extracted by the feature point extraction unit 11. For the remaining feature points, the correlation window setting unit 13 sets a target correlation window (S103), as in the object tracking process shown in FIG. Then, the collation unit 14 collates the image of the target correlation window set by the correlation window setting unit 13 with the image of the reference correlation window stored in the storage unit 9 (S104), and the display control unit 10 determines the result of the above collation. The display device 4 is controlled to display (S105). Then, it returns to step 101 and repeats the said operation | movement.

したがって、本実施形態の物体追跡システム30は、探索範囲内の特徴点に限定して対象相関窓が設定されるから、相関窓設定部13および照合部14における処理量を減らすことができる。その結果、物体追跡処理を高速化することができる。   Therefore, the object tracking system 30 according to the present embodiment sets the target correlation window only for the feature points within the search range, and thus can reduce the amount of processing in the correlation window setting unit 13 and the matching unit 14. As a result, the object tracking process can be speeded up.

なお、本実施形態では、特徴点抽出部11が特徴点の抽出処理および三次元情報の算出処理を行った後に、探索範囲設定部33が探索範囲の設定処理を行う構成としているが、これに限定されるものではない。   In the present embodiment, after the feature point extraction unit 11 performs the feature point extraction process and the three-dimensional information calculation process, the search range setting unit 33 performs the search range setting process. It is not limited.

例えば、特徴点抽出部11が特徴点の抽出処理を行う前に、探索範囲設定部33が探索範囲の設定処理を行う構成としてもよい。この場合、まず、探索範囲設定部33が、上述のように探索範囲を設定する。このとき、探索範囲設定部33は、探索範囲を画像座標系で設定することが望ましい。   For example, the search range setting unit 33 may perform the search range setting process before the feature point extraction unit 11 performs the feature point extraction process. In this case, first, the search range setting unit 33 sets the search range as described above. At this time, it is desirable that the search range setting unit 33 sets the search range in the image coordinate system.

次に、特徴点抽出部11は、図3に示されるように、最新のフレームのステレオ撮影画像のデータを記憶部9から取得し(S150)、ステレオ撮影画像からエッジを抽出する(S151)。次に、特徴点抽出部11は、抽出したエッジのうち、探索範囲設定部33が設定した探索範囲内に存在するエッジに関して、三次元情報を算出し(S152)、高さが所定範囲内にあるエッジを特徴点として抽出する(S153)。   Next, as shown in FIG. 3, the feature point extraction unit 11 acquires the data of the latest stereo image of the frame from the storage unit 9 (S150), and extracts an edge from the stereo image (S151). Next, the feature point extraction unit 11 calculates three-dimensional information regarding the edges existing in the search range set by the search range setting unit 33 among the extracted edges (S152), and the height is within a predetermined range. A certain edge is extracted as a feature point (S153).

したがって、探索範囲内のエッジに限定して特徴点が抽出されるから、特徴点抽出部11、相関窓設定部13、および照合部14における処理量を減らすことができる。その結果、物体追跡処理を高速化することができる。   Therefore, since feature points are extracted only for edges within the search range, the processing amount in the feature point extraction unit 11, the correlation window setting unit 13, and the matching unit 14 can be reduced. As a result, the object tracking process can be speeded up.

また、例えば、相関窓設定部13が対象相関窓の設定処理を行った後に、探索範囲設定部33が探索範囲の設定処理を行う構成としてもよい。この場合でも、探索範囲内の特徴点を含む対象相関窓に限定して、参照相関窓と照合されるから、照合部14における処理量を減らすことができる。その結果、物体追跡処理を高速化することができる。   Further, for example, after the correlation window setting unit 13 performs the target correlation window setting process, the search range setting unit 33 may perform the search range setting process. Even in this case, since only the target correlation window including the feature points within the search range is collated with the reference correlation window, the processing amount in the collation unit 14 can be reduced. As a result, the object tracking process can be speeded up.

なお、参照相関窓が複数個存在する場合、参照相関窓ごとに対象相関窓との照合を行う必要がある。したがって、上記の場合には、物体追跡装置31は、撮影画像に含まれる全ての特徴点のそれぞれについて対象相関窓を設定した後、参照相関窓ごとに、探索範囲を設定し、該探索範囲内の対象相関窓との照合を行うことが望ましい。   When there are a plurality of reference correlation windows, it is necessary to perform matching with the target correlation window for each reference correlation window. Therefore, in the above case, the object tracking device 31 sets a target correlation window for each of all feature points included in the captured image, and then sets a search range for each reference correlation window. It is desirable to collate with the target correlation window.

本発明に係る物体追跡装置3・21・31が備える各ブロック、特に、物体追跡部8・22・32、および表示制御部10は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Each block provided in the object tracking device 3, 21, 31 according to the present invention, in particular, the object tracking unit 8, 22, 32, and the display control unit 10 may be configured by hardware logic, as follows. You may implement | achieve by software using CPU.

すなわち、物体追跡装置3・21・31は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである物体追跡装置3・21・31の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記物体追跡装置3・21・31に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the object tracking devices 3, 21, 31 have a central processing unit (CPU) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, and a RAM ( random access memory), a storage device (recording medium) such as a memory for storing the program and various data. The object of the present invention is to record the program code (execution format program, intermediate code program, source program) of the control program of the object tracking device 3, 21, 31, which is software that implements the functions described above, so that it can be read by a computer. This can also be achieved by supplying the recorded medium to the object tracking devices 3, 21, and 31 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、物体追跡装置3・21・31を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the object tracking devices 3, 21, and 31 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、撮影画像から特徴点を抽出し、該特徴点を追跡することにより物体を追跡しているため、道路を走行中の車両を追跡して、車両の数および速度を測定するシステム以外にも、物体の追跡を必要とする種々の装置またはシステムに適用可能である。   In the present invention, since a feature point is extracted from a captured image and an object is tracked by tracking the feature point, a system other than a system that tracks a vehicle traveling on a road and measures the number and speed of vehicles In addition, the present invention is applicable to various devices or systems that require object tracking.

本発明の一実施形態である物体追跡システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the object tracking system which is one Embodiment of this invention. 上記物体追跡システムの物体追跡装置における物体追跡処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object tracking process in the object tracking apparatus of the said object tracking system. 上記物体追跡処理における特徴点の抽出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the extraction process of the feature point in the said object tracking process. 同図(a)〜(c)は、上記特徴点の抽出処理の過程で取得される画像の一例を示す図であり、同図(a)は、上記物体追跡システムの撮影装置が撮影したステレオ撮影画像の一方の撮影画像を示しており、同図(b)は、該撮影画像に対しエッジが抽出された画像を示しており、同図(c)は、抽出された複数のエッジのうち、自動車のエッジである可能性が高いエッジのみを残した画像を示している。FIGS. 4A to 4C are diagrams showing an example of an image acquired in the process of extracting the feature points, and FIG. 4A is a stereo image taken by the imaging device of the object tracking system. One of the photographed images is shown. FIG. 5B shows an image in which an edge is extracted from the photographed image, and FIG. 4C shows a plurality of extracted edges. FIG. 5 shows an image in which only edges that are likely to be automobile edges are left. 物体の三次元上の位置を、上記撮影装置を基準として示すカメラ座標と、物体の画像上の位置を示す画像座標との関係を示す図である。It is a figure which shows the relationship between the camera coordinate which shows the three-dimensional position of an object on the basis of the said imaging device, and the image coordinate which shows the position on the image of an object. 以前のフレームにおける上記撮影画像と、該撮影画像に設定された参照相関窓とを示す図である。It is a figure which shows the said picked-up image in the previous flame | frame, and the reference correlation window set to this picked-up image. 同図(a)・(b)は、最新のフレームにおける上記撮影画像と、該撮影画像に設定された対象相関窓とを示す図であり、同図(a)は、上記撮影装置から上記特徴点までの距離に基づいて対象相関窓のサイズを変更する本実施例を示しており、同図(b)は、対象相関窓のサイズが固定である比較例を示している。(A) and (b) are diagrams showing the captured image in the latest frame and a target correlation window set in the captured image, and (a) in FIG. The present Example which changes the size of an object correlation window based on the distance to a point is shown, The figure (b) has shown the comparative example whose size of an object correlation window is fixed. 上記参照相関窓の画像をテンプレートとして、最新のフレームにおける上記撮影画像に対してテンプレートマッチングを行う場合を比較例として示す図である。It is a figure which shows the case where a template matching is performed with respect to the said picked-up image in the newest flame | frame using the image of the said reference correlation window as a template. 本発明の別の実施形態である物体追跡システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the object tracking system which is another embodiment of this invention. 上記物体追跡システムの物体追跡装置における物体追跡処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object tracking process in the object tracking apparatus of the said object tracking system. 本発明の他の実施形態である物体追跡システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the object tracking system which is other embodiment of this invention. 上記物体追跡システムの物体追跡装置における物体追跡処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object tracking process in the object tracking apparatus of the said object tracking system. 最新のフレームにおける上記撮影画像と、上記物体追跡装置の探索範囲設定部が上記参照相関窓に対して設定した探索範囲とを示す図である。It is a figure which shows the said picked-up image in the newest flame | frame, and the search range set with respect to the said reference correlation window by the search range setting part of the said object tracking device.

符号の説明Explanation of symbols

1・20・30 物体追跡システム
2 撮影装置
3・21・31 物体追跡装置
5 第1撮像部
6 第2撮像部
7 画像入力部(画像取得手段)
8・22・32 物体追跡部(物体追跡手段)
9 記憶部(記憶手段)
11 特徴点抽出部(特徴点抽出手段)
13 相関窓設定部(相関窓設定手段)
14 照合部(照合手段)
23 画像縮小部(照合手段)
33 探索範囲設定部(探索範囲設定手段)
RW 参照相関窓
TW 対象相関窓
SR 探索範囲
DESCRIPTION OF SYMBOLS 1.20.30 Object tracking system 2 Image pick-up device 3.21,31 Object tracking device 5 1st imaging part 6 2nd imaging part 7 Image input part (image acquisition means)
8.22.32 Object tracking unit (object tracking means)
9 Storage unit (storage means)
11 feature point extraction unit (feature point extraction means)
13 Correlation window setting section (correlation window setting means)
14 Verification part (Verification means)
23 Image reduction part (verification means)
33 Search range setting unit (search range setting means)
RW Reference correlation window TW Target correlation window SR Search range

Claims (11)

互いに異なる時点での撮影によって作成された複数の撮影画像を取得する画像取得手段と、取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する物体追跡手段とを備える物体追跡装置であって、
過去の撮影による撮影画像中の物体の部分的形状を特徴付ける特徴点を含む上記撮影画像の一部領域を参照相関窓として、該参照相関窓の画像情報を記憶する記憶手段をさらに備えており、
上記画像取得手段は、互いに異なる位置から同時に撮影された複数の撮影画像であるステレオ撮影画像を、或る時点に撮影された上記撮影画像として取得しており、
上記物体追跡手段は、
上記画像取得手段が取得した上記ステレオ撮影画像のうち少なくとも2つの撮影画像を利用して、上記特徴点を抽出すると共に、抽出した特徴点の実際の位置に関する情報である実位置情報を算出する特徴点抽出手段と、
該特徴点抽出手段が抽出した特徴点を含む上記撮影画像の一部領域であって、上記特徴点抽出手段が算出した上記特徴点の実位置情報に基づいて算出されたサイズを有する上記撮影画像の一部領域を、対象相関窓として設定する相関窓設定手段と、
該相関窓設定手段が設定した対象相関窓の画像と、上記記憶手段が記憶する参照相関窓の画像とを、サイズを揃えて照合する照合手段とを備えることを特徴とする物体追跡装置。
An object tracking device comprising: an image acquisition unit that acquires a plurality of captured images created by shooting at different points in time; and an object tracking unit that tracks an object in the captured image based on the acquired plurality of captured images. Because
The image processing apparatus further includes storage means for storing image information of the reference correlation window, with a partial area of the captured image including a feature point characterizing a partial shape of an object in a captured image obtained by past imaging as a reference correlation window,
The image acquisition means acquires a stereo shot image, which is a plurality of shot images shot simultaneously from different positions, as the shot image shot at a certain point in time,
The object tracking means includes
A feature for extracting the feature points using at least two photographed images of the stereo photographed images acquired by the image acquisition means and calculating real position information that is information relating to the actual positions of the extracted feature points. Point extraction means;
The captured image, which is a partial region of the captured image including the feature point extracted by the feature point extracting unit and has a size calculated based on the actual position information of the feature point calculated by the feature point extracting unit Correlation window setting means for setting a partial region of the target area as a target correlation window;
An object tracking apparatus comprising: a collating unit that collates the image of the target correlation window set by the correlation window setting unit and the image of the reference correlation window stored in the storage unit with the same size.
前記照合手段は、上記対象相関窓の画像および上記参照相関窓の画像に関して、大きい方のサイズを小さい方のサイズに縮小して照合することを特徴とする請求項1に記載の物体追跡装置。   2. The object tracking device according to claim 1, wherein the collating unit collates the image of the target correlation window and the image of the reference correlation window by reducing the larger size to the smaller size. 上記物体追跡手段は、上記参照相関窓に含まれる特徴点の位置に基づいて、該特徴点が移動し得る範囲を探索範囲として設定する探索範囲設定手段をさらに備えており、
上記照合手段は、上記探索範囲設定手段が設定した探索範囲内に特徴点を含む対象相関窓の画像と、上記参照相関窓の画像とを照合することを特徴とする請求項1に記載の物体追跡装置。
The object tracking means further comprises search range setting means for setting a range in which the feature point can move as a search range based on the position of the feature point included in the reference correlation window,
2. The object according to claim 1, wherein the collating unit collates an image of a target correlation window including a feature point within a search range set by the search range setting unit and an image of the reference correlation window. Tracking device.
上記実位置情報は、上記撮影を行う撮影装置から上記特徴点までの撮影距離の情報であり、
上記記憶手段は、上記参照相関窓に含まれる特徴点に関する上記撮影距離の情報を、該当する参照相関窓に関連付けて記憶しており、
上記相関窓設定手段は、式:
(上記参照相関窓のサイズ)=(上記対象相関窓のサイズ)×(上記対象相関窓に含まれる特徴点に関する上記撮影距離)/(上記参照相関窓に含まれる特徴点に関する上記撮影距離)、
に基づいて上記参照相関窓のサイズを決定することを特徴とする請求項1に記載の物体追跡装置。
The actual position information is information of a shooting distance from the shooting device that performs the shooting to the feature point,
The storage means stores the information of the shooting distance related to the feature points included in the reference correlation window in association with the corresponding reference correlation window,
The correlation window setting means has the formula:
(Size of the reference correlation window) = (size of the target correlation window) × (the shooting distance regarding the feature points included in the target correlation window) / (the shooting distance regarding the feature points included in the reference correlation window),
The object tracking device according to claim 1, wherein a size of the reference correlation window is determined based on the reference.
上記照合手段は、上記照合の結果、上記参照相関窓に画像が最も類似する対象相関窓に関する情報を、新たな参照相関窓に関する情報として上記記憶手段に記憶することを特徴とする請求項1に記載の物体追跡装置。   The said collating means memorize | stores in the said memory | storage means as information regarding a new reference correlation window the information regarding the object correlation window with which an image is most similar to the said reference correlation window as a result of the said collation. The object tracking device described. 上記記憶手段は、上記参照相関窓に対応する撮影画像が撮影された撮影時点に関する情報を、上記参照相関窓と関連付けて記憶していることを特徴とする請求項1に記載の物体追跡装置。   The object tracking device according to claim 1, wherein the storage unit stores information related to a photographing time point when the photographed image corresponding to the reference correlation window is photographed in association with the reference correlation window. 上記記憶手段は、異なる特徴点に関する複数の参照相関窓に関する情報を記憶していることを特徴とする請求項1に記載の物体追跡装置。   The object tracking apparatus according to claim 1, wherein the storage unit stores information regarding a plurality of reference correlation windows regarding different feature points. 互いに異なる位置から同時に撮影する第1撮影部および第2撮影部を備えた撮影装置と、
該撮影装置から、互いに異なる時点に撮影された複数の撮影画像を取得し、取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する請求項1ないし7の何れか1項に記載の物体追跡装置とを備えることを特徴とする物体追跡システム。
An imaging device including a first imaging unit and a second imaging unit that simultaneously capture images from different positions;
8. The method according to claim 1, wherein a plurality of captured images captured at different points in time are acquired from the imaging device, and an object in the captured image is tracked based on the acquired captured images. An object tracking system comprising: the object tracking device described above.
請求項1ないし7の何れか1項に記載の物体追跡装置を動作させる物体追跡プログラムであって、コンピュータを上記物体追跡手段として機能させるための物体追跡プログラム。   An object tracking program for operating the object tracking device according to claim 1, wherein the computer functions as the object tracking unit. 請求項9に記載の物体追跡プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the object tracking program according to claim 9 is recorded. 互いに異なる時点での撮影によって作成された複数の撮影画像を取得し、取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する物体追跡装置であって、過去の撮影による撮影画像中の物体の部分的形状を特徴付ける特徴点を含む上記撮影画像の一部領域を参照相関窓として、該参照相関窓の画像情報を記憶する記憶手段を備える物体追跡装置の制御方法であって、
互いに異なる時点での撮影によって作成された複数の撮影画像を取得する画像取得ステップと、
取得した複数の撮影画像に基づいて、該撮影画像中の物体を追跡する物体追跡ステップとを含んでおり、
上記画像取得ステップは、互いに異なる位置から同時に撮影された複数の撮影画像であるステレオ撮影画像を、或る時点に撮影された上記撮影画像として取得しており、
上記物体追跡ステップは、
上記画像取得ステップにて取得された上記ステレオ撮影画像のうち少なくとも2つの撮影画像を利用して、上記特徴点を抽出すると共に、抽出した特徴点の実際の位置に関する情報である実位置情報を算出する特徴点抽出ステップと、
該特徴点抽出ステップにて抽出された特徴点を含む上記撮影画像上の一部領域であって、上記特徴点抽出ステップにて算出された特徴点の実位置情報に基づいて算出されたサイズを有する上記撮影画像の一部領域を、対象相関窓として設定する相関窓設定ステップと、
該相関窓設定ステップにて設定された対象相関窓の画像と、上記記憶手段が記憶する参照相関窓の画像とを、サイズを揃えて照合する照合ステップとを含むことを特徴とする物体追跡装置の制御方法。
An object tracking device that acquires a plurality of captured images created by shooting at different points in time and tracks an object in the captured images based on the acquired captured images. A method for controlling an object tracking device comprising storage means for storing image information of the reference correlation window, using a partial region of the captured image including a feature point characterizing a partial shape of an object as a reference correlation window,
An image acquisition step of acquiring a plurality of captured images created by shooting at different time points;
An object tracking step of tracking an object in the captured image based on the acquired plurality of captured images;
In the image acquisition step, stereo captured images that are a plurality of captured images simultaneously captured from different positions are acquired as the captured images captured at a certain time point,
The object tracking step includes
The feature points are extracted using at least two captured images of the stereo captured images acquired in the image acquisition step, and real position information that is information on the actual positions of the extracted feature points is calculated. A feature point extraction step,
A partial area on the photographed image including the feature points extracted in the feature point extraction step, and a size calculated based on the actual position information of the feature points calculated in the feature point extraction step. A correlation window setting step of setting a partial region of the captured image as a target correlation window;
An object tracking apparatus comprising: a collating step for collating the image of the target correlation window set in the correlation window setting step and the image of the reference correlation window stored in the storage unit with the same size Control method.
JP2006209008A 2006-07-31 2006-07-31 Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program Expired - Fee Related JP4882577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006209008A JP4882577B2 (en) 2006-07-31 2006-07-31 Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006209008A JP4882577B2 (en) 2006-07-31 2006-07-31 Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2008033818A true JP2008033818A (en) 2008-02-14
JP4882577B2 JP4882577B2 (en) 2012-02-22

Family

ID=39123131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006209008A Expired - Fee Related JP4882577B2 (en) 2006-07-31 2006-07-31 Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4882577B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100921316B1 (en) 2007-03-07 2009-10-13 가시오게산키 가부시키가이샤 Camera apparatus, recording medium in which camera apparatus control program is recorded, and method for controlling camera apparatus
JP2012243051A (en) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
EP2741267A1 (en) * 2011-08-03 2014-06-11 Kabushiki Kaisha Toshiba Vehicle detection device and vehicle detection method
WO2014192487A1 (en) * 2013-05-29 2014-12-04 日本電気株式会社 Multi-eye imaging system, acquired image synthesis method, and program
JP2014228893A (en) * 2013-05-17 2014-12-08 日本電信電話株式会社 Template image candidate region determining device, template image candidate region determining method, and program
CN117421938A (en) * 2023-12-18 2024-01-19 齐鲁空天信息研究院 Ground task planning method and system for star tracking observation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05103249A (en) * 1991-10-07 1993-04-23 Fujitsu Ltd Correlation follow-up device
JPH0630417A (en) * 1992-07-13 1994-02-04 Hitachi Ltd Device for recognizing vehicle and method for recognizing mobile object
JPH10124676A (en) * 1996-10-24 1998-05-15 Fujitsu Ltd Method for tracing shape and device therefor
JP2003115052A (en) * 2001-10-09 2003-04-18 National Institute Of Advanced Industrial & Technology Image processing method and image processor
JP2005216200A (en) * 2004-02-02 2005-08-11 Alpine Electronics Inc Other vehicle detecting apparatus and method
JP2006146922A (en) * 2004-11-17 2006-06-08 Samsung Electronics Co Ltd Template-based face detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05103249A (en) * 1991-10-07 1993-04-23 Fujitsu Ltd Correlation follow-up device
JPH0630417A (en) * 1992-07-13 1994-02-04 Hitachi Ltd Device for recognizing vehicle and method for recognizing mobile object
JPH10124676A (en) * 1996-10-24 1998-05-15 Fujitsu Ltd Method for tracing shape and device therefor
JP2003115052A (en) * 2001-10-09 2003-04-18 National Institute Of Advanced Industrial & Technology Image processing method and image processor
JP2005216200A (en) * 2004-02-02 2005-08-11 Alpine Electronics Inc Other vehicle detecting apparatus and method
JP2006146922A (en) * 2004-11-17 2006-06-08 Samsung Electronics Co Ltd Template-based face detection method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100921316B1 (en) 2007-03-07 2009-10-13 가시오게산키 가부시키가이샤 Camera apparatus, recording medium in which camera apparatus control program is recorded, and method for controlling camera apparatus
JP2012243051A (en) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
CN102842038A (en) * 2011-05-19 2012-12-26 富士重工业株式会社 Environment recognition device and environment recognition method
EP2741267A1 (en) * 2011-08-03 2014-06-11 Kabushiki Kaisha Toshiba Vehicle detection device and vehicle detection method
EP2741267A4 (en) * 2011-08-03 2015-04-01 Toshiba Kk Vehicle detection device and vehicle detection method
US9196160B2 (en) 2011-08-03 2015-11-24 Kabushiki Kaisha Toshiba Vehicle detection apparatus and vehicle detection method
JP2014228893A (en) * 2013-05-17 2014-12-08 日本電信電話株式会社 Template image candidate region determining device, template image candidate region determining method, and program
WO2014192487A1 (en) * 2013-05-29 2014-12-04 日本電気株式会社 Multi-eye imaging system, acquired image synthesis method, and program
JPWO2014192487A1 (en) * 2013-05-29 2017-02-23 日本電気株式会社 Multi-view imaging system, acquired image composition processing method, and program
US9741143B2 (en) 2013-05-29 2017-08-22 Nec Corporation Multocular imaging system, synthesis process method of acquired images, and program
CN117421938A (en) * 2023-12-18 2024-01-19 齐鲁空天信息研究院 Ground task planning method and system for star tracking observation
CN117421938B (en) * 2023-12-18 2024-03-12 齐鲁空天信息研究院 Ground task planning method and system for star tracking observation

Also Published As

Publication number Publication date
JP4882577B2 (en) 2012-02-22

Similar Documents

Publication Publication Date Title
JP4692371B2 (en) Image processing apparatus, image processing method, image processing program, recording medium recording image processing program, and moving object detection system
CN107948517B (en) Preview picture blurring processing method, device and equipment
US8774456B2 (en) Detective information registration device and target object detection device for detecting an object in an image
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
CN102843509B (en) Image processing device and image processing method
RU2621480C1 (en) Device for evaluating moving body position and method for evaluating moving body position
JP4341564B2 (en) Object judgment device
JP5484184B2 (en) Image processing apparatus, image processing method, and program
WO2014080613A1 (en) Color correction device, method, and program
JP4882577B2 (en) Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program
JP6624877B2 (en) Information processing apparatus, information processing method and program
WO2020237565A1 (en) Target tracking method and device, movable platform and storage medium
JP2012063869A (en) License plate reader
WO2020258286A1 (en) Image processing method and device, photographing device and movable platform
JP2021108193A (en) Image processing device, image processing method, and program
KR20230110618A (en) Image correction method, device and system, electronic device
JP7354767B2 (en) Object tracking device and object tracking method
JP5173549B2 (en) Image processing apparatus and imaging apparatus
KR101726692B1 (en) Apparatus and method for extracting object
JP5613147B2 (en) Camera parameter measuring device, camera parameter measuring method, and program
JP5539565B2 (en) Imaging apparatus and subject tracking method
CN116051736A (en) Three-dimensional reconstruction method, device, edge equipment and storage medium
JP2020095621A (en) Image processing device and image processing method
JP7040627B2 (en) Calculator, information processing method and program
JP5891751B2 (en) Inter-image difference device and inter-image difference method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4882577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

LAPS Cancellation because of no payment of annual fees