JP5048609B2 - Object tracking device and program - Google Patents
Object tracking device and program Download PDFInfo
- Publication number
- JP5048609B2 JP5048609B2 JP2008199584A JP2008199584A JP5048609B2 JP 5048609 B2 JP5048609 B2 JP 5048609B2 JP 2008199584 A JP2008199584 A JP 2008199584A JP 2008199584 A JP2008199584 A JP 2008199584A JP 5048609 B2 JP5048609 B2 JP 5048609B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- points
- area
- tracking
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、対象物追跡装置及びプログラムに係り、特に、追跡対象物を表わす領域を追跡する対象物追跡装置及びプログラムに関する。 The present invention relates to an object tracking apparatus and program, and more particularly to an object tracking apparatus and program for tracking an area representing a tracking object.
従来より、検出された対象物領域を小領域に分割し、個々の小領域ごとに画像間で照合を行って、追跡を行う移動体追跡のための画像処理方法が知られている(特許文献1)。また、対象物の運動モデルを用いて複数の追跡候補位置を生成し、照合することで追跡を行う対象物追跡装置が知られている(特許文献2)。
しかしながら、上記の特許文献1に記載の技術では、部分的に変形が起こる物体を、安定して追跡するためには、分割する小領域を小さくする必要があるが、小領域を小さくするほど、照合に誤りが発生してしまうと共に、照合における計算量が増大してしまう、という問題がある。 However, in the technique described in Patent Document 1 described above, in order to stably track an object that is partially deformed, it is necessary to reduce the small area to be divided. There is a problem that an error occurs in the collation and the amount of calculation in the collation increases.
また、上記の特許文献2に記載の技術では、対象物が部分的に変形する場合、照合に誤りが発生してしまうため、追跡することができない、という問題がある。 In addition, the technique described in Patent Document 2 has a problem in that when an object is partially deformed, an error occurs in collation, and thus tracking cannot be performed.
本発明は、上記の問題点を解決するためになされたもので、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡することができる対象物追跡装置及びプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and can track an object stably with simple processing even when the tracked object is partially deformed. And to provide a program.
上記の目的を達成するために本発明に係る対象物追跡装置は、所定領域を撮像する撮像手段と、前記撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段と、前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像において、前記検索手段によって検索された点の各々と、該点から対応する前記特徴点に対する前記相対位置となる位置とを通る複数の直線から形成される各交点について、他の交点との距離の合計値又は平均値を算出し、前記算出した距離の合計値又は平均値が所定値以上となる複数の交点を形成する共通の直線上の前記検索された点を抽出し、前記点が抽出された場合、前記抽出された点以外の前記検索された点の各々と、該点に対応する前記特徴点に対する前記相対位置とに基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段と、前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段とを含んで構成されている。 In order to achieve the above object, an object tracking device according to the present invention includes an imaging unit that images a predetermined area, and an area that represents the tracking object obtained for the first image captured by the imaging unit. A feature point extracting unit that extracts a plurality of feature points, and a point corresponding to each of the feature points extracted by the feature point extracting unit is captured by the imaging unit at a timing different from that of the first image. A search means for searching from each of the two images, a relative position of a specific position in the region representing the tracking object with respect to each of the feature points in the first image, and a search by the search means in the second image. based on each of points in the second image, and each point found by said searching means, the relative position with respect to the feature points from the corresponding said point For each intersection formed from a plurality of straight lines passing through a position, a total value or an average value of distances to other intersections is calculated, and the calculated total value or average value of the distances is equal to or greater than a predetermined value. Extracting the searched points on a common straight line forming an intersection, and when the points are extracted, each of the searched points other than the extracted points and the feature points corresponding to the points Based on the relative position with respect to the specific position estimating means for estimating the specific position in the second image , and based on the specific position in the second image estimated by the specific position estimating means, Area estimation means for estimating an area representing the tracking object in the second image.
また、本発明に係るプログラムは、コンピュータを、所定領域を撮像する撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段、前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像において、前記検索手段によって検索された点の各々と、該点から対応する前記特徴点に対する前記相対位置となる位置とを通る複数の直線から形成される各交点について、他の交点との距離の合計値又は平均値を算出し、前記算出した距離の合計値又は平均値が所定値以上となる複数の交点を形成する共通の直線上の前記検索された点を抽出し、前記点が抽出された場合、前記抽出された点以外の前記検索された点の各々と、該点に対応する前記特徴点に対する前記相対位置とに基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段、及び前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段として機能させるためのプログラムである。 Further, the program according to the present invention is a feature point extracting unit that extracts a plurality of feature points from an area representing a tracking target obtained for a first image captured by an image capturing unit that captures a predetermined area. Search means for searching points corresponding to each of the feature points extracted by the feature point extraction means from the second images captured by the imaging means at different timings from the first image, Based on the relative position of the specific position in the region representing the tracking object with respect to each of the feature points in one image, and each of the points searched by the search means in the second image, the second In the image, a plurality of straight lines passing through each of the points searched by the search means and the relative position from the point to the corresponding feature point. For each intersection to be formed, calculate a total value or an average value of distances with other intersections, and on a common straight line that forms a plurality of intersection points where the calculated total value or average value of the distances is equal to or greater than a predetermined value Extracting the searched points, and when the points are extracted, based on each of the searched points other than the extracted points and the relative position with respect to the feature points corresponding to the points, Specific position estimating means for estimating the specific position in the second image, and the tracking object in the second image based on the specific position in the second image estimated by the specific position estimating means. Is a program for functioning as region estimation means for estimating a region representing.
本発明によれば、撮像手段によって、所定領域を撮像し、特徴点抽出手段によって、撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する。そして、検索手段によって、特徴点抽出手段によって抽出された特徴点の各々に対応する点を、第1の画像と異なるタイミングで撮像手段によって撮像された第2の画像から各々検索する。 According to the present invention, a predetermined region is imaged by the imaging unit, and a plurality of feature points are extracted from the region representing the tracking target obtained for the first image captured by the imaging unit by the feature point extracting unit. To do. Then, the search unit searches for points corresponding to each of the feature points extracted by the feature point extraction unit from the second image captured by the imaging unit at a timing different from that of the first image.
特定位置推定手段によって、第1の画像における特徴点の各々に対する、追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における検索手段によって検索された点の各々に基づいて、第2の画像における特定位置を推定する。そして、領域推定手段によって、特定位置推定手段によって推定された第2の画像における特定位置に基づいて、第2の画像における追跡対象物を表わす領域を推定する。 Based on the relative position of the specific position in the region representing the tracking object with respect to each of the feature points in the first image by the specific position estimation unit, and each of the points searched by the search unit in the second image, A specific position in the second image is estimated. Then, the region estimation unit estimates a region representing the tracking target in the second image based on the specific position in the second image estimated by the specific position estimation unit.
このように、第1の画像における特徴点の各々に対する、追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における対応する点の各々に基づいて、第2の画像における追跡対象物を表わす領域内の特定位置を推定して、第2の画像における追跡対象物を表わす領域を推定することにより、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡対象物を追跡することができる。 As described above, the tracking in the second image is performed based on the relative position of the specific position in the region representing the tracking target with respect to each of the feature points in the first image and each of the corresponding points in the second image. Even if the tracking object is partially deformed by estimating the specific position in the area representing the object and estimating the area representing the tracking object in the second image, the processing can be performed with a simple process. Can track the tracking object stably.
本発明に係る特定位置推定手段は、第2の画像において、検索手段によって検索された点の各々と、該点から対応する特徴点に対する相対位置となる位置とを通る複数の直線から形成される各交点について、他の交点との距離の合計値又は平均値を算出し、算出した距離の合計値又は平均値が所定値以上となる複数の交点を形成する共通の直線上の前記検索された点を抽出し、点が抽出された場合、抽出された点以外の検索された点の各々と、該点に対応する特徴点に対する相対位置とに基づいて、第2の画像における特定位置を推定する。これによって、他の部分と異なる動作をした部分に存在する点を除外して、追跡対象物の領域内の特定位置を推定することにより、追跡対象物が部分的に変形する場合であっても、第2の画像における追跡対象物の領域を精度よく推定することができる。 The specific position estimating means according to the present invention is formed from a plurality of straight lines that pass through each of the points searched by the searching means and positions relative to the corresponding feature points from the points in the second image. For each intersection, the total value or average value of the distances to other intersections is calculated, and the searched on the common straight line forming a plurality of intersections where the calculated distance total value or average value is equal to or greater than a predetermined value A point is extracted, and when the point is extracted, a specific position in the second image is estimated based on each of the searched points other than the extracted point and a relative position with respect to the feature point corresponding to the point. you. Even if the tracked object is partially deformed by excluding the points that exist in the part that operates differently from the other parts and estimating the specific position in the area of the tracked object, The region of the tracking object in the second image can be estimated with high accuracy.
本発明に係る対象物追跡装置は、第1の画像における追跡対象物を表わす領域の大きさ、第1の画像における特徴点の各々と特定位置との距離、及び第2の画像における検索手段によって検索された点の各々と推定された特定位置との距離に基づいて、第2の画像における追跡対象物を表わす領域の大きさを推定する大きさ推定手段を更に含み、領域推定手段は、特定位置推定手段によって推定された第2の画像における特定位置、及び大きさ推定手段によって推定された検出対象物を表わす領域の大きさに基づいて、第2の画像における追跡対象物を表わす領域を推定することができる。 The object tracking device according to the present invention includes a size of a region representing a tracking object in the first image, a distance between each feature point in the first image and the specific position, and a search unit in the second image. Based on the distance between each of the searched points and the estimated specific position, it further includes size estimating means for estimating the size of the area representing the tracking object in the second image, and the area estimating means is specified. An area representing the tracking object in the second image is estimated based on the specific position in the second image estimated by the position estimation means and the size of the area representing the detection object estimated by the size estimation means. can do.
本発明に係る対象物追跡装置は、第2の画像から追跡対象物を表わす領域を検出する領域検出手段と、領域検出手段によって検出された追跡対象物を表わす領域、及び領域推定手段によって推定された追跡対象物を表わす領域に基づいて、第2の画像における追跡対象物を表わす領域を補正する領域補正手段と、を更に含むことができる。これによって、検出された追跡対象物を表わす領域を用いて、推定された追跡対象物を表わす領域を補正することにより、第2の画像における追跡対象物の領域を精度よく推定することができる。 The object tracking device according to the present invention is estimated by an area detection unit for detecting an area representing a tracking object from the second image, an area representing the tracking object detected by the area detection unit, and an area estimation unit. And a region correction unit that corrects a region representing the tracking target in the second image based on the region representing the tracking target. Thus, by correcting the area representing the estimated tracking object using the detected area representing the tracking object, the area of the tracking object in the second image can be accurately estimated.
本発明に係る対象物追跡装置は、第1の画像から追跡対象物を表わす領域を検出する領域検出手段を更に含み、特徴点抽出手段は、領域検出手段によって検出された追跡対象物を表わす領域から、複数の特徴点を抽出することができる。 The object tracking device according to the present invention further includes area detecting means for detecting an area representing the tracking object from the first image, and the feature point extracting means is an area representing the tracking object detected by the area detecting means. From this, a plurality of feature points can be extracted.
本発明に係る特徴点抽出手段は、追跡対象物を表わす領域が前回推定された第2の画像を、第1の画像とし、前回推定された追跡対象物を表わす領域から、複数の特徴点を抽出することができる。 The feature point extraction means according to the present invention uses the second image in which the region representing the tracking object is estimated last time as the first image, and extracts a plurality of feature points from the region representing the tracking object estimated last time. Can be extracted.
本発明に係る特徴点抽出手段は、追跡対象物を表わす領域が前回推定された第2の画像を、第1の画像とし、前回補正された追跡対象物を表わす領域から、複数の特徴点を抽出することができる。 The feature point extraction means according to the present invention uses the second image in which the region representing the tracking object is estimated last time as the first image, and extracts a plurality of feature points from the region representing the tracking object corrected last time. Can be extracted.
上記の追跡対象物を、部分的に変形可能な物体とすることができる。 The tracking target can be a partially deformable object.
以上説明したように、本発明の対象物追跡装置及びプログラムによれば、第1の画像における特徴点の各々に対する、追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における対応する点の各々に基づいて、第2の画像における追跡対象物を表わす領域内の特定位置を推定し、第2の画像における追跡対象物を表わす領域を推定することにより、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡対象物を追跡することができる、という効果が得られる。 As described above, according to the object tracking device and the program of the present invention, the relative position of the specific position in the region representing the tracking object with respect to each of the feature points in the first image, and the second image Based on each of the corresponding points, a specific position in the region representing the tracking object in the second image is estimated, and the region representing the tracking object in the second image is estimated, so that the tracking object is partially Even if it is a case where it deform | transforms automatically, the effect that a tracking target object can be tracked stably by simple processing is acquired.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1に示すように、本実施の形態に係る対象物追跡装置10は、車両(図示省略)に搭載され、かつ、自車両前方を連続に撮像して撮像画像を生成する撮像装置12と、撮像装置12から得られる撮像画像について、追跡対象物としての歩行者を表わす対象物領域を追跡して、表示装置16に追跡結果を表示させるコンピュータ14とを備えている。
As shown in FIG. 1, an
撮像装置12は、自車両の前方を撮像し、画像の画像信号を生成する単眼のカメラで構成される撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。また、表示装置16は、自車両に搭載されているディスプレイから構成されている。
The
コンピュータ14は、CPU、後述する追跡処理ルーチンを実行するためのプログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ14をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12から連続して出力される撮像画像を取得する画像入力部20と、画像入力部20によって取得された撮像画像から、歩行者を表わす対象物領域を検出する対象物検出部22と、画像入力部20によって取得された複数の撮像画像の各々から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部24と、特徴点抽出部24により得られた2つの画像の各々における特徴点から、2つの画像間で対応する点を検索する対応点検索部26と、対応点検索部26で得られた対応する特徴点の各々、及び一方の撮像画像における対象物領域を入力として、他方の撮像画像における対象物領域を推定する対象物領域推定部28と、対象物検出部22により他方の撮像画像について検出された対象物領域を用いて、推定された対象物領域を補正する対象物領域補正部30と、対象物領域補正部30の補正結果を表示装置16に表示させる表示制御部32とを備えている。
The
画像入力部20は、異なるタイミングで撮像された2つの撮像画像を撮像装置12から取得する。なお、以下では、2つの撮像画像のうち、先に撮像された撮像画像を第1の撮像画像とし、後に撮像された撮像画像を第2の撮像画像として説明する。
The
対象物検出部22は、画像入力部20によって取得された第1の撮像画像、及び第2の撮像画像の各々から、パターン認識により、歩行者を表わす対象物領域を検出する。対象物検出部22には、学習により得られた歩行者を表わす領域の画像特徴量のパターンが記憶されている。なお、対象物領域の検出方法については、他の既存の検出方法を用いてもよく、例えば、ミリ波レーダ、レーザレーダなどの他のセンサによる検出結果や、時系列画像又はステレオカメラによる撮像画像から立体物を検出した検出結果を用いて、歩行者を表わす対象物領域を検出するようにしてもよい。
The
特徴点抽出部24は、撮像装置12から取得した第1の撮像画像における対象物領域内から特徴点を抽出すると共に、撮像装置12から取得した第2の撮像画像から、特徴点を抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばHarrisオペレータなど)を用いて、自動的に抽出される。Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。
The feature
ただし、Iu,Ivはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。 However, I u and I v represent horizontal and vertical differentiation, respectively, and G σ represents smoothing by a Gaussian distribution with a standard deviation σ.
そして、上記(1)式で計算された行列Mの固有値λ1、λ2を用いて、以下の(2)式によりコーナー強度を計算する。 Then, using the eigenvalues λ 1 and λ 2 of the matrix M calculated by the above equation (1), the corner strength is calculated by the following equation (2).
ただし、kは予め設定される定数であって、0.04〜0.06の値が一般に用いられる。Harrisオペレータを用いる方法では、このコーナー強度がしきい値以上でかつ極大となる点を選択し、選択された点を特徴点として抽出する。 However, k is a preset constant, and a value of 0.04 to 0.06 is generally used. In the method using the Harris operator, a point at which the corner intensity is equal to or greater than a threshold value is selected, and the selected point is extracted as a feature point.
対応点検索部26は、特徴点抽出部24において抽出された第1の撮像画像の対象物領域内の特徴点に対応する点を、第2の撮像画像において抽出された特徴点から検索して、特徴点の対応付けを行う。
The corresponding
2つの撮像画像間での特徴点の対応付けでは、特徴点周辺に設定した小領域での輝度分布が似ている点の組を選択し、選択された点の組を対応している点とする。2つの特徴点が似ているかどうかの判定にはSSD(Sum of Squared Differences)などの値を用いればよい。 In associating feature points between two captured images, a pair of points having similar brightness distributions in a small region set around the feature point is selected, and the selected point pair is associated with To do. A value such as SSD (Sum of Squared Differences) may be used to determine whether the two feature points are similar.
例えば、第1の撮像画像I1の対象物領域内の特徴点p=(x,y)について、第2の撮像画像I2の特徴点p'=(x’,y’)の各々との組み合わせをペアとして、以下の(3)式を各々計算する。 For example, with respect to the feature point p = (x, y) in the object region of the first captured image I 1 , the feature point p ′ = (x ′, y ′) of the second captured image I 2 The following formula (3) is calculated for each combination as a pair.
そして、上記(3)式によって計算される値が最小となったときの第2の撮像画像の特徴点を検索し、第1の撮像画像の対象物領域内の特徴点に対応する点とする。 Then, the feature point of the second captured image when the value calculated by the above equation (3) is minimized is searched for and the point corresponding to the feature point in the object region of the first captured image is obtained. .
上記の計算を、第1の撮像画像の対象物領域内の特徴点の各々について行って、第1の撮像画像の対象物領域内の特徴点の各々に対応する点を、第2の撮像画像の特徴点から検索する。 The above calculation is performed for each feature point in the object area of the first captured image, and points corresponding to each of the feature points in the object area of the first captured image are determined as the second captured image. Search from feature points.
また、対応点検索部26は、特徴点抽出部24において2つの撮像画像の各々から抽出された特徴点について、2つの撮像画像間で対応する点を少なくとも3組検索する。
Further, the corresponding
ここで、本実施の形態の原理について説明する。時系列画像において、対象物を追跡する場合、画像間でマッチングをとることで同一の物体である領域を探索することが可能となるが、人などの部分的に変形が発生する対象物を追跡する場合、画像間で対応する領域を求めることができない場合が発生する。また、対象物の運動モデルを用いて、対象物領域の位置、大きさを推定することも可能であるが、撮像装置または対象物の運動に変化が生じた場合には、対象物の追跡が困難となる。 Here, the principle of the present embodiment will be described. When tracking an object in a time-series image, it is possible to search for a region that is the same object by matching between images, but it is possible to track an object that is partially deformed, such as a person. In this case, there may be a case where a corresponding area between images cannot be obtained. It is also possible to estimate the position and size of the object region using the object motion model, but if there is a change in the motion of the imaging device or object, tracking of the object is not possible. It becomes difficult.
これに対して、画像間において、対象物領域内の複数の特徴点をそれぞれ追跡することにより、部分的に変形がある対象物に対しても、安定して追跡を行うことが可能となる。 On the other hand, by tracking each of a plurality of feature points in the object region between images, it is possible to stably track an object that is partially deformed.
そこで、本実施の形態では、対象物領域推定部28によって、対象物検出部22により得られた第1の撮像画像における対象物領域、及び対応点検索部26により得られた、第1の撮像画像の対象物領域内の特徴点と第2の撮像画像の特徴点との対応関係を用いて、第2の撮像画像における歩行者を表わす対象物領域を推定する。
Therefore, in the present embodiment, the first imaging obtained by the object
第2の撮像画像における対象物領域を推定する方法について以下に説明する。まず、第1の撮像画像で検出された対象物領域について、図2(A)に示すように、対象物領域の幅w、高さh、及び中心位置を各々求める。次に、図2(B)に示すように、第1の撮像画像の対象物領域内から抽出された特徴点pi(i=1,・・・,nであり、nは抽出された特徴点の数である。)に対して、中心位置との距離di、及び中心位置への方向θiを算出する。 A method for estimating the object region in the second captured image will be described below. First, as shown in FIG. 2A, the width w, the height h, and the center position of the object area are obtained for the object area detected in the first captured image. Next, as shown in FIG. 2B, feature points pi (i = 1,..., N extracted from the object region of the first captured image, where n is the extracted feature point. The distance di to the center position and the direction θi to the center position are calculated.
また、第1の撮像画像の特徴点piに対応する点が、第2の撮像画像の特徴点p’iであるとすると、図3(A)に示すように、第2の撮像画像での各特徴点p’i(i=1,・・・,n)から、θi方向へ直線を引くことにより、特徴点p’iと、特徴点p’iに対して、対応する特徴点piに対する中心位置の相対位置となる位置とを通る直線を引く。なお、上記図3(A)では、特徴点p6に対応する点が検索されなかった場合を例にしており、このように第2の撮像画像において対応点が検索されなかった点については、直線を引く処理を行わないものとする。 If the point corresponding to the feature point pi of the first captured image is the feature point p′i of the second captured image, as shown in FIG. By drawing a straight line in the θi direction from each feature point p′i (i = 1,..., N), the feature point p′i and the feature point p′i are corresponding to the corresponding feature point pi. Draw a straight line that passes through the position relative to the center position. Note that FIG. 3A illustrates an example in which a point corresponding to the feature point p6 has not been searched, and the points for which the corresponding point has not been searched in the second captured image in this way are straight lines. It is assumed that the process of drawing is not performed.
次に、各特徴点p’iから引いた各直線に最も近くなる点を求め、第2の撮像画像における対象物領域の中心位置の推定値とする。このとき、追跡対象物が部分的に変形すると、変形した部分にある特徴点の動きは、追跡対象物全体の動きとは異なるため、変形した部分にある特徴点を、中心位置の推定処理において用いないように除外する。 Next, a point closest to each straight line drawn from each feature point p′i is obtained and used as an estimated value of the center position of the object region in the second captured image. At this time, if the tracking object is partially deformed, the movement of the feature point in the deformed part is different from the movement of the entire tracking object. Exclude it from being used.
ここで、除外する特徴点を特定する方法について説明する。まず、第2の撮像画像での対応点である特徴点の各々について引かれた複数の直線から形成される各交点について、他の交点との距離の合計値を算出し、算出された距離の合計値が閾値以上となる交点を抽出する。なお、上記の閾値については、例えば、他の交点との距離の合計値の分散値と所定係数とを乗算した値を求めて、閾値として設定すればよい。 Here, a method for identifying feature points to be excluded will be described. First, for each intersection formed from a plurality of straight lines drawn for each feature point that is a corresponding point in the second captured image, the total value of the distances to other intersections is calculated, and the calculated distance Intersections whose total value is greater than or equal to the threshold are extracted. In addition, about said threshold value, what is necessary is just to obtain | require the value which multiplied the variance value of the total value of the distance with another intersection, and a predetermined coefficient, and to set as a threshold value.
距離の合計値が閾値以上となる交点が複数抽出された場合には、第2の撮像画像での対応点である特徴点から、抽出された複数の交点を形成する共通の直線上の特徴点を特定し、除外する特徴点とする。図3(A)に示すような第2の撮像画像では、特徴点p’1からp’4のうちのペアの組み合わせの各々から引かれた2本の直線によって形成される交点の各々は、ほぼ同じ位置となるが、特徴点p’5と他の特徴点とのペアの各々とから引かれた2本の直線によって形成される交点は、他の交点と離れた位置に存在するため、距離の合計値が閾値以上となる複数の交点を形成する共通の直線上の特徴点p’5が、変形が起こった部分の特徴点であると判断され、中心位置の推定処理にこの特徴点が用いられないように除外される。 When a plurality of intersection points whose total distance is equal to or greater than the threshold value are extracted, feature points on a common straight line that form the plurality of extracted intersection points from the feature points that are corresponding points in the second captured image Are specified and excluded as feature points. In the second captured image as shown in FIG. 3A, each of the intersections formed by the two straight lines drawn from each of the pair combinations of the feature points p′1 to p′4 is Although the positions are almost the same, the intersection formed by two straight lines drawn from the feature point p′5 and each of the other feature point pairs exists at a position away from the other intersections. A feature point p′5 on a common straight line that forms a plurality of intersections where the total value of the distances is equal to or greater than the threshold is determined to be a feature point of the portion where the deformation has occurred, and this feature point is used for the center position estimation process Is excluded from being used.
そして、図3(B)に示すように、除外された特徴点以外の第2の撮像画像での対応点の各々から引かれた直線の各々から近い点を、中心位置として推定する。 Then, as shown in FIG. 3B, a point close to each of the straight lines drawn from each of the corresponding points in the second captured image other than the excluded feature points is estimated as the center position.
上記のように、第2の撮像画像における対象物領域の中心位置が推定されると、次に、図4(A)に示すように、第2の撮像画像において、各特徴点p’iと推定された中心位置との距離d’iを計算する。このとき、中心位置の推定処理で除外された特徴点については、中心位置との距離の計算を行わない。 As described above, when the center position of the object region in the second captured image is estimated, next, as shown in FIG. 4A, in the second captured image, each feature point p′i and The distance d′ i from the estimated center position is calculated. At this time, the calculation of the distance from the center position is not performed for the feature points excluded in the center position estimation process.
そして、推定された中心位置との距離d’iが計算された各特徴点(対応点)に対して、対応する第1の撮像画像における特徴点から中心位置までの距離との比d’i/diを計算し、計算された比の平均値を、第1の撮像画像の対象物領域に対する第2の撮像画像の対象物領域の拡大率αとする。 Then, for each feature point (corresponding point) for which the distance d′ i to the estimated center position is calculated, the ratio d′ i to the distance from the feature point to the center position in the corresponding first captured image. / Di is calculated, and the average value of the calculated ratios is set as an enlargement ratio α of the object area of the second captured image with respect to the object area of the first captured image.
次に、第2の撮像画像において、図4(B)に示すように、幅α×w、高さα×hを、第2の撮像画像における対象物領域の大きさとして推定し、推定された中心位置を中心とし、かつ、推定された大きさを領域の大きさとする領域を、対象物領域として推定する。 Next, in the second captured image, as shown in FIG. 4B, the width α × w and the height α × h are estimated and estimated as the size of the object region in the second captured image. A region having the center position as the center and the estimated size as the size of the region is estimated as the object region.
対象物領域推定部28は、上記に説明した方法により、第2の撮像画像における対象物領域を推定する。
The object
対象物領域補正部30は、第2の撮像画像に対して対象物検出部22を適用して検出した対象物領域を用いて、対象物領域推定部28によって推定された第2の撮像画像における対象物領域を補正する。
The object
対象物領域の補正は、検出された対象物領域と、推定された対象物領域とが重なりを持つ場合に、それらの対象物領域の平均あるいは重み付き平均を計算することにより行い、計算された対象物領域を、対象物領域の補正値とする。なお、検出された対象物領域と、推定された対象物領域とが重なりを持つ場合に、補正を行う場合を例に説明したが、これに限定されるものではなく、検出された対象物領域の位置及び大きさが、推定された対象物領域の位置及び大きさと近いと判断される場合に、補正を行うようにしてもよい。 When the detected object area and the estimated object area overlap, the correction of the object area is performed by calculating the average or weighted average of those object areas. The object area is set as a correction value of the object area. In addition, although the case where correction was performed when the detected object area and the estimated object area overlap each other was described as an example, the present invention is not limited to this, and the detected object area is not limited thereto. May be corrected when it is determined that the position and size of the target object are close to the estimated position and size of the object region.
また、重み付き平均を用いて補正する場合には、歩行者を表わす対象物領域の追跡時間が長いほど、推定された対象物領域の重みを大きくし、あるいは、検出された対象物領域の信頼度が高いほど、検出された対象物領域の重みを大きくすればよい。 In addition, when the weighted average is used for correction, the longer the tracking time of the object area representing the pedestrian, the greater the weight of the estimated object area or the reliability of the detected object area. The higher the degree, the greater the weight of the detected object area.
対象物領域補正部30によって補正された第2の撮像画像の対象物領域は、次の対象物領域の推定における特徴点抽出部24の入力とされる。また、第2の撮像画像は、次の推定における第1の撮像画像とされ、次に撮像された撮像画像を第2の撮像画像として、対象物領域を推定することにより、時系列的に連続して、歩行者を表わす対象物領域の追跡を行う。
The target area of the second captured image corrected by the target
表示制御部32は、補正された対象物領域の推定結果を、第2の撮像画像と共に表示装置16に表示させる。
The
次に、本実施の形態に係る対象物追跡装置10の作用について説明する。なお、対象物追跡装置10を搭載した車両の走行中に、前方に存在する歩行者を追跡する場合を例に説明する。
Next, the operation of the
撮像装置12によって、自車両前方の連続撮像が開始されると、コンピュータ14において、図5に示す追跡処理ルーチンが実行される。
When continuous imaging in front of the host vehicle is started by the
まず、ステップ100において、撮像装置12から、第1の撮像画像及び第2の撮像画像として、2つの撮像画像を順に取得する。そして、ステップ102において、上記ステップ100で取得した第1の撮像画像から、パターン認識により、歩行者を表わす対象物領域を検出する。
First, in
次のステップ104では、第1の撮像画像における対象物領域内から、特徴点を複数抽出し、ステップ106において、第2の撮像画像から、特徴点を複数抽出する。そして、ステップ108において、上記ステップ104で抽出された複数の特徴点の各々に対応する点を、上記ステップ106で抽出された複数の特徴点の中から検索する。
In the
ステップ110では、第1の撮像画像について上記ステップ102又は後述するステップ128で求められた対象物領域の中心位置、幅、及び高さを計測する。そして、ステップ112において、第1の撮像画像の対象物領域内の特徴点であって、かつ、上記ステップ108で対応する点が検索された特徴点の各々について、特徴点に対する中心位置の相対位置として、上記ステップ110で計測された対象物領域の中心位置までの距離、及び中心位置への方向を算出する。
In
そして、ステップ114において、上記ステップ108で検索された第2の撮像画像における対応する特徴点の各々から、上記ステップ112で対応する特徴点について算出された中心位置への方向に延びる直線を引く。このように引かれた複数の直線によって、複数の交点が形成される。
In step 114, a straight line extending in the direction to the center position calculated for the corresponding feature point in
次のステップ116では、上記ステップ114で生成された複数の直線によって形成される各交点について、他の交点との距離の合計値を算出する。ステップ118では、上記ステップ116で算出された距離の合計値が、閾値以上となる交点を抽出し、交点が複数抽出された場合には、複数の交点に共通する直線上の対応点を特定することにより、離れた位置に存在する複数の交点を形成する共通の直線上の特徴点であって、かつ、上記ステップ108で検索された対応する特徴点を特定し、特定された特徴点を除外対象とする。
In the
そして、ステップ120において、上記ステップ108で検索された対応する特徴点であって、かつ、上記ステップ118で除外対象とされた特徴点以外の特徴点から引かれた各直線に近い位置を、第2の撮像画像における対象物領域の中心位置として推定する。次のステップ122では、上記ステップ108で検索された対応する特徴点であって、かつ、上記ステップ118で除外された特徴点以外の特徴点の各々と、上記ステップ120で推定された中心位置との距離を各々算出する。
In
そして、ステップ124において、上記ステップ112で算出された特徴点と中心位置との距離と、上記ステップ122で算出された特徴点と中心位置との距離との比を、対応する特徴点のペアの各々について求め、求められた比の平均値を、対象物領域の大きさの拡大率とし、上記ステップ110で計測された第1の撮像画像の対象物領域の幅及び高さと、この拡大率とに基づいて、第2の撮像画像における対象物領域の幅及び高さを推定する。そして、推定された第2の撮像画像における対象物領域の幅及び高さと、上記ステップ120で推定された中心位置とに基づいて、第2の撮像画像における対象物領域を推定する。
In
ステップ126では、第2の撮像画像について、パターン認識により、歩行者を表わす対象物領域を検出し、ステップ128において、上記ステップ126で検出された対象物領域を用いて、上記ステップ124で推定された対象物領域を補正する。
In
そして、ステップ130において、第2の撮像画像と共に、上記ステップ128で補正された対象物領域を表示装置16に表示させる。次のステップ132では、第2の撮像画像を、次の対象物領域の推定における第1の撮像画像とすると共に、上記ステップ128で補正された対象物領域を、第1の撮像画像の対象物領域とする。そして、ステップ134において、撮像装置12から、次の撮像画像を取得し、次の推定における第2の撮像画像として、ステップ104へ戻り、上記ステップ104〜ステップ128により、新たに取得された第2の撮像画像における対象物領域を推定する。
In
上記のように、ステップ104〜ステップ134を繰り返すことにより、連続して撮像された撮像画像において、歩行者を表わす対象物領域を追跡する。
As described above, by repeating
以上説明したように、本実施の形態に係る対象物追跡装置によれば、第1の撮像画像における特徴点の各々に対する対象物領域内の中心位置までの距離、方向、及び第2の撮像画像における対応する点の各々に基づいて、第2の撮像画像における対象物領域内の中心位置を推定して、第2の撮像画像における対象物領域を推定することにより、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡対象物を追跡することができる。 As described above, according to the object tracking device according to the present embodiment, the distance to the center position in the object area for each feature point in the first captured image, the direction, and the second captured image. Based on each of the corresponding points in, the center position in the target area in the second captured image is estimated, and the target area in the second captured image is estimated, so that the tracking target is partially Even in the case of deformation, the tracking object can be tracked stably with a simple process.
また、第2の撮像画像において、他の部分と異なる動作をした部分に存在する特徴点を除外して、対象物領域内の中心位置を推定することにより、追跡対象物が部分的に変形する場合であっても、第2の撮像画像における追跡対象物の領域を精度よく推定することができる。 Further, in the second captured image, the tracking target object is partially deformed by estimating the center position in the target object area by excluding the feature points that exist in the part that has operated differently from the other part. Even in this case, the region of the tracking target in the second captured image can be estimated with high accuracy.
また、パターン認識により第2の撮像画像から検出された対象物領域を用いて、第2の撮像画像において推定された対象物領域を補正することにより、第2の撮像画像における追跡対象物の領域をより精度よく推定することができる。 In addition, the region of the tracking target in the second captured image is corrected by correcting the target region estimated in the second captured image using the target region detected from the second captured image by pattern recognition. Can be estimated more accurately.
なお、上記の実施の形態では、他の交点との距離の合計値が、閾値以上となる交点を抽出することにより、他の交点と離れた位置に存在する交点を抽出する場合を例に説明したが、これに限定されるものではなく、他の交点との距離の平均値が、閾値以上となる交点を抽出することにより、他の交点と離れた位置に存在する交点を抽出するようにしてもよい。 In the above embodiment, an example is described in which an intersection point that is located at a distance from another intersection point is extracted by extracting an intersection point where the total value of the distances to other intersection points is equal to or greater than a threshold value. However, the present invention is not limited to this, and by extracting the intersection where the average value of the distance to the other intersection is equal to or greater than the threshold, the intersection existing at a position away from the other intersection is extracted. May be.
また、追跡対象物を歩行者とした場合を例に説明したが、これに限定されるものではなく、歩行者以外の部分的に変形可能な物体を、追跡対象物としてもよい。 Moreover, although the case where the tracking target object is a pedestrian has been described as an example, the present invention is not limited to this, and a partially deformable object other than the pedestrian may be used as the tracking target object.
また、対象物領域の中心位置を推定する場合を例に説明したが、これに限定されるものではなく、対象物領域内の中心位置以外の特定位置を推定するようにしてもよい。この場合には、第1の撮像画像における特徴点の各々に対する対象物領域内の特定位置までの距離及び特定位置への方向を求めるようにすればよい。 Moreover, although the case where the center position of the object area is estimated has been described as an example, the present invention is not limited to this, and a specific position other than the center position in the object area may be estimated. In this case, what is necessary is just to obtain | require the distance to the specific position in the target object area | region with respect to each of the feature points in a 1st captured image, and the direction to a specific position.
また、第1の撮像画像について、検出又は前回補正された対象物領域から、特徴点を抽出する場合を例に説明したが、これに限定されるものではなく、第1の撮像画像全体から特徴点を抽出した後に、抽出された特徴点の中から、検出又は前回補正された対象物領域内の特徴点を抽出するようにしてもよい。 Moreover, although the case where a feature point is extracted from the detected or previously corrected object region has been described as an example for the first captured image, the present invention is not limited to this, and the feature is extracted from the entire first captured image. After extracting the points, the feature points in the object area detected or previously corrected may be extracted from the extracted feature points.
10 対象物追跡装置
12 撮像装置
14 コンピュータ
22 対象物検出部
24 特徴点抽出部
26 対応点検索部
28 対象物領域推定部
30 対象物領域補正部
DESCRIPTION OF
Claims (9)
前記撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段と、
前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像において、前記検索手段によって検索された点の各々と、該点から対応する前記特徴点に対する前記相対位置となる位置とを通る複数の直線から形成される各交点について、他の交点との距離の合計値又は平均値を算出し、前記算出した距離の合計値又は平均値が所定値以上となる複数の交点を形成する共通の直線上の前記検索された点を抽出し、前記点が抽出された場合、前記抽出された点以外の前記検索された点の各々と、該点に対応する前記特徴点に対する前記相対位置とに基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段と、
前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段と、
を含む対象物追跡装置。 Imaging means for imaging a predetermined area;
Feature point extracting means for extracting a plurality of feature points from an area representing the tracking target obtained for the first image imaged by the imaging means;
Retrieval means for retrieving points corresponding to each of the feature points extracted by the feature point extraction means from the second images captured by the imaging means at different timings from the first image,
Wherein for each of said feature points in the first image, the relative position of a particular location in the region representing the tracked object, and based on each point found by said searching means in the second image, the first In the image of 2, for each intersection formed from a plurality of straight lines passing through each of the points searched by the search means and the position corresponding to the feature point corresponding to the point, Calculating a total value or an average value of the distances, and extracting the searched points on a common straight line forming a plurality of intersections where the calculated total value or average value of the distances is equal to or greater than a predetermined value, If is extracted, and each point which is the search except that the extracted, on the basis of said relative position with respect to the feature point corresponding to the point, estimates the specific position in the second image A specific position estimation means that,
Area estimation means for estimating an area representing the tracking object in the second image based on the specific position in the second image estimated by the specific position estimation means;
Including object tracking device.
前記領域推定手段は、前記特定位置推定手段によって推定された前記第2の画像における前記特定位置、及び前記大きさ推定手段によって推定された前記検出対象物を表わす領域の大きさに基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する請求項1又は2記載の対象物追跡装置。 The size of the area representing the tracking object in the first image, the distance between each of the feature points in the first image and the specific position, and the point searched by the search means in the second image Size estimation means for estimating a size of a region representing the tracking object in the second image based on a distance between each of the estimated position and the specific position;
The area estimation means is based on the specific position in the second image estimated by the specific position estimation means and the size of the area representing the detection target estimated by the size estimation means. The object tracking device according to claim 1, wherein an area representing the tracking object in the second image is estimated.
前記領域検出手段によって検出された前記追跡対象物を表わす領域、及び前記領域推定手段によって推定された前記追跡対象物を表わす領域に基づいて、前記第2の画像における前記追跡対象物を表わす領域を補正する領域補正手段と、
を更に含む請求項1〜請求項3の何れか1項記載の対象物追跡装置。 Area detecting means for detecting an area representing the tracking object from the second image;
An area representing the tracking object in the second image based on an area representing the tracking object detected by the area detecting means and an area representing the tracking object estimated by the area estimating means; Area correction means to correct;
The object tracking device according to any one of claims 1 to 3, further comprising:
前記特徴点抽出手段は、前記領域検出手段によって検出された前記追跡対象物を表わす領域から、複数の特徴点を抽出する請求項1〜請求項4の何れか1項記載の対象物追跡装置。 An area detecting means for detecting an area representing the tracking object from the first image;
5. The object tracking device according to claim 1, wherein the feature point extracting unit extracts a plurality of feature points from a region representing the tracking target detected by the region detecting unit.
所定領域を撮像する撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段、
前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像において、前記検索手段によって検索された点の各々と、該点から対応する前記特徴点に対する前記相対位置となる位置とを通る複数の直線から形成される各交点について、他の交点との距離の合計値又は平均値を算出し、前記算出した距離の合計値又は平均値が所定値以上となる複数の交点を形成する共通の直線上の前記検索された点を抽出し、前記点が抽出された場合、前記抽出された点以外の前記検索された点の各々と、該点に対応する前記特徴点に対する前記相対位置とに基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段、及び
前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段
として機能させるためのプログラム。
Computer
Feature point extracting means for extracting a plurality of feature points from the area representing the tracking object obtained for the first image imaged by the imaging means for imaging the predetermined area;
Retrieval means for retrieving points corresponding to each of the feature points extracted by the feature point extraction means from the second images captured by the imaging means at different timings from the first image,
Wherein for each of said feature points in the first image, the relative position of a particular location in the region representing the tracked object, and based on each point found by said searching means in the second image, the first In the image of 2, for each intersection formed from a plurality of straight lines passing through each of the points searched by the search means and the position corresponding to the feature point corresponding to the point, Calculating a total value or an average value of the distances, and extracting the searched points on a common straight line forming a plurality of intersections where the calculated total value or average value of the distances is equal to or greater than a predetermined value, If is extracted, and each point which is the search except that the extracted, on the basis of said relative position with respect to the feature point corresponding to the point, estimates the specific position in the second image Specific position estimation means, and a region estimation means for estimating a region representing the tracking object in the second image based on the specific position in the second image estimated by the specific position estimation means Program to let you.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008199584A JP5048609B2 (en) | 2008-08-01 | 2008-08-01 | Object tracking device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008199584A JP5048609B2 (en) | 2008-08-01 | 2008-08-01 | Object tracking device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010039617A JP2010039617A (en) | 2010-02-18 |
JP5048609B2 true JP5048609B2 (en) | 2012-10-17 |
Family
ID=42012124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008199584A Expired - Fee Related JP5048609B2 (en) | 2008-08-01 | 2008-08-01 | Object tracking device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5048609B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130022410A (en) | 2010-05-28 | 2013-03-06 | 퀄컴 인코포레이티드 | Dataset creation for tracking targets with dynamically changing portions |
JP6260215B2 (en) | 2013-11-13 | 2018-01-17 | 富士通株式会社 | Feature point tracking device and feature point tracking method |
CN108475431B (en) | 2015-12-18 | 2022-02-18 | 株式会社理光 | Image processing apparatus, image processing system, image processing method, and recording medium |
JP6617677B2 (en) * | 2016-10-19 | 2019-12-11 | 株式会社デンソー | Vehicle control apparatus and vehicle control method |
CN109543610B (en) * | 2018-11-22 | 2022-11-11 | 中国科学院长春光学精密机械与物理研究所 | Vehicle detection tracking method, device, equipment and storage medium |
JP7438684B2 (en) * | 2019-07-30 | 2024-02-27 | キヤノン株式会社 | Image processing device, image processing method, and program |
US11741712B2 (en) | 2020-09-28 | 2023-08-29 | Nec Corporation | Multi-hop transformer for spatio-temporal reasoning and localization |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2726180B2 (en) * | 1991-10-07 | 1998-03-11 | 富士通株式会社 | Correlation tracking device |
-
2008
- 2008-08-01 JP JP2008199584A patent/JP5048609B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010039617A (en) | 2010-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9811742B2 (en) | Vehicle-surroundings recognition device | |
KR101449295B1 (en) | Apparatus and method for tracking parking-lot | |
JP5048609B2 (en) | Object tracking device and program | |
JP4367475B2 (en) | Moving object recognition apparatus, moving object recognition method, and computer program | |
JP4687563B2 (en) | Lane mark recognition device for vehicles | |
JP3733875B2 (en) | Road white line recognition device | |
JP5075672B2 (en) | Object detection apparatus and method | |
EP1780675A1 (en) | Object detector | |
JP5166102B2 (en) | Image processing apparatus and method | |
EP2637141A2 (en) | Method and Apparatus for Pose Recognition | |
JP4937029B2 (en) | Object detection apparatus and program | |
JP5756709B2 (en) | Height estimation device, height estimation method, and height estimation program | |
JP4797846B2 (en) | Lane marking device and lane detection device | |
JP7518609B2 (en) | Image processing device, image processing method, and program | |
CN104969261A (en) | Method and system for detecting moving objects | |
JP2014134856A (en) | Subject identification device, subject identification method, and subject identification program | |
US20240135552A1 (en) | Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium | |
JP6977337B2 (en) | Site recognition method, device, program, and imaging control system | |
JP2008288684A (en) | Person detection device and program | |
JP7145770B2 (en) | Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor | |
JP2017033556A (en) | Image processing method and electronic apparatus | |
JP4523915B2 (en) | Outline extraction apparatus, outline extraction method, and outline extraction program | |
JP2019179289A (en) | Processing device and program | |
JP5365408B2 (en) | Mobile object recognition apparatus, mobile object recognition method, and program | |
US11809997B2 (en) | Action recognition apparatus, action recognition method, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120717 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120719 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150727 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5048609 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |