JP2010113466A - Object tracking apparatus, object tracking program, and method - Google Patents
Object tracking apparatus, object tracking program, and method Download PDFInfo
- Publication number
- JP2010113466A JP2010113466A JP2008284446A JP2008284446A JP2010113466A JP 2010113466 A JP2010113466 A JP 2010113466A JP 2008284446 A JP2008284446 A JP 2008284446A JP 2008284446 A JP2008284446 A JP 2008284446A JP 2010113466 A JP2010113466 A JP 2010113466A
- Authority
- JP
- Japan
- Prior art keywords
- contour
- frame
- predetermined
- selection
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
この発明は、動画像において対象を追跡する技術に関する。 The present invention relates to a technique for tracking an object in a moving image.
従来、動画像において、例えば人の顔のような、ある対象を追跡するための技術として、各フレーム毎に対象物を検出する技術が知られている。また、このような技術に関連する技術として、動画像をフレーム単位で順次取り込み、各フレームにおける人物の顔部を検出して異なる複数のフレーム間で追跡する技術が知られている(例えば、特許文献1)。
しかしながら、上述したように、対象の追跡において、各フレームに対して対象を検出することは、処理負荷が大きいという問題がある。 However, as described above, in tracking an object, detecting the object for each frame has a problem that the processing load is large.
この発明は、このような問題点を解消するためになされたもので、動画像における対象の追跡に掛かる処理負荷を軽減することができる対象追跡装置、対象追跡プログラム及び方法を提供することを目的とする。 The present invention has been made to solve such problems, and an object of the present invention is to provide an object tracking device, an object tracking program, and a method capable of reducing the processing load required for tracking an object in a moving image. And
この発明に係る対象追跡装置は、時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡する装置であって、前記動画像における所定のフレームを選択する第1選択部と、前記第1選択部により選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択部により選択されたフレームにおける輪郭として確定する第1確定部と、前記第1選択部により選択されたフレームの所定数後に配列されたフレームを選択する第2選択部と、前記第2選択部により選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出部と、前記第2選択部により選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択部により選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出部と、前記輪郭候補のうち、前記第1算出部により算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択部により選択されたフレームの輪郭として確定する第2確定部とを備える。 An object tracking apparatus according to the present invention is an apparatus that tracks a predetermined object in a moving image composed of a plurality of frames arranged in time series, and is a first device that selects a predetermined frame in the moving image. A first determination that detects a contour of the predetermined object from a selection unit and a frame selected by the first selection unit, and determines the detected contour as a contour in the frame selected by the first selection unit. A second selection unit that selects a frame arranged after a predetermined number of frames selected by the first selection unit, and a predetermined number of frames before the frame selected by the second selection unit. A contour that satisfies a predetermined condition within a predetermined distance from the contour determined for the frames arranged in a frame is selected by the first detection unit and the second selection unit. A density value histogram in the contour of each of the contour candidates and a density value histogram in the contour of a frame arranged a predetermined number of frames before the frame selected by the second selection unit. A frame in which a first candidate that calculates a difference and a contour candidate that has the smallest difference in density value histogram in the contour calculated by the first calculator out of the contour candidates is selected by the second selector. A second determination unit that determines the outline of
また、対象追跡プログラムは、時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡するプログラムであって、前記動画像における所定のフレームを選択する第1選択ステップと、前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップとをコンピュータに実行させる。 The object tracking program is a program for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series, and a first selection step of selecting a predetermined frame in the moving image And a first determination step for detecting a contour of the predetermined object from the frame selected in the first selection step, and confirming the detected contour as a contour in the frame selected in the first selection step; A second selection step of selecting a frame arranged after a predetermined number of frames selected by the first selection step, and an arrangement of the frame selected by the second selection step before the predetermined number of frames. A contour that satisfies a predetermined condition within a predetermined distance from the contour determined for the selected frame is defined as a contour candidate. A density value histogram in each contour of the contour candidate and a predetermined number of frames before the frame selected by the second selection step with respect to the frame selected by the first detection step to be detected and the second selection step. A first calculation step of calculating a difference between the density value histogram in the contour and the frame arranged in the contour, and among the contour candidates, the difference between the density value histograms in the contour calculated in the first calculation step is the largest. Causing the computer to execute a second determination step for determining a small contour candidate as the contour of the frame selected in the second selection step.
時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡する方法であって、前記動画像における所定のフレームを選択する第1選択ステップと、前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップとを備える。 A method for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series, the first selecting step for selecting a predetermined frame in the moving image, and the first selecting step A first determination step for detecting a contour of the predetermined object from the frame selected by the step, and confirming the detected contour as a contour in the frame selected by the first selection step; and the first selection step. A second selection step for selecting a frame arranged after a predetermined number of selected frames, and a determination for a frame arranged before the predetermined number of frames for the frame selected by the second selection step A first detection step of detecting a contour satisfying a predetermined condition within a predetermined distance from the contour as a contour candidate; For the frame selected by the two selection step, the density value histogram in each contour of the contour candidate and the frame within the contour of the frame arranged a predetermined number of times before the frame selected by the second selection step A first calculation step for calculating a difference from the density value histogram; and a second candidate for selecting a contour candidate having the smallest difference between the density value histograms in the contour calculated by the first calculation step among the contour candidates. And a second confirmation step for confirming the outline of the frame selected by (1).
この発明によれば、動画像における対象の追跡に掛かる処理負荷を軽減することが可能となる。 According to the present invention, it is possible to reduce the processing load required for tracking an object in a moving image.
以下、この発明の実施の形態を添付図面に基づいて説明する。まず、本実施の形態に係る対象追跡装置のハードウェア構成について説明する。図1は、本実施の形態に係る対象追跡装置のハードウェア構成を示す図である。 Embodiments of the present invention will be described below with reference to the accompanying drawings. First, the hardware configuration of the target tracking device according to the present embodiment will be described. FIG. 1 is a diagram illustrating a hardware configuration of an object tracking device according to the present embodiment.
本実施の形態に係る対象追跡装置は、図1に示すパーソナルコンピュータ10により実現される。このパーソナルコンピュータ10は、少なくともCPU101とメモリ102を備え、また、記憶デバイス103と接続されている。なお、この記憶デバイス103には本実施の形態における処理対象である動画像が保存されているものとする。また、パーソナルコンピュータ10は、動画像に対する処理において、そのデータを記憶デバイス103より読み出して処理し、処理後のデータを記憶デバイス103に書き込むものとする。また、処理対象としての動画像は、時系列上に配列された複数のフレームにより構成されるものとする。
The object tracking apparatus according to the present embodiment is realized by the personal computer 10 shown in FIG. The personal computer 10 includes at least a
次に、本実施の形態に係る対象追跡装置について説明する。図2は、本実施の形態に係る対象追跡装置の構成を示すブロック図である。 Next, the object tracking device according to the present embodiment will be described. FIG. 2 is a block diagram showing a configuration of the object tracking device according to the present embodiment.
図2に示すように、本実施の形態に係る対象追跡装置20は、選択部201(第1選択部、第2選択部)、検出部202(第1確定部)、確定部203(第1確定部、第2確定部)、濃度ベクトル算出部204(第1検出部、第1算出部)、判定部205(第1検出部、第2検出部)、距離算出部206(第2算出部)を備えるものである。選択部201は、処理対象とする動画像の各フレームを選択するものである。また、検出部202は、動画像における追跡対象の輪郭の検出と、照合を行うものである。また、確定部203は、検出部202により検出された輪郭に基づく輪郭近傍領域及び輪郭位置、を確定、または更新するものである。また、濃度ベクトル算出部204は、輪郭近傍領域内の輪郭上の各点の法線方向の濃度勾配の絶対値の合計を算出するものである。また、距離算出部206は、異なるフレームにおける輪郭間、及び輪郭と輪郭候補間の距離を算出するものである。また、判定部205は、濃度ベクトル算出部により算出された濃度勾配の絶対値の合計、または距離算出部206により算出された距離に基づいて、輪郭に関する判定を行うものである。なお、本実施の形態において、対象追跡装置20は、特定の人を対象とし、動画像において対象が含まれるフレームのみを保存するものとする。また、対象追跡装置20における各部は、実質的にはパーソナルコンピュータ10のCPU101及びメモリ102において実行される機能である。
As illustrated in FIG. 2, the
次に、本実施の形態に係る対象追跡装置の動作について説明する。図3〜5は、本実施の形態に係る対象追跡装置の動作を示すフローチャートである。また、このフローチャートによる動作の説明を補足するための図として、図6〜9を用いる。図6は、曲線により示される輪郭を示す図である。また、図7は、輪郭の法線ベクトルを示す図である。また、図8は、移動ベクトルを示す図である。また、図9は、条件2を満たす輪郭候補を示す図である。なお、図3〜5に示すフローチャートにおいては、追跡対象として、予め特定の人の画像が指定されているものとする。 Next, the operation of the target tracking device according to this embodiment will be described. 3 to 5 are flowcharts showing the operation of the object tracking device according to the present embodiment. Moreover, FIGS. 6-9 is used as a figure for supplementing description of the operation | movement by this flowchart. FIG. 6 is a diagram showing an outline indicated by a curve. FIG. 7 is a diagram showing a normal vector of the contour. FIG. 8 is a diagram showing a movement vector. FIG. 9 is a diagram showing contour candidates that satisfy condition 2. In the flowcharts shown in FIGS. 3 to 5, it is assumed that an image of a specific person is designated in advance as a tracking target.
図3に示すように、まず、処理対象としての動画像が選択されると(S101)、選択部201は、選択された動画像の最初のフレームを選択し(S102、第1選択ステップ)、選択されたフレームに対して、検出部202が人の輪郭の検出を実行する(S103、第1確定ステップ)。なお、この輪郭の検出方法はいかなる方法であっても構わない。さらに、検出部202は、この検出により、人の輪郭が検出されたかどうかを判定する(S104)。
As shown in FIG. 3, first, when a moving image to be processed is selected (S101), the
人の輪郭が検出された場合(S104,YES)、検出部202は、予め指定された人と、検出した人との照合を実行し(S105)、検出した人が予め指定された人かどうかを判定する(S106)。なお、この照合方法も、輪郭の検出方法と同様に、いかなる方法であっても構わない。
When the outline of the person is detected (S104, YES), the
検出された人が予め指定された人である場合(S106,YES)、確定部203は、検出した人に対して、図6に示すような、輪郭のテンプレートを設定することにより輪郭を確定し、この輪郭の輪郭近傍領域を確定する(S107、第1確定ステップ)。
When the detected person is a person designated in advance (S106, YES), the
ここで、輪郭のテンプレート、輪郭近傍領域について説明する。まず、輪郭のテンプレートは、例えばアダブースト学習法により、複数の人の画像からその特徴が抽出された輪郭に基づいたものとする。また、複数の異なる人の画像に基づいた平均的な顔、首及び肩のエッジ部分に基づいたものであっても良い。また、輪郭のテンプレートは、アダブースト学習法により抽出された輪郭、または平均的な顔、首及び肩のエッジ部分に基づいて、ベクターデータによる曲線によって近似したものである。また、本実施の形態において、輪郭のテンプレートとして、顔、首、肩の輪郭を示すものを用いているが、例えば、胴体、脚部の輪郭を示すテンプレートを用いることもでき、対象の追従に用いる輪郭を増やすことで、より精度の高い追従処理を実現することができる。また、例えば、顔や首がフレーム外にあり、胴体と脚部だけがフレーム内にあるようなフレームに対しても、追従処理を実行することができる。また、輪郭近傍領域は、図7に示すように、輪郭のテンプレートの曲線を中心とした所定の距離内の領域である。 Here, the outline template and the outline vicinity area will be described. First, it is assumed that the contour template is based on a contour whose features are extracted from images of a plurality of people by, for example, the Adaboost learning method. Further, it may be based on average face, neck and shoulder edge portions based on images of different people. The contour template is approximated by a curve based on vector data based on the contour extracted by the Adaboost learning method or the average face, neck and shoulder edge portions. Further, in the present embodiment, as the contour template, a template indicating the contours of the face, neck, and shoulder is used, but for example, a template indicating the contours of the trunk and legs can also be used. By increasing the number of contours to be used, it is possible to realize more accurate tracking processing. Further, for example, the follow-up process can be executed for a frame in which the face and neck are outside the frame and only the body and legs are in the frame. Further, as shown in FIG. 7, the contour vicinity region is a region within a predetermined distance centered on the curve of the contour template.
次に、選択部201は、次のフレームを選択し(S108、第2選択ステップ)、濃度ベクトル算出部204は、選択されたフレームに対して、輪郭近傍領域内において、図7に示すような、輪郭テンプレートの各点の法線方向の濃度勾配の絶対値の合計を算出する(S109、第1検出ステップ)。なお、具体的には、濃度ベクトル算出部204は、輪郭近傍領域内において、図7に示すx方向、y方向に輪郭を1画素ずつずらしつつ、拡大、縮小させながら、各x,y座標の法線方向の濃度勾配の絶対値の合計を算出する。また、この処理において、濃度ベクトル算出部204は、輪郭のテンプレートの曲線の各接点の接線方向のx,y成分と、接線に対する法線方向の単位ベクトルのx,y成分を配列として予め算出して保持しており、これらのx,y成分を濃度勾配の絶対値の算出に用いるものとする。このように、ベクターデータにより示された曲線に基づくx,y成分を濃度勾配の絶対値の算出に用いることによって、その精度は、フレームの解像度のみに依存しない。つまり、ラスタデータにより示された輪郭を用いる場合に比べて、より精度の良い値を得ることができる。なお、この処理において、輪郭に対する位置のずらし、拡大、縮小は、輪郭を構成するパーツ(顔、首、肩)ごと、または曲線ごとになされても構わない。また、輪郭のテンプレートを構成する各パーツは、位置のずらし、拡大、縮小に加えて、回転されても構わない。また、輪郭のテンプレートの拡大、縮小において、縦横比は固定されない。
Next, the
次に、判定部205は、図4に示すように、条件1を満たす輪郭、つまり、ステップS109においてずらされつつ、拡大、縮小された輪郭において、その濃度勾配の合計が閾値Aより大きくなるような輪郭、があるかどうかを判定する(S110)。なお、本実施の形態において、閾値Aは前のフレームにおける輪郭の濃度勾配の合計の1/2の値とする。
Next, as illustrated in FIG. 4, the
条件1を満たす輪郭がある場合(S110,YES)、判定部205は、条件1を満たす輪郭を輪郭候補とし(S111、第1検出ステップ)、選択されているフレームに対して、前々回のフレーム、つまり2フレーム前のフレームがあるかどうかを判定する(S112)。なお、ここで前々回のフレームとは、照合されたフレームからS112において処理しているフレーム(選択フレーム)まで続く一連のフレーム群における選択フレームの前々回のフレームを指す。よって、選択された動画像の所定のフレームにおいて、人が検出されない、または照合されない場合、以後の処理において、この所定のフレーム以前のフレームは前々回のフレームとして適合しないものとする。また、本実施の形態において、この前々回のフレームの有無についての判断は、検出及び照合がなされたフレーム以外のフレームに対して、輪郭が確定されたかどうかにより決定される。
When there is a contour that satisfies the condition 1 (S110, YES), the
次に、前々回のフレームがある場合(S112,YES)、距離算出部206は、各輪郭候補と前回の輪郭との移動ベクトルと、前回と前々回の輪郭との移動ベクトルとの差を算出し、正規化する(S113)。次に判定部205は、輪郭候補において、条件2を満たす輪郭候補、つまり、正規化された移動ベクトルの差と、前回と前々回の輪郭との移動ベクトルとの割合(ベクトル割合)が、所定の値である閾値B以下である輪郭候補があるかどうかを判定する(S114)。なお、本実施の形態において、選択フレームが、照合されたフレームから4フレーム以降後のフレームである場合、閾値Bは、選択フレームの前フレームの処理において、最終的に輪郭として確定された輪郭候補に対するベクトル割合の2倍以下の値とする。
Next, when there is a previous frame (S112, YES), the
ここで、図8及び9を用いて、ステップS113について、説明する。図8に示すように、条件1を満たした輪郭候補として、輪郭候補A、輪郭候補B、輪郭候補Cがある場合、図9に示すように、輪郭または輪郭候補の重心を移動の基準として、これらの輪郭候補と前フレームの輪郭との移動ベクトルと、前々フレームの輪郭と前フレームの輪郭との移動ベクトルとの差が、それぞれの輪郭候補について算出される。なお、図9においては、移動ベクトルの差が最も大きい輪郭候補C以外の輪郭候補が条件2を満たす輪郭候補として示されている。 Here, step S113 will be described with reference to FIGS. As shown in FIG. 8, when there are a contour candidate A, a contour candidate B, and a contour candidate C as contour candidates satisfying the condition 1, as shown in FIG. 9, the center of gravity of the contour or the contour candidate is used as a reference for movement. The difference between the motion vector between these contour candidates and the contour of the previous frame and the motion vector between the contour of the previous frame and the contour of the previous frame is calculated for each contour candidate. In FIG. 9, contour candidates other than the contour candidate C having the largest movement vector difference are shown as contour candidates that satisfy the condition 2.
条件2を満たす輪郭候補がある場合(S114,YES)、条件2を満たす輪郭候補のみを輪郭候補とし(S115)、この輪郭候補のそれぞれ対して、濃度ベクトル算出部204が、前フレームとの輪郭内の濃度値のヒストグラムの差を算出する(S116、第1算出ステップ)。この濃度値のヒストグラムの差は、選択フレームにおける輪郭候補としてのそれぞれの輪郭内と、前フレームの輪郭内とにおける濃度毎の差の絶対値の合計を、前フレームの輪郭内の濃度毎の値の合計で割ることにより算出される。次に、判定部202は、条件2を満たす輪郭候補、つまり、閾値Cよりも濃度値ヒストグラムの差が小さい輪郭候補があるかどうかを判定する(S117)。なお、照合されたフレームの次のフレームに対しては、閾値Cとして、予め所定の値が用いられる。また、照合されたフレームの次のフレームより後のフレームに対しては、その前のフレームに対して確定された輪郭に対して算出された濃度値ヒストグラムの差の2倍の値を閾値Cとする。
When there is a contour candidate that satisfies the condition 2 (S114, YES), only the contour candidate that satisfies the condition 2 is set as a contour candidate (S115), and the density
条件3を満たす輪郭候補がある場合(S117,YES)、確定部203は、条件3を満たす輪郭候補のうち、濃度値ヒストグラムの差が最も小さい輪郭候補を選択し(S118、第2確定ステップ)、選択した輪郭候補を選択フレームにおける輪郭として確定し(S119、第2確定ステップ)、この輪郭に基づいて、輪郭近傍領域を更新し(S120)、選択フレームを指定された人が映っているフレームとして保存し(S121)、選択部201は、次のフレームを選択する(S108、第2選択ステップ)。
When there is a contour candidate that satisfies condition 3 (S117, YES), the
また、ステップS117において、条件3を満たす輪郭候補がない場合(S117,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。
In step S117, when there is no contour candidate satisfying the condition 3 (S117, NO), the
また、ステップS114において、条件2を満たす輪郭候補がない場合(S114,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。
In step S114, if there is no contour candidate that satisfies condition 2 (S114, NO), the
また、ステップS112において、前々回のフレームがない場合(S112,NO)、濃度ベクトル算出部204が、輪郭候補のそれぞれ対して、前フレームとの輪郭内の濃度値のヒストグラムの差を算出する(S116)。
In step S112, when there is no previous frame (S112, NO), the density
また、ステップS110において、条件1を満たす輪郭候補がない場合(S110,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。
In step S110, when there is no contour candidate that satisfies condition 1 (S110, NO), the
また、ステップS106において、検出された人が予め指定された人ではない場合(S106,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。
In step S106, when the detected person is not a person designated in advance (S106, NO), the
また、ステップS104において、人の輪郭が検出されなかった場合(S104,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。
If no human contour is detected in step S104 (S104, NO), the
上述したように、本実施の形態に係る対象追跡装置20は、動画像において、まず、所定のフレームの輪郭を検出する。また、対象追跡装置20は、次のフレームにおいて、検出した輪郭の近傍領域内で所定の条件を満たすような輪郭の候補のうち、1つ前のフレームに対する輪郭内の濃度ヒストグラムの差が最も小さくなるような輪郭を輪郭として確定する。このように、対象追跡装置20は、前のフレームにおいて確定された輪郭に基づいて、選択中のフレームにおける輪郭を確定することにより、フレーム毎に輪郭を検出する必要がない。また、このよう処理によれば、選択中のフレームの輪郭の確定において、前のフレームの輪郭の近傍領域内にその処理を限定することにより、対象の追跡に掛かる処理負荷を軽減することができる。
As described above, the
また、対象追跡装置20は、追跡対象の輪郭が検出されたフレーム以降のフレームに対しては、このフレームの輪郭候補を、異なる条件(条件2)により、さらに絞り込むことができる。このような処理によれば、確定される輪郭の精度をより高めることができる。
In addition, the
なお、本実施の形態においては、追跡の対象を人としたが、追跡の対象は、輪郭を検出できる対象であれば、いかなる対象であっても構わない。また、本実施の形態において、動画像に対する処理を1フレーム毎に実行したが、数フレームおきに処理がなされても構わない。 In the present embodiment, the tracking target is a person, but the tracking target may be any target as long as the contour can be detected. Further, in the present embodiment, processing for moving images is executed for each frame, but processing may be performed every several frames.
また、上記の実施の形態で示したフローチャートやステップに示された各動作をコンピュータにより実行させるプログラムを提供することにより、この発明に係る対象追跡プログラムを提供することができる。このプログラムは、コンピュータにより読取可能な媒体、例えばCD−ROM、フレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、データベース等に記録されてコンピュータにより実行させることができる。 Moreover, the object tracking program according to the present invention can be provided by providing a program that causes a computer to execute the operations shown in the flowcharts and steps described in the above embodiments. This program can be recorded on a computer-readable medium, for example, a portable storage medium such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, an IC card, a database, and the like, and can be executed by the computer.
10 パーソナルコンピュータ、20 対象追跡装置、101 CPU、102 メモリ、103 記憶デバイス、201 選択部、202 検出部、203 確定部、204 濃度ベクトル算出部、205 判定部、206 距離算出部。 DESCRIPTION OF SYMBOLS 10 Personal computer, 20 Object tracking apparatus, 101 CPU, 102 Memory, 103 Storage device, 201 Selection part, 202 Detection part, 203 Determination part, 204 Density vector calculation part, 205 Determination part, 206 Distance calculation part
Claims (5)
前記動画像における所定のフレームを選択する第1選択部と、
前記第1選択部により選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択部により選択されたフレームにおける輪郭として確定する第1確定部と、
前記第1選択部により選択されたフレームの所定数後に配列されたフレームを選択する第2選択部と、
前記第2選択部により選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出部と、
前記第2選択部により選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択部により選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出部と、
前記輪郭候補のうち、前記第1算出部により算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択部により選択されたフレームの輪郭として確定する第2確定部と
を備える対象追跡装置。 In a moving image composed of a plurality of frames arranged in time series, a target tracking device that tracks a predetermined target,
A first selection unit for selecting a predetermined frame in the moving image;
A first determination unit for detecting a contour of the predetermined object from a frame selected by the first selection unit, and determining the detected contour as a contour in the frame selected by the first selection unit;
A second selection unit for selecting frames arranged after a predetermined number of frames selected by the first selection unit;
For a frame selected by the second selection unit, a contour satisfying a predetermined condition is detected as a contour candidate within a predetermined distance from a contour determined for a frame arranged a predetermined number of frames before the frame. A first detector that
Concentration between a density value histogram in each contour of the contour candidate and a frame arranged a predetermined number of frames before the frame selected by the second selection unit with respect to the frame selected by the second selection unit A first calculation unit for calculating a difference from the density value histogram in the
A second determination unit that determines a contour candidate having the smallest difference in density value histograms in the contour calculated by the first calculation unit as the contour of the frame selected by the second selection unit, out of the contour candidates; An object tracking device comprising:
前記第2選択部は、前記第2確定部により輪郭が確定された場合、該輪郭が確定されたフレームの所定数後のフレームを、選択フレームとして選択することを特徴とし、
前記第1検出部により前記選択フレームの輪郭候補が検出された場合、前記選択フレームの所定数前に配列されたフレームである前フレームの輪郭と前記前フレームの所定数前に配列されたフレームの輪郭との移動ベクトルと、前記前フレームの輪郭と前記選択フレームの輪郭候補のそれぞれとの移動ベクトルとの差を算出する第2算出部と、
前記輪郭候補のうち、前記第2算出部により算出された移動ベクトルの差が、所定の閾値である第1閾値より小さい輪郭候補を、前記選択フレームの輪郭候補として検出する第2検出部とを更に備える対象追跡装置。 The object tracking device according to claim 1,
The second selection unit, when the contour is determined by the second determination unit, to select a frame after a predetermined number of frames with the determined contour as a selection frame,
When the contour candidate of the selected frame is detected by the first detection unit, the contour of the previous frame, which is a frame arranged a predetermined number of times before the selected frame, and the frame arranged a predetermined number of times before the previous frame A second calculation unit that calculates a difference between a movement vector with a contour and a movement vector between the contour of the previous frame and each of the contour candidates of the selected frame;
A second detection unit for detecting, as a contour candidate of the selected frame, a contour candidate whose difference in movement vectors calculated by the second calculation unit is smaller than a first threshold that is a predetermined threshold among the contour candidates; An object tracking device further provided.
前記輪郭は、複数の接点からなる曲線により構成され、
前記第2検出部は、前記輪郭の接点の接線の法線方向の濃度勾配の合計である合計値が、前記第1閾値とは異なる閾値である第2閾値より大きいことを前記所定の条件とし、前記第2選択部により選択されたフレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において、前記輪郭を移動した場合、前記合計値が前記第2閾値より大きくなる輪郭を、輪郭候補として検出することを特徴とする対象追跡装置。 In the object tracking device according to claim 1 or 2,
The contour is constituted by a curve composed of a plurality of contact points,
The second detection unit has the predetermined condition that a total value, which is a sum of density gradients in a normal direction of tangents of the contact points of the contour, is larger than a second threshold value which is a threshold value different from the first threshold value. When the contour is moved within a predetermined distance from the contour determined for a frame arranged a predetermined number of frames before the frame selected by the second selection unit, the total value is less than the second threshold value. An object tracking device that detects a contour that becomes larger as a contour candidate.
前記動画像における所定のフレームを選択する第1選択ステップと、
前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、
前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、
前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、
前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、
前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップと
をコンピュータに実行させる対象追跡プログラム。 An object tracking program for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series,
A first selection step of selecting a predetermined frame in the moving image;
A first determination step of detecting a contour of the predetermined object from the frame selected in the first selection step, and confirming the detected contour as a contour in the frame selected in the first selection step;
A second selection step of selecting frames arranged after a predetermined number of frames selected in the first selection step;
For a frame selected in the second selection step, a contour that satisfies a predetermined condition within a predetermined distance from a contour determined for a frame arranged a predetermined number of times before the frame is detected as a contour candidate. First detecting step,
Concentration between a density value histogram in each contour of the contour candidate and a frame arranged a predetermined number of frames before the frame selected by the second selection step with respect to the frame selected by the second selection step A first calculation step of calculating a difference from the density value histogram in
A second confirmation step of confirming, as the contour of the frame selected in the second selection step, a contour candidate having the smallest difference between the density value histograms in the contour calculated in the first calculation step among the contour candidates; A target tracking program that causes a computer to execute.
前記動画像における所定のフレームを選択する第1選択ステップと、
前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、
前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、
前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、
前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、
前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップと
を備える対象追跡方法。 An object tracking method for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series,
A first selection step of selecting a predetermined frame in the moving image;
A first determination step of detecting a contour of the predetermined object from the frame selected in the first selection step, and confirming the detected contour as a contour in the frame selected in the first selection step;
A second selection step of selecting frames arranged after a predetermined number of frames selected in the first selection step;
For a frame selected in the second selection step, a contour that satisfies a predetermined condition within a predetermined distance from a contour determined for a frame arranged a predetermined number of times before the frame is detected as a contour candidate. First detecting step,
Concentration between a density value histogram in each contour of the contour candidate and a frame arranged a predetermined number of frames before the frame selected by the second selection step with respect to the frame selected by the second selection step A first calculation step of calculating a difference from the density value histogram in
A second confirmation step of confirming, as the contour of the frame selected in the second selection step, a contour candidate having the smallest difference between the density value histograms in the contour calculated in the first calculation step among the contour candidates; An object tracking method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008284446A JP2010113466A (en) | 2008-11-05 | 2008-11-05 | Object tracking apparatus, object tracking program, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008284446A JP2010113466A (en) | 2008-11-05 | 2008-11-05 | Object tracking apparatus, object tracking program, and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010113466A true JP2010113466A (en) | 2010-05-20 |
Family
ID=42301992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008284446A Withdrawn JP2010113466A (en) | 2008-11-05 | 2008-11-05 | Object tracking apparatus, object tracking program, and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010113466A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058036A (en) * | 2011-09-07 | 2013-03-28 | Canon Inc | Image processing system, image processing program, robot device and image processing method |
WO2019188392A1 (en) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Information processing device, information processing method, program, and moving body |
KR20200040849A (en) * | 2017-08-22 | 2020-04-20 | 로베르트 보쉬 게엠베하 | Method and apparatus for validating flow vector hypothesis |
-
2008
- 2008-11-05 JP JP2008284446A patent/JP2010113466A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058036A (en) * | 2011-09-07 | 2013-03-28 | Canon Inc | Image processing system, image processing program, robot device and image processing method |
KR20200040849A (en) * | 2017-08-22 | 2020-04-20 | 로베르트 보쉬 게엠베하 | Method and apparatus for validating flow vector hypothesis |
JP2020531997A (en) * | 2017-08-22 | 2020-11-05 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | Methods and devices for confirming the likelihood of the flow vector hypothesis |
US11195287B2 (en) | 2017-08-22 | 2021-12-07 | Robert Bosch Gmbh | Method and device for checking the plausibility of a flow vector hypothesis |
KR102580056B1 (en) | 2017-08-22 | 2023-09-20 | 로베르트 보쉬 게엠베하 | Method and device for testing validity of flow vector hypothesis |
WO2019188392A1 (en) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Information processing device, information processing method, program, and moving body |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4991317B2 (en) | Facial feature point detection apparatus and method | |
CN101894376B (en) | Person tracking method and person tracking apparatus | |
US8837773B2 (en) | Apparatus which detects moving object from image and method thereof | |
CN111640089B (en) | Defect detection method and device based on feature map center point | |
JP5166102B2 (en) | Image processing apparatus and method | |
US11334775B2 (en) | Object detection device, object detection method, and program | |
JP2007042072A (en) | Tracking apparatus | |
JP4724638B2 (en) | Object detection method | |
JP2005128619A (en) | Object measurement apparatus, object measurement method, and program | |
EP3690700A1 (en) | Image similarity calculation method and device, and storage medium | |
JP4745207B2 (en) | Facial feature point detection apparatus and method | |
JP2014093023A (en) | Object detection device, object detection method and program | |
US9911204B2 (en) | Image processing method, image processing apparatus, and recording medium | |
JP2007233871A (en) | Image processor, control method for computer, and program | |
US9779286B2 (en) | Feature point location estimation device, feature point location estimation method, and feature point location estimation program | |
JP2006072770A (en) | Face detection device and face direction estimation device | |
US9904843B2 (en) | Information processing device, information processing method, and program | |
EP3376468A1 (en) | Object detection device and object detection method | |
JP6266468B2 (en) | Object detection device | |
US11494906B2 (en) | Object detection device, object detection method, and program | |
JP5100688B2 (en) | Object detection apparatus and program | |
JP2010113466A (en) | Object tracking apparatus, object tracking program, and method | |
CN105243661A (en) | Corner detection method based on SUSAN operator | |
JP2008027130A (en) | Object recognition apparatus, object recognition means, and program for object recognition | |
JP4894747B2 (en) | Partial region detection device, object identification device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20100412 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100517 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100524 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120110 |