JP2010113466A - Object tracking apparatus, object tracking program, and method - Google Patents

Object tracking apparatus, object tracking program, and method Download PDF

Info

Publication number
JP2010113466A
JP2010113466A JP2008284446A JP2008284446A JP2010113466A JP 2010113466 A JP2010113466 A JP 2010113466A JP 2008284446 A JP2008284446 A JP 2008284446A JP 2008284446 A JP2008284446 A JP 2008284446A JP 2010113466 A JP2010113466 A JP 2010113466A
Authority
JP
Japan
Prior art keywords
contour
frame
predetermined
selection
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008284446A
Other languages
Japanese (ja)
Inventor
Hiroo Miyake
啓夫 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2008284446A priority Critical patent/JP2010113466A/en
Publication of JP2010113466A publication Critical patent/JP2010113466A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object tracking apparatus, an object tracking program, and a method thereof, capable of reducing a process load relating to tracking of an object in a moving image. <P>SOLUTION: A predetermined frame in the moving image is selected as a first frame, then an outline of a predetermined object is detected from the first frame, then the detected outline is determined as the outline in the first frame. A frame arranged at the predetermined number after the first frame is selected as a second frame, then an outline which satisfy a predetermined condition within a predetermined distance from the determined outline relating to the frame arranged at the predetermined number before the second frame is detected as an outline candidate relating to the second frame, then difference between a gray level histogram within each outline of the outline candidate relating to the second frame and a gray level histogram in an outline of a frame arranged at the predetermined number before the second frame is calculated, then the outline candidate whose difference of the gray level histogram within the calculated outline is the smallest among outline candidates is determined as the outline of the second frame. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、動画像において対象を追跡する技術に関する。   The present invention relates to a technique for tracking an object in a moving image.

従来、動画像において、例えば人の顔のような、ある対象を追跡するための技術として、各フレーム毎に対象物を検出する技術が知られている。また、このような技術に関連する技術として、動画像をフレーム単位で順次取り込み、各フレームにおける人物の顔部を検出して異なる複数のフレーム間で追跡する技術が知られている(例えば、特許文献1)。
特開2008−199549号公報
2. Description of the Related Art Conventionally, a technique for detecting an object for each frame is known as a technique for tracking a certain object such as a human face in a moving image. Further, as a technique related to such a technique, a technique is known in which a moving image is sequentially captured in units of frames, a human face in each frame is detected, and tracking is performed between a plurality of different frames (for example, patents). Reference 1).
JP 2008-199549 A

しかしながら、上述したように、対象の追跡において、各フレームに対して対象を検出することは、処理負荷が大きいという問題がある。   However, as described above, in tracking an object, detecting the object for each frame has a problem that the processing load is large.

この発明は、このような問題点を解消するためになされたもので、動画像における対象の追跡に掛かる処理負荷を軽減することができる対象追跡装置、対象追跡プログラム及び方法を提供することを目的とする。   The present invention has been made to solve such problems, and an object of the present invention is to provide an object tracking device, an object tracking program, and a method capable of reducing the processing load required for tracking an object in a moving image. And

この発明に係る対象追跡装置は、時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡する装置であって、前記動画像における所定のフレームを選択する第1選択部と、前記第1選択部により選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択部により選択されたフレームにおける輪郭として確定する第1確定部と、前記第1選択部により選択されたフレームの所定数後に配列されたフレームを選択する第2選択部と、前記第2選択部により選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出部と、前記第2選択部により選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択部により選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出部と、前記輪郭候補のうち、前記第1算出部により算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択部により選択されたフレームの輪郭として確定する第2確定部とを備える。   An object tracking apparatus according to the present invention is an apparatus that tracks a predetermined object in a moving image composed of a plurality of frames arranged in time series, and is a first device that selects a predetermined frame in the moving image. A first determination that detects a contour of the predetermined object from a selection unit and a frame selected by the first selection unit, and determines the detected contour as a contour in the frame selected by the first selection unit. A second selection unit that selects a frame arranged after a predetermined number of frames selected by the first selection unit, and a predetermined number of frames before the frame selected by the second selection unit. A contour that satisfies a predetermined condition within a predetermined distance from the contour determined for the frames arranged in a frame is selected by the first detection unit and the second selection unit. A density value histogram in the contour of each of the contour candidates and a density value histogram in the contour of a frame arranged a predetermined number of frames before the frame selected by the second selection unit. A frame in which a first candidate that calculates a difference and a contour candidate that has the smallest difference in density value histogram in the contour calculated by the first calculator out of the contour candidates is selected by the second selector. A second determination unit that determines the outline of

また、対象追跡プログラムは、時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡するプログラムであって、前記動画像における所定のフレームを選択する第1選択ステップと、前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップとをコンピュータに実行させる。   The object tracking program is a program for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series, and a first selection step of selecting a predetermined frame in the moving image And a first determination step for detecting a contour of the predetermined object from the frame selected in the first selection step, and confirming the detected contour as a contour in the frame selected in the first selection step; A second selection step of selecting a frame arranged after a predetermined number of frames selected by the first selection step, and an arrangement of the frame selected by the second selection step before the predetermined number of frames. A contour that satisfies a predetermined condition within a predetermined distance from the contour determined for the selected frame is defined as a contour candidate. A density value histogram in each contour of the contour candidate and a predetermined number of frames before the frame selected by the second selection step with respect to the frame selected by the first detection step to be detected and the second selection step. A first calculation step of calculating a difference between the density value histogram in the contour and the frame arranged in the contour, and among the contour candidates, the difference between the density value histograms in the contour calculated in the first calculation step is the largest. Causing the computer to execute a second determination step for determining a small contour candidate as the contour of the frame selected in the second selection step.

時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡する方法であって、前記動画像における所定のフレームを選択する第1選択ステップと、前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップとを備える。   A method for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series, the first selecting step for selecting a predetermined frame in the moving image, and the first selecting step A first determination step for detecting a contour of the predetermined object from the frame selected by the step, and confirming the detected contour as a contour in the frame selected by the first selection step; and the first selection step. A second selection step for selecting a frame arranged after a predetermined number of selected frames, and a determination for a frame arranged before the predetermined number of frames for the frame selected by the second selection step A first detection step of detecting a contour satisfying a predetermined condition within a predetermined distance from the contour as a contour candidate; For the frame selected by the two selection step, the density value histogram in each contour of the contour candidate and the frame within the contour of the frame arranged a predetermined number of times before the frame selected by the second selection step A first calculation step for calculating a difference from the density value histogram; and a second candidate for selecting a contour candidate having the smallest difference between the density value histograms in the contour calculated by the first calculation step among the contour candidates. And a second confirmation step for confirming the outline of the frame selected by (1).

この発明によれば、動画像における対象の追跡に掛かる処理負荷を軽減することが可能となる。   According to the present invention, it is possible to reduce the processing load required for tracking an object in a moving image.

以下、この発明の実施の形態を添付図面に基づいて説明する。まず、本実施の形態に係る対象追跡装置のハードウェア構成について説明する。図1は、本実施の形態に係る対象追跡装置のハードウェア構成を示す図である。   Embodiments of the present invention will be described below with reference to the accompanying drawings. First, the hardware configuration of the target tracking device according to the present embodiment will be described. FIG. 1 is a diagram illustrating a hardware configuration of an object tracking device according to the present embodiment.

本実施の形態に係る対象追跡装置は、図1に示すパーソナルコンピュータ10により実現される。このパーソナルコンピュータ10は、少なくともCPU101とメモリ102を備え、また、記憶デバイス103と接続されている。なお、この記憶デバイス103には本実施の形態における処理対象である動画像が保存されているものとする。また、パーソナルコンピュータ10は、動画像に対する処理において、そのデータを記憶デバイス103より読み出して処理し、処理後のデータを記憶デバイス103に書き込むものとする。また、処理対象としての動画像は、時系列上に配列された複数のフレームにより構成されるものとする。   The object tracking apparatus according to the present embodiment is realized by the personal computer 10 shown in FIG. The personal computer 10 includes at least a CPU 101 and a memory 102, and is connected to a storage device 103. Note that the storage device 103 stores a moving image that is a processing target in the present embodiment. Further, the personal computer 10 reads out the data from the storage device 103 and processes the moving image, and writes the processed data into the storage device 103. In addition, it is assumed that a moving image to be processed is composed of a plurality of frames arranged in time series.

次に、本実施の形態に係る対象追跡装置について説明する。図2は、本実施の形態に係る対象追跡装置の構成を示すブロック図である。   Next, the object tracking device according to the present embodiment will be described. FIG. 2 is a block diagram showing a configuration of the object tracking device according to the present embodiment.

図2に示すように、本実施の形態に係る対象追跡装置20は、選択部201(第1選択部、第2選択部)、検出部202(第1確定部)、確定部203(第1確定部、第2確定部)、濃度ベクトル算出部204(第1検出部、第1算出部)、判定部205(第1検出部、第2検出部)、距離算出部206(第2算出部)を備えるものである。選択部201は、処理対象とする動画像の各フレームを選択するものである。また、検出部202は、動画像における追跡対象の輪郭の検出と、照合を行うものである。また、確定部203は、検出部202により検出された輪郭に基づく輪郭近傍領域及び輪郭位置、を確定、または更新するものである。また、濃度ベクトル算出部204は、輪郭近傍領域内の輪郭上の各点の法線方向の濃度勾配の絶対値の合計を算出するものである。また、距離算出部206は、異なるフレームにおける輪郭間、及び輪郭と輪郭候補間の距離を算出するものである。また、判定部205は、濃度ベクトル算出部により算出された濃度勾配の絶対値の合計、または距離算出部206により算出された距離に基づいて、輪郭に関する判定を行うものである。なお、本実施の形態において、対象追跡装置20は、特定の人を対象とし、動画像において対象が含まれるフレームのみを保存するものとする。また、対象追跡装置20における各部は、実質的にはパーソナルコンピュータ10のCPU101及びメモリ102において実行される機能である。   As illustrated in FIG. 2, the target tracking device 20 according to the present embodiment includes a selection unit 201 (first selection unit, second selection unit), a detection unit 202 (first determination unit), and a determination unit 203 (first Determination unit, second determination unit), density vector calculation unit 204 (first detection unit, first calculation unit), determination unit 205 (first detection unit, second detection unit), distance calculation unit 206 (second calculation unit) ). The selection unit 201 selects each frame of a moving image to be processed. The detection unit 202 detects and matches the contour of the tracking target in the moving image. In addition, the determination unit 203 determines or updates the contour vicinity region and the contour position based on the contour detected by the detection unit 202. Further, the density vector calculation unit 204 calculates the sum of absolute values of density gradients in the normal direction of each point on the contour in the contour vicinity region. The distance calculation unit 206 calculates distances between contours in different frames and distances between contours and contour candidates. Further, the determination unit 205 performs determination related to the contour based on the sum of absolute values of the density gradient calculated by the density vector calculation unit or the distance calculated by the distance calculation unit 206. In the present embodiment, the target tracking device 20 is intended for a specific person, and stores only a frame in which the target is included in the moving image. Each unit in the target tracking device 20 is substantially a function executed by the CPU 101 and the memory 102 of the personal computer 10.

次に、本実施の形態に係る対象追跡装置の動作について説明する。図3〜5は、本実施の形態に係る対象追跡装置の動作を示すフローチャートである。また、このフローチャートによる動作の説明を補足するための図として、図6〜9を用いる。図6は、曲線により示される輪郭を示す図である。また、図7は、輪郭の法線ベクトルを示す図である。また、図8は、移動ベクトルを示す図である。また、図9は、条件2を満たす輪郭候補を示す図である。なお、図3〜5に示すフローチャートにおいては、追跡対象として、予め特定の人の画像が指定されているものとする。   Next, the operation of the target tracking device according to this embodiment will be described. 3 to 5 are flowcharts showing the operation of the object tracking device according to the present embodiment. Moreover, FIGS. 6-9 is used as a figure for supplementing description of the operation | movement by this flowchart. FIG. 6 is a diagram showing an outline indicated by a curve. FIG. 7 is a diagram showing a normal vector of the contour. FIG. 8 is a diagram showing a movement vector. FIG. 9 is a diagram showing contour candidates that satisfy condition 2. In the flowcharts shown in FIGS. 3 to 5, it is assumed that an image of a specific person is designated in advance as a tracking target.

図3に示すように、まず、処理対象としての動画像が選択されると(S101)、選択部201は、選択された動画像の最初のフレームを選択し(S102、第1選択ステップ)、選択されたフレームに対して、検出部202が人の輪郭の検出を実行する(S103、第1確定ステップ)。なお、この輪郭の検出方法はいかなる方法であっても構わない。さらに、検出部202は、この検出により、人の輪郭が検出されたかどうかを判定する(S104)。   As shown in FIG. 3, first, when a moving image to be processed is selected (S101), the selection unit 201 selects the first frame of the selected moving image (S102, first selection step), For the selected frame, the detection unit 202 detects the outline of the person (S103, first determination step). Note that this contour detection method may be any method. Further, the detection unit 202 determines whether or not a human contour is detected by this detection (S104).

人の輪郭が検出された場合(S104,YES)、検出部202は、予め指定された人と、検出した人との照合を実行し(S105)、検出した人が予め指定された人かどうかを判定する(S106)。なお、この照合方法も、輪郭の検出方法と同様に、いかなる方法であっても構わない。   When the outline of the person is detected (S104, YES), the detection unit 202 performs a comparison between the person designated in advance and the detected person (S105), and whether or not the detected person is a person designated in advance. Is determined (S106). Note that this collation method may be any method similar to the contour detection method.

検出された人が予め指定された人である場合(S106,YES)、確定部203は、検出した人に対して、図6に示すような、輪郭のテンプレートを設定することにより輪郭を確定し、この輪郭の輪郭近傍領域を確定する(S107、第1確定ステップ)。   When the detected person is a person designated in advance (S106, YES), the determination unit 203 determines the contour by setting a contour template as shown in FIG. 6 for the detected person. Then, the contour vicinity region of the contour is determined (S107, first determination step).

ここで、輪郭のテンプレート、輪郭近傍領域について説明する。まず、輪郭のテンプレートは、例えばアダブースト学習法により、複数の人の画像からその特徴が抽出された輪郭に基づいたものとする。また、複数の異なる人の画像に基づいた平均的な顔、首及び肩のエッジ部分に基づいたものであっても良い。また、輪郭のテンプレートは、アダブースト学習法により抽出された輪郭、または平均的な顔、首及び肩のエッジ部分に基づいて、ベクターデータによる曲線によって近似したものである。また、本実施の形態において、輪郭のテンプレートとして、顔、首、肩の輪郭を示すものを用いているが、例えば、胴体、脚部の輪郭を示すテンプレートを用いることもでき、対象の追従に用いる輪郭を増やすことで、より精度の高い追従処理を実現することができる。また、例えば、顔や首がフレーム外にあり、胴体と脚部だけがフレーム内にあるようなフレームに対しても、追従処理を実行することができる。また、輪郭近傍領域は、図7に示すように、輪郭のテンプレートの曲線を中心とした所定の距離内の領域である。   Here, the outline template and the outline vicinity area will be described. First, it is assumed that the contour template is based on a contour whose features are extracted from images of a plurality of people by, for example, the Adaboost learning method. Further, it may be based on average face, neck and shoulder edge portions based on images of different people. The contour template is approximated by a curve based on vector data based on the contour extracted by the Adaboost learning method or the average face, neck and shoulder edge portions. Further, in the present embodiment, as the contour template, a template indicating the contours of the face, neck, and shoulder is used, but for example, a template indicating the contours of the trunk and legs can also be used. By increasing the number of contours to be used, it is possible to realize more accurate tracking processing. Further, for example, the follow-up process can be executed for a frame in which the face and neck are outside the frame and only the body and legs are in the frame. Further, as shown in FIG. 7, the contour vicinity region is a region within a predetermined distance centered on the curve of the contour template.

次に、選択部201は、次のフレームを選択し(S108、第2選択ステップ)、濃度ベクトル算出部204は、選択されたフレームに対して、輪郭近傍領域内において、図7に示すような、輪郭テンプレートの各点の法線方向の濃度勾配の絶対値の合計を算出する(S109、第1検出ステップ)。なお、具体的には、濃度ベクトル算出部204は、輪郭近傍領域内において、図7に示すx方向、y方向に輪郭を1画素ずつずらしつつ、拡大、縮小させながら、各x,y座標の法線方向の濃度勾配の絶対値の合計を算出する。また、この処理において、濃度ベクトル算出部204は、輪郭のテンプレートの曲線の各接点の接線方向のx,y成分と、接線に対する法線方向の単位ベクトルのx,y成分を配列として予め算出して保持しており、これらのx,y成分を濃度勾配の絶対値の算出に用いるものとする。このように、ベクターデータにより示された曲線に基づくx,y成分を濃度勾配の絶対値の算出に用いることによって、その精度は、フレームの解像度のみに依存しない。つまり、ラスタデータにより示された輪郭を用いる場合に比べて、より精度の良い値を得ることができる。なお、この処理において、輪郭に対する位置のずらし、拡大、縮小は、輪郭を構成するパーツ(顔、首、肩)ごと、または曲線ごとになされても構わない。また、輪郭のテンプレートを構成する各パーツは、位置のずらし、拡大、縮小に加えて、回転されても構わない。また、輪郭のテンプレートの拡大、縮小において、縦横比は固定されない。   Next, the selection unit 201 selects the next frame (S108, second selection step), and the density vector calculation unit 204 shows the selected frame as shown in FIG. Then, the sum of absolute values of the density gradient in the normal direction of each point of the contour template is calculated (S109, first detection step). Specifically, the density vector calculation unit 204 shifts the contour in the x direction and the y direction shown in FIG. Calculate the sum of the absolute values of the concentration gradient in the normal direction. In this processing, the density vector calculation unit 204 calculates in advance, as an array, the x and y components of the tangent direction of each contact point of the contour template curve and the x and y components of the unit vector in the normal direction to the tangent line. These x and y components are used for calculating the absolute value of the concentration gradient. Thus, by using the x and y components based on the curve shown by the vector data for the calculation of the absolute value of the concentration gradient, the accuracy does not depend only on the resolution of the frame. That is, a more accurate value can be obtained as compared with the case where the contour indicated by the raster data is used. In this process, the position shift, enlargement, and reduction with respect to the contour may be performed for each part (face, neck, shoulder) constituting the contour or for each curve. Further, each part constituting the contour template may be rotated in addition to shifting the position, enlarging or reducing the position. In addition, the aspect ratio is not fixed when the outline template is enlarged or reduced.

次に、判定部205は、図4に示すように、条件1を満たす輪郭、つまり、ステップS109においてずらされつつ、拡大、縮小された輪郭において、その濃度勾配の合計が閾値Aより大きくなるような輪郭、があるかどうかを判定する(S110)。なお、本実施の形態において、閾値Aは前のフレームにおける輪郭の濃度勾配の合計の1/2の値とする。   Next, as illustrated in FIG. 4, the determination unit 205 causes the density gradient sum to be larger than the threshold A in the contour that satisfies the condition 1, that is, the contour that has been shifted and expanded in step S109. It is determined whether or not there is a contour (S110). In the present embodiment, the threshold A is a value that is ½ of the total density gradient of the contour in the previous frame.

条件1を満たす輪郭がある場合(S110,YES)、判定部205は、条件1を満たす輪郭を輪郭候補とし(S111、第1検出ステップ)、選択されているフレームに対して、前々回のフレーム、つまり2フレーム前のフレームがあるかどうかを判定する(S112)。なお、ここで前々回のフレームとは、照合されたフレームからS112において処理しているフレーム(選択フレーム)まで続く一連のフレーム群における選択フレームの前々回のフレームを指す。よって、選択された動画像の所定のフレームにおいて、人が検出されない、または照合されない場合、以後の処理において、この所定のフレーム以前のフレームは前々回のフレームとして適合しないものとする。また、本実施の形態において、この前々回のフレームの有無についての判断は、検出及び照合がなされたフレーム以外のフレームに対して、輪郭が確定されたかどうかにより決定される。   When there is a contour that satisfies the condition 1 (S110, YES), the determination unit 205 sets the contour that satisfies the condition 1 as a candidate for the contour (S111, first detection step). That is, it is determined whether there is a frame two frames before (S112). Here, the previous frame refers to the previous frame of the selected frame in a series of frames continuing from the collated frame to the frame processed in S112 (selected frame). Therefore, if no person is detected or verified in the predetermined frame of the selected moving image, the frame before the predetermined frame is not suitable as the previous frame in the subsequent processing. Further, in the present embodiment, the determination as to the presence or absence of the previous frame is determined based on whether or not the contour is determined for a frame other than the frame that has been detected and verified.

次に、前々回のフレームがある場合(S112,YES)、距離算出部206は、各輪郭候補と前回の輪郭との移動ベクトルと、前回と前々回の輪郭との移動ベクトルとの差を算出し、正規化する(S113)。次に判定部205は、輪郭候補において、条件2を満たす輪郭候補、つまり、正規化された移動ベクトルの差と、前回と前々回の輪郭との移動ベクトルとの割合(ベクトル割合)が、所定の値である閾値B以下である輪郭候補があるかどうかを判定する(S114)。なお、本実施の形態において、選択フレームが、照合されたフレームから4フレーム以降後のフレームである場合、閾値Bは、選択フレームの前フレームの処理において、最終的に輪郭として確定された輪郭候補に対するベクトル割合の2倍以下の値とする。   Next, when there is a previous frame (S112, YES), the distance calculation unit 206 calculates a difference between the movement vector between each contour candidate and the previous contour, and the movement vector between the previous and previous contours, Normalization is performed (S113). Next, the determination unit 205 determines that a contour candidate satisfying the condition 2 in the contour candidates, that is, a ratio (vector ratio) between a normalized motion vector difference and a motion vector between the previous and previous contours is a predetermined value. It is determined whether there is a contour candidate that is equal to or less than the threshold value B (S114). In the present embodiment, when the selected frame is a frame that is four frames after the collated frame, the threshold B is the contour candidate that is finally determined as the contour in the processing of the previous frame of the selected frame. The value is not more than twice the vector ratio to.

ここで、図8及び9を用いて、ステップS113について、説明する。図8に示すように、条件1を満たした輪郭候補として、輪郭候補A、輪郭候補B、輪郭候補Cがある場合、図9に示すように、輪郭または輪郭候補の重心を移動の基準として、これらの輪郭候補と前フレームの輪郭との移動ベクトルと、前々フレームの輪郭と前フレームの輪郭との移動ベクトルとの差が、それぞれの輪郭候補について算出される。なお、図9においては、移動ベクトルの差が最も大きい輪郭候補C以外の輪郭候補が条件2を満たす輪郭候補として示されている。   Here, step S113 will be described with reference to FIGS. As shown in FIG. 8, when there are a contour candidate A, a contour candidate B, and a contour candidate C as contour candidates satisfying the condition 1, as shown in FIG. 9, the center of gravity of the contour or the contour candidate is used as a reference for movement. The difference between the motion vector between these contour candidates and the contour of the previous frame and the motion vector between the contour of the previous frame and the contour of the previous frame is calculated for each contour candidate. In FIG. 9, contour candidates other than the contour candidate C having the largest movement vector difference are shown as contour candidates that satisfy the condition 2.

条件2を満たす輪郭候補がある場合(S114,YES)、条件2を満たす輪郭候補のみを輪郭候補とし(S115)、この輪郭候補のそれぞれ対して、濃度ベクトル算出部204が、前フレームとの輪郭内の濃度値のヒストグラムの差を算出する(S116、第1算出ステップ)。この濃度値のヒストグラムの差は、選択フレームにおける輪郭候補としてのそれぞれの輪郭内と、前フレームの輪郭内とにおける濃度毎の差の絶対値の合計を、前フレームの輪郭内の濃度毎の値の合計で割ることにより算出される。次に、判定部202は、条件2を満たす輪郭候補、つまり、閾値Cよりも濃度値ヒストグラムの差が小さい輪郭候補があるかどうかを判定する(S117)。なお、照合されたフレームの次のフレームに対しては、閾値Cとして、予め所定の値が用いられる。また、照合されたフレームの次のフレームより後のフレームに対しては、その前のフレームに対して確定された輪郭に対して算出された濃度値ヒストグラムの差の2倍の値を閾値Cとする。   When there is a contour candidate that satisfies the condition 2 (S114, YES), only the contour candidate that satisfies the condition 2 is set as a contour candidate (S115), and the density vector calculation unit 204 sets the contour with the previous frame for each of the contour candidates. The difference between the histograms of the density values is calculated (S116, first calculation step). The difference between the histograms of density values is the sum of the absolute values of the differences for each density in the contours as contour candidates in the selected frame and the contours of the previous frame. It is calculated by dividing by the sum of. Next, the determination unit 202 determines whether there is a contour candidate satisfying the condition 2, that is, a contour candidate whose density value histogram difference is smaller than the threshold value C (S117). It should be noted that a predetermined value is used in advance as the threshold C for the frame next to the collated frame. For a frame subsequent to the next frame after the collated frame, the threshold C is a value twice as large as the difference in the density histogram calculated for the contour determined for the previous frame. To do.

条件3を満たす輪郭候補がある場合(S117,YES)、確定部203は、条件3を満たす輪郭候補のうち、濃度値ヒストグラムの差が最も小さい輪郭候補を選択し(S118、第2確定ステップ)、選択した輪郭候補を選択フレームにおける輪郭として確定し(S119、第2確定ステップ)、この輪郭に基づいて、輪郭近傍領域を更新し(S120)、選択フレームを指定された人が映っているフレームとして保存し(S121)、選択部201は、次のフレームを選択する(S108、第2選択ステップ)。   When there is a contour candidate that satisfies condition 3 (S117, YES), the determination unit 203 selects a contour candidate that has the smallest difference in density value histogram from among contour candidates that satisfy condition 3 (S118, second determination step). Then, the selected contour candidate is confirmed as the contour in the selected frame (S119, second determination step), and based on this contour, the contour vicinity region is updated (S120), and the frame in which the person who has designated the selected frame is shown (S121), and the selection unit 201 selects the next frame (S108, second selection step).

また、ステップS117において、条件3を満たす輪郭候補がない場合(S117,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。   In step S117, when there is no contour candidate satisfying the condition 3 (S117, NO), the selection unit 201 selects the next frame (S122, first selection step).

また、ステップS114において、条件2を満たす輪郭候補がない場合(S114,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。   In step S114, if there is no contour candidate that satisfies condition 2 (S114, NO), the selection unit 201 selects the next frame (S122, first selection step).

また、ステップS112において、前々回のフレームがない場合(S112,NO)、濃度ベクトル算出部204が、輪郭候補のそれぞれ対して、前フレームとの輪郭内の濃度値のヒストグラムの差を算出する(S116)。   In step S112, when there is no previous frame (S112, NO), the density vector calculation unit 204 calculates a histogram difference of density values in the contour from the previous frame for each contour candidate (S116). ).

また、ステップS110において、条件1を満たす輪郭候補がない場合(S110,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。   In step S110, when there is no contour candidate that satisfies condition 1 (S110, NO), the selection unit 201 selects the next frame (S122, first selection step).

また、ステップS106において、検出された人が予め指定された人ではない場合(S106,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。   In step S106, when the detected person is not a person designated in advance (S106, NO), the selection unit 201 selects the next frame (S122, first selection step).

また、ステップS104において、人の輪郭が検出されなかった場合(S104,NO)、選択部201は、次のフレームを選択する(S122、第1選択ステップ)。   If no human contour is detected in step S104 (S104, NO), the selection unit 201 selects the next frame (S122, first selection step).

上述したように、本実施の形態に係る対象追跡装置20は、動画像において、まず、所定のフレームの輪郭を検出する。また、対象追跡装置20は、次のフレームにおいて、検出した輪郭の近傍領域内で所定の条件を満たすような輪郭の候補のうち、1つ前のフレームに対する輪郭内の濃度ヒストグラムの差が最も小さくなるような輪郭を輪郭として確定する。このように、対象追跡装置20は、前のフレームにおいて確定された輪郭に基づいて、選択中のフレームにおける輪郭を確定することにより、フレーム毎に輪郭を検出する必要がない。また、このよう処理によれば、選択中のフレームの輪郭の確定において、前のフレームの輪郭の近傍領域内にその処理を限定することにより、対象の追跡に掛かる処理負荷を軽減することができる。   As described above, the target tracking device 20 according to the present embodiment first detects the contour of a predetermined frame in a moving image. Further, the object tracking device 20 has the smallest difference in the density histogram in the contour with respect to the previous frame among the contour candidates that satisfy the predetermined condition in the vicinity region of the detected contour in the next frame. This contour is determined as the contour. Thus, the object tracking device 20 does not need to detect the contour for each frame by determining the contour in the selected frame based on the contour determined in the previous frame. Further, according to such processing, in determining the contour of the selected frame, by limiting the processing to a region near the contour of the previous frame, it is possible to reduce the processing load required for tracking the target. .

また、対象追跡装置20は、追跡対象の輪郭が検出されたフレーム以降のフレームに対しては、このフレームの輪郭候補を、異なる条件(条件2)により、さらに絞り込むことができる。このような処理によれば、確定される輪郭の精度をより高めることができる。   In addition, the target tracking device 20 can further narrow down the contour candidates of this frame according to different conditions (condition 2) for frames subsequent to the frame in which the contour of the tracking target is detected. According to such processing, it is possible to further improve the accuracy of the contour to be determined.

なお、本実施の形態においては、追跡の対象を人としたが、追跡の対象は、輪郭を検出できる対象であれば、いかなる対象であっても構わない。また、本実施の形態において、動画像に対する処理を1フレーム毎に実行したが、数フレームおきに処理がなされても構わない。   In the present embodiment, the tracking target is a person, but the tracking target may be any target as long as the contour can be detected. Further, in the present embodiment, processing for moving images is executed for each frame, but processing may be performed every several frames.

また、上記の実施の形態で示したフローチャートやステップに示された各動作をコンピュータにより実行させるプログラムを提供することにより、この発明に係る対象追跡プログラムを提供することができる。このプログラムは、コンピュータにより読取可能な媒体、例えばCD−ROM、フレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、データベース等に記録されてコンピュータにより実行させることができる。   Moreover, the object tracking program according to the present invention can be provided by providing a program that causes a computer to execute the operations shown in the flowcharts and steps described in the above embodiments. This program can be recorded on a computer-readable medium, for example, a portable storage medium such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, an IC card, a database, and the like, and can be executed by the computer.

本実施の形態に係る対象追跡装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the object tracking apparatus which concerns on this Embodiment. 本実施の形態に係る対象追跡装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object tracking apparatus which concerns on this Embodiment. 本実施の形態に係る対象追跡装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object tracking apparatus which concerns on this Embodiment. 本実施の形態に係る対象追跡装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object tracking apparatus which concerns on this Embodiment. 本実施の形態に係る対象追跡装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object tracking apparatus which concerns on this Embodiment. 輪郭を示す図である。It is a figure which shows an outline. 輪郭の法線ベクトルを示す図である。It is a figure which shows the normal vector of an outline. 移動ベクトルを示す図である。It is a figure which shows a movement vector. 条件2を満たす輪郭候補を示す図である。It is a figure which shows the outline candidate which satisfy | fills the conditions 2. FIG.

符号の説明Explanation of symbols

10 パーソナルコンピュータ、20 対象追跡装置、101 CPU、102 メモリ、103 記憶デバイス、201 選択部、202 検出部、203 確定部、204 濃度ベクトル算出部、205 判定部、206 距離算出部。   DESCRIPTION OF SYMBOLS 10 Personal computer, 20 Object tracking apparatus, 101 CPU, 102 Memory, 103 Storage device, 201 Selection part, 202 Detection part, 203 Determination part, 204 Density vector calculation part, 205 Determination part, 206 Distance calculation part

Claims (5)

時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡する対象追跡装置であって、
前記動画像における所定のフレームを選択する第1選択部と、
前記第1選択部により選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択部により選択されたフレームにおける輪郭として確定する第1確定部と、
前記第1選択部により選択されたフレームの所定数後に配列されたフレームを選択する第2選択部と、
前記第2選択部により選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出部と、
前記第2選択部により選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択部により選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出部と、
前記輪郭候補のうち、前記第1算出部により算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択部により選択されたフレームの輪郭として確定する第2確定部と
を備える対象追跡装置。
In a moving image composed of a plurality of frames arranged in time series, a target tracking device that tracks a predetermined target,
A first selection unit for selecting a predetermined frame in the moving image;
A first determination unit for detecting a contour of the predetermined object from a frame selected by the first selection unit, and determining the detected contour as a contour in the frame selected by the first selection unit;
A second selection unit for selecting frames arranged after a predetermined number of frames selected by the first selection unit;
For a frame selected by the second selection unit, a contour satisfying a predetermined condition is detected as a contour candidate within a predetermined distance from a contour determined for a frame arranged a predetermined number of frames before the frame. A first detector that
Concentration between a density value histogram in each contour of the contour candidate and a frame arranged a predetermined number of frames before the frame selected by the second selection unit with respect to the frame selected by the second selection unit A first calculation unit for calculating a difference from the density value histogram in the
A second determination unit that determines a contour candidate having the smallest difference in density value histograms in the contour calculated by the first calculation unit as the contour of the frame selected by the second selection unit, out of the contour candidates; An object tracking device comprising:
請求項1に記載の対象追跡装置において、
前記第2選択部は、前記第2確定部により輪郭が確定された場合、該輪郭が確定されたフレームの所定数後のフレームを、選択フレームとして選択することを特徴とし、
前記第1検出部により前記選択フレームの輪郭候補が検出された場合、前記選択フレームの所定数前に配列されたフレームである前フレームの輪郭と前記前フレームの所定数前に配列されたフレームの輪郭との移動ベクトルと、前記前フレームの輪郭と前記選択フレームの輪郭候補のそれぞれとの移動ベクトルとの差を算出する第2算出部と、
前記輪郭候補のうち、前記第2算出部により算出された移動ベクトルの差が、所定の閾値である第1閾値より小さい輪郭候補を、前記選択フレームの輪郭候補として検出する第2検出部とを更に備える対象追跡装置。
The object tracking device according to claim 1,
The second selection unit, when the contour is determined by the second determination unit, to select a frame after a predetermined number of frames with the determined contour as a selection frame,
When the contour candidate of the selected frame is detected by the first detection unit, the contour of the previous frame, which is a frame arranged a predetermined number of times before the selected frame, and the frame arranged a predetermined number of times before the previous frame A second calculation unit that calculates a difference between a movement vector with a contour and a movement vector between the contour of the previous frame and each of the contour candidates of the selected frame;
A second detection unit for detecting, as a contour candidate of the selected frame, a contour candidate whose difference in movement vectors calculated by the second calculation unit is smaller than a first threshold that is a predetermined threshold among the contour candidates; An object tracking device further provided.
請求項1または請求項2に記載の対象追跡装置において、
前記輪郭は、複数の接点からなる曲線により構成され、
前記第2検出部は、前記輪郭の接点の接線の法線方向の濃度勾配の合計である合計値が、前記第1閾値とは異なる閾値である第2閾値より大きいことを前記所定の条件とし、前記第2選択部により選択されたフレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において、前記輪郭を移動した場合、前記合計値が前記第2閾値より大きくなる輪郭を、輪郭候補として検出することを特徴とする対象追跡装置。
In the object tracking device according to claim 1 or 2,
The contour is constituted by a curve composed of a plurality of contact points,
The second detection unit has the predetermined condition that a total value, which is a sum of density gradients in a normal direction of tangents of the contact points of the contour, is larger than a second threshold value which is a threshold value different from the first threshold value. When the contour is moved within a predetermined distance from the contour determined for a frame arranged a predetermined number of frames before the frame selected by the second selection unit, the total value is less than the second threshold value. An object tracking device that detects a contour that becomes larger as a contour candidate.
時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡する対象追跡プログラムであって、
前記動画像における所定のフレームを選択する第1選択ステップと、
前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、
前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、
前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、
前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、
前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップと
をコンピュータに実行させる対象追跡プログラム。
An object tracking program for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series,
A first selection step of selecting a predetermined frame in the moving image;
A first determination step of detecting a contour of the predetermined object from the frame selected in the first selection step, and confirming the detected contour as a contour in the frame selected in the first selection step;
A second selection step of selecting frames arranged after a predetermined number of frames selected in the first selection step;
For a frame selected in the second selection step, a contour that satisfies a predetermined condition within a predetermined distance from a contour determined for a frame arranged a predetermined number of times before the frame is detected as a contour candidate. First detecting step,
Concentration between a density value histogram in each contour of the contour candidate and a frame arranged a predetermined number of frames before the frame selected by the second selection step with respect to the frame selected by the second selection step A first calculation step of calculating a difference from the density value histogram in
A second confirmation step of confirming, as the contour of the frame selected in the second selection step, a contour candidate having the smallest difference between the density value histograms in the contour calculated in the first calculation step among the contour candidates; A target tracking program that causes a computer to execute.
時系列上に配列された複数のフレームにより構成される動画像において、所定の対象を追跡する対象追跡方法であって、
前記動画像における所定のフレームを選択する第1選択ステップと、
前記第1選択ステップにより選択されたフレームより、前記所定の対象の輪郭を検出し、該検出した輪郭を、前記第1選択ステップにより選択されたフレームにおける輪郭として確定する第1確定ステップと、
前記第1選択ステップにより選択されたフレームの所定数後に配列されたフレームを選択する第2選択ステップと、
前記第2選択ステップにより選択されたフレームに対して、該フレームの所定数前に配列されたフレームに対して確定された輪郭から所定の距離内において所定の条件を満たす輪郭を、輪郭候補として検出する第1検出ステップと、
前記第2選択ステップにより選択されたフレームに対して、前記輪郭候補のそれぞれの輪郭内の濃度値ヒストグラムと、前記第2選択ステップにより選択されたフレームの所定数前に配列されたフレームとの輪郭内の濃度値ヒストグラムとの差を算出する第1算出ステップと、
前記輪郭候補のうち、前記第1算出ステップにより算出された輪郭内の濃度値ヒストグラムの差が最も小さい輪郭候補を、前記第2選択ステップにより選択されたフレームの輪郭として確定する第2確定ステップと
を備える対象追跡方法。
An object tracking method for tracking a predetermined object in a moving image composed of a plurality of frames arranged in time series,
A first selection step of selecting a predetermined frame in the moving image;
A first determination step of detecting a contour of the predetermined object from the frame selected in the first selection step, and confirming the detected contour as a contour in the frame selected in the first selection step;
A second selection step of selecting frames arranged after a predetermined number of frames selected in the first selection step;
For a frame selected in the second selection step, a contour that satisfies a predetermined condition within a predetermined distance from a contour determined for a frame arranged a predetermined number of times before the frame is detected as a contour candidate. First detecting step,
Concentration between a density value histogram in each contour of the contour candidate and a frame arranged a predetermined number of frames before the frame selected by the second selection step with respect to the frame selected by the second selection step A first calculation step of calculating a difference from the density value histogram in
A second confirmation step of confirming, as the contour of the frame selected in the second selection step, a contour candidate having the smallest difference between the density value histograms in the contour calculated in the first calculation step among the contour candidates; An object tracking method comprising:
JP2008284446A 2008-11-05 2008-11-05 Object tracking apparatus, object tracking program, and method Withdrawn JP2010113466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008284446A JP2010113466A (en) 2008-11-05 2008-11-05 Object tracking apparatus, object tracking program, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008284446A JP2010113466A (en) 2008-11-05 2008-11-05 Object tracking apparatus, object tracking program, and method

Publications (1)

Publication Number Publication Date
JP2010113466A true JP2010113466A (en) 2010-05-20

Family

ID=42301992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008284446A Withdrawn JP2010113466A (en) 2008-11-05 2008-11-05 Object tracking apparatus, object tracking program, and method

Country Status (1)

Country Link
JP (1) JP2010113466A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058036A (en) * 2011-09-07 2013-03-28 Canon Inc Image processing system, image processing program, robot device and image processing method
WO2019188392A1 (en) * 2018-03-29 2019-10-03 ソニー株式会社 Information processing device, information processing method, program, and moving body
KR20200040849A (en) * 2017-08-22 2020-04-20 로베르트 보쉬 게엠베하 Method and apparatus for validating flow vector hypothesis

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058036A (en) * 2011-09-07 2013-03-28 Canon Inc Image processing system, image processing program, robot device and image processing method
KR20200040849A (en) * 2017-08-22 2020-04-20 로베르트 보쉬 게엠베하 Method and apparatus for validating flow vector hypothesis
JP2020531997A (en) * 2017-08-22 2020-11-05 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Methods and devices for confirming the likelihood of the flow vector hypothesis
US11195287B2 (en) 2017-08-22 2021-12-07 Robert Bosch Gmbh Method and device for checking the plausibility of a flow vector hypothesis
KR102580056B1 (en) 2017-08-22 2023-09-20 로베르트 보쉬 게엠베하 Method and device for testing validity of flow vector hypothesis
WO2019188392A1 (en) * 2018-03-29 2019-10-03 ソニー株式会社 Information processing device, information processing method, program, and moving body

Similar Documents

Publication Publication Date Title
JP4991317B2 (en) Facial feature point detection apparatus and method
CN101894376B (en) Person tracking method and person tracking apparatus
US8837773B2 (en) Apparatus which detects moving object from image and method thereof
CN111640089B (en) Defect detection method and device based on feature map center point
JP5166102B2 (en) Image processing apparatus and method
US11334775B2 (en) Object detection device, object detection method, and program
JP2007042072A (en) Tracking apparatus
JP4724638B2 (en) Object detection method
JP2005128619A (en) Object measurement apparatus, object measurement method, and program
EP3690700A1 (en) Image similarity calculation method and device, and storage medium
JP4745207B2 (en) Facial feature point detection apparatus and method
JP2014093023A (en) Object detection device, object detection method and program
US9911204B2 (en) Image processing method, image processing apparatus, and recording medium
JP2007233871A (en) Image processor, control method for computer, and program
US9779286B2 (en) Feature point location estimation device, feature point location estimation method, and feature point location estimation program
JP2006072770A (en) Face detection device and face direction estimation device
US9904843B2 (en) Information processing device, information processing method, and program
EP3376468A1 (en) Object detection device and object detection method
JP6266468B2 (en) Object detection device
US11494906B2 (en) Object detection device, object detection method, and program
JP5100688B2 (en) Object detection apparatus and program
JP2010113466A (en) Object tracking apparatus, object tracking program, and method
CN105243661A (en) Corner detection method based on SUSAN operator
JP2008027130A (en) Object recognition apparatus, object recognition means, and program for object recognition
JP4894747B2 (en) Partial region detection device, object identification device, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100412

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100517

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100524

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120110