JP2017033175A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2017033175A JP2017033175A JP2015150992A JP2015150992A JP2017033175A JP 2017033175 A JP2017033175 A JP 2017033175A JP 2015150992 A JP2015150992 A JP 2015150992A JP 2015150992 A JP2015150992 A JP 2015150992A JP 2017033175 A JP2017033175 A JP 2017033175A
- Authority
- JP
- Japan
- Prior art keywords
- tracking target
- unit
- classifier
- image processing
- positive example
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
動画中の任意の物体を追跡する技術が従来から知られている。近年では、物体検出を物体追跡に取り入れたTracking by Detectionが成功を収めている。Tracking by Detectionでは、追跡対象物体を正例、その背景領域を負例として、2クラスの分類器を学習し、この分類器に基づき追跡対象物体の位置を検出する。 A technique for tracking an arbitrary object in a moving image has been conventionally known. In recent years, Tracking by Detection, which incorporates object detection into object tracking, has been successful. In Tracking by Detection, a two-class classifier is learned by using a tracking target object as a positive example and a background area as a negative example, and the position of the tracking target object is detected based on the classifier.
非特許文献1には、動画中の任意の物体を追跡する方法の代表的な例が開示されている。また特許文献1、非特許文献3及び非特許文献4には、追跡対象物体をboostingにより学習し、当該追跡対象物体を検出する方法が開示されている。また非特許文献2には、追跡対象物体を、サポートベクターマシン(SVM)により学習し、当該追跡対象物体を検出する方法が開示されている。 Non-Patent Document 1 discloses a typical example of a method for tracking an arbitrary object in a moving image. Patent Document 1, Non-Patent Document 3, and Non-Patent Document 4 disclose a method of learning a tracking target object by boosting and detecting the tracking target object. Non-Patent Document 2 discloses a method of learning a tracking target object using a support vector machine (SVM) and detecting the tracking target object.
これらの方法では追跡対象物体とともに背景領域を学習するので、背景との混同を低減しロバストな追跡を実現することができる。また、学習は物体追跡中にも逐次行われるため、追跡対象物体が時間的に変化する場合にも、その経時変化を分類器に反映させ追跡を行うことができる。さらに特許文献2では、追跡対象物体を一度見失い再追跡する際に、学習済みの背景の影響を受けないように認識モデル(分類器)を切り替える方法が開示されている。 In these methods, the background region is learned together with the tracking target object, so that confusion with the background can be reduced and robust tracking can be realized. In addition, since learning is sequentially performed during object tracking, even when the tracking target object changes with time, the change with time can be reflected in the classifier for tracking. Further, Patent Document 2 discloses a method of switching a recognition model (classifier) so as not to be influenced by a learned background when a tracking target object is lost once and retracked.
前述の通り、Tracking by Detectionに基づく従来の物体追跡方法では、物体追跡中に再学習を行うことで追跡対象物体の経時変化に追随することができる。再学習時に正例及び負例の訓練データを獲得する方法は、(1)追跡対象物体の存在領域のサンプルを正例、それ以外を負例とする方法と、(2)分類器で正例と判定されたサンプルを正例、負例と判定されたサンプルを負例として訓練データに新たに追加する方法と、が知られている。 As described above, in the conventional object tracking method based on Tracking by Detection, it is possible to follow a change with time of the tracking target object by performing relearning during the object tracking. The method of acquiring the training data of positive examples and negative examples at the time of re-learning includes (1) a method in which a sample of a region to be tracked is a positive example, and other cases as negative examples, and (2) a positive example with a classifier A method of newly adding to the training data a sample determined as a positive example and a sample determined as a negative example as a negative example is known.
しかしながら、上記(1),(2)の方法は、サンプリングした分だけ訓練データが増大し処理時間が増加する。具体的には、(1)の方法では、追跡対象物体の位置推定精度が低いと正例と負例の振り分けを間違えて精度低下につながる。また(2)の方法では、その時点までの分類器では識別できない追跡対象物体に類似する物体が現れた時に、それを正例として誤って訓練データに追加してしまう可能性がある。 However, in the above methods (1) and (2), the training data increases by the sampled amount and the processing time increases. Specifically, in the method (1), if the position estimation accuracy of the tracking target object is low, the accuracy of the positive example and the negative example is mistaken, leading to a decrease in accuracy. In the method (2), when an object similar to the tracking target object that cannot be identified by the classifier up to that time appears, it may be mistakenly added to the training data as a positive example.
本発明は、上記に鑑みてなされたものであって、処理時間を抑えるとともに、追跡対象物体に類似する物体の誤認識を低減することができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides an image processing apparatus, an image processing method, and a program capable of reducing processing time and reducing erroneous recognition of an object similar to a tracking target object. With the goal.
上述した課題を解決し、目的を達成するために、本発明は、動画からフレームを取得する取得部と、前記フレームの一部の領域を示す複数の第1の部分領域を抽出する抽出部と、前記第1の部分領域のそれぞれが、追跡対象物体を含む追跡対象領域であるか否かを、前記追跡対象領域を正例とし、前記追跡対象領域でない領域を負例とする訓練データにより学習された分類器により判定する判定部と、複数の前記追跡対象領域から、前記追跡対象物体の推定位置を推定する推定部と、前記推定位置から第1の閾値以内の距離にある第2の部分領域が、前記分類器により正例であると判定された場合、前記第2の部分領域を正例として前記訓練データに追加する正例追加部と、正例として追加された前記第2の部分領域の位置から第2の閾値以上の距離にある第3の部分領域が、前記分類器により正例であると判定された場合、前記第3の部分領域を、負例として前記訓練データに追加する負例追加部と、前記正例追加部と前記負例追加部とにより更新された前記訓練データを使用して前記分類器を更新する更新部と、を備える。 In order to solve the above-described problems and achieve the object, the present invention includes an acquisition unit that acquires a frame from a moving image, and an extraction unit that extracts a plurality of first partial regions indicating a partial region of the frame. Whether each of the first partial areas is a tracking target area including a tracking target object is learned from training data using the tracking target area as a positive example and a non-tracking target area as a negative example. A determination unit that is determined by the classified classifier, an estimation unit that estimates an estimated position of the tracking target object from a plurality of the tracking target regions, and a second part that is within a first threshold from the estimated position When the region is determined to be a positive example by the classifier, a positive example adding unit that adds the second partial region to the training data as a positive example, and the second part added as a positive example From the position of the region to the second threshold value or more When the third partial region at a distance of is determined to be a positive example by the classifier, a negative example addition unit that adds the third partial region to the training data as a negative example; And an updating unit that updates the classifier using the training data updated by the example adding unit and the negative example adding unit.
本発明によれば、処理時間を抑えるとともに、追跡対象物体に類似する物体の誤認識を低減することができるという効果を奏する。 According to the present invention, it is possible to reduce the processing time and reduce erroneous recognition of an object similar to the tracking target object.
以下に添付図面を参照して、画像処理装置、画像処理方法及びプログラムの第1実施形態を詳細に説明する。 Hereinafter, an image processing apparatus, an image processing method, and a program according to a first embodiment will be described in detail with reference to the accompanying drawings.
(第1実施形態)
はじめに第1実施形態の学習装置の機能構成の例について説明する。第1実施形態の学習装置は、第1実施形態の画像処理装置で使用される分類器の学習を行う。
(First embodiment)
First, an example of a functional configuration of the learning device according to the first embodiment will be described. The learning device according to the first embodiment learns a classifier used in the image processing device according to the first embodiment.
図1は第1実施形態の学習装置100の機能構成の例を示す図である。第1実施形態の学習装置100は、記憶部10、学習制御部20、入力部30及び表示部40を備える。学習制御部20は、取得部21、指定部22、正例取得部23、負例取得部24及び学習部25を備える。
FIG. 1 is a diagram illustrating an example of a functional configuration of the
記憶部10は処理対象の動画を記憶する。取得部21は、記憶部10から処理対象の動画に含まれるフレームを1つ取得する。取得部21により取得されるフレームは任意でよい。取得部21により取得されるフレームは、例えば処理対象の動画の最初のフレーム、及び、ユーザにより指定されたフレーム等である。取得部21はフレームを指定部22に入力する。
The
指定部22は、取得部21からフレームを受け付けると、当該フレームを表示部40に表示する。入力部30は、表示部40に表示されたフレーム内で追跡の対象とする追跡対象領域を指定する入力を受け付ける。追跡対象領域の指定方法は任意でよい。追跡対象領域の指定方法は、例えば追跡対象物体を含む矩形を追跡対象領域として指定する方法でもよい。指定部22は、入力部30から追跡対象領域を示す追跡対象領域情報を受け付けると、当該追跡対象領域情報を正例取得部23及び負例取得部24に入力する。
When the specification unit 22 receives a frame from the acquisition unit 21, the specification unit 22 displays the frame on the display unit 40. The input unit 30 receives an input for designating a tracking target region to be tracked in the frame displayed on the display unit 40. The method for specifying the tracking target area may be arbitrary. The method for specifying the tracking target area may be, for example, a method of specifying a rectangle including the tracking target object as the tracking target area. When receiving the tracking target region information indicating the tracking target region from the input unit 30, the specifying unit 22 inputs the tracking target region information to the positive
正例取得部23は、指定部22から追跡対象領域情報を受け付けると、当該追跡対象領域情報が示す追跡対象領域の周辺の領域から正例領域を取得する。正例領域は、訓練データの正例を示す領域である。
When receiving the tracking target region information from the specifying unit 22, the positive
図2は第1実施形態の正例領域210a〜210cの例を示す図である。図2の例は、正例取得部23が、追跡対象領域200を水平方向及び垂直方向に変動させた矩形を、正例領域210a〜210cとして取得する場合を示す。以下、正例領域210a〜210cを区別しない場合は、単に正例領域210という。正例領域210を取得する際の変動量は任意でよい。水平方向の変動量は、例えば追跡対象領域200の横の長さの10%である。また垂直方向の変動量は、例えば追跡対象領域200の縦の長さの10%である。
FIG. 2 is a diagram illustrating an example of
なお正例領域210の取得方法は図2の方法に限られず任意でよい。正例取得部23は、例えば追跡対象領域200を細かく分割することにより複数の分割領域を取得し、当該分割領域を正例領域210として取得してもよい。また正例領域210の形状は、追跡対象領域200の形状と同一でなくてもよい。
The method for acquiring the positive example area 210 is not limited to the method shown in FIG. The positive
図1に戻り、正例取得部23は、正例領域210の特徴を示す第1の特徴量情報を算出する。第1の特徴量情報は任意でよい。第1の特徴量情報は、例えば正例領域の画素値を示す特徴ベクトルでもよい。この特徴ベクトルの次元は、例えば正例領域のサイズが16×16の場合、256次元である。また第1の特徴量情報は、色ヒストグラム、エッジ強度のヒストグラム、SIFT特徴量、HOG特徴量、及び、ニューラルネットワークの出力値等でもよい。また、第1の特徴量情報は、これらの組み合わせでもよい。なお正例取得部23は、正例領域のサイズを特定のサイズに正規化し、正規化された正例領域の第1の特徴量情報を算出してもよい。正例取得部23は第1の特徴量情報を学習部25に入力する。
Returning to FIG. 1, the positive
一方、負例取得部24は、指定部22から追跡対象領域情報を受け付けると、当該追跡対象領域情報が示す追跡対象領域の外の領域から負例領域を取得する。負例領域は、訓練データの負例を示す領域である。
On the other hand, when receiving the tracking target region information from the specifying unit 22, the negative
図3は第1実施形態の負例領域220a〜220nの例を示す図である。図2の例は、負例取得部24が、追跡対象領域200外の周囲の領域を格子状の領域に分割することにより、負例領域220a〜220nを取得する場合を示す。以下、負例領域220a〜220nを区別しない場合は、単に負例領域220という。
FIG. 3 is a diagram illustrating an example of the
なお負例領域220の取得方法は図3の方法に限られず任意でよい。負例取得部24は、例えば追跡対象領域200外の周囲の領域を格子状の領域に分割してから、当該分割された格子状の領域の位置を、ランダム又は所定の割合だけ変動させた負例領域220a〜220nを取得してもよい。
The method for obtaining the negative example region 220 is not limited to the method shown in FIG. For example, the negative
図1に戻り、負例取得部24は、負例領域220の特徴を示す第2の特徴量情報を算出する。第2の特徴量情報の説明は、正例領域210の場合の説明と同様なので省略する。負例取得部24は、負例領域220の第2の特徴量情報を学習部25に入力する。
Returning to FIG. 1, the negative
学習部25は、正例取得部23から第1の特徴量情報を受け付け、負例取得部24から第2の特徴量情報を受け付けると、当該第1及び第2の特徴量情報に基づいて分類器を学習する。第1実施形態の説明では、学習部25が線形判別分析により分類器を学習する場合について説明する。また第1及び第2の特徴量情報が、上述の特徴ベクトルである場合について説明する。
When the
正例領域210の特徴ベクトルの数をNpとする。負例領域220の特徴ベクトルの数をNnとする。学習部25は、まず正例領域210の特徴ベクトルの平均ベクトルmp及び変動行列Sp、並びに、負例領域220の特徴ベクトルの平均ベクトルmn及び変動行列Snを算出する。そして学習部25は、判別係数ベクトルaを次式(1)により算出する。
Let N p be the number of feature vectors in the positive example area 210. Let N n be the number of feature vectors in the negative example region 220.
学習部25は、(Np,mp,Sp,Nn,mn,Sn,a)を学習結果情報として記憶部10に記憶する。そして学習部25は、特徴ベクトルxにより特徴付けられる領域が、追跡対象領域であるか否かを識別する識別関数(判別関数)を次式(2)により構成する。
Learning unit 25 stores (N p, m p, S p, N n, m n, S n, a) in the
すなわち式(2)の識別関数h(x)が、学習部25により学習された分類器である。h(x)が正の値の場合、当該特徴ベクトルxにより特徴付けられる領域が追跡対象領域であることを示す。h(x)が負の値の場合、当該特徴ベクトルxにより特徴付けられる領域が背景領域であることを示す。
That is, the discriminant function h (x) in the equation (2) is a classifier learned by the
次に第1実施形態の画像処理装置の機能構成の例について説明する。 Next, an example of a functional configuration of the image processing apparatus according to the first embodiment will be described.
図4は第1実施形態の画像処理装置300の機能構成の例を示す図である。第1実施形態の画像処理装置300は、記憶部310及び画像処理部320を備える。画像処理部320は、取得部321、抽出部322、判定部323、推定部324、正例追加部325、負例追加部326及び更新部327を備える。
FIG. 4 is a diagram illustrating an example of a functional configuration of the image processing apparatus 300 according to the first embodiment. The image processing apparatus 300 according to the first embodiment includes a
記憶部310は処理対象の動画を記憶する。また記憶部310は学習結果情報及び分類器を記憶する。学習結果情報は、上述の(Np,mp,Sp,Nn,mn,Sn,a)である。分類器は、上述の式(2)が示す識別関数h(x)である。
The
取得部321は、記憶部310から処理対象の動画に含まれるフレームを、カレントフレームとして1つ取得する。最初のイタレーションでは、取得部321は、追跡対象物体の追跡を開始するフレームを、カレントフレームとして1つ取得する。2回目以降のイタレーションでは、取得部321は、前回選択されたフレームよりも時系列順で新しいフレーム(典型的には次のフレーム)を、カレントフレームとして1つ取得する。取得部321はカレントフレームを抽出部322に入力する。
The
抽出部322は、取得部321からカレントフレームを受け付けると、当該カレントフレームから複数の第1の部分領域を抽出する。第1の部分領域の抽出の仕方は任意でよい。抽出部322は、例えば前フレームで推定された追跡対象物体の推定位置を基準にして、図2のように水平方向及び垂直方向に複数の変動を与えることにより抽出される複数の矩形領域を、複数の第1の部分領域として抽出する。
When receiving the current frame from the
このとき、抽出部322が第1の部分領域を抽出する際の変動の大きさは、学習装置100が分類器を学習する際の変動の大きさよりも大きくする。具体的には、抽出部322は、第1の部分領域を抽出する際の変動の大きさを、追跡対象物体の想定される速度に応じて設定する。
At this time, the magnitude of the fluctuation when the
なお最初のイタレーションでは、前フレームの情報がないので、抽出部322は、カレントフレーム全体を複数の第1の部分領域に分割することにより複数の第1の部分領域を抽出してもよい。
Note that in the first iteration, there is no information on the previous frame, so the
以下、第1の部分領域を示す情報を第1の部分領域情報という。抽出部322は複数の第1の部分領域情報を判定部323に入力する。
Hereinafter, information indicating the first partial area is referred to as first partial area information. The
判定部323は、抽出部322から複数の第1の部分領域情報を受け付けると、各第1の部分領域情報が示す第1の部分領域が、追跡対象物体を含む追跡対象領域であるか否かを判定する。具体的には、判定部323は、まず各第1の部分領域情報が示す第1の部分領域の特徴量情報を算出する。次に判定部323は、特徴量情報により特徴付けられる第1の部分領域が、学習装置100により学習された上述の分類器(式(2)参照)を使用して、追跡対象領域であるか否かを判定する。次に判定部323は、第1の部分領域が追跡対象領域であると判定された場合、当該追跡対象領域を示す追跡対象領域情報を推定部324に入力する。
When the
推定部324は、判定部323から追跡対象領域情報を受け付ける。推定部324は、判定部323から複数の追跡対象領域情報を受け付けた場合、各追跡対象領域情報が示す追跡対象領域に基づいて追跡対象物体の位置を推定する。
The
推定部324は、例えば各追跡対象領域情報が示す追跡対象領域の位置の平均により、追跡対象物体の位置を推定する。なお推定部324が、追跡対象物体の位置を推定する具体的な方法は任意でよい。
The
推定部324は、例えば上述の式(2)の識別関数h(x)の値を元にして加重平均を取ることにより、追跡対象物体の位置を推定してもよい。識別関数h(x)の値を元にした加重平均の重みwiは、例えば次式(3)により算出される。
The
ここでα(>0)はパラメータである。このとき推定部324は、i番目の第1の部分領域の中心位置を(xi,yi)として、追跡対象物体の推定位置を次式(4)により算出する。
Here, α (> 0) is a parameter. At this time, the
また、より簡略な別の方法として、推定部324は、識別関数値hiが最大のi番目の第1の部分領域の中心位置(xi,yi)を、そのまま追跡対象物体の推定位置としてもよい。
As another simpler method, the
推定部324は、追跡対象物体の推定位置を含む推定領域が追跡対象領域であるか否かを、学習装置100により学習された上述の分類器(式(2)参照)を使用して判定する。分類器による判定に使用される特徴量xは、例えば上述の特徴ベクトルである。また推定領域の形状は任意でよい。推定部324は、例えば追跡対象物体の推定位置を中心とした矩形を推定領域としてもよい。
The
また推定部324は、追跡対象物体の推定位置を中心とした矩形の位置を変動させることにより、複数の推定領域を取得してもよい。推定部324は、例えば推定位置から第1の閾値以内の距離にある第2の部分領域を、所定の数だけ推定領域として取得してもよい。なお推定位置と第2の部分領域との距離は、例えば推定位置を示す座標と、推定位置を中心とした矩形の位置を変動させることにより得られた第2の部分領域の中心の座標との距離である。
The
推定部324は、推定領域が追跡対象領域である場合、当該推定領域を示す推定領域情報を、正例追加部325及び負例追加部326に入力する。
When the estimation region is the tracking target region, the
なお処理時間を低減するため、推定部324は判定部323の処理結果を利用してもよい。具体的には、推定部324は、上述の判定部323により得られた追跡対象領域のうち、推定部324により推定された推定位置との距離が第1の閾値以下である追跡対象領域を示す追跡対象領域情報を、正例追加部325及び負例追加部326に入力してもよい。なお推定位置と追跡対象領域との距離は、例えば推定位置を示す座標と、追跡対象領域内の中心の座標との距離である。
In order to reduce the processing time, the
正例追加部325は、推定部324から推定領域情報を受け付けると、当該推定領域情報が示す推定領域(第2の部分領域)の第1の特徴量情報を、正例として訓練データに追加する。第1の特徴量情報は、例えば推定領域を特徴付ける上述の特徴ベクトルである。
When the positive
負例追加部326は、推定部324から推定領域情報を受け付けると、当該推定領域情報が示す推定領域に基づいて、負例を示す負例領域を決定する。負例追加部326は、推定部324から受け付けた推定領域情報が示す推定領域から第2の閾値以上の距離にある第3の部分領域を、所定の数だけ取得する。そして負例追加部326は、複数の第3の部分領域のうち、分類器により正例領域であると判定された第3の部分領域の第2の特徴量情報を、負例として訓練データに追加する。
When the negative
正例領域であると判定された部分領域を、負例領域として訓練データに追加する理由は、“追跡対象物体の推定位置から第2の閾値以上の距離にある領域に追跡対象物体は存在しない”という前提条件による。すなわち追跡対象物体の推定位置から十分に離れた場所で追跡対象物体が検出された場合は、分類器の学習が不十分で類似物体を識別できていないとみなす。そこで、負例追加部326が、追跡対象物体と誤認識されるサンプルを負例として訓練データに追加する。具体的には、負例追加部326は、訓練データに正例として追加された第2の部分領域の位置から第2の閾値以上の距離にある第3の部分領域が、分類器により正例領域であると判定された場合、当該第3の部分領域を、負例領域として訓練データに追加する。これにより、後述の更新部327が、当該訓練データを使用して分類器を更新(再学習)することにより、追跡対象物体の識別精度を上げることができる。
The reason why the partial area determined to be the positive example area is added to the training data as the negative example area is that “the tracking target object does not exist in the area at a distance equal to or larger than the second threshold from the estimated position of the tracking target object. "It is based on the precondition. That is, if a tracking target object is detected at a location sufficiently away from the estimated position of the tracking target object, it is considered that the similar object cannot be identified due to insufficient learning of the classifier. Therefore, the negative
なお処理時間を低減するため、負例追加部326は判定部323の処理結果を利用してもよい。具体的には、負例追加部326は、上述の判定部323により得られた追跡対象領域のうち、推定部324により推定された推定位置との距離が第2の閾値以上である追跡対象領域の特徴量情報を、負例として訓練データに追加してもよい。
In order to reduce the processing time, the negative
更新部327は、正例追加部325と負例追加部326により更新された訓練データを使用して分類器を更新する。更新部327による分類器の更新方法を、分類器に線形判別分析法(線形判別分析に基づく2値分類)を用いる場合を例にして説明する。具体的には、更新部327は、更新された訓練データの正例及び負例を用いて、正例の特徴ベクトルのサンプル数Np、平均ベクトルmp及び変動行列Sp、負例の特徴ベクトルのサンプル数Nn、平均ベクトルmn及び変動行列Sn、並びに、判別係数ベクトルaを更新する。更新部327は、(mp,mn,a)から、上述の式(2)の識別関数(分類器)を更新する。
The updating
なお更新部327は、(Np,mp,Sp,Nn,mn,Sn)を記憶部310に記憶しておけば、過去の訓練データを破棄しても、新しい訓練データのみから(Np,mp,Sp,Nn,mn,Sn)の値を更新して判別係数ベクトルaを求めることができる。また更新部327は、記憶部310のデータ量の削減のため、Sp及びSnを記憶する代わりにSp及びSnの固有値が大きい方から特定個の固有ベクトルと対応する固有値を、記憶部310に記憶してもよい。
Note that the
次に第1実施形態の画像処理方法について説明する。 Next, an image processing method according to the first embodiment will be described.
図5は第1実施形態の学習装置100の動作例を示すフローチャートである。はじめに、取得部21が、記憶部10から処理対象の動画に含まれるフレームを1つ取得する(ステップS1)。次に、指定部22が、フレーム内で追跡の対象とする追跡対象領域を示す追跡対象領域情報を受け付ける(ステップS2)。次に、正例取得部23が、追跡対象領域情報が示す追跡対象領域の周辺の領域(図2参照)から正例領域210を取得する(ステップS3)。次に、正例取得部23が、正例領域210の特徴を示す第1の特徴量情報を算出する(ステップS4)。次に、負例取得部24が、追跡対象領域情報が示す追跡対象領域の外の領域(図3参照)から負例領域220を取得する(ステップS5)。次に、負例取得部24が、負例領域220の特徴を示す第2の特徴量情報を算出する(ステップS6)。次に、学習部25が、第1及び第2の特徴量情報に基づいて分類器(式(2)参照)を学習する(ステップS7)。
FIG. 5 is a flowchart illustrating an operation example of the
図6は第1実施形態の画像処理装置300の動作例を示すフローチャートである。はじめに、取得部321が、記憶部310から処理対象の動画に含まれるフレームを、カレントフレームとして1つ取得する(ステップS21)。次に、抽出部322が、カレントフレームから複数の第1の部分領域を抽出する(ステップS22)。次に、判定部323が、分類器(式(2)参照)により追跡対象領域であると判定された第1の部分領域を、追跡対象物体を含む追跡対象領域として検出する(ステップS23)。次に、推定部324が、複数の追跡対象領域がある場合、各追跡対象領域に基づいて追跡対象物体の位置を推定する(ステップS24)。
FIG. 6 is a flowchart illustrating an operation example of the image processing apparatus 300 according to the first embodiment. First, the acquiring
次に、正例追加部325が、追跡対象物体の推定位置から第1の閾値以内の距離にある第2の部分領域が、分類器により正例であると判定された場合、第2の部分領域を正例として訓練データに追加する(ステップS25)。次に、負例追加部326が、正例として追加された第2の部分領域の位置から第2の閾値以上の距離にある第3の部分領域が、分類器により正例であると判定された場合、第3の部分領域を、負例として訓練データに追加する(ステップS26)。
Next, when the positive
次に、更新部327が、ステップS25で正例追加部325により更新された訓練データと、ステップS26で負例追加部326により更新された訓練データを使用して分類器を更新する(ステップS27)。
Next, the updating
次に、更新部327が、カレントフレームが動画の最終フレームであるか否かを判定する。最終フレームでない場合(ステップS28、No)、処理はステップS1に戻る。最終フレームである場合(ステップS28、Yes)、処理は終了する。
Next, the
以上説明したように、第1実施形態の画像処理装置300によれば、追跡対象物体と背景とを学習した分類器を用いることで、追跡対象と背景の混同を低減し、ロバストな物体追跡を実現することができる。特に、各フレームで分類器の更新を行う際、追跡対象物体と誤判定されるサンプルのみを負例として訓練データに追加するので、訓練データに冗長なサンプルを増加させることがなく、かつ追跡対象物体に類似する物体との誤認識を低減させることができる。 As described above, according to the image processing apparatus 300 of the first embodiment, by using the classifier that learns the tracking target object and the background, confusion between the tracking target and the background is reduced, and robust object tracking is performed. Can be realized. In particular, when updating the classifier in each frame, only samples that are erroneously determined as tracking target objects are added to the training data as negative examples, so that redundant samples are not added to the training data and the tracking target is not increased. False recognition with an object similar to the object can be reduced.
(第1実施形態の変形例1)
次に第1実施形態の変形例1について説明する。変形例1では、分類器として2クラス分類のサポートベクターマシン(SVM)が使用される場合について説明する。変形例1の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
(Modification 1 of the first embodiment)
Next, Modification 1 of the first embodiment will be described. In the first modification, a case where a two-class classification support vector machine (SVM) is used as a classifier will be described. In the description of the first modification, the description similar to that of the first embodiment will be omitted, and different parts from the first embodiment will be described.
SVMによる学習では、M個のD次元サポートベクトルs(i)(i=1,2,・・・,M)、対応するM個の実数の重みωi(i=1,2,・・・,M)、及び、オフセットc(cは実数)が求まり、次式(5)により識別関数h(x)が得られる。 In learning by SVM, M D-dimensional support vectors s (i) (i = 1, 2,..., M) and corresponding M real weights ω i (i = 1, 2,...). , M) and an offset c (c is a real number), and the discriminant function h (x) is obtained by the following equation (5).
領域の特徴を示すD次元特徴ベクトルxに対して、h(x)が正であれば、当該D次元特徴ベクトルxにより特徴付けられる領域に追跡対象物体が含まれると予測され、h(x)が負であれば、当該D次元特徴ベクトルxにより特徴付けられる領域が背景である(追跡対象物体でない)と予測される。ここでKはカーネル関数RD×RD→Rである。なおRDはD次元実ベクトル空間の集合を示す。Rは1次元実ベクトル空間の集合を示す。 If h (x) is positive with respect to the D-dimensional feature vector x indicating the feature of the region, it is predicted that the tracking target object is included in the region characterized by the D-dimensional feature vector x, and h (x) Is negative, it is predicted that the region characterized by the D-dimensional feature vector x is the background (not the tracking target object). Here, K is a kernel function R D × R D → R. RD represents a set of D-dimensional real vector spaces. R represents a set of one-dimensional real vector spaces.
カーネル関数は、例えば次式(6)のRBFカーネルである。ここでγはパラメータである。なおSVMの学習法の詳細は非特許文献2を参照されたい。 The kernel function is, for example, an RBF kernel represented by the following formula (6). Here, γ is a parameter. Refer to Non-Patent Document 2 for details of the SVM learning method.
上述の式(5)の分類器の初期学習は、第1実施形態の学習装置100と同様の順序で行われるが、分類器の具体的な学習処理がSVMに置き換わる。
The initial learning of the classifier of the above formula (5) is performed in the same order as the
また変形例1の画像処理装置300の動作は、第1実施形態の画像処理装置300と同様であるが、第1実施形態の式(2)の分類器が、上述の式(5)の分類器に置き換わる。 The operation of the image processing apparatus 300 according to the first modification is the same as that of the image processing apparatus 300 according to the first embodiment. Replaces the vessel.
しかしながらSVMを使用する変形例1では、訓練データが増えるにつれて学習にかかる処理時間が増大する。そこで、変形例1の正例追加部325は、正例として新しく追加されたサンプルの数だけ、過去に追加されたサンプルを訓練データから削除する。
However, in Modification 1 using SVM, the processing time required for learning increases as the training data increases. Therefore, the positive
削減の具体的な方法は任意でよい。正例追加部325は、例えば過去に訓練データに追加されたサンプルのうち、古いサンプルから順に削減してもよい。また例えば、正例追加部325は、訓練データからサポートベクトル以外のサンプルを削除してもよい。また例えば、正例追加部325は、訓練データから新しく追加されたサンプルに類似するサンプルを削減してもよい。
A specific method of reduction may be arbitrary. For example, the positive
同様に、変形例1の負例追加部326は、負例として新しく追加されたサンプルの数だけ、過去に追加されたサンプルを訓練データから削除する。
Similarly, the negative
変形例1の更新部327は、正例追加部325及び負例追加部326により更新された訓練データを元に、分類器(SVM)を更新(再学習)し、更新されたSVMを記憶部310に記憶する。
The
変形例1によれば、分類器にSVMを使用することにより、特徴空間で追跡対象物体と背景が線形分離不可能の場合でも、SVMの非線形分離能力により、追跡対象物体を背景から分離して追跡を行うことが可能となる。 According to the first modification, by using SVM as a classifier, even when the tracking target object and the background cannot be linearly separated in the feature space, the tracking target object is separated from the background by the non-linear separation capability of the SVM. Tracking can be performed.
(第1実施形態の変形例2)
次に第1実施形態の変形例2について説明する。変形例2では、分類器としてAdaBoostが使用される場合について説明する。変形例2の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
(Modification 2 of the first embodiment)
Next, a second modification of the first embodiment will be described. In the second modification, a case where AdaBoost is used as a classifier will be described. In the description of the modified example 2, the description similar to that of the first embodiment will be omitted, and portions different from the first embodiment will be described.
AdaBoostでは、M個の弱識別器hi(x)(i=1,2,…,M)の重みωiの線形和により、強識別器h(x)を次式(7)により構成する。 In AdaBoost, the strong classifier h (x) is configured by the following equation (7) by the linear sum of the weights ω i of the M weak classifiers h i (x) (i = 1, 2,..., M). .
弱識別器の学習については、非特許文献3と同様の方法を取ることができる。 For learning of the weak classifier, the same method as in Non-Patent Document 3 can be used.
上述の式(7)の分類器の初期学習は、第1実施形態の学習装置100と同様の順序で行われるが、分類器の具体的な学習処理がAdaBoostに置き換わる。
The initial learning of the classifier of Equation (7) is performed in the same order as the
また変形例2の画像処理装置300の動作は、第1実施形態の画像処理装置300と同様であるが、第1実施形態の式(2)の分類器が、上述の式(7)の分類器に置き換わる。 The operation of the image processing apparatus 300 according to the second modification is the same as that of the image processing apparatus 300 according to the first embodiment. However, the classifier according to the expression (2) according to the first embodiment performs the classification according to the expression (7) described above. Replaces the vessel.
なお変形例2の更新部327は、正例追加部325及び負例追加部326により更新された訓練データを元に、分類器を更新(再学習)し、更新された弱識別器hi(x)と、更新された重みωiとを記憶部310に記憶する。
The
AdaBoostでは、非特許文献3のようなオンライン学習を行うことができるので、古い訓練データは破棄することができる。オンライン学習を行わない場合は、記憶部310が訓練データを記憶する必要がある。しかしながら、正例追加部325及び負例追加部326が、変形例1の場合と同様に、古いサンプルや類似するサンプルから順に記憶部310の訓練データを削減してもよい。
Since AdaBoost can perform online learning as in Non-Patent Document 3, old training data can be discarded. When online learning is not performed, the
変形例2によれば、分類器にAdaBoostを使用することにより、特徴空間で追跡対象物体と背景が線形分離不可能の場合でも、AdaBoostの非線形分離能力により、追跡対象物体を背景から分離して追跡を行うことが可能となる。 According to the second modification, by using AdaBoost as the classifier, even if the tracking target object and the background cannot be linearly separated in the feature space, the tracking target object is separated from the background by the non-linear separation capability of AdaBoost. Tracking can be performed.
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、追跡対象物体の動作予測にパーティクルフィルタを用いる場合について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
(Second Embodiment)
Next, a second embodiment will be described. In the description of the second embodiment, a case will be described in which a particle filter is used for motion prediction of a tracking target object. In the description of the second embodiment, the description similar to that of the first embodiment is omitted, and only points different from the first embodiment will be described.
パーティクルフィルタでは、追跡対称物体のパラメータを有するN個のパーティクルの集合により状態表現が行われる。第2実施形態の画像処理装置300は、パーティクルの更新により追跡対象物体の動作を予測し、当該追跡対象物体の位置を推定する。以下ではパラメータとしてパーティクルの位置及び速度を用いる場合について説明する。n番目のパーティクルの位置を(x(n),y(n))とする。またn番目のパーティクルの速度を(/x(n),/y(n))とする。ただし、”/”は、変数x、y上部の微分記号・を示す。またn番目のパーティクルの位置及び速度をまとめてz(n)=(x(n),y(n),/x(n),/y(n))と表記する。またn番目のパーティクルの重みをw(n)と表記する。 In the particle filter, the state is expressed by a set of N particles having parameters of the tracking symmetry object. The image processing apparatus 300 according to the second embodiment predicts the operation of the tracking target object by updating the particle, and estimates the position of the tracking target object. Hereinafter, a case where the position and speed of a particle are used as parameters will be described. The position of the nth particle is assumed to be (x (n) , y (n) ). The speed of the nth particle is (/ x (n) , / y (n) ). However, “/” indicates a differential symbol • above the variables x and y. Further, the position and velocity of the nth particle are collectively expressed as z (n) = (x (n) , y (n) , / x (n) , / y (n) ). The weight of the nth particle is denoted as w (n) .
第2実施形態の画像処理装置300で使用される分類器の初期学習は、第1実施形態の学習装置100と同様の順序で行われる。なお第2実施形態で使用される分類器は、線形判別法(第1実施形態参照)、SVM(第1実施形態の変形例1参照)、及び、AdaBoost(第1実施形態の変形例2参照)のいずれでもよい。また、これら以外の2クラス分類が可能なアルゴリズムを使用することもできる。
The initial learning of the classifier used in the image processing apparatus 300 of the second embodiment is performed in the same order as the
また第2実施形態の画像処理装置300の動作は、第1実施形態の画像処理装置300と同様であるが、抽出部322及び推定部324の動作が第1実施形態の画像処理装置300の動作と異なる。
The operation of the image processing apparatus 300 of the second embodiment is the same as that of the image processing apparatus 300 of the first embodiment, but the operations of the
記憶部310は、パーティクルの初期位置及び初期速度を記憶する。パーティクルの初期位置は、学習装置100で指定されたユーザ指定の追跡位置である。パーティクルの初期速度は0である。
The
抽出部322は、取得部321からカレントフレームを受け付けると、当該カレントフレームから複数の第1の部分領域をパーティクルフィルタに基づいて抽出する。抽出部322は、例えばN個のパーティクル{z(n)}N n−1から重複を許してN個のパーティクルを再サンプリングすることにより、{z(n) tmp}N n−1を取得する。再サンプリングは各パーティクルの重みw(n)の比率に応じて行われる。つまり、抽出部322は、n番目のパーティクルを次式(8)の確率Pnで選択する。
When receiving the current frame from the
そして、抽出部322は、次式(9)〜(12)により、N個のパーティクル(n=1,2,…,N)を更新する。
Then, the
ここでΔtはパラメータであり、ε1,…,ε4は乱数である。抽出部322は、1つのパーティクルの位置を示す座標を中心に含む第1の部分領域を抽出する。
Here, Δt is a parameter, and ε 1 ,..., Ε 4 are random numbers. The
推定部324は、各パーティクルに対応する第1の部分領域の識別関数値hiを元に重みw(i)を算出する。識別関数値hiから重みw(i)を算出する式は、識別関数値hiに対してw(i)が単調増加する関数を用いることができる。次式(13)は識別関数値hiから重みw(i)を算出する式の例である。
The
ここでα(>0)はパラメータである。そして、推定部324は、i番目の第1の部分領域の中心位置を(xi,yi)として、次式(14)により、追跡対象物体の推定位置を算出する。
Here, α (> 0) is a parameter. Then, the
以上により、第2実施形態の画像処理装置300によれば、パーティクルフィルタに基づく動作予測により追跡対象物体の追跡を行うことができる。第2実施形態の説明では、パーティクルのパラメータとして位置及び速度を用いたが、さらに加速度及び躍度、並びに、第1の部分領域のサイズ及び形状等をパラメータとして付加してもよい。 As described above, according to the image processing apparatus 300 of the second embodiment, it is possible to track the tracking target object by motion prediction based on the particle filter. In the description of the second embodiment, the position and the velocity are used as the particle parameters. However, the acceleration and jerk, the size and shape of the first partial region, and the like may be added as parameters.
第2実施形態の画像処理装置300によれば、パーティクルフィルタを用いることで、複雑な動作を行う追跡対象物体を少ない処理コストでロバストに追跡することができる。 According to the image processing apparatus 300 of the second embodiment, by using a particle filter, it is possible to robustly track a tracking target object that performs a complicated operation with low processing cost.
最後に第1及び第2実施形態の学習装置100及び画像処理装置300のハードウェア構成の例について説明する。
Finally, examples of hardware configurations of the
図7は第1及び第2実施形態の学習装置100及び画像処理装置300のハードウェア構成の例を示す図である。第1及び第2実施形態の学習装置100及び画像処理装置300は、制御装置401、主記憶装置402、補助記憶装置403、表示装置404、入力装置405及び通信装置406を備える。制御装置401、主記憶装置402、補助記憶装置403、表示装置404、入力装置405及び通信装置406は、バス410を介して接続されている。
FIG. 7 is a diagram illustrating an example of a hardware configuration of the
制御装置401は補助記憶装置403から主記憶装置402に読み出されたプログラムを実行する。主記憶装置402はROM及びRAM等のメモリである。補助記憶装置403はメモリカード及びSSD(Solid State Drive)等である。
The
表示装置404は情報を表示する。表示装置404は、例えば液晶ディスプレイである。入力装置405は、情報の入力を受け付ける。入力装置405は、例えばキーボード及びマウス等である。通信装置406は他の装置と通信する。
The
第1及び第2実施形態の学習装置100及び画像処理装置300で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
The programs executed by the
また第1及び第2実施形態の学習装置100及び画像処理装置300で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1及び第2実施形態の学習装置100及び画像処理装置300が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
The program executed by the
また第1及び第2実施形態の学習装置100及び画像処理装置300で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
The program executed by the
第1及び第2実施形態の学習装置100及び画像処理装置300で実行されるプログラムは、上述の第1及び第2実施形態の学習装置100及び画像処理装置300の機能構成のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
A program executed by the
プログラムにより実現される機能は、制御装置401が補助記憶装置403等の記憶媒体からプログラムを読み出して実行することにより、プログラムにより実現される機能が主記憶装置402にロードされる。すなわちプログラムにより実現される機能は、主記憶装置402上に生成される。
Functions realized by the program are loaded into the
なお第1及び第2実施形態の学習装置100及び画像処理装置300の機能の一部又は全部を、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
Note that some or all of the functions of the
10 記憶部
20 学習制御部
21 取得部
22 指定部
23 正例取得部
24 負例取得部
25 学習部
30 入力部
40 表示部
100 学習装置
300 画像処理装置
310 記憶部
320 画像処理部
321 取得部
322 抽出部
323 判定部
324 推定部
325 正例追加部
326 負例追加部
327 更新部
DESCRIPTION OF
Claims (10)
前記フレームの一部の領域を示す複数の第1の部分領域を抽出する抽出部と、
前記第1の部分領域のそれぞれが、追跡対象物体を含む追跡対象領域であるか否かを、前記追跡対象領域を正例とし、前記追跡対象領域でない領域を負例とする訓練データにより学習された分類器により判定する判定部と、
複数の前記追跡対象領域から、前記追跡対象物体の推定位置を推定する推定部と、
前記推定位置から第1の閾値以内の距離にある第2の部分領域が、前記分類器により正例であると判定された場合、前記第2の部分領域を正例として前記訓練データに追加する正例追加部と、
正例として追加された前記第2の部分領域の位置から第2の閾値以上の距離にある第3の部分領域が、前記分類器により正例であると判定された場合、前記第3の部分領域を、負例として前記訓練データに追加する負例追加部と、
前記正例追加部と前記負例追加部とにより更新された前記訓練データを使用して前記分類器を更新する更新部と、
を備える画像処理装置。 An acquisition unit for acquiring frames from a video;
An extraction unit for extracting a plurality of first partial areas indicating partial areas of the frame;
Whether each of the first partial areas is a tracking target area including a tracking target object is learned from training data using the tracking target area as a positive example and a non-tracking target area as a negative example. A determination unit for determining by the classifier,
An estimation unit that estimates an estimated position of the tracking target object from a plurality of tracking target regions;
When the second partial area located within the first threshold from the estimated position is determined to be a positive example by the classifier, the second partial area is added to the training data as a positive example. Positive example addition part,
When the third partial area located at a distance equal to or larger than the second threshold from the position of the second partial area added as a positive example is determined as a positive example by the classifier, the third part A negative example addition unit for adding a region as a negative example to the training data;
An updating unit for updating the classifier using the training data updated by the positive example adding unit and the negative example adding unit;
An image processing apparatus comprising:
請求項1に記載の画像処理装置。 The classifier is a discriminant function that performs binary classification based on linear discriminant analysis.
The image processing apparatus according to claim 1.
請求項1に記載の画像処理装置。 The classifier is an identification function that performs binary classification based on a support vector machine.
The image processing apparatus according to claim 1.
請求項1に記載の画像処理装置。 The classifier is an identification function that performs binary classification based on a combination of weak classifiers.
The image processing apparatus according to claim 1.
請求項2乃至4のいずれか1項に記載の画像処理装置。 The estimation unit estimates the tracking target region having the maximum value of the identification function as an estimated position of the tracking target object;
The image processing apparatus according to claim 2.
請求項2乃至4のいずれか1項に記載の画像処理装置。 The estimation unit estimates an estimated position of the tracking target object based on an average position of the tracking target area;
The image processing apparatus according to claim 2.
請求項2乃至4のいずれか1項に記載の画像処理装置。 The estimation unit estimates an estimated position of the tracking target object by a weighted average based on an identification function value of the tracking target region;
The image processing apparatus according to claim 2.
請求項1乃至7のいずれか1項に記載の画像処理装置。 The extraction unit extracts the first partial region based on a particle filter;
The image processing apparatus according to claim 1.
画像処理装置が、前記フレームの一部の領域を示す複数の第1の部分領域を抽出するステップと、
画像処理装置が、前記第1の部分領域のそれぞれが、追跡対象物体を含む追跡対象領域であるか否かを、前記追跡対象領域を正例とし、前記追跡対象領域でない領域を負例とする訓練データにより学習された分類器により判定するステップと、
画像処理装置が、複数の前記追跡対象領域から、前記追跡対象物体の推定位置を推定するステップと、
画像処理装置が、前記推定位置から第1の閾値以内の距離にある第2の部分領域が、前記分類器により正例であると判定された場合、前記第2の部分領域を正例として前記訓練データに追加するステップと、
画像処理装置が、正例として追加された前記第2の部分領域の位置から第2の閾値以上の距離にある第3の部分領域が、前記分類器により正例であると判定された場合、前記第3の部分領域を、負例として前記訓練データに追加するステップと、
画像処理装置が、前記第2の部分領域を正例として前記訓練データに追加するステップと、前記第3の部分領域を、負例として前記訓練データに追加するステップと、により更新された前記訓練データを使用して前記分類器を更新するステップと、
を含む画像処理方法。 An image processing device acquiring a frame from a moving image;
An image processing apparatus extracting a plurality of first partial areas indicating a partial area of the frame;
The image processing apparatus determines whether each of the first partial areas is a tracking target area including a tracking target object, using the tracking target area as a positive example and a non-tracking target area as a negative example. Determining by a classifier learned from training data;
An image processing device estimating an estimated position of the tracking target object from a plurality of tracking target regions;
When the image processing apparatus determines that the second partial region at a distance within the first threshold from the estimated position is a positive example by the classifier, the second partial region is used as a positive example. Adding to the training data;
When it is determined by the classifier that the third partial region at a distance equal to or greater than a second threshold from the position of the second partial region added as a positive example is a positive example, Adding the third partial region to the training data as a negative example;
The image processing apparatus adds the second partial region to the training data as a positive example, and adds the third partial region to the training data as a negative example. Updating the classifier with data;
An image processing method including:
動画からフレームを取得する取得部と、
前記フレームの一部の領域を示す複数の第1の部分領域を抽出する抽出部と、
前記第1の部分領域のそれぞれが、追跡対象物体を含む追跡対象領域であるか否かを、前記追跡対象領域を正例とし、前記追跡対象領域でない領域を負例とする訓練データにより学習された分類器により判定する判定部と、
複数の前記追跡対象領域から、前記追跡対象物体の推定位置を推定する推定部と、
前記推定位置から第1の閾値以内の距離にある第2の部分領域が、前記分類器により正例であると判定された場合、前記第2の部分領域を正例として前記訓練データに追加する正例追加部と、
正例として追加された前記第2の部分領域の位置から第2の閾値以上の距離にある第3の部分領域が、前記分類器により正例であると判定された場合、前記第3の部分領域を、負例として前記訓練データに追加する負例追加部と、
前記正例追加部と前記負例追加部とにより更新された前記訓練データを使用して前記分類器を更新する更新部、
として機能させるためのプログラム。 Computer
An acquisition unit for acquiring frames from a video;
An extraction unit for extracting a plurality of first partial areas indicating partial areas of the frame;
Whether each of the first partial areas is a tracking target area including a tracking target object is learned from training data using the tracking target area as a positive example and a non-tracking target area as a negative example. A determination unit for determining by the classifier,
An estimation unit that estimates an estimated position of the tracking target object from a plurality of tracking target regions;
When the second partial area located within the first threshold from the estimated position is determined to be a positive example by the classifier, the second partial area is added to the training data as a positive example. Positive example addition part,
When the third partial area located at a distance equal to or larger than the second threshold from the position of the second partial area added as a positive example is determined as a positive example by the classifier, the third part A negative example addition unit for adding a region as a negative example to the training data;
An updating unit for updating the classifier using the training data updated by the positive example adding unit and the negative example adding unit;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015150992A JP6613687B2 (en) | 2015-07-30 | 2015-07-30 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015150992A JP6613687B2 (en) | 2015-07-30 | 2015-07-30 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017033175A true JP2017033175A (en) | 2017-02-09 |
JP6613687B2 JP6613687B2 (en) | 2019-12-04 |
Family
ID=57988792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015150992A Active JP6613687B2 (en) | 2015-07-30 | 2015-07-30 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6613687B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020067818A (en) * | 2018-10-24 | 2020-04-30 | トヨタ自動車株式会社 | Image selection device and image selection method |
CN111311643A (en) * | 2020-03-30 | 2020-06-19 | 西安电子科技大学 | Video target tracking method using dynamic search |
JP2020149409A (en) * | 2019-03-14 | 2020-09-17 | セイコーエプソン株式会社 | Information processing apparatus, machine learning device, and information processing method |
US11989906B2 (en) | 2020-01-29 | 2024-05-21 | Rakuten Group, Inc. | Object recognition system, position information acquisition method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011090413A (en) * | 2009-10-20 | 2011-05-06 | Canon Inc | Image recognition apparatus, processing method thereof, and program |
JP2012238119A (en) * | 2011-05-10 | 2012-12-06 | Canon Inc | Object recognition device, control method of object recognition device and program |
JP2013030130A (en) * | 2011-07-29 | 2013-02-07 | Sumitomo Electric Ind Ltd | Moving object determination information generation device, moving object determination information generation system, computer program and moving object determination information generation method |
-
2015
- 2015-07-30 JP JP2015150992A patent/JP6613687B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011090413A (en) * | 2009-10-20 | 2011-05-06 | Canon Inc | Image recognition apparatus, processing method thereof, and program |
JP2012238119A (en) * | 2011-05-10 | 2012-12-06 | Canon Inc | Object recognition device, control method of object recognition device and program |
JP2013030130A (en) * | 2011-07-29 | 2013-02-07 | Sumitomo Electric Ind Ltd | Moving object determination information generation device, moving object determination information generation system, computer program and moving object determination information generation method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020067818A (en) * | 2018-10-24 | 2020-04-30 | トヨタ自動車株式会社 | Image selection device and image selection method |
JP7147464B2 (en) | 2018-10-24 | 2022-10-05 | トヨタ自動車株式会社 | Image selection device and image selection method |
JP2020149409A (en) * | 2019-03-14 | 2020-09-17 | セイコーエプソン株式会社 | Information processing apparatus, machine learning device, and information processing method |
US11989906B2 (en) | 2020-01-29 | 2024-05-21 | Rakuten Group, Inc. | Object recognition system, position information acquisition method, and program |
CN111311643A (en) * | 2020-03-30 | 2020-06-19 | 西安电子科技大学 | Video target tracking method using dynamic search |
CN111311643B (en) * | 2020-03-30 | 2023-03-24 | 西安电子科技大学 | Video target tracking method using dynamic search |
Also Published As
Publication number | Publication date |
---|---|
JP6613687B2 (en) | 2019-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885365B2 (en) | Method and apparatus for detecting object keypoint, and electronic device | |
EP3092619B1 (en) | Information processing apparatus and information processing method | |
EP2905724B1 (en) | Object detection system and method | |
WO2018121690A1 (en) | Object attribute detection method and device, neural network training method and device, and regional detection method and device | |
US8620024B2 (en) | System and method for dynamic gesture recognition using geometric classification | |
JP4517633B2 (en) | Object detection apparatus and method | |
JP4767595B2 (en) | Object detection device and learning device thereof | |
US8472668B2 (en) | Image analyzing apparatus, image analyzing method, and computer readable medium | |
JP5558412B2 (en) | System and method for adapting a classifier to detect objects in a particular scene | |
JP6613687B2 (en) | Image processing apparatus, image processing method, and program | |
JP4553044B2 (en) | Group learning apparatus and method | |
JP2007334756A (en) | Abnormal operation detection device and abnormal operation detection method | |
KR101449744B1 (en) | Face detection device and method using region-based feature | |
JP6756406B2 (en) | Image processing equipment, image processing method and image processing program | |
JP6947508B2 (en) | Moving object detection device, moving object detection system, and moving object detection method | |
Zhang et al. | Hybrid support vector machines for robust object tracking | |
JP2008262331A (en) | Object tracking device and object tracking method | |
JP2012221162A (en) | Object detection device and program | |
JP2010231254A (en) | Image analyzing device, method of analyzing image, and program | |
JP6950504B2 (en) | Abnormal candidate extraction program, abnormal candidate extraction method and abnormal candidate extraction device | |
JPWO2015146113A1 (en) | Identification dictionary learning system, identification dictionary learning method, and identification dictionary learning program | |
CN107665495B (en) | Object tracking method and object tracking device | |
US20230131717A1 (en) | Search processing device, search processing method, and computer program product | |
CN115713806A (en) | Falling behavior identification method based on video classification and electronic equipment | |
JP2014203133A (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191021 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6613687 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |