JP2010529529A - 特定被写体検出装置及びその学習装置と学習方法 - Google Patents
特定被写体検出装置及びその学習装置と学習方法 Download PDFInfo
- Publication number
- JP2010529529A JP2010529529A JP2010509667A JP2010509667A JP2010529529A JP 2010529529 A JP2010529529 A JP 2010529529A JP 2010509667 A JP2010509667 A JP 2010509667A JP 2010509667 A JP2010509667 A JP 2010509667A JP 2010529529 A JP2010529529 A JP 2010529529A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- optimization
- learning
- specific subject
- target loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
Description
るのはいずれも二値出力の弱分類器形式であり、伝統的な離散AdaBoostアルゴリズムに対応している。現在、まだ連続AdaBoostアルゴリズムについてのオンライン学習Boostingアルゴリズムはない。
習ユニット13とが含まれる。簡潔を期するため、図内には強分類器だけが示されている。
てより詳細に記述する。
て紹介する。
数学的期待に基づき表示される損失関数形式において、実例x及び類別ラベルyは2つのランダム変数(y=+1が正例に対応し、y=−1が反例に対応する)と見なされ、数学的期待はそれらにより構成される結合確率密度p(x,y)に基づく。上記式1において、(xi,yi)は第iのサンプルを示し、xiは実例、yiは類別ラベルである。L(F(x))は強分類器F(x)が対応する目標損失関数を示し、w0 iは第iのサンプルの初期重みを示し、p(x,y)は実例及び類別ラベルを2つのランダム変数とする結合確率密度関数を示す。
そのうち、Poff(x|y)及びPon(x|y)はそれぞれオフラインサンプル及びオンラインサンプルに対応する類別yの尤度関数であり、αyは類別yに対する線形修正係数である。この修正過程は図11により示すことができる。図11にはオンラインサンプルに基づき修正される各類別の尤度関数が示されている。
そのうち、
は、それぞれ類別yのオフラインサンプル及びオンラインサンプル上における損失関数を示す。この場合、4つの部分の損失関数(オフライン/オンライン、正例/反例)は2つの類別の先験確率P(y)及び修正係数αyにより線形組合せが実施されて、オンラインサンプルに導入された後のAdaBoostアルゴリズムの混合目標損失関数(hybrid objective loss fuction)が得られる。そのため、AdaBoostアルゴリズムの枠組下において、増分学習アルゴリズムのテーマは、既存の強分類器F(x)に対してどのように適当な調整を実施し、更新後の確率分布状況(式2)下においてできるだけ小さい損失値を取得するかである。言い換えると、AdaBoostアルゴリズムを基礎とする増分学習過程は式3に示されている損失関数に対して最適化を実施する過程である。
先ず、学習機器(learning machine)として、強分類器F(x)には大量の調整可能なパラメータが含まれる。そのうちどのパラメータが増分学習過程における調整に適合しているのか、どのパラメータはオフライン学習時に確定されて改変不能であるのか、これは最適化アルゴリズムがまず直面しなければならない問題である。選択を誤った最適化対象はおそらく最適化アルゴリズムの複雑度の程度を大幅に高めることになる。
X(instance space)を一連の互いに交わらないサブ区間{X1,…,Xn}に区分させるとともに、第zのサブ空間に入るすべての実例に対して同一の弱分類予測結果czを出力するというものであり、つまり以下の通りである。
この弱分類予測過程において、zは実例xの領域分割関数r(x)下における観測結果(observation)と見なすことができる。ルックアップテーブル関数(look−up−table function)を用いると、s(z)は観測量zから予測結果czまでのマッピング関係を示すため、弱分類器f(x)は以下の通り表示することが可能となる。
強分類器
が実例xに対して実施する分類予測は、例えば図12に示されている流れとして表示することができる。
が構成され、そのうちZはこのベクトルが属するT次元観測空間(observation space)を示している。これらの異なる弱分類器に属する観測量からそれぞれ対応するルックアップテーブルにより算出される弱予測結果が累算されると、強分類器F(x)の実例xに対する予測の最終結果y´∈Y⊆Rが得られ、そのうち、Yは強分類器の予測空間(prediction space)を示している。この最終的な予測結果の符号は強分類器による当該実例が属する類別に対する判定を示しており、その絶対値の大きさは強分類器のこの類別に対する判定結果の信頼の程度を示している。このような方式により、強分類器F(x)は入力としての実例xと出力としての予測結果y´との間にある種の有効なマッピング関係を構築する。観測空間Zの導入は、強分類器の予測の流れF(x):X→Yを2つの異なる段階:R(x):X→Z及びS(z):Z→Yに分割する。そのうち前者は結合領域分割関数(joint domain−partitioning function)であり、
それは実例空間Xから観測空間Zへの変換を達成している。後者は集約ルックアップテーブル関数(aggregated look−up−table function)であり、
それは観測ベクトルzに基づき強分類器の予測結果の計算を実施する。そのうち
は、第iの弱分類器内のルックアップテーブル関数の第ziのサブ区間に対する定数予測結果である(前記式6参照)。結合領域分割関数R(x)、集約ルックアップテーブル関数S(z)と強分類器F(x)との間の関係、及び実例空間X、観測空間Zと予測空間Yとの間の関係は、図13により明確に表示することができる。
以下においては、第一目標損失算出ユニット1312の計算に対応するように、混合目標損失関数におけるオフライン部分の近似計算について紹介する。
そのうち
は、類別yの観測空間Zにおける尤度関数である。
そのため、混合目標損失関数におけるオフライン部分(式11)は以下のようにも表示することができる。
そのうち、L(Poff(x|y):c)及びL(Poff(x|y):c+Δc)はそれぞれ更新前後の強分類器の混合目標損失関数におけるオフライン部分に対応する略記形式であり(完全な形式はそれぞれL(Poff(x|y),S(R(x):c))及びL(Poff(x|y),S(R(x):c+Δc))、
は、更新前の集約ルックアップテーブル関数S(z:c)に基づく指数損失の重み付け後の、類別yの観測空間Zにおける尤度関数である。
であるため、それは依然として確率分布である。
を取得するのかが鍵を握る問題となる。しかし、増分学習過程においては何らのオフライン訓練サンプルも保存されないため、当該アルゴリズムはサンプリング和分方式によりこの重み付き尤度関数をシミュレートすることはできない。同時に、オフライン訓練過程において記録されているこの尤度関数の分布状況もおそらくは不利であるため、弱分類器の数量の増加に伴い、記録に必要とされる記憶空間は指数級数的な増加傾向を呈することになる。そのため、本発明者らは増分学習アルゴリズムにおいて、以下の通り、各観測量上の周辺分布の積を採用して当該重み付き尤度関数を近似させるように提起している。
そのうち、
は、重み付き尤度関数
の観測量zi上における周縁確率密度関数である。
そのうち、
は、混合目標損失関数のオフライン部分の近似結果を示しており、
は、観測量zi上の重み付き周辺尤度関数
がパラメータ調整量Δcの導入により被った指数損失を示している。このように、求積及び和分の前後順を調整すると、前記で紹介した記憶空間の複雑度と同様に、混合目標損失関数のオフライン部分の計算時間の複雑度も指数級数レベルから線形級数レベルに低下する。
このようであるばかりではなく、Δcのうちのいずれか1つのパラメータΔcpq(つまり第pのルックアップテーブル関数が第qのサブ区間に出力する予測結果)に対して偏導関数を計算すると、式6−14に基づき、以下の通りとなり、
式18に基づき、以下の通りとなる。
Δc=0の場合は、式21及び式22に基づき、更に以下の通りとなる。
従って、この2つの混合目標損失関数はΔc=0の場合には、同一の関数値を有するばかりではなく(式20)、その傾きも完全に同一である(式23)。従って、テイラー展開の角度から述べると、周辺分布関数を採用して計算された
は、
があまり大きくないとの条件下において、結合分布関数を採用して計算された
の合理的な近似である。
は、増分学習前−つまりオフライン学習過程において−オフラインサンプルの各観測量上における分布に対して統計を取ることにより得られる。その計算過程は以下に示されている通りである。
そのうち、Ny offは類別yのオフラインサンプル数であり、
現在、すでにどのようにして増分学習アルゴリズム中にナイーブ・ベイズ法を採用して混合目標損失関数におけるオフライン部分を近似計算するのかについては紹介済みである。そのオンライン部分の計算(式5)、つまり第二目標損失算出ユニット1313に対応する計算については、オンライン訓練サンプルによりそれが対応する結合分布関数をシミュレートすることが可能であるため、以下の通りとなる。
そのうち、Ny onは類別yのオンライン訓練サンプル数であり、Δci,ri(xk)は第kのサンプルの第iの弱分類器ルックアップテーブル関数における対応するサブ区間予測出力の調整量であり、
は、類別yにおける第kのオンラインサンプルの増分学習過程における対応する初期重みである。それは実質的にはオフライン学習に基づき得られる強分類器の出力S(R(xk):c)に対して調整を実施して得られる。この重みの含意は従来からのBoostingアルゴリズムと同様であり、体現しているのはいずれも現在の強分類器の当該サンプルに対する区分エラーの程度である。
現在、本発明者らは増分学習過程における混合目標損失関数(式3)のオフライン部分及びオンライン部分に対してそれぞれ近似的及び正確な計算方法を提出済みである。増分学習過程において実際に直面する最適化問題を解決するため、以下に示されている近似形式を採用して異なるパラメータ調整量Δcに対応する混合目標損失関数値を計算するように提起する。
それと正確な結果L(p(x,y),c+Δc)との唯一の違いは、オフライン部分がナイーブ・ベイズ法により近似計算されている点である。前記ですでに証明されている通り、テイラー展開の角度から述べると、
が大きくないとの条件下において、この近似方法は十分な精度を有している。従って、式28は増分学習過程における混合目標損失関数に対する合理的な近似である。
は正確な目標損失関数であり、
はこの種のオフライン近似法を採用した近似目標損失関数である。当然ながら前記の通り、オフライン部分の目標損失関数を正確に計算することは可能であるが、その場合には計算負担が増大する。
ここにおいて、argminが示しているのはすべての引き数(ここではΔc)の採用値範囲内で関数
を最小化可能な値であり、つまり
はすべての可能な目標損失関数値における最小の1つである。
式2に基づくと、各オフラインサンプル及び各オンラインサンプルの修正尤度関数に対する貢献はそれぞれ(1−αy)/Ny off及びαy/Ny onであることを発見することは困難ではない。そのうち、Ny off及びNy onはそれぞれ類別yのオフラインサンプル数及びオンラインサンプル数を示している。ここで以下の通り定義可能な
は、類別yのオンラインサンプル増強比率(reinforce ratio of online samples)であり、各オンラインサンプルの尤度関数に対する貢献は数個のオフラインサンプルに相当していることを示している。
の分類境界は
と定義され、その本質投影ベクトル量
と予測結果F(x)との同時座標空間内におけるスカラー積である点にある。しかし、領域分割の弱分類器を採用とするとの前提の下、Vector Boostingアルゴリズムに対応する増分学習アルゴリズムは連続AdaBoostアルゴリズムと本質的な差異はない。その理由は以下の通りである。
Vector Boostingアルゴリズムの枠組下において、増分学習過程の混合目標損失関数は以下の通りである。
そのうち、
である。
連続AdaBoostアルゴリズムに対応する式3、式4及び式5と比べ、主な違いは、元の類別属性を示すための二値化ランダムスカラー量yが多値化されたランダムベクトル量
となっており、分類境界の表示方式もyF(x)から相応に
となっている点にある。但し、これらの変化は本明細書における強分類器観測空間Zに対する分析及び把握には影響を及ぼさない。そのため、Vector Boostingアルゴリズムの枠組下においては、同様にオフライン訓練過程により結合分割関数R(x)が確定され、増分学習過程はどのようにしてベクトル化出力の集約ルックアップテーブル関数S(z)を調整するのかのみに着目する。
そのうち、Δci,ziが示しているのは第iの弱分類器における第ziのサブ区間の出力結果の変化量である。注意すべきは、その際のルックアップテーブルにおける要素はベクトル量であり、スカラー量ではない点である。その他、式34は連続AdaBoostアルゴリズムの対応する式18とほぼ完全に同一である。混合目標損失関数のオンライン部分(式33)も同様に式25と極めて類似した形式で表示することができる。
ここで、Vector Boostingアルゴリズムに対応する増分学習過程には前記と同様の傾き下降法を採用することができ、式31に示されている混合目標損失関数に対して逐次最適化操作を実施して、最終的にオンラインサンプルの調整に基づき得られる強分類器F(x)=S(R(x):c+Δc)を取得する。
正係数確定ステップ201で確定した増分サンプルの修正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する。当該ステップ204は、第一乗算ステップ、第二乗算ステップ、第一導出ステップ、第二導出ステップ及び加算ステップを含むことができ、前記第一乗算ステップでは、1と前記修正係数との差と前記第一目標損失とを互いに乗じ、前記第二乗算ステップでは、前記修正係数と前記第二目標損失とを互いに乗じ、前記第一導出ステップでは、前記第一乗算ステップの乗算結果に対して導出を実施し、前記第二導出ステップでは、前記第二乗算ステップの乗算結果に対して導出を実施し、前記加算ステップでは、前記第一導出ステップの導出結果と前記第二導出ステップの導出結果とを互いに加算する。当該最適化度算出ステップ204は第一乗算ステップ、第二乗算ステップ、加算ステップ及び導出ステップを含むこともでき、前記第一乗算ステップでは、1と前記修正係数との差と前記第一目標損失とを互いに乗じ、前記第二乗算ステップでは、前記修正係数と前記第二目標損失とを互いに乗じ、前記加算ステップでは、前記第一乗算ステップの乗算結果と前記第二乗算ステップの乗算結果とを互いに加算し、前記導出ステップでは、前記加算ステップの加算結果に対して導出を実施する。
の比較対象として採用する。
を実施するとともに、図17に示されている通り、そのオフライン測定試験エラー率及びオンライン測定試験エラー率の変化状況を記録した。
のサンプリング過程は十分ではない。オンライン部分が主要な地位を占めていると、アルゴリズムは強分類器に対して比較的大きな調整を実施しなければ混合目標損失関数を最適化することができない。その際、連合学習法のサンプリングが不十分であるとの問題が突出し、混合目標損失関数のオフライン部分の計算結果と真実の値との間に極めて大きな誤差を発生させる。増分学習法の場合はナイーブ・ベイズ法を採用しており、尤度関数の各測量上における周辺関数の積によりその連合分布を近似する。これにより増分学習法のサンプリング数量に対する依存性は大幅に低下し、連合学習法のような巨大な誤差には至らない。事実上、図18の実験結果によれば、増分学習法はパラメータλyに対してあまり敏感ではなく、相当大きな範囲内でλyを任意に変更しても増分学習の結果に対して非常に大きな影響は及ぼさない。そうであるばかりではなく、オフライン測定試験エラー率であるか、オンライン測定試験エラー率であるかに拘わらず、増分学習法は共に連合学習法に遜色ない性能を示し、前者のエラー率はほぼ常に後者のエラー率も低いかまたは少なくとも同等の水準上に保持される。連合学習法を使用する前提はすべてのオフラインサンプルを保存することであることを考慮すると、増分学習法の方が明らかに優勢である。
図20において、“OFF”は当該検出器の増分学習前(つまりオフライン訓練の結果)のROC曲線を示しており、“INC”は当該検出器が増分学習によりサングラスを着用した顔の検出率が100%に達した後に(図19の左サブ図参照)、訓練集合と無関係なCMU+MIT正面顔測定試験集合上で取得したROC曲線を示している。CMU+MIT正面顔測定試験集合のような一般状況下の顔検出問題を処理する際、増分学習により得られた顔検出器はオフライン学習により得られた顔検出器よりも若干劣るが、図19における増分学習前後の特殊環境処理時の能力の巨大な差異を考慮すれば、このような微小の程度の退歩は受け入れ可能であることは容易に見出すことができる。
記弱分類テンプレートを更新するための学習ユニットとを更に含む点にある。
るための第二乗算部と、前記第一乗算部の乗算結果に対して導出を実施するための第一導出部と、前記第二乗算部の乗算結果に対して導出を実施するための第二導出部と、前記第一導出部の導出結果と前記第二導出部の導出結果とを互いに加算するための加算部とを含む。
強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含み、前記学習方法は、各弱分類器に対する、当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである増分学習サンプルを入力する入力ステップと、入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度取得ステップと、前記最適化度取得ステップの算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ステップと、前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断されると、前記最適化パラメータを更新する最適化パラメータ更新ステップと、前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断されると、前記弱分類テンプレートを更新するテンプレート更新ステップとを含む。
出対象画像を互いに交差しない複数のサブ区間中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、前記学習方法は、前記増分学習サンプルに基づき、各前記サブ区間弱分類テンプレートを更新する。
[1] R. E. Schapire and Y. Singer. Improved Boosting Algorithms Using Confidence-rated Predictions. In: MachineLearning, vol. 37, pp. 297-336, 1999.
[2] V. N. Vapnik. The nature of statistical learning theory. Berlin, Germany:
Springer-Verlag, 1995.
[3] J. Friedman, T. Hastie, and R. Tibshirani. Additive logistic regression: A statistical view of boosting. In: Annals of Statistics, vol. 28, pp. 337-374, 2000.
[4] P. Utgoff, N. Berkman, and J. Clouse. Decision tree induction based on efficient tree restructuring. In: Machine Learning, 29(1), 5-44. 1997.
[5] N. Littlestone. Learning quickly when irrelevant attributes abound: A new linear threshold algorithm. In: Machine Learning, 2, 285-318. 1988.
[6] N. Littlestone, and M. Warmuth. The weighted majority algorithm. In: Information and Computation, 108, 212-261. 1994.
[7] L. Breiman. Pasting small votes for classification in large databases and on-line. In: Machine Learning, 36, 85-103. 1999.
[8] A. Fern and R. Givan. Online ensemble learning: An empirical study. In: Proc. ICML, pp. 151279-286, 2000.
[9] N. Oza and S. Russel. Online bagging and boosting. In: Proc. Artificial Intelligence and Statistics, 2001.
[10] N. Oza. Online ensemble learning. Ph.D. thesis, Universityof California, Berkeley, 2001.
[11] O. Javed, S. Ali, and M. Shah. Online detection and classification of moving objects using progressively improving detectors. In: Proc. CVPR, 2005.
[12] H. Grabner and H. Bischof. Online Boosting and Vision. In: Proc. CVPR, 2006.
[13] R. O. Duda, P. E. Hart, and D. G Stork. Pattern Classification, 3S Second Edition. John Wiley & Sons, Inc. pp 62-64, 2001.
[14] T. Sim, S. Baker, and M. Bsat. The CMU pose, illumination, and expression database. IEEE Trans. PAMI, 25(12), 1615-1618, 2003.
Claims (38)
- 検出対象画像を入力するための入力ユニットと、
各々が、弱分類テンプレートを使用して前記検出対象画像を弱分類するための1つまたはより多くの弱分類ユニットを含み、前記検出対象画像を強分類するための1つまたはより多くの強分類ユニットと、
前記弱分類ユニットが使用する弱分類テンプレートを記憶する記憶ユニットと、
前記強分類ユニットの分類結果に基づき、前記検出対象画像が前記特定被写体を含むか否かを判断する判断ユニットと、を含む特定被写体検出装置であり、
前記特定被写体検出装置は、
増分学習用のデータ、つまり増分学習サンプル、言い換えると、当該またはその他の特定被写体検出装置が検出漏れまたは誤報したデータを入力するための増分サンプル入力ユニットと、
前記増分サンプル入力ユニットが入力した前記増分学習サンプルに基づき、前記記憶ユニットが記憶する前記弱分類テンプレートを更新するための学習ユニットと、を更に含むことを特徴とする特定被写体検出装置。 - 前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検出対象画像を互いに交差しない複数のサブ区間中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、
前記記憶ユニットは、前記サブ区間弱分類テンプレートを記憶しており、
前記学習ユニットは、前記増分サンプル入力ユニットが入力した増分学習サンプルに基づき、前記記憶ユニットが記憶する各前記サブ区間弱分類テンプレートを更新することを特徴とする請求項1記載の特定被写体検出装置。 - 前記学習ユニットは、
入力された増分学習サンプルに基づき、最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度算出部と、
前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断するための判断ユニットと、
前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータを更新する最適化パラメータ更新ユニットと、
前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記弱分類テンプレートを更新するテンプレート更新ユニットと、を含むことを特徴とする請求項2記載の特定被写体検出装置。 - 前記最適化度算出部は、
増分学習サンプルの修正係数を確定するための修正係数確定ユニットと、
前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ユニットと、
入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ユニットと、
前記第一目標損失算出ユニットが算出した第一目標損失、前記第二目標損失算出ユニットが算出した第二目標損失、及び前記修正係数確定ユニットが確定した増分サンプルの修
正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ユニットと、を含むことを特徴とする請求項3記載の特定被写体検出装置。 - 前記最適化度算出ユニットは、
1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
前記第一乗算部の乗算結果に対して導出を実施するための第一導出部と、
前記第二乗算部の乗算結果に対して導出を実施するための第二導出部と、
前記第一導出部の導出結果と前記第二導出部の導出結果とを互いに加算するための加算部と、を含むこととを特徴とする請求項4記載の特定被写体検出装置。 - 前記最適化度算出ユニットは、
1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
前記第一乗算部の乗算結果と前記第二乗算部の乗算結果とを互いに加算するための加算部と、
前記加算部の加算結果に対して導出を実施するための導出部と、を含むことを特徴とする請求項4記載の特定被写体検出装置。 - 前記修正係数確定ユニットは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定することを特徴とする請求項4記載の特定被写体検出装置。
- 前記学習ユニットは、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ユニットを更に含むことを特徴とする請求項3記載の特定被写体検出装置。
- 前記第一目標損失算出ユニットは、ナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出することを特徴とする請求項4記載の特定被写体検出装置。
- 前記最適化パラメータ更新ユニットは、0.618法に基づき前記最適化パラメータを更新することを特徴とする請求項3記載の特定被写体検出装置。
- 前記サブ区間判定ユニットは、先ず前記検出対象画像の特徴を抽出し、その後、区分関数の等間隔区分方式に基づき、前記検出対象画像を前記実例空間中のあるサブ区間に分類することを特徴とする請求項2記載の特定被写体検出装置。
- 前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記増分サンプル入力ユニットは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像を記録するための記録ユニットを含むことを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。
- 前記増分学習サンプルは、前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記増分サンプル入力ユニットは、前記その他の特定被写体検出装置が運転中に検出漏れまたは誤報した画像を受信するための受信ユニットを含むことを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。
- 前記特定被写体は、人の顔を指すことを特徴とする請求項1〜11のいずれか1項に記
載の特定被写体検出装置。 - 前記1つまたはそれより多くの強分類ユニットは、ウォーターフォールモードまたはベクトルツリーモードに従って接続されることを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。
- 前記特定被写体検出装置が検出モードと学習モードとの間で互いに切り換わるように、前記特定被写体検出装置のモード状態を切り換えるための切換装置を含み、
前記増分サンプル入力ユニット及び前記学習ユニットは、前記切換装置が前記特定被写体検出装置を学習モードに切り換えた際に動作することを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。 - 1つまたはより多くの強分類ユニットを含み、前記強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含む特定被写体検出装置の学習装置であり、当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである増分学習サンプルを利用して前記弱分類テンプレートを更新する特定被写体検出装置の学習装置において、前記学習装置は、
入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度算出部と、
前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ユニットと、
前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータを更新する最適化パラメータ更新ユニットと、
前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記弱分類テンプレートを更新するテンプレート更新ユニットと、を含む、特定被写体検出装置の学習装置。 - 前記最適化度算出部は、
増分学習サンプルの修正係数を確定するための修正係数確定ユニットと、
前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ユニットと、
入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ユニットと、
前記第一目標損失算出ユニットが算出した第一目標損失、前記第二目標損失算出ユニットが算出した第二目標損失、及び前記修正係数確定ユニットが確定した増分サンプルの修正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ユニットと、を含むことを特徴とする請求項17記載の学習装置。 - 前記最適化度算出ユニットは、
1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
前記第一乗算部の乗算結果に対して導出を実施するための第一導出部と、
前記第二乗算部の乗算結果に対して導出を実施するための第二導出部と、
前記第一導出部の導出結果と前記第二導出部の導出結果とを互いに加算するための加算部と、を含むことを特徴とする請求項18記載の学習装置。 - 前記最適化度算出ユニットは、
1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
前記第一乗算部の乗算結果と前記第二乗算部の乗算結果とを互いに加算するための加算部と、
前記加算部の加算結果に対して導出を実施するための導出部と、を含むことを特徴とする請求項18記載の学習装置。 - 前記修正係数確定ユニットは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定することを特徴とする請求項18記載の学習装置。
- 前記学習ユニットは、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ユニットを更に含むことを特徴とする請求項17記載の学習装置。
- 前記第一目標損失算出ユニットは、ナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出することを特徴とする請求項18記載の学習装置。
- 前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検出対象画像をその中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートを検索することにより、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、
前記学習ユニットは、前記増分学習サンプルに基づき、各前記サブ区間弱分類テンプレートを更新することを特徴とする請求項17記載の学習装置。 - 前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記特定被写体検出装置は、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像を記録するための記録ユニットを含むことを特徴とする請求項17〜24のいずれか1項に記載の学習装置。
- 前記増分学習サンプルは、前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記特定被写体検出装置は、前記その他の特定被写体検出装置が運転中に検出漏れまたは誤報した画像を受信するための受信ユニットを含むことを特徴とする請求項17〜24のいずれか1項に記載の学習装置。
- 前記特定被写体は、人の顔を指すことを特徴とする請求項17〜24のいずれか1項に記載の学習装置。
- 1つまたはより多くの強分類ユニットを含み、前記強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含む特定被写体検出装置の学習方法であり、前記学習方法は、各弱分類器に対する、
増分学習サンプルを入力する入力ステップと、
当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度取得ステップと、
前記最適化度取得ステップの算出結果に基づき、前記最適化パラメータを利用して前記
弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ステップと、
前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断されると、前記最適化パラメータを更新する最適化パラメータ更新ステップと、
前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断されると、前記弱分類テンプレートを更新するテンプレート更新ステップと、を含む、特定被写体検出装置の学習方法。 - 前記最適化度取得ステップは、
増分学習サンプルの修正係数を確定するための修正係数確定ステップと、
前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ステップと、
入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ステップと、
前記第一目標損失算出ステップで算出した第一目標損失、前記第二目標損失算出ステップで算出した第二目標損失、及び前記修正係数確定ステップで確定した増分学習サンプルの修正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ステップと、を含むことを特徴とする請求項28記載の学習方法。 - 前記最適化度算出ステップは、
1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算ステップと、
前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算ステップと、
前記第一乗算ステップの乗算結果に対して導出を実施するための第一導出ステップと、
前記第二乗算ステップの乗算結果に対して導出を実施するための第二導出ステップと、
前記第一導出ステップの導出結果と前記第二導出ステップの導出結果とを互いに加算するための加算ステップと、を含むことを特徴とする請求項29記載の学習方法。 - 前記最適化度算出ステップは、
1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算ステップと、
前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算ステップと、
前記第一乗算ステップの乗算結果と前記第二乗算ステップの乗算結果とを互いに加算するための加算ステップと、
前記加算ステップの加算結果に対して導出を実施するための導出ステップと、を含むことを特徴とする請求項29記載の学習方法。 - 前記修正係数確定ステップは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定することを特徴とする請求項29記載の学習方法。
- 前記学習方法は、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ステップを更に含むことを特徴とする請求項28記載の学習方法。
- 前記第一目標損失算出ステップは、周辺分布関数法またはナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出することを特徴とする請求項29記載の学習方法。
- 前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検出対象画像を互いに交差しない複数のサブ区間中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、
前記学習方法は、前記増分学習サンプルに基づき、各前記サブ区間弱分類テンプレートを更新することを特徴とする請求項28記載の学習方法。 - 前記最適化パラメータ更新ステップは、0.618法を利用して前記最適化パラメータを更新することを特徴とする請求項28記載の学習方法。
- 前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であるか、または前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像であることを特徴とする請求項28〜36のいずれか1項に記載の学習方法。
- 前記特定被写体は、人の顔を指すことを特徴とする請求項28〜36のいずれか1項に記載の学習方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710109876.X | 2007-06-01 | ||
CN200710109876XA CN101315670B (zh) | 2007-06-01 | 2007-06-01 | 特定被摄体检测装置及其学习装置和学习方法 |
PCT/CN2008/071156 WO2008148343A1 (fr) | 2007-06-01 | 2008-05-30 | Dispositif de détection d'objet photographié spécial et dispositif d'apprentissage et procédé associé |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010529529A true JP2010529529A (ja) | 2010-08-26 |
JP5197737B2 JP5197737B2 (ja) | 2013-05-15 |
Family
ID=40093190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010509667A Expired - Fee Related JP5197737B2 (ja) | 2007-06-01 | 2008-05-30 | 特定被写体検出装置及びその学習装置と学習方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8457391B2 (ja) |
EP (1) | EP2164025A4 (ja) |
JP (1) | JP5197737B2 (ja) |
CN (1) | CN101315670B (ja) |
WO (1) | WO2008148343A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9602783B2 (en) | 2014-06-12 | 2017-03-21 | Panasonic Intellectual Property Management Co., Ltd. | Image recognition method and camera system |
WO2017150230A1 (en) | 2016-03-01 | 2017-09-08 | Canon Kabushiki Kaisha | Diagnosis support apparatus, control method for diagnosis support apparatus, and computer-readable storage medium |
US9773322B2 (en) | 2014-07-02 | 2017-09-26 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method which learn dictionary |
JP2018148367A (ja) * | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
US10255517B2 (en) | 2014-03-27 | 2019-04-09 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CL2007002345A1 (es) * | 2007-08-10 | 2009-09-11 | Pablo Zegers Fernandez | Metodo para la resolucion de problemas complejos mediante el aprendisaje en cascada. |
CN101470802B (zh) * | 2007-12-28 | 2012-05-09 | 清华大学 | 物体检测装置和方法 |
CN101853389A (zh) * | 2009-04-01 | 2010-10-06 | 索尼株式会社 | 多类目标的检测装置及检测方法 |
JP5472976B2 (ja) * | 2009-08-18 | 2014-04-16 | Necソフト株式会社 | 対象物検出装置、対象物検出方法、プログラムおよび記録媒体 |
US9684957B2 (en) | 2011-02-11 | 2017-06-20 | Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University | Systems methods, and media for detecting an anatomical object in a medical device image using a multi-stage classifier |
WO2012109676A1 (en) | 2011-02-11 | 2012-08-16 | Arizona Board Of Regents For And On Behalf Of Arizona State University | Methods, systems, and media for determining carotid intima-media thickness |
US9330336B2 (en) * | 2011-09-16 | 2016-05-03 | Arizona Board of Regents, a body corporate of the State of Arizona, acting for and on behalf of, Arizona State University | Systems, methods, and media for on-line boosting of a classifier |
US8699752B2 (en) * | 2011-09-29 | 2014-04-15 | Nec Laboratories America, Inc. | Adaptive cross partition for learning weak classifiers |
US9603554B2 (en) | 2012-02-03 | 2017-03-28 | The Arizona Board Of Regents | Systems, methods, and media for monitoring the condition of a patient's heart |
EP2690582B1 (en) * | 2012-07-27 | 2016-05-11 | Honda Research Institute Europe GmbH | System for controlling an automated device |
US8948454B2 (en) * | 2013-01-02 | 2015-02-03 | International Business Machines Corporation | Boosting object detection performance in videos |
JP6160196B2 (ja) | 2013-04-15 | 2017-07-12 | オムロン株式会社 | 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法 |
CN103258216A (zh) * | 2013-05-15 | 2013-08-21 | 中国科学院自动化研究所 | 一种基于在线学习的局部可形变目标检测方法及其系统 |
CN103258217A (zh) * | 2013-05-15 | 2013-08-21 | 中国科学院自动化研究所 | 一种基于增量学习的行人检测方法 |
CN103593672A (zh) * | 2013-05-27 | 2014-02-19 | 深圳市智美达科技有限公司 | Adaboost分类器在线学习方法及系统 |
CN103366163B (zh) * | 2013-07-15 | 2016-07-20 | 北京丰华联合科技有限公司 | 基于增量学习的人脸检测系统和方法 |
JP6433187B2 (ja) * | 2014-08-07 | 2018-12-05 | キヤノン株式会社 | 情報処理装置、その制御方法およびコンピュータプログラム |
CN104951802A (zh) * | 2015-06-17 | 2015-09-30 | 中国科学院自动化研究所 | 一种分类器更新方法 |
CN105279382B (zh) * | 2015-11-10 | 2017-12-22 | 成都数联易康科技有限公司 | 一种医疗保险异常数据在线智能检测方法 |
CN105844286A (zh) * | 2016-03-11 | 2016-08-10 | 博康智能信息技术有限公司 | 新增车标的识别方法和装置 |
CN105930808A (zh) * | 2016-04-26 | 2016-09-07 | 南京信息工程大学 | 一种基于vector boosting模板更新的运动目标跟踪方法 |
JP6629678B2 (ja) * | 2016-06-16 | 2020-01-15 | 株式会社日立製作所 | 機械学習装置 |
CN106548210B (zh) | 2016-10-31 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 基于机器学习模型训练的信贷用户分类方法及装置 |
US11283991B2 (en) * | 2019-06-04 | 2022-03-22 | Algolux Inc. | Method and system for tuning a camera image signal processor for computer vision tasks |
CN108984628B (zh) * | 2018-06-20 | 2020-01-24 | 北京达佳互联信息技术有限公司 | 内容描述生成模型的损失值获取方法及装置 |
US11853394B2 (en) * | 2018-11-21 | 2023-12-26 | Datalogic Ip Tech S.R.L. | Image multiprocessing method for vision systems |
CN109886340B (zh) * | 2019-02-26 | 2021-03-19 | 山东星蓝信息科技有限公司 | 一种遥感影像分类方法 |
US11080558B2 (en) | 2019-03-21 | 2021-08-03 | International Business Machines Corporation | System and method of incremental learning for object detection |
US11067786B2 (en) * | 2019-06-07 | 2021-07-20 | Leica Microsystems Inc. | Artifact regulation methods in deep model training for image transformation |
US10929677B1 (en) * | 2019-08-07 | 2021-02-23 | Zerofox, Inc. | Methods and systems for detecting deepfakes |
CN111639688B (zh) * | 2020-05-19 | 2021-02-05 | 华中科技大学 | 一种基于线性核svm的物联网智能模型的局部解释方法 |
US11390249B2 (en) * | 2020-08-05 | 2022-07-19 | Ford Global Technologies, Llc | Vehicle vision system |
CN112633495B (zh) * | 2020-12-18 | 2023-07-18 | 浙江大学 | 一种用于小样本类增量学习的多粒度快慢学习方法 |
CN112819110B (zh) * | 2021-04-19 | 2021-06-29 | 中国科学院自动化研究所 | 基于权重生成的增量式小样本目标检测方法及系统 |
CN114611720B (zh) * | 2022-03-14 | 2023-08-08 | 抖音视界有限公司 | 联邦学习模型训练方法、电子设备及存储介质 |
CN116400600B (zh) * | 2023-04-23 | 2023-11-03 | 重庆市畜牧科学院 | 一种基于智能全局优化的猪场通风动态调控系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115525A (ja) * | 2003-10-06 | 2005-04-28 | Fuji Photo Film Co Ltd | 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置 |
JP2005122720A (ja) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体 |
JP2007004721A (ja) * | 2005-06-27 | 2007-01-11 | Toyota Motor Corp | 対象物検出装置、及び対象物検出方法 |
JP2007034723A (ja) * | 2005-07-27 | 2007-02-08 | Glory Ltd | 顔画像検出装置、顔画像検出方法および顔画像検出プログラム |
JP5036580B2 (ja) * | 2007-02-28 | 2012-09-26 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | ブースト分類器を新たなサンプルに対して適応させる方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001009821A1 (en) * | 1999-07-30 | 2001-02-08 | Litton Systems, Inc. | Automatic image characterization by class correlation processing |
CN1234094C (zh) * | 2002-12-23 | 2005-12-28 | 北京邮电大学 | 基于贝叶斯分类器的文字字体判断设备及其方法 |
CN100336070C (zh) * | 2005-08-19 | 2007-09-05 | 清华大学 | 复杂背景图像中的鲁棒人脸检测方法 |
CN101325691B (zh) * | 2007-06-14 | 2010-08-18 | 清华大学 | 融合不同生存期的多个观测模型的跟踪方法和跟踪装置 |
-
2007
- 2007-06-01 CN CN200710109876XA patent/CN101315670B/zh not_active Expired - Fee Related
-
2008
- 2008-05-30 WO PCT/CN2008/071156 patent/WO2008148343A1/zh active Application Filing
- 2008-05-30 US US12/602,635 patent/US8457391B2/en not_active Expired - Fee Related
- 2008-05-30 JP JP2010509667A patent/JP5197737B2/ja not_active Expired - Fee Related
- 2008-05-30 EP EP08757567.6A patent/EP2164025A4/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005122720A (ja) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体 |
JP2005115525A (ja) * | 2003-10-06 | 2005-04-28 | Fuji Photo Film Co Ltd | 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置 |
JP2007004721A (ja) * | 2005-06-27 | 2007-01-11 | Toyota Motor Corp | 対象物検出装置、及び対象物検出方法 |
JP2007034723A (ja) * | 2005-07-27 | 2007-02-08 | Glory Ltd | 顔画像検出装置、顔画像検出方法および顔画像検出プログラム |
JP5036580B2 (ja) * | 2007-02-28 | 2012-09-26 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | ブースト分類器を新たなサンプルに対して適応させる方法 |
Non-Patent Citations (5)
Title |
---|
JPN6012014297; Grabner, H.; Bischof, H.;: 'On-line Boosting and Vision' Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on , 20060617, 260 - 267ページ * |
JPN6012014298; Chang Huang, Haizhou Ai, Yuan Li, Shihong Lao: 'Vector Boosting for Rotation Invariant Multi-View Face Detection' ICCV '05 Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) , 2005 * |
JPN6012014299; Nikunj C. Oza , Stuart Russell: 'Online Bagging and Boosting' In Artificial Intelligence and Statistics 2001 , 2001 * |
JPN6012014300; Li Xu; Yamashita, T.; Shihong Lao; Kawade, M.; Feihu Qi;: 'Online Real Boosting for Object Tracking Under Severe Appearance Changes and Occlusion' Acoustics, Speech and Signal Processing, 2007. ICASSP 2007. IEEE International Conference on , 20070415, I-925 &min * |
JPN6012057357; Chang Huang,Haizhou Ai ; Yamashita, T. ; Shihong Lao ; Kawade, M.: 'Incremental Learning of Boosted Face Detector' Computer Vision, 2007. ICCV 2007. IEEE 11th International Conference on , 20071014, 1-8pages * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10255517B2 (en) | 2014-03-27 | 2019-04-09 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US9602783B2 (en) | 2014-06-12 | 2017-03-21 | Panasonic Intellectual Property Management Co., Ltd. | Image recognition method and camera system |
US9773322B2 (en) | 2014-07-02 | 2017-09-26 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method which learn dictionary |
WO2017150230A1 (en) | 2016-03-01 | 2017-09-08 | Canon Kabushiki Kaisha | Diagnosis support apparatus, control method for diagnosis support apparatus, and computer-readable storage medium |
US11270216B2 (en) | 2016-03-01 | 2022-03-08 | Canon Kabushiki Kaisha | Diagnosis support apparatus, control method for diagnosis support apparatus, and computer-readable storage medium |
JP2018148367A (ja) * | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US8457391B2 (en) | 2013-06-04 |
WO2008148343A1 (fr) | 2008-12-11 |
CN101315670B (zh) | 2010-08-11 |
EP2164025A4 (en) | 2014-04-16 |
EP2164025A1 (en) | 2010-03-17 |
US20100202681A1 (en) | 2010-08-12 |
JP5197737B2 (ja) | 2013-05-15 |
CN101315670A (zh) | 2008-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5197737B2 (ja) | 特定被写体検出装置及びその学習装置と学習方法 | |
Saatci et al. | Bayesian gan | |
CN100472556C (zh) | 特定被摄体检测装置及方法 | |
CN112884742B (zh) | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 | |
CN113111814B (zh) | 基于正则化约束的半监督行人重识别方法及装置 | |
CN113408605A (zh) | 基于小样本学习的高光谱图像半监督分类方法 | |
CN109086660A (zh) | 多任务学习深度网络的训练方法、设备及存储介质 | |
CN109033953A (zh) | 多任务学习深度网络的训练方法、设备及存储介质 | |
CN104484890A (zh) | 基于复合稀疏模型的视频目标跟踪方法 | |
CN109101869A (zh) | 多任务学习深度网络的测试方法、设备及存储介质 | |
CN106599856A (zh) | 一种联合人脸检测、定位和识别的方法 | |
Ihou et al. | Variational-based latent generalized Dirichlet allocation model in the collapsed space and applications | |
Seyedhosseini et al. | Fast adaboost training using weighted novelty selection | |
Sudhakar et al. | Ada-SISE: adaptive semantic input sampling for efficient explanation of convolutional neural networks | |
Sun et al. | Visual tracking via joint discriminative appearance learning | |
Kokilambal | Intelligent content based image retrieval model using adadelta optimized residual network | |
CN108257148B (zh) | 特定对象的目标建议窗口生成方法及其在目标跟踪的应用 | |
Taghikhah et al. | Quantile-based maximum likelihood training for outlier detection | |
KR20200123507A (ko) | 교사-학생 프레임워크 기반의 소프트 타겟 학습방법을 이용한 보행자 포즈 방향 추정 방법 및 시스템 | |
Han et al. | A fast cloud detection approach by integration of image segmentation and support vector machine | |
Yilmaz et al. | A Comprehensive guide to Generative Adversarial Networks (GANs) and application to individual electricity demand | |
Shi | Image Recognition of Skeletal Action for Online Physical Education Class based on Convolutional Neural Network | |
Li et al. | Abundance estimation based on band fusion and prioritization mechanism | |
Javed et al. | Leveraging uncertainty in adversarial learning to improve deep learning based segmentation | |
Pelletier et al. | Pixel‐based Classification Techniques for Satellite Image Time Series |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130205 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160215 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5197737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |