JP4618098B2 - 画像処理システム - Google Patents

画像処理システム Download PDF

Info

Publication number
JP4618098B2
JP4618098B2 JP2005319018A JP2005319018A JP4618098B2 JP 4618098 B2 JP4618098 B2 JP 4618098B2 JP 2005319018 A JP2005319018 A JP 2005319018A JP 2005319018 A JP2005319018 A JP 2005319018A JP 4618098 B2 JP4618098 B2 JP 4618098B2
Authority
JP
Japan
Prior art keywords
feature
learning
recognition
correlation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005319018A
Other languages
English (en)
Other versions
JP2007128195A5 (ja
JP2007128195A (ja
Inventor
順 横野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005319018A priority Critical patent/JP4618098B2/ja
Priority to US11/589,872 priority patent/US7801354B2/en
Publication of JP2007128195A publication Critical patent/JP2007128195A/ja
Publication of JP2007128195A5 publication Critical patent/JP2007128195A5/ja
Application granted granted Critical
Publication of JP4618098B2 publication Critical patent/JP4618098B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理システムに関し、特に認識対象を認識するための認識器を生成する学習装置、認識器を用いて認識画像に認識対象が含まれているか否かの認識を行う認識装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
画像処理による物体認識(Object Recognition)の手法は、近年様々なものが提案されており、最近10年で飛躍的に向上している。近年の手法では、全体の画像を局所領域(local region)と呼ばれるいくつかの小さい領域に分割し、その局所領域から得られる特徴点や特徴量といった局所情報に基づいて物体認識を行うことが主流になりつつある。なお、この局所領域という表現は、局所記述子(local descriptor)、コンポーネント(component)、パーツ(parts)、フラグメント(fragments)等、様々な呼称を有する。
このような局所情報に基づいて物体認識を実現する方法として、エラスティック・バンチ・グラフ・マッチング(Elastic Bunch Graph Matching:EBGM)法が提案されている(例えば、非特許文献1参照。)。このEBGM法では、局所情報としてガボアジェッツ(Gabor Jet)が用いられる。このガボアジェッツは、様々な方向と周波数に対する反応を集めたベクトルを一つの特徴量として扱うものであり、人間の第一次視覚野に存在すると言われる方向選択性細胞(oriented filter)の出力として得られるものである。このEBGM法では、人間によって与えられた各特徴点において特徴量をガボアジェッツとして集めて、所定の評価関数によってマッチングが行われる。ここでは、評価関数として、特徴点近傍における最も相関の高い点に至る距離およびその相関値が用いられる。
また、このような近傍で最も相関の高いものを特徴量として用いるという考え方は、HMAXモデルにおいても用いられている(例えば、非特許文献2参照。)。このHMAXモデルでは、人間の視覚処理システムをモデル化した物体認識の方法であり、スケール方向と空間方向の両方向をサーチして反応が最も大きいニューロンの値を特徴量とするものである。このHMAXモデルでは、位置に依存しない認識が行われるため、パターンの歪みや位置ずれに対して柔軟に対応することができる。
Martin Lades, Jan C. Vorbruggen, Joachim M. Buhmann, Jorg Lange, Christoph von der Malsburg, Rolf P. Wurtz, Wolfgang Konen : "Distortion Invariant Object Recognition in the Dynamic Link Architecture", IEEE Trans. on Computers, Vol.42, No.3, pp.300-311, 1993. Riesenhuber, M. and T. Poggio : "Hierarchical Models of Object Recognition in Cortex", Nature Neuroscience, 2, pp.1019-1025, 1999.
しかしながら、これら従来技術においては、局所情報として得られる特徴量がその種類によって内容が異なり、相互に互換性が担保されない。例えば、色に関する特徴量と形に関する特徴量とでは、一般にベクトルの次元やスケールが異なるため、互いに比較対象とはなり得ない。従って、異なる種類の特徴量を利用して物体の認識に役立てることは困難である。
そこで、本発明は、異なる種類の特徴量を利用した物体認識の手法を実現することを目的とする。
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、「認識対象を認識するための認識器を予め生成する学習装置と、上記認識器を用いて認識画像に上記認識対象が含まれているか否かの認識を行う認識装置と」を具備する画像処理システムであって、上記学習装置は、「上記認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成するモデル特徴点生成手段と、上記モデル特徴点の各々における特徴量をモデル特徴量として生成するモデル特徴量生成手段と、上記認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する学習特徴点生成手段と、上記学習特徴点の各々における特徴量を学習特徴量として生成する学習特徴量生成手段と、上記モデル特徴量の各々について上記学習特徴量のうち最も相関の高いものを選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する学習相関特徴量生成手段と、上記学習画像が上記認識対象を含むか否かを示す正誤情報および上記学習相関特徴量に基づいて認識器を生成する認識器生成手段と」を備え、上記認識装置は、「上記認識画像から複数の特徴点を認識特徴点として生成する認識特徴点生成手段と、上記認識特徴点の各々における特徴量を認識特徴量として生成する認識特徴量生成手段と、上記モデル特徴量の各々について上記認識特徴量のうち最も相関の高いものを選択してその選択された認識特徴量との間の相関の程度を認識相関特徴量として生成する認識相関特徴量生成手段と、上記認識相関特徴量を上記認識器に代入することによって上記認識画像に上記認識対象が含まれているか否かを判断する認識処理手段と」を備えることを特徴とする画像処理システムである。これにより、学習特徴量を学習相関特徴量に変換して認識器の学習を行い、認識特徴量を認識相関特徴量に変換して認識処理を行うため、種類の異なる特徴量を同じスケールの下で相互に比較して認識対象の存否を判断させるという作用をもたらす。

また、本発明の第2の側面は、認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成するモデル特徴点生成手段と、上記モデル特徴点の各々における特徴量をモデル特徴量として生成するモデル特徴量生成手段と、上記認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する学習特徴点生成手段と、上記学習特徴点の各々における特徴量を学習特徴量として生成する学習特徴量生成手段と、上記モデル特徴量の各々について上記学習特徴量のうち最も相関の高いものを選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する学習相関特徴量生成手段と、上記学習画像が上記認識対象を含むか否かを示す正誤情報および上記学習相関特徴量に基づいて認識器を生成する認識器生成手段とを具備することを特徴とする学習装置である。これにより、学習特徴量を学習相関特徴量に変換して認識器の学習を行うため、種類の異なる特徴量を同じスケールの下で扱い、統計学習させるという作用をもたらす。
また、この第2の側面において、上記モデル特徴点および上記学習特徴点は当該特徴点における特徴量の種類に応じて選択されるようにしてもよい。これにより、特徴量の種類に適した特徴点が適宜利用される。これらモデル特徴点および学習特徴点は、例えば、コーナー点や認識対象における領域内に設けることができる。
また、この第2の側面において、上記モデル特徴量および上記学習特徴量は当該特徴量の種類に応じて選択されるようにしてもよい。これにより、特徴量の種類に適した特徴量が適宜利用される。これらモデル特徴量および学習特徴量は、例えば、モデル特徴点および学習特徴点における二次微分や色の分布により取得することができる。
また、この第2の側面において、上記認識器生成手段が上記学習相関特徴量について閾値を設けて当該閾値を基準として上記学習相関特徴量の選別を行うようにしてもよい。これにより、認識に適した学習相関特徴量を認識器に反映させるという作用をもたらす。このような認識器の生成および学習相関特徴量の選別は、ブースティングアルゴリズムにより実現することができる。このブースティングアルゴリズムは、重み付き投票に基づくものであり、例えば、"Discrete AdaBoost Algorithm"や"Gentle AdaBoost Algorithm"等を利用することができる。
また、本発明の第3の側面は、入力された認識画像から複数の特徴点を認識特徴点として生成する認識特徴点生成手段と、上記認識特徴点の各々における特徴量を認識特徴量として生成する認識特徴量生成手段と、認識対象を含むモデル画像から生成されたモデル特徴点におけるモデル特徴量の各々について上記認識特徴量のうち最も相関の高いものを選択してその選択された認識特徴量との間の相関の程度を認識相関特徴量として生成する認識相関特徴量生成手段と、上記認識対象を含む画像および含まない画像の何れかから成る学習画像について上記認識対象を含むか否かを示す正誤情報と上記モデル特徴量の各々について上記学習特徴量のうち最も相関の高いものとの間の相関の程度を示す学習相関特徴量とから生成された認識器に上記認識相関特徴量を代入することによって上記認識画像に上記認識対象が含まれているか否かを判断する認識処理手段とを具備することを特徴とする認識装置である。これにより、認識特徴量を認識相関特徴量に変換して、学習相関特徴量に基づいて統計学習された認識器を用いて認識処理を行うため、種類の異なる特徴量を同じスケールの下で相互に比較して認識対象の存否を判断させるという作用をもたらす。
また、本発明の第4の側面は、認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成する手順と、上記モデル特徴点の各々における特徴量をモデル特徴量として生成する手順と、上記認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する手順と、上記学習特徴点の各々における特徴量を学習特徴量として生成する手順と、上記モデル特徴量の各々について上記学習特徴量のうち最も相関の高いものを選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する手順と、上記学習画像が上記認識対象を含むか否かを示す正誤情報および上記学習相関特徴量に基づいて認識器を生成する手順とを具備することを特徴とする学習方法またはこれら手順をコンピュータに実行させることを特徴とするプログラムである。これにより、学習特徴量を学習相関特徴量に変換して認識器の学習を行うため、種類の異なる特徴量を同じスケールの下で扱い、統計学習させるという作用をもたらす。
本発明によれば、異なる種類の特徴量を利用した物体認識の手法を実現することができるという優れた効果を奏し得る。
次に本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本発明の実施の形態による画像処理システムにおける学習フェーズの概要を示す図である。ここでは、X個(Xは2以上の整数)のモデル画像101(PM乃至PM)から生成されたN個(Nは2以上の整数)の特徴点(モデル特徴点)における特徴量(モデル特徴量)がモデル特徴量記憶部130(特徴量プール)に蓄積される。モデル画像101は、全て認識対象を含むものである。すなわち、モデル特徴量記憶部130には、認識対象を含む画像全般の特徴点における特徴量が蓄積されることになる。なお、この例では、帽子を被った熊のぬいぐるみが認識対象として含まれている。
一方、M個(Mは2以上の整数)の学習画像102(PI乃至PI)には、認識対象を含むものと含まないものとが混在する。認識対象を含むか否かは、正誤情報103によって示される。この例では、認識対象を含む場合には「+1」を、認識対象を含まない場合には「−1」をそれぞれ示している。すなわち、学習画像102として、認識対象を含む画像全般の特徴点における特徴量または認識対象を含まない画像全般の特徴点における特徴量が、認識対象を含むか否かの正誤情報103とともに供給される。
M個の学習画像102の各々について生成された複数の特徴点(学習特徴点)における特徴量(学習特徴量)は、モデル特徴量記憶部130に記憶されたN個のモデル特徴量との間の相関値が生成され、N個のモデル特徴量のそれぞれに対して最も相関の高い学習特徴量が選択されて、その際に生成されたN個の相関値が相関特徴量となる。この相関特徴量は、M個の学習画像102の各々について生成され、M個の学習相関特徴量169を構成する。
このようにして得られた学習相関特徴量169および正誤情報103によって認識器の学習が行われる。この認識器は、学習フェーズに続く認識フェーズにおいて、入力された認識画像に認識対象が含まれているか否かを判断するためのものである。
図2は、本発明の実施の形態における画像処理システムの一構成例を示す図である。この画像処理システムは、学習フェーズに用いられる学習装置100と、認識フェーズに用いられる認識装置200とを備え、これら学習装置100と認識装置200との間に選択特徴量記憶部310および認識器記憶部320を備えている。
学習装置100は、モデル特徴点生成部110と、モデル特徴量生成部120と、モデル特徴量記憶部130と、学習特徴点生成部140と、学習特徴量生成部150と、学習相関特徴量生成部160と、認識器生成部170とを備えている。
モデル特徴点生成部110は、モデル画像101からモデル特徴点を生成するものである。モデル特徴量生成部120は、モデル特徴点生成部110によって生成されたモデル特徴点におけるモデル特徴量を生成するものである。モデル特徴量記憶部130は、モデル特徴量生成部120によって生成されたモデル特徴点におけるモデル特徴量を記憶するものである。
学習特徴点生成部140は、学習画像102から学習特徴点を生成するものである。学習特徴量生成部150は、学習特徴点生成部140によって生成された学習特徴点における学習特徴量を生成するものである。
学習相関特徴量生成部160は、モデル特徴量のそれぞれに対して各学習特徴量との間の相関を求めて、学習相関特徴量169を生成するものである。認識器生成部170は、学習相関特徴量生成部160によって生成された学習相関特徴量169および正誤情報103に基づいて認識器の統計学習を行い、その過程で選択されたモデル特徴量を選択特徴量記憶部310に記憶させるとともに、認識器を認識器記憶部320に記憶させる。
認識装置200は、認識特徴点生成部240と、認識特徴量生成部250と、認識相関特徴量生成部260と、認識処理部270とを備えている。
認識特徴点生成部240は、認識画像202から特徴点(認識特徴点)を生成するものである。認識特徴量生成部250は、認識特徴点生成部240によって生成された認識特徴点における特徴量(認識特徴量)を生成するものである。
認識相関特徴量生成部260は、選択特徴量記憶部310に記憶されたモデル特徴量のそれぞれに対して各認識特徴量との間の相関を求めて、認識相関特徴量を生成するものである。認識処理部270は、認識相関特徴量生成部260によって生成された認識相関特徴量を、認識器記憶部320に記憶された認識器へ代入することによって、認識画像202の各々に認識対象が含まれるか否かの認識を行って、その結果を認識結果279として出力するものである。
この画像処理システムにおいて利用される特徴量は、局所特徴量(local features)および大域特徴量(global features)の何れでもよく、その種類も、形、色、動き、テクスチャ、素材、歩行パターンなどに関する種々のものを定義することができる。例えば、形に関する局所特徴量としては、部分領域の輝度情報をそのまま利用してもよく、また、ラプラシアン(二次微分)、ガウシアン微分関数(Gaussian Derivatives)、ステアラブルフィルタ(Steerable Filters)、ガボアフィルタ(Gabor Filters)、SIFT(Scale-Invariant Features Transform)などによる変換を施したものを採用してもよい。また、色に関する局所特徴量としては、部分領域の色情報(RGBやHSV等)をそのまま利用してもよく、また、ヒストグラムとしてまとめた情報を採用してもよい。さらに、動きに関する局所特徴量としては、動きベクトル(optical flow)を利用することができる。
また、特徴点については、画像における任意の点を利用することができるが、一般にはエッジやコーナー点が用いられることが多い。この特徴点は、特徴量の種類によって定義することができる。例えば、形に関する特徴量についてはエッジやコーナー点に特徴が現れ易いため、エッジやコーナー点を特徴点として採用することが望ましい。一方、色に関する特徴量については、物体の領域内に特徴が現れ易いため、特定の点に限定せずにランダムな点を特徴点として採用することが望ましい。
形に関する特徴点としてエッジやコーナー点を求めるためには、ハリス・コーナー点検出器(Harris corner detector)を用いることができる。このハリス・コーナー点検出器では、まず、画像データにおける各画素点I(x,y)において、その輝度勾配を求め、局所領域での2次モーメントマトリックスMを次式のように算出する。
この2次モーメントマトリックスMの2つの固有値をαおよびβとすると、固有値αおよびβのうち、両者が所定の閾値より大きければコーナー点、片方が所定の閾値より大きければエッジ、両方が所定の閾値より小さければ何もない点となる。そこで、この判定を行うために、この2次モーメントマトリックスMの行列式det(M)およびトレース(対角成分の和)trace(M)を算出して、次式のコーナー応答関数CRを求める。ここで、k=0.04である。
CR=det(M)−k(trace(M))
このコーナー応答関数CRが正の数であればコーナー点であることを意味し、負の数であればエッジであることを意味する。但し、コーナー応答関数CRが一定値よりも小さい場合には何もない点となる。このような手順によりコーナー点またはエッジを抽出することができる。
なお、ここではコーナー点またはエッジを判定するために減算によるコーナー応答関数CRを用いたが、次式のように除算を用いてもよい。
CR=det(M)/(k(trace(M))
また、形に関する特徴量としてラプラシアンを用いる場合、以下のガウシアン微分関数Gをx方向およびy方向にそれぞれ二次微分することにより求めることができる。
x方向およびy方向の一次微分は、それぞれ次式のようになる。
Gx=−(x/σ)G
Gy=−(y/σ)G
また、x方向およびy方向の二次微分は、それぞれ次式のようになる。
Gxx=(x/σ−1/σ)G
Gyy=(y/σ−1/σ)G
したがって、ラプラシアンLは、次式により得られる。
L=Gxx+Gyy=((x+y)/σ−2/σ)G
一方、色に関する特徴点として色のヒストグラムを利用する場合、色空間を所定の色領域に区切って、各色領域における分布を求める。図3は、HSV空間におけるヒストグラムの例である。なお、このHSV表現では、H(Hue)が色相を表し、S(Saturation)が彩度を表し、V(Value)が明度を表す。
図3(a)では簡単な例として、HSV各成分についてそれぞれ2区間に区分して、合計8つ(=2)の色領域を設けている。ある特徴点についてその近傍(例えば、10ピクセル程度)を含む画像領域における色の分布から、各色領域における出現頻度を求めたものが図3(b)のヒストグラムである。
このように、特徴点や特徴量は、特徴量の種類に応じてそれぞれ適したものを定義することができる。そして、このようにして求められた特徴量は、学習相関特徴量生成部160および認識相関特徴量生成部260において相関特徴量に変換される。この学習相関特徴量生成部160および認識相関特徴量生成部260では、学習特徴量および認識特徴量のそれぞれについてモデル特徴量との相関を求めることにより、様々な特徴量を同じ次元で比較し、認識器の学習に供する。
一般に、特徴量を表す2つのベクトルvおよびvの相関値Cは、次式により算出される。なお、ベクトルの上線は当該ベクトルの平均を表す。
この相関値Cは、0.0から1.0までの範囲の値となり、相関が高いほど1.0に近く、相関が低いほど0.0に近い値を示す。
また、相関値を求める際には、背景技術の項で説明したエラスティック・バンチ・グラフ・マッチング(EBGM)法を利用してもよい。このEBGM法では、モデル特徴量記憶部130に記憶されたモデル特徴量に対応する特徴点の近傍で最も相関の高い点(相関最大点)を求め、その相関最大点における相関値を相関特徴量として利用する。
図4は、EBGM法による相関最大点の探索例を示す図である。モデル画像において特徴点411が生成されると、特徴点411に対応する学習画像上の点421が定まる。学習相関特徴量生成部160は、学習画像上の点421の近傍で特徴点411との間の相関値を算出して、相関最大点422を求める。この相関最大点422における相関値が学習相関特徴量となる。
このように、相関特徴量を求める際にEBGM法を利用することにより、物体の歪みや視点の変化対してロバストになり、これら外乱に対してより柔軟に対応することができるようになる。


なお、ここでは、学習相関特徴量生成部160において学習相関特徴量を求める際にEBGM法を利用する場合について説明したが、認識相関特徴量生成部260において認識相関特徴量を求める際にも同様にEBGM法を適用することができる。
図5は、本発明の実施の形態における相関特徴量算出例の概要を示す図である。ここでは、モデル特徴量記憶部130に記憶されたモデル特徴量139の種類として、色に関するモデル特徴量131、形に関するモデル特徴量132、および、動きに関するモデル特徴量133を想定している。
学習相関特徴量生成部160における色に関する相関算出部161は、色に関するモデル特徴量131について、学習特徴量159の中で対応する学習特徴量151との間の相関値を算出する。同様に、形に関する相関算出部162は、形に関するモデル特徴量132について、対応する学習特徴量152との間の相関値を算出する。また、動きに関する相関算出部163は、動きに関するモデル特徴量133について、対応する学習特徴量153との間の相関値を算出する。
このように、相関算出部161乃至163は、それぞれ異なる種類の特徴量について相関値を算出する。元々の特徴量自体は、特徴量の種類によってベクトルの次元が異なるため、互いにそのままの形で比較することは難しい。しかし、本発明の実施の形態においては、相関の度合いに応じて一定の範囲の値(0.0から1.0)を示す相関特徴量に正規化するため、異なる種類の特徴量であっても互換性を有する。このような相関特徴量を用いて認識器の学習を行い、認識を行うことによって、様々な種類の特徴量を用いた統計学習による物体認識を実現することができる。
なお、ここでは、学習相関特徴量生成部160において学習特徴量から学習相関特徴量に変換する際の処理について説明したが、認識相関特徴量生成部260において認識特徴量から認識相関特徴量に変換する際の処理もこれと同様である。
図6は、本発明の実施の形態における認識器生成部170による学習例の概要を示す図である。ここで、M個の学習画像102(PI1乃至PI)の相関特徴量の各々は、モデル特徴量記憶部130に記憶されたモデル特徴量の特徴点の数Nに対応するN次元のベクトルとして表される。すなわち、1個目の学習画像PI1の相関特徴量は(A1,A2,・・・,AN)、2個目の学習画像PIの相関特徴量は(B1,B2,・・・,BN)、3個目の学習画像PIの相関特徴量は(C1,C2,・・・,CN)と表され、同様の要領でM個目の学習画像PIの相関特徴量は(M1,M2,・・・,MN)と表される。
このとき、モデル特徴量の特徴点kに対してグループGrを想定すると、特徴点k=1の相関特徴量はグループGr1によって示される(A1,B1,C1,・・・,M1)であり、同様に、特徴点k=2の相関特徴量はグループGr2によって示される(A2,B2,C2,・・・,M2)であり、同様の要領で、特徴点k=Nの相関特徴量はグループGrNによって示される(AN,BN,CN,・・・,MN)となる。すなわち、各特徴点kについて、M個の学習画像PI1乃至PIに対応して計M個の相関特徴量のグループGrkが定義されることになる。
なお、左端の「+1」もしくは「−1」の値は、正誤情報103であり、対応する学習画像102が認識対象を含むか否かを示している。
特徴点k毎に、各学習画像102(PI)に設定された重みwに応じて相関特徴量がM個抽選で抽出される。最初の処理においては、いずれの重みwも等しく、M個が抽選されると確率的には全ての相関特徴量が選択されることになるため、最初の処理では各特徴点kにおいて全ての相関特徴量が選択されたものとする。これ以降の繰り返しにおいては、同一の相関特徴量が重複して選択されることもあり得る。
N個の特徴点kのそれぞれについて、グループGrk内で昇順(もしくは降順)になるように予め並び替えておく。そして、閾値を変化させながら特徴点k毎のグループGrkの誤り率ejkを次式により計算して、この誤り率ejkが最小となるように閾値を設定する。但し、jは特徴点kにおける相関特徴量ベクトルxに対するL個(Lは1以上の整数)の弱認識器fjk(x)の番号をカウントするカウンタであり、1からLの範囲を示す整数である。
jk=E[1(y≠fjk(x))]
ここで、教師ラベルy(すなわち、正誤情報103)および弱認識器fjk(x)は認識対象の有無によって「+1」もしくは「−1」の値を示し、両者が一致した場合には予想が的中したことを示す。そして、Eは、予想が外れた場合に、誤りが生じたものとして誤り回数の累算を行う。
図7は、本発明の実施の形態における閾値の設定例を示す図である。誤り率ejkを計算する際の閾値thjkは、グループGrにおける特徴量を2つに分けるように設定される。この例では、J=1として、1つ目の特徴点k=1における閾値th11の設定例を示している。グループGrにおいて相関特徴量を昇順に並び替えた結果、小さい方から「L1,A1,C1,B1,・・・,M1」となったものとする。ここでは、閾値th11はA1とC1との間に設定され、閾値th11より小さい範囲では認識対象が存在せず、閾値th11より大きい範囲では認識対象が存在するものと想定されている。なお、この例では、相関特徴量A1およびB1に対応する学習画像が認識対象を含み、これ以外は認識対象を含まないものとする。
このとき、図中の点線で囲まれた相関特徴量A1は、認識対象を含む学習相関特徴量であるにもかかわらず、閾値th11よりも低くなっているため、誤りが生じたことになる。一方、相関特徴量C1およびM1は、認識対象を含まない学習相関特徴量であるにもかかわらず、閾値th11よりも高くなっているため、これも誤りが生じたことになる。
このようにして誤り率ejkが計算されると、次に、N個の誤り率ejkのうち最小となる弱認識器fjk(x)が選択され、その誤り率ejkによって信頼度cが次式によって計算される。
=log((1−ejk)/ejk
そして、さらにこのようにして得られた信頼度cによって学習画像102の重みw(iは1からNの範囲を示す整数)が次式のように更新される。但し、wの合計が1となるようにさらに正規化される。
=w・exp[−c・1(y≠fjk(x))]
これにより、誤りの発生した相関特徴量を含む学習画像の重みが大きくなり、再度学習を要する学習画像が明確に区別されることになる。
このようにして選択された弱認識器fjk(x)が信頼度cによって重み付けされて、相関特徴量ベクトルxに対する認識器R(x)が次式のように更新される。
R(x)=R(x)+c×fjk(x)
その結果、認識器は、R(x)が正の数であれば認識対象を含むことを示し、負の数であれば認識対象を含まないことを示すようになる。
また、誤り率ejkが最小となる特徴点kのモデル特徴量が選択されて、選択特徴量記憶部310に記憶される。
このように弱認識器を学習処理により重み付けしながら付加することを繰り返して認識器を生成する学習処理は、ブースティング(重み付き投票)アルゴリズムの一種であり、"Discrete AdaBoost Algorithm"と呼ばれる。この学習処理において、誤り率の高い学習特徴量の重みが順次大きくなり、誤り率の低い学習特徴量の重みが小さくなるように、モデル特徴量ごとに認識器と誤り率が計算される処理が繰り返されることになる。したがって、繰り返し処理の中で、認識器を設定する際に選択される学習相関特徴量は、徐々に誤り率の高いものが選択され易くなり、認識し難い学習相関特徴量が繰り返されるほどに選択されて学習が繰り返されることになるため、認識し難い学習画像の相関特徴量がより多く選択されることになり、最終的に高い認識率にすることが可能となる。
また、このブースティングアルゴリズムによれば、N個の誤り率ejkのうち最小となる特徴点kのモデル特徴量が選択されて、選択特徴量記憶部310に記憶されていくため、認識器の学習と特徴量の選択を同時に行うことができ、認識フェーズにおいてモデル特徴量記憶部130に記憶されている全ての特徴量を使用することなく、認識に適した特徴量を効率良く利用することができる。
次に本発明の実施の形態における画像処理システムの動作について図面を参照して説明する。
図8は、本発明の実施の形態による学習フェーズにおける学習処理の手順例を示す流れ図である。まず、X個のモデル画像101についてモデル特徴点生成部110によってN個のモデル特徴点が生成され(ステップS810)、そのモデル特徴点におけるN個のモデル特徴量がモデル特徴量生成部120によって生成される(ステップS820)。この生成されたモデル特徴量は、モデル特徴量記憶部130に記憶される。
続いて、M個の学習画像102の各々について学習特徴点生成部140によって学習特徴点が生成され(ステップS830)、その学習特徴点における学習特徴量が学習特徴量生成部150によって生成される(ステップS840)。
そして、モデル特徴量記憶部130に記憶されたN個のモデル特徴量のそれぞれに対して、学習画像102の各々における学習特徴点の学習特徴量との間の相関値が学習相関特徴量生成部160によって生成され、最も相関の高いものが学習相関特徴量とされる(ステップS850)。
また、この学習相関特徴量に基づいて認識器生成部170によって統計学習が行われ、その過程で選択されたモデル特徴量が選択特徴量記憶部310に記憶され、認識器が認識器記憶部320に記憶される(ステップS860)。
図9は、本発明の実施の形態による学習相関特徴量生成処理(ステップS850)の手順例を示す流れ図である。まず、N個の特徴点に関する処理を一つずつ行うために、特徴点を示すkが「1」に初期化される(ステップS851)。
各特徴点kに関する処理として、モデル画像101の特徴点kにおけるモデル特徴量について、学習画像102の対応する特徴点における学習特徴量との間の相関値が生成される(ステップS852)。そして、この特徴点kについて生成された相関値の中で最も相関の高い学習特徴量が選択される(ステップS853)。また、この選択された学習特徴量の相関値が学習相関特徴量とされる(ステップS854)。
この各特徴点kに関する処理は、kが「1」からNになるまで(ステップS855)、「1」ずつ加算されながら繰り返される(ステップS856)。
図10は、本発明の実施の形態による認識器生成処理(ステップS860)の手順例を示す流れ図である。まず、M個の学習画像102(PI)に対する重みwが全て「1/M」に正規化され、L個の弱認識器fjk(x)の番号をカウントするカウンタjが「1」に初期化され、また、認識器R(x)が「0」に初期化される(ステップS861)。
第j番目の弱認識器fjk(x)に関する処理として、特徴点k毎に重みwに応じて学習相関特徴量がM個選択される(ステップS862)。そして、この選択された学習相関特徴量は、図6において説明したようにグループGrk内で昇順(もしくは降順)になるように並び替えられる(ステップS863)。
このように並び替えられた学習相関特徴量について、図7において説明したように、誤り率ejkが最小となるような閾値thjkが設定され、これを満たす弱認識器fjk(x)が設定される(ステップS864)。なお、その際、誤り率ejkの計算には正誤情報103が参照される。また、誤り率ejkが最小となる特徴点kが選択される(ステップS865)。そして、その場合の誤り率ejkによって弱認識器fjk(x)の信頼度cが計算される(ステップS866)。なお、このようにして得られた信頼度cによって学習画像102の重みwが更新され、さらに、wの合計が1となるように正規化される(ステップS867)。
そして、これら弱認識器fjk(x)および信頼度cによって認識器R(x)が更新されて、認識器記憶部320に記憶される(ステップS868)。また、誤り率ejkが最小となる特徴点kのモデル特徴量が選択されて、選択特徴量記憶部310に記憶される(ステップS869)。
この第j番目の弱認識器fjk(x)に関する処理は、jが「1」からLになるまで(ステップS871)、「1」ずつ加算されながら繰り返される(ステップS872)。
図11は、本発明の実施の形態による認識フェーズにおける認識処理の手順例を示す流れ図である。まず、認識画像202のそれぞれについて認識特徴点生成部240によって認識特徴点が生成され(ステップS910)、その認識特徴点における認識特徴量が認識特徴量生成部250によって生成される(ステップS920)。
そして、選択特徴量記憶部310に記憶されたモデル特徴量のそれぞれに対して、認識画像202の各々における認識特徴点の認識特徴量との間の相関値が認識相関特徴量生成部260によって生成され、最も相関の高いものが認識相関特徴量とされる(ステップS930)。
このようにして生成された認識相関特徴量は、認識処理部270によって認識器記憶部320に記憶された認識器に代入され(ステップS940)、その結果として、認識画像に認識対象が含まれているか否かの認識結果279が出力される(ステップS950)。すなわち、認識器R(x)が正の数であれば認識対象を含むことを示し、負の数であれば認識対象を含まないことを示す。
このように、本発明の実施の形態によれば、学習相関特徴量生成部160によって生成された学習相関特徴量を用いて認識器の学習を行い、認識相関特徴量生成部260によって生成された認識相関特徴量を用いて認識処理を行うため、種類の異なる特徴量を同じスケールの下で相互に比較して認識対象の存否を判断することができる。すなわち、物体認識を行うに際して様々な特徴量を適宜用いることができる。そのため、予め用意された様々な種類の特徴量の中から認識に適した特徴量の種類を自動的に選択して用いることができ、また、予め用意された様々な特徴量の中から認識に適した特徴量を自動的に選択して用いることができる。さらに、認識に適した特徴点を自動的に統計学習することができる。
なお、本発明の実施の形態では、ブースティングアルゴリズムの一例として"Discrete AdaBoost Algorithm"の適用例について説明したが、他のブースティングアルゴリズムを適用してもよく、例えば、"Gentle AdaBoost Algorithm"を用いるようにしてもよい。この"Gentle AdaBoost Algorithm"によれば、弱認識器がそれぞれ信頼度を含んだ連続変量の値を出力することになるため、対応した重み付けがなされて、信頼度の計算を省くことができる。
また、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。
すなわち、請求項1において、学習装置は例えば学習装置100に対応する。また、認識装置は例えば認識装置200に対応する。また、モデル特徴点生成手段は例えばモデル特徴点生成部110に対応する。また、モデル特徴量生成手段は例えばモデル特徴量生成部120に対応する。また、学習特徴点生成手段は例えば学習特徴点生成部140に対応する。また、学習特徴量生成手段は例えば学習特徴量生成部150に対応する。また、学習相関特徴量生成手段は例えば学習相関特徴量生成部160に対応する。また、認識器生成手段は例えば認識器生成部170に対応する。また、認識特徴点生成手段は例えば認識特徴点生成部240に対応する。また、認識特徴量生成手段は例えば認識特徴量生成部250に対応する。また、認識相関特徴量生成手段は例えば認識相関特徴量生成部260に対応する。また、認識処理手段は例えば認識処理部270に対応する。
また、請求項2において、モデル特徴点生成手段は例えばモデル特徴点生成部110に対応する。また、モデル特徴量生成手段は例えばモデル特徴量生成部120に対応する。また、学習特徴点生成手段は例えば学習特徴点生成部140に対応する。また、学習特徴量生成手段は例えば学習特徴量生成部150に対応する。また、学習相関特徴量生成手段は例えば学習相関特徴量生成部160に対応する。また、認識器生成手段は例えば認識器生成部170に対応する。
また、請求項11において、認識特徴点生成手段は例えば認識特徴点生成部240に対応する。また、認識特徴量生成手段は例えば認識特徴量生成部250に対応する。また、認識相関特徴量生成手段は例えば認識相関特徴量生成部260に対応する。また、認識処理手段は例えば認識処理部270に対応する。
また、請求項12または13において、認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成する手順は例えばステップS810に対応する。また、モデル特徴点の各々における特徴量をモデル特徴量として生成する手順は例えばステップS820に対応する。また、認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する手順は例えばステップS830に対応する。また、学習特徴点の各々における特徴量を学習特徴量として生成する手順は例えばステップS840に対応する。また、モデル特徴量の各々について学習特徴量のうち最も相関の高いものを選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する手順は例えばステップS850に対応する。また、学習画像が前記認識対象を含むか否かを示す正誤情報および学習相関特徴量に基づいて認識器を生成する手順は例えばステップS860に対応する。
なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。
本発明の実施の形態による画像処理システムにおける学習フェーズの概要を示す図である。 本発明の実施の形態における画像処理システムの一構成例を示す図である。 HSV空間におけるヒストグラムの一例を示す図である。 EBGM法による相関最大点の探索例を示す図である。 本発明の実施の形態における相関特徴量算出例の概要を示す図である。 本発明の実施の形態における認識器生成部170による学習例の概要を示す図である。 本発明の実施の形態における閾値の設定例を示す図である。 本発明の実施の形態による学習フェーズにおける学習処理の手順例を示す流れ図である。 本発明の実施の形態による学習相関特徴量生成処理の手順例を示す流れ図である。 本発明の実施の形態による認識器生成処理の手順例を示す流れ図である。 本発明の実施の形態による認識フェーズにおける認識処理の手順例を示す流れ図である。
符号の説明
100 学習装置
101 モデル画像
102 学習画像
103 正誤情報
110 モデル特徴点生成部
120 モデル特徴量生成部
130 モデル特徴量記憶部
140 学習特徴点生成部
150 学習特徴量生成部
160 学習相関特徴量生成部
161〜163 相関算出部
169 学習相関特徴量
170 認識器生成部
200 認識装置
202 認識画像
240 認識特徴点生成部
250 認識特徴量生成部
260 認識相関特徴量生成部
270 認識処理部
310 選択特徴量記憶部
320 認識器記憶部

Claims (13)

  1. 認識対象を認識するための認識器を予め生成する学習装置と、前記認識器を用いて認識画像に前記認識対象が含まれているか否かの認識を行う認識装置とを具備する画像処理システムであって、
    前記学習装置は、
    前記認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成するモデル特徴点生成手段と、
    前記モデル特徴点の各々における特徴量をモデル特徴量として生成するモデル特徴量生成手段と、
    前記認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する学習特徴点生成手段と、
    前記学習特徴点の各々における特徴量を学習特徴量として生成する学習特徴量生成手段と、
    前記モデル特徴量の各々について前記学習画像の対応する特徴点の近傍において前記学習特徴量のうち最も相関の高いものを前記学習画像毎に選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する学習相関特徴量生成手段と、
    前記学習画像が前記認識対象を含むか否かを示す正誤情報および前記学習相関特徴量に基づいて認識器を生成する認識器生成手段と
    を備え、
    前記認識装置は、
    前記認識画像から複数の特徴点を認識特徴点として生成する認識特徴点生成手段と、
    前記認識特徴点の各々における特徴量を認識特徴量として生成する認識特徴量生成手段と、
    前記モデル特徴量の各々について前記認識画像の対応する特徴点の近傍において前記認識特徴量のうち最も相関の高いものを前記認識画像毎に選択してその選択された認識特徴量との間の相関の程度を認識相関特徴量として生成する認識相関特徴量生成手段と、
    前記認識相関特徴量を前記認識器に代入することによって前記認識画像に前記認識対象が含まれているか否かを判断する認識処理手段と
    を備える
    ことを特徴とする画像処理システム。
  2. 認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成するモデル特徴点生成手段と、
    前記モデル特徴点の各々における特徴量をモデル特徴量として生成するモデル特徴量生成手段と、
    前記認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する学習特徴点生成手段と、
    前記学習特徴点の各々における特徴量を学習特徴量として生成する学習特徴量生成手段と、
    前記モデル特徴量の各々について前記学習画像の対応する特徴点の近傍において前記学習特徴量のうち最も相関の高いものを前記学習画像毎に選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する学習相関特徴量生成手段と、
    前記学習画像が前記認識対象を含むか否かを示す正誤情報および前記学習相関特徴量に基づいて認識器を生成する認識器生成手段と
    を具備することを特徴とする学習装置。
  3. 前記モデル特徴点および前記学習特徴点は当該特徴点における特徴量の種類に応じて選択されることを特徴とする請求項2記載の学習装置。
  4. 前記モデル特徴点および前記学習特徴点はコーナー点に該当することを特徴とする請求項3記載の学習装置。
  5. 前記モデル特徴点および前記学習特徴点は前記認識対象における領域内に存在することを特徴とする請求項3記載の学習装置。
  6. 前記モデル特徴量および前記学習特徴量は当該特徴量の種類に応じて選択されることを特徴とする請求項2記載の学習装置。
  7. 前記モデル特徴量および前記学習特徴量は前記モデル特徴点および前記学習特徴点における二次微分により取得されることを特徴とする請求項6記載の学習装置。
  8. 前記モデル特徴量および前記学習特徴量は前記モデル特徴点および前記学習特徴点における色の分布により取得されることを特徴とする請求項6記載の学習装置。
  9. 前記認識器生成手段は、前記学習相関特徴量について閾値を設けて当該閾値を基準として前記学習相関特徴量の選別を行うことを特徴とする請求項2記載の学習装置。
  10. 前記認識器生成手段は、ブースティングアルゴリズムにより前記認識器の生成および前記学習相関特徴量の選別を行うことを特徴とする請求項9記載の学習装置。
  11. 入力された認識画像から複数の特徴点を認識特徴点として生成する認識特徴点生成手段と、
    前記認識特徴点の各々における特徴量を認識特徴量として生成する認識特徴量生成手段と、
    認識対象を含むモデル画像から生成されたモデル特徴点におけるモデル特徴量の各々について前記認識画像の対応する特徴点の近傍において前記認識特徴量のうち最も相関の高いものを前記認識画像毎に選択してその選択された認識特徴量との間の相関の程度を認識相関特徴量として生成する認識相関特徴量生成手段と、
    前記認識対象を含む画像および含まない画像の何れかから成る学習画像について前記認識対象を含むか否かを示す正誤情報と前記モデル特徴量の各々について前記学習特徴量のうち最も相関の高いものとの間の相関の程度を示す学習相関特徴量とから生成された認識器に前記認識相関特徴量を代入することによって前記認識画像に前記認識対象が含まれているか否かを判断する認識処理手段と
    を具備することを特徴とする認識装置。
  12. 認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成する手順と、
    前記モデル特徴点の各々における特徴量をモデル特徴量として生成する手順と、
    前記認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する手順と、
    前記学習特徴点の各々における特徴量を学習特徴量として生成する手順と、
    前記モデル特徴量の各々について前記学習画像の対応する特徴点の近傍において前記学習特徴量のうち最も相関の高いものを前記学習画像毎に選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する手順と、
    前記学習画像が前記認識対象を含むか否かを示す正誤情報および前記学習相関特徴量に基づいて認識器を生成する手順と
    を具備することを特徴とする学習方法。
  13. 認識対象を含むモデル画像から複数の特徴点をモデル特徴点として生成する手順と、
    前記モデル特徴点の各々における特徴量をモデル特徴量として生成する手順と、
    前記認識対象を含む画像および含まない画像の何れかから成る学習画像から複数の特徴点を学習特徴点として生成する手順と、
    前記学習特徴点の各々における特徴量を学習特徴量として生成する手順と、
    前記モデル特徴量の各々について前記学習画像の対応する特徴点の近傍において前記学習特徴量のうち最も相関の高いものを前記学習画像毎に選択してその選択された学習特徴量との間の相関の程度を学習相関特徴量として生成する手順と、
    前記学習画像が前記認識対象を含むか否かを示す正誤情報および前記学習相関特徴量に基づいて認識器を生成する手順と
    をコンピュータに実行させることを特徴とするプログラム。
JP2005319018A 2005-11-02 2005-11-02 画像処理システム Expired - Fee Related JP4618098B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005319018A JP4618098B2 (ja) 2005-11-02 2005-11-02 画像処理システム
US11/589,872 US7801354B2 (en) 2005-11-02 2006-10-31 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005319018A JP4618098B2 (ja) 2005-11-02 2005-11-02 画像処理システム

Publications (3)

Publication Number Publication Date
JP2007128195A JP2007128195A (ja) 2007-05-24
JP2007128195A5 JP2007128195A5 (ja) 2008-12-04
JP4618098B2 true JP4618098B2 (ja) 2011-01-26

Family

ID=37996353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005319018A Expired - Fee Related JP4618098B2 (ja) 2005-11-02 2005-11-02 画像処理システム

Country Status (2)

Country Link
US (1) US7801354B2 (ja)
JP (1) JP4618098B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4321645B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
JP2009069996A (ja) * 2007-09-11 2009-04-02 Sony Corp 画像処理装置および画像処理方法、認識装置および認識方法、並びに、プログラム
US8254690B2 (en) * 2007-10-19 2012-08-28 Sony Corporation Information processing apparatus, information processing method, and program
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
US8760401B2 (en) * 2008-04-21 2014-06-24 Ron Kimmel System and method for user object selection in geographic relation to a video display
CN101686338B (zh) * 2008-09-26 2013-12-25 索尼株式会社 分割视频中的前景和背景的系统和方法
JP4670976B2 (ja) 2008-10-03 2011-04-13 ソニー株式会社 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
JP2010108475A (ja) * 2008-10-03 2010-05-13 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP4720913B2 (ja) 2009-02-19 2011-07-13 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、及び、プログラム
JP2011154501A (ja) 2010-01-27 2011-08-11 Sony Corp 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
JP2011154500A (ja) 2010-01-27 2011-08-11 Sony Corp 学習装置、学習方法、識別装置、識別方法、及びプログラム
KR101430121B1 (ko) * 2010-04-06 2014-08-14 삼성전자주식회사 멀티-에너지 X-ray 시스템의 영상 처리 장치 및 그 방법
JP5873959B2 (ja) * 2010-09-27 2016-03-01 パナソニックIpマネジメント株式会社 ホワイトリスト内外判定装置及び方法
CN102682291B (zh) * 2012-05-07 2016-10-05 深圳市贝尔信智能系统有限公司 一种场景人数统计方法、装置和系统
EP3028838A1 (en) * 2013-07-29 2016-06-08 NEC Solution Innovators, Ltd. 3d printer device, 3d printing method and method for manufacturing stereolithography product
CN103559237B (zh) * 2013-10-25 2017-02-15 南京大学 基于目标跟踪的半自动图像标注样本生成方法
CN104376326B (zh) * 2014-11-02 2017-06-16 吉林大学 一种用于图像场景识别的特征提取方法
CN104318253A (zh) * 2014-11-11 2015-01-28 东南大学 Mooc在线学习模式识别系统及方法
CN105469117B (zh) * 2015-12-03 2019-01-01 苏州大学 一种基于鲁棒特征提取的图像识别方法与装置
CN105930848B (zh) * 2016-04-08 2019-02-15 西安电子科技大学 基于sar-sift特征的sar图像目标识别方法
US20190042934A1 (en) * 2017-12-01 2019-02-07 Meenakshi Arunachalam Methods and apparatus for distributed training of a neural network
US11216541B2 (en) * 2018-09-07 2022-01-04 Qualcomm Incorporated User adaptation for biometric authentication
WO2020059581A1 (ja) * 2018-09-19 2020-03-26 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11510630A (ja) * 1995-08-04 1999-09-14 サーノフ コーポレイション 画像テクスチャを生成するための方法および装置
JP2004326693A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
JP2005084979A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔認証システムおよび方法並びにプログラム
JP2006260311A (ja) * 2005-03-17 2006-09-28 Kitakyushu Foundation For The Advancement Of Industry Science & Technology マッチング方法およびマッチング装置ならびにプログラム
JP2006338082A (ja) * 2005-05-31 2006-12-14 Sony Corp 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
US7054850B2 (en) * 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
US8155451B2 (en) * 2004-11-12 2012-04-10 Kitakyushu Foundation For The Advancement Of Industry, Science And Technology Matching apparatus, image search system, and histogram approximate restoring unit, and matching method, image search method, and histogram approximate restoring method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11510630A (ja) * 1995-08-04 1999-09-14 サーノフ コーポレイション 画像テクスチャを生成するための方法および装置
JP2004326693A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
JP2005084979A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔認証システムおよび方法並びにプログラム
JP2006260311A (ja) * 2005-03-17 2006-09-28 Kitakyushu Foundation For The Advancement Of Industry Science & Technology マッチング方法およびマッチング装置ならびにプログラム
JP2006338082A (ja) * 2005-05-31 2006-12-14 Sony Corp 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム

Also Published As

Publication number Publication date
JP2007128195A (ja) 2007-05-24
US7801354B2 (en) 2010-09-21
US20070098255A1 (en) 2007-05-03

Similar Documents

Publication Publication Date Title
JP4618098B2 (ja) 画像処理システム
CN111079639B (zh) 垃圾图像分类模型构建的方法、装置、设备及存储介质
CN108780519B (zh) 卷积神经网络的结构学习
US20190294970A1 (en) Systems and methods for polygon object annotation and a method of training an object annotation system
Yu et al. Mixed pooling for convolutional neural networks
Kim et al. Handwritten Hangul recognition using deep convolutional neural networks
Merkurjev et al. An MBO scheme on graphs for classification and image processing
Montazer et al. An improved radial basis function neural network for object image retrieval
Esmaeili et al. Fast-at: Fast automatic thumbnail generation using deep neural networks
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
JP2008287437A (ja) 情報処理方法、情報処理装置
Zhang et al. Flexible auto-weighted local-coordinate concept factorization: A robust framework for unsupervised clustering
WO2019102984A1 (ja) 学習装置及び学習方法、識別装置及び識別方法、プログラム並びに記録媒体
Wang et al. Energy based competitive learning
JP6426441B2 (ja) 密度計測装置、密度計測方法、およびプログラム
CN113642400A (zh) 基于2s-agcn的图卷积动作识别方法、装置及设备
CN114419406A (zh) 图像变化检测方法、训练方法、装置和计算机设备
JP6166981B2 (ja) 表情解析装置及び表情解析プログラム
WO2020065908A1 (ja) パターン認識装置、パターン認識方法およびパターン認識プログラム
Ali et al. Deep multi view spatio temporal spectral feature embedding on skeletal sign language videos for recognition
CN116935057A (zh) 目标评价方法、电子设备和计算机可读存储介质
JP5284530B2 (ja) 情報処理方法、情報処理装置
Baruque et al. WeVoS scale invariant map
KR101763259B1 (ko) 데이터를 구분하는 전자 장치 및 그 방법
JP6336827B2 (ja) 画像検索装置、画像検索方法および検索システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100928

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees