JP5929896B2 - 画像認識システム、画像認識方法および画像認識用プログラム - Google Patents

画像認識システム、画像認識方法および画像認識用プログラム Download PDF

Info

Publication number
JP5929896B2
JP5929896B2 JP2013504406A JP2013504406A JP5929896B2 JP 5929896 B2 JP5929896 B2 JP 5929896B2 JP 2013504406 A JP2013504406 A JP 2013504406A JP 2013504406 A JP2013504406 A JP 2013504406A JP 5929896 B2 JP5929896 B2 JP 5929896B2
Authority
JP
Japan
Prior art keywords
image
region
learning
partial area
voting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013504406A
Other languages
English (en)
Other versions
JPWO2012124000A1 (ja
Inventor
和之 櫻井
和之 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2012124000A1 publication Critical patent/JPWO2012124000A1/ja
Application granted granted Critical
Publication of JP5929896B2 publication Critical patent/JP5929896B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は画像認識システム、画像認識方法および画像認識用プログラムに関し、高い認識精度で画像内の物体を認識することができる画像認識システム、画像認識方法および画像認識用プログラムに関する。
学習装置の一例が、特許文献1に記載されている。図14に示すように、この学習装置は、記憶装置1000と、特徴点検出部1001と、特徴量計算部1002と、投票学習部1003と、識別器学習部1004から構成されている。本学習装置は、特徴点の投票により対象を認識しているため、認識対象個々の形状等の違いに対して比較的頑健であるという特徴を有している。
このような構成を有する学習装置は次のように動作する。
すなわち、記憶装置1000は、認識対象物体に関する画像群及び認識対象物体以外の物体の画像群で構成される学習画像を格納する。特徴点検出部1001は、学習画像のそれぞれの画像から多数の特徴点を検出する。特徴量計算部1002は、特徴点とその周辺画像領域に関する特徴量として特徴ベクトルを計算する。投票学習部1003は、学習画像の認識対象物体に関する画像から計算された特徴ベクトルに対応する特徴点に関して、投票空間であるパラメータ空間内での投票位置情報を算出して記憶する。識別器学習部1004は、認識対象物体の認識の際に検出された任意の特徴点が認識対象物体に属するか否かを識別するための識別器を、特徴ベクトルを用いて学習する。
特許文献2には、識別性能を向上させることを目的とした学習装置が開示されている。この学習装置は、サンプル画像上の点毎に、その点を中心とする矩形ウィンドウを用いて、パターン認識に必要な局所情報を計算する。また、学習装置は、サンプル画像上の点毎に、注目点の周辺の領域の識別クラスを特定する配置情報を計算する。そして、学習装置は、局所情報と配置情報とを組み合わせた複数の組合せ情報の中から、1つの組合せ情報を選択し、選択した組合せ情報に基づいて、1つの弱識別器の識別パラメータを計算する。
非特許文献1〜4にも、画像認識に関する技術が開示されている。
特開2010−204826号公報 特開2008−217589号公報
Paul Viola, John C. Platt and Cha Zhang, "Multiple Instance Boosting For Object Detection", Proc. Conference on Advances in Neural Information Processing Systems 18, pp.1419-1426, 2006. P. Viola, M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", Proc. IEEE Conf. on Computer Vision and Pattern Recognition, Vol. 1, pp.511-518, December 2001. N. Dalal and B. Triggs: "Histograms of Oriented Gradients for Human Detection", IEEE Proc. CVPR2005, pp.829-836, 2005. Subhransu Maji, Jitendra Malik: "Object Detection using a Max-Margin Hough Transform", IEEE Proc. CVPR2009, pp.1038-1045, 2009.
上述した特許文献1に開示の技術は、人物等の曲線により構成される認識対象物を正確に認識することができない、という課題がある。その理由は、認識対象物が人物等の曲線より構成される物体である場合、特徴点の正確な検出が困難だからである。具体的には、特許文献1に開示の技術で用いられている特徴点検出はコーナー点やblob等を検出するものであり、比較的曲率がなだらかに変化する輪郭線をもつ人物等の物体にはそのような特徴は少ないためである。
ここで、上述したように、特許文献2には、識別性能を向上させることを目的とした技術が開示されている。しかし、特許文献2に開示の技術は、本願発明のように、部分領域集合から選択した領域に基づいて識別器を学習する技術を開示したのもではない。
本発明の目的は、上述したような課題を解決するために、曲線を含む認識対象物についても、頑健な認識を行なうことができる画像認識システム、画像認識方法および画像認識用プログラムを提供することにある。
本発明の第1の態様にかかる画像認識システムは、識別対象物を有する認識対象物を含む入力画像のうち、任意の領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を判定する識別器の判定結果に基づいて、前記入力画像に含まれる認識対象物を認識する画像認識手段と、前記認識対象物を含む学習用画像において、複数の学習部分領域を決定する部分領域決定手段と、前記学習部分領域に基づいて、当該学習部分領域と、当該学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成する部分領域集合生成手段と、前記学習部分領域について前記識別器の学習を行う場合に、当該学習部分領域から生成された学習部分領域集合に含まれる複数の領域から、前記識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度をより高く判定するように、前記識別器を学習する学習手段と、を備えた画像認識システム。
本発明の第2の態様にかかる画像認識方法は、識別対象物を有する認識対象物を含む学習用画像において、複数の学習部分領域を決定し、前記学習部分領域に基づいて、当該学習部分領域と、当該学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成し、前記学習部分領域について、前記認識対象物を含む入力画像のうち、任意の領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を判定する識別器の学習を行う場合に、当該学習部分領域から生成された学習部分領域集合に含まれる複数の領域から、前記識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度をより高く判定するように、前記識別器を学習し、前記識別器によって前記入力画像を判定した結果に基づいて、前記入力画像に含まれる認識対象物を認識する、画像認識方法。
本発明の第3の態様にかかる画像認識プログラムは、識別対象物を有する認識対象物を含む学習用画像において、複数の学習部分領域を決定する処理と、前記学習部分領域に基づいて、当該学習部分領域と、当該学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成する処理と、前記学習部分領域について、前記認識対象物を含む入力画像のうち、任意の領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を判定する識別器の学習を行う場合に、当該学習部分領域から生成された学習部分領域集合に含まれる複数の領域から、前記識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度をより高く判定するように、前記識別器を学習する処理と、前記識別器によって前記入力画像を判定した結果に基づいて、前記入力画像に含まれる認識対象物を認識する処理と、をコンピュータに実行させる画像認識プログラム。
上述した本発明の各態様によれば、曲線を含む認識対象物についても、頑健な認識を行なうことができる画像認識システム、画像認識方法および画像認識用プログラムを提供することができる。

本発明の実施の形態にかかる画像認識システムの概要構成を示すブロック図である。 本発明の実施の形態にかかる画像認識システムの構成を示すブロック図である。 部分領域集合からの部分領域の探索を説明する図である。 投票パターンの生成方法を示す図である。 投票を説明する図である。 本発明の実施の形態にかかる画像認識システムの学習動作を示す流れ図である。 本発明の実施の形態にかかる画像認識システムの認識動作を示す流れ図である。 認識対象である原画像の例を示す図である。 本発明の実施の形態にかかる画像認識システムの具体例の構成を示すブロック図である。 部分領域への分割を説明する図である。 本発明の実施の形態にかかる画像認識システムの具体例の学習動作を示す流れ図である。 本発明の実施の形態にかかる画像認識システムの具体例の認識動作を示す流れ図である。 本発明の実施の形態にかかるコンピュータのハードウェア構成を示すブロック図である。 背景技術にかかる学習装置の一例の構成を示すブロック図である。
まず、図1を参照して、本発明の実施の形態にかかる画像認識システム5の概要について説明する。図1は、本発明の実施の形態にかかる画像認識システム5の概要構成を示すブロック図である。
画像認識システム5は、部分領域決定手段50、部分領域集合生成手段51、及び学習手段52を有する。画像認識システム5は、識別器の判定結果に基づいて、入力画像に含まれる認識対象物を認識する。入力画像には、識別対象物を有する認識対象物が含まれる。識別器は、入力画像のうち、任意の領域に関する特徴量に基づいてその領域に含まれる画像が識別対象物である尤度を判定する。
部分領域決定手段50は、認識対象物を含む学習用画像において、複数の学習部分領域を決定する。
部分領域集合生成手段51は、学習部分領域に基づいて、学習部分領域と、学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成する。
学習手段52は、学習部分領域集合に含まれる複数の領域から、識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて領域に含まれる画像が識別対象物である尤度をより高く判定するように、識別器を学習する。
続いて、本発明の実施の形態にかかる画像認識システム5の動作について説明する。
部分領域決定手段50は、認識対象物を含む学習用画像において、複数の学習部分領域を決定する。部分領域集合生成手段51は、部分領域決定手段50が決定した学習部分領域に基づいて、学習部分領域と、学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成する。学習手段52は、部分領域集合生成手段51が生成した学習部分領域集合に含まれる複数の領域から、識別対象物であると判定するのに適している画像を含む領域を選択する。そして、学習手段52は、選択した領域に関する特徴量に基づいて領域に含まれる画像が識別対象物である尤度をより高く判定するように、識別器を学習する。
次に、本発明の実施の形態にかかる画像認識システム10について図面を参照して詳細に説明する。
図2を参照すると、本発明の実施の形態にかかる画像認識システム10は、プログラム制御により動作するコンピュータ100、120と、画像データベース110と、画像入力装置130と、を有する。コンピュータ100、120のそれぞれは、プロセッサ(中央処理装置又はデータ処理装置とも言う)(図示せず)を含む。
コンピュータ100は、画像分割機能101と、部分領域集合生成機能102と、特徴ベクトル生成機能103と、識別器パラメータ・部分領域位置学習機能104と、部分領域投票パターン生成機能105と、部分領域重み計算機能106と、認識パラメータ出力機能107とを含む。
コンピュータ120は、部分領域画像識別機能121と、部分領域投票機能122と、投票ピーク検出機能123と、対象物認識機能124と、認識結果出力機能125とを含む。
これらの手段はそれぞれ概略つぎのように動作する。
画像データベース110は、識別器パラメータ・部分領域位置学習機能104の学習に必要な認識対象物を含む画像を格納する。ここで、画像データベース110は必要に応じて、さらに認識対象物を含まない画像を格納してもよい。画像データベース110に格納される画像は、後述する部分領域識別器を学習するための学習用画像となる。画像データベース110は、例えば、コンピュータ100が有するメモリ、ハードディスクドライブ又は光ディスクドライブ等の記憶手段であってもよく、画像を格納する記憶装置を有し、コンピュータ100と任意の通信手段によって画像を送受信可能なコンピュータであってもよい。
ここで、認識対象物とは、画像のうち、画像認識システムによって認識する対象となる物体のことである。認識対象物とは、例えば、人である。また、本実施の形態では、認識対象物に含まれる物体のうち、任意の物体を識別対象物として定義する。識別対象物は、例えば、人の手、足、及び頭等である。後述するように、画像認識システムは、画像に含まれる識別対象物を識別する。画像認識システムは、識別した識別対象物の種類に対応する投票パターンを、その識別した識別対象物の種類に対応する投票空間に投票する。そして、画像認識システムは、この投票結果に基づいて、識別対象物の位置関係に基づいた認識対象物の位置を認識する。
画像分割機能101は、画像データベース110内の各画像を、複数の部分領域に分割する。部分領域集合生成機能102は、部分領域毎に、部分領域とその周辺の領域とを含む複数の領域の集合である部分領域集合を生成する。特徴ベクトル生成機能103は、部分領域集合の各領域から特徴ベクトルを生成する。
識別器パラメータ・部分領域位置学習機能104は、後述のMultiple Instance Learningの枠組みに基づき、特徴ベクトルを用いて、部分領域識別器のパラメータを学習する。部分領域識別器は、特徴ベクトルに基づいて、その特徴ベクトルが生成された領域を部分領域クラスへと識別する識別器である。ここで、部分領域クラスとは、識別対象の領域に含まれる画像が認識対象物に含まれる識別対象物のうち、いずれの識別対象物であるか、又はいずれの認識対象物でもないか、を定義したものである。つまり、部分領域識別器は、特徴ベクトルに基づいて、その特徴ベクトルが生成された領域に含まれる画像が、識別対象物であるか否かを識別する。よって、部分領域識別器は、例えば、識別対象物のそれぞれに対応するように複数用意されるか、もしくは複数の識別対象物への識別が可能な識別器として1つもしくは複数用意される。
識別器パラメータ・部分領域位置学習機能104は、ある識別対象物の部分領域クラスへと識別する部分領域識別器を学習する場合、部分領域集合の中から、その部分領域クラスとして最も適している領域を選択して、選択した領域の特徴ベクトルを用いてその部分領域識別器のパラメータを計算する。なお、最も適している領域の選択は、Multiple Instance Learningによる技術を利用して行う。また、識別器パラメータ・部分領域位置学習機能104は、学習後の部分領域識別器によって、部分領域集合の中から最も識別対象物らしい画像を含む領域を特定して、特定した領域からの認識対象物の認識基準点の相対位置を計算する。これにより、各識別対象物の部分領域クラスに対応する部分領域識別器のパラメータが学習される。また、計算した相対位置によって、後述するように、識別対象物に対する認識対象物の位置が学習される。
部分領域投票パターン生成機能105は、計算された識別対象物からの認識対象物の相対位置に基づき、その識別対象物の部分領域クラスについての投票パターンを生成する。この投票パターンは、最も識別対対象物らしいと特定した領域を基準として、計算した相対位置を投票空間上に重ね合わせることで生成される。すなわち、投票パターンにおいて、相対位置が最も集中して重ね合わせられる点が、識別対象物から見た認識対象物の位置として最も適した位置であるとして、識別対象物及び認識対象物の位置関係が学習されることになる。部分領域重み計算機能106は、認識対象物とそれ以外のものとの識別が最良となるように各識別対象物の部分領域クラスについての部分領域重みを計算する。認識パラメータ出力機能107は、学習された各パラメータを出力する。具体的には、認識パラメータ出力機能107は、学習した部分領域識別器のパラメータをコンピュータ120の部分領域画像識別機能121に出力し、生成した投票パターン及び部分領域重みをコンピュータ120の部分領域投票機能122に出力する。なお、部分領域識別器のパラメータ、投票パターン及び部分領域重み等のデータは、上述したように、コンピュータ100からコンピュータ120に直接出力されるようにしてもよく、図13を参照して後述するように、任意の外部記憶媒体を介してコンピュータ100からコンピュータ120に受け渡されるようにしてもよい。
画像入力装置130は、原画像をコンピュータ120に対して入力する。画像入力装置130は、例えば、図13を参照して後述するように、原画像を格納する記憶手段を有し、コンピュータ120と任意の通信手段によって画像を送受信可能なコンピュータである。以下、入力された原画像を「入力画像」とも言う。コンピュータ120は、後述する認識動作によって、この原画像に含まれる認識対象物を認識する。
部分領域画像識別機能121は、各部分領域識別器により原画像の各部分領域を各部分領域クラスへと識別する。部分領域投票機能122は、原画像の各部分領域について、部分領域クラスに対する投票パターンと部分領域重みに基づき投票空間への投票を行なう。投票ピーク検出機能123は、投票空間における投票のピークを検出する。対象物認識機能124は、投票空間における投票のピークに基づき、認識対象物の位置を特定することにより認識対象物の認識を行なう。認識結果出力機能125は、認識対象物の認識結果を出力する。
ここで、非特許文献1に述べられているMultiple Instance Learningの枠組みに基づく識別器のパラメータと位置の学習について説明する。識別器とは一般に式(1)で表されるような、パラメータwにより規定される識別関数f(x; w)により入力データxに対してxが属すると推定されるクラスyを出力するものである。ここでは、識別器がクラスとして2クラスを識別するものである場合、識別器は、入力データが識別対象物のクラスである場合に1を出力し、識別対象外のクラスである場合に0を出力する。
y = f(x; w) ・・・(1)
パラメータwの学習とは、既に対応するクラスが特定されている学習用データ(xi, yi)の集合である学習用データ集合{xi, yi}(i=0,1,……,Ni)を用いてパラメータwを決定することである。ここで、Niは、任意の正整数である。また、xiは入力データであり、yiは入力データxiに対応するクラスである。ここで、Multiple Instance Learningでは、学習用データ集合においてクラスyiに対して入力データxiのような単独の入力データではなく、複数の入力データの組である入力データ群{xij}(j=0,1,……,Nj)を対応させる。入力データ群{xij}の内少なくとも1つの入力データがクラスyiに属するとする。ここで、Njは、任意の正整数である。すなわち、学習用データ集合として{{xij}, yi}を用いる。このとき、入力データ群{xij}に対する識別関数を式(2)のように定める。
y = F({xij}; w) = softmax_j(f(xij; w)) ・・・ (2)
関数softmax_j()は添え字jに関する最大値を近似する微分可能な関数であり、非特許文献1に幾つかの例が示されている。学習用データ集合{{xij}, yi}を用いて識別関数F({xij}; w)のパラメータが学習されるが、この際、式(2)によって各入力データ群{xij}の内で最も識別対象物らしい入力データxik(kは、0以上Nj以下の正整数である)について識別関数f(x; w)が1を出力するようにパラメータwが学習される。入力データ群{xij}の少なくとも1つの入力データは識別対象物のクラスに属するので、入力データ群{xij}に含まれる入力データのうち、識別対象物のクラスに属する入力データについてパラメータwの学習が行なわれることになる。
ここで、入力データxiを部分領域から計算される特徴ベクトルとすると、入力データ群{xij}として、部分領域集合に属する各領域から計算される特徴ベクトルを考えることができる。具体的には、入力データ群{xij}では、iの値によって複数の部分領域集合のうち、いずれの部分領域集合であるかが表現され、jの値によって部分領域集合に含まれる複数の領域のうち、いずれの領域であるかが表現される。このとき、ここで述べたMultiple Instance Learningの枠組みで学習を行なうならば、図3に示すとおり、部分領域集合200の内で最も識別対象物らしい領域201についての部分領域識別器のパラメータが学習されることになる。
これはすなわち、部分領域とその周辺の領域の中で最も識別対象物の部分領域クラスとして適している領域201を選択し、その領域201の特徴ベクトルに基づいて、部分領域識別器のパラメータを学習しているということになる。これは、学習用画像間で同一の識別対象物の位置ずれがあったとしても、学習対象とする領域を、識別対象物と識別される画像を含む領域として最適な領域に補正しながら部分領域識別器のパラメータを学習しているということである。
この学習によって、例えば、識別対象物として人の足を識別する部分領域識別器を学習するとき、部分領域識別器は、入力された特徴ベクトルに基づいて、その特徴ベクトルが生成された領域に含まれる画像が足である場合に1を出力するように学習される。また、部分領域識別器は、入力された特徴ベクトルに基づいて、その特徴ベクトルが生成された領域に含まれる画像が足でない場合に0を出力するように学習される。
なお、識別対象物の部分領域クラスとして適している領域の選択は、図13を参照して後述するように、コンピュータ100が有する入力手段によって、ユーザから、部分領域集合のうち、識別対象物の部分領域クラスとして適している領域を選択する入力を受けることによって行ってもよい。
また、部分領域識別器のパラメータの学習終了後、各部分領域集合200において、部分領域識別器が最も識別対象物らしいと出力する領域201の位置により各学習用画像間での同一の識別対象物の位置ずれを特定できる。例えば、部分領域識別器がある特徴ベクトルの入力に応じて1を出力した場合、その特徴ベクトルが生成された領域が、領域201に相当する。これにより、識別対象物である画像を含む領域の正確な位置を学習することが出来る。
つまり、認識対象物が人である場合に、学習用画像間で、人がとっているポーズが異なり、認識対象物である手、足、および頭等の位置が相対的に異なっている場合であっても、それらの正確な位置を特定することができる。それらの位置となる領域201は、投票パターンの生成において、認識対象物の認識基準点への相対位置を計算するときの基準位置として使用される。そのため、投票パターンの生成において、識別対象物からの認識対象物の認識基準点の相対位置の分布を、高い精度で生成することができる。
なお、部分領域識別器の出力値は0又は1の2値ではなく0と1の間の連続値を出力し、その連続な出力値を予め定められた閾値と比較することにより部分領域クラスを識別するようにしてもよい。この場合、識別関数の出力値を領域について識別対象物らしさを表す識別値として用いることが出来る。つまり、部分領域識別器の出力値として、識別対象となる領域に含まれる画像が識別対象物である尤度を出力するようにしてもよい。この場合、部分領域集合の中で最も識別対象物の部分領域クラスとして適している領域を選択して、選択した領域の特徴ベクトルに基づいて、その領域に含まれる画像が識別対象物である尤度をより高く判定するように、部分領域識別器のパラメータを学習するようにする。つまり、部分領域識別器は、部分領域集合200のうち、最も識別対象物らしい領域201を、最も高い尤度と判定するように学習をする。
ここで、認識対象物の認識基準点への相対位置を計算するときの基準位置は、部分領域識別器が最も識別対象物らしいと判定した領域201に限られない。部分領域識別器が識別対象物らしい領域であれば、部分領域集合200の中から複数の領域を基準位置として使用するようにしてもよい。例えば、部分領域識別器が出力値が尤度である場合は、部分領域集合のうちの複数の領域において、それぞれの領域に含まれる画像が識別対象物である尤度が、予め定められた閾値以上となる場合に、それらの領域を基準位置として使用するようにしてもよい。つまり、それらの基準位置から計算した相対位置を使用して、相対位置の分布を生成するようにしてもよい。また、部分領域識別器の出力値が0又は1の2値である場合、部分領域集合200の中に、部分領域識別器が1を出力する領域が複数含まれていてもよい。
次に、投票パターンについて説明する。図4に示すとおり、認識対象物300について認識対象物300を代表して位置の基準となる点である認識基準点301を設定する。ここで、部分領域投票パターン生成機能105は、部分領域集合のうち、識別対象物らしいと判定された領域302の位置から認識基準点301への相対位置303を算出する。そして、部分領域投票パターン生成機能105は、投票空間304上に領域302からの相対位置303における点305を投票する。このような、相対位置303となる点305の投票を「相対位置の投票」と言う。この相対位置の投票は、例えば学習用画像の縦方向及び横方向にX軸及びY軸をとった空間上において行なう。ここで、認識基準点301への相対位置303の基準となる領域302の位置は、領域302上のいずれの点にとってもよい。例えば、図4に示すように、領域302の上辺の中央を基準位置としてもよい。これにより、識別対象物が含まれる領域の位置から認識基準点301への相対位置303の分布306を得ることが出来る。この分布306を投票パターンとする。ここで、投票パターンは、異なる認識対象物の部分領域クラスのそれぞれに対応するように生成される。すなわち、識別対象物らしいと判定された領域302の位置から計算された相対位置303は、その識別対象物の部分領域クラスに対応する投票パターンに対して投票される。
なお、相対位置の投票は、投票空間304上の相対位置303における点305に対して、所定の定数を加算した投票値を設定することによって行われる。投票パターン304の各座標位置における投票値は、最初に、例えば、ALL0で初期化される。そして、相対位置303における点305を投票する毎に、定数を加算していく。つまり、同一の座標位置に対して2回の投票がされた場合、その座標位置における投票値は、定数の2倍となる。なお、相対位置303における点305の投票パターン304上への投票において、投票値として定数の他、部分領域識別器から出力される、識別対象物らしさを表す識別値を用いることが出来る。
次に、部分領域投票機能122による投票パターンの投票について説明する。図5に示すとおり、投票空間として例えば原画像と同じ座標系を持つ空間400を考えることができる。例えば、原画像の縦方向及び横方向にX軸及びY軸をとった空間400を投票空間とする。ここで、部分領域画像識別機能121により、原画像のうちのある部分領域401が、ある識別対象物の部分領域クラスと識別されたなら、その部分領域クラスについての投票パターン402を、部分領域401の位置を原点として空間400に対して加算することにより、投票パターン402の投票を行なう。このような、投票パターン402の投票を「投票パターンの投票」と言う。ここで、原点は、部分領域401上のいずれの点にとってもよい。例えば、図5に示すように、部分領域401の上辺の中央を基準位置としてもよい。好ましくは、このように、領域302における基準位置と同一の位置に原点をとるとよい。このように、投票パターンの投票を各部分領域について行なうことにより、投票空間内の認識対象物の認識基準点301に投票値403のピークが生成される。つまり、投票値403のピークの位置に基づいて、認識対象物の位置を把握することができる。
なお、部分領域識別器が部分領域に含まれる画像が識別対象物である尤度を出力する場合、尤度が予め定められた閾値以上となるときに、その部分領域の位置を原点として、その識別対象物の部分領域クラスについての投票パターンを投票するようにしてもよい。
次に、投票重みについて説明する。部分領域投票機能122における投票パターンの投票において、投票パターン402の値をそのまま加算するのではなく、例えば各識別対象物の部分領域クラスについて計算された部分領域重みを、部分領域クラスに対応する投票パターン402の値に乗じて加算することができる。これにより、より認識に対して重要な部分領域クラスの影響を強くした認識を行なうことができる。部分領域重みは、例えば、非特許文献4の3節に開示されているScoreのように、予め定められた算出基準を用いることによって、重要な部分領域クラスの影響が強くなるように計算される。
なお、部分領域重み計算機能106における部分領域重みの計算において、全部分領域重みを等しくしても良い。この場合、実質的には部分領域重みは意味を成さず、従って部分領域重み計算機能106を省略することが出来る。
また、部分領域重みの算出は、図13を参照して後述するように、コンピュータ100が有する入力手段によって、ユーザから、部分領域クラス毎に重要度の入力を受けるようにして、入力された重要度に比例するように、部分領域クラス毎の重みを計算するようにしてもよい。
また、部分領域識別器として、例えばニューラルネットワーク等の多クラス識別が可能な多クラス識別器を用意し、全ての部分領域クラスの識別を1つの多クラス識別器により実現してもよい。この場合、部分領域識別器は、例えば、1つの特徴ベクトルの入力に応じて、その特徴ベクトルが生成された領域がどの部分領域クラスであるか否かを出力する。また、部分領域識別器は、1つの特徴ベクトルの入力に応じて、全ての部分領域クラスのそれぞれについて、その特徴ベクトルが生成された領域が部分領域クラスである尤度を出力するようにしてもよい。
また、それぞれが異なる識別対象物の部分対象クラスと識別される部分領域間の類似性を、例えば互いに他方の部分領域の部分領域クラスとして誤識別する確率、それぞれの部分領域に対応する部分領域クラスを識別する部分領域識別器のそれぞれのパラメータの近さ、及びそれぞれの部分領域の特徴ベクトル間の距離などの評価値により定義するようにしてもよい。そして、類似性の高い部分領域は、どちらの部分領域も、上記の異なる識別対象物の部分領域クラスのうち、いずれか1つの部分領域クラスとして識別する部分領域識別器を用いてもよい。例えば、評価値を、部分領域間の類似性が高くなる程、より高くなるように定義し、評価値が所定の値以上となった場合に、部分領域間の類似性が高いと判定する。この場合、投票パターンとして、部分領域重みを考慮した上で、個々の部分領域クラスに対応する投票パターンのそれぞれを合成した投票パターンを用いるようにしてもよい。すなわち、部分領域クラスのそれぞれに対応する投票パターンに、部分領域クラスのそれぞれに対する部分領域重みに比例した値を乗じてから、投票パターンを加算することによって生成した投票パターンを使用するようにしてもよい。例えば、部分領域識別器に、本来の部分領域クラスを示す情報を出力させるようにすることで、合成対象となる投票パターンを認識可能とする。
また、本実施の形態における原画像の代わりに、これらにフィルタや幾何変換等の処理を施した処理画像を用いてもよい。
また、本実施の形態における特徴ベクトルとして、原画像のピクセル値、原画像にフィルタや幾何変換等の処理を施した処理画像のピクセル値、非特許文献2で述べられているHaar-like特徴、非特許文献3で述べられているHOG特徴等、一般に画像の識別において用いることのできる特徴を用いてよい。
また、本実施の形態における部分領域識別器として、ニューラルネットワーク、線形識別器、サポートベクタマシン、非特許文献2で述べられているカスケード型識別器、ベクトル量子化器等、一般に画像の識別において用いることのできる識別器を用いてよい。
次に、図2と、図6及び図7のフローチャートとを参照して本実施の形態にかかる画像認識システムの全体の動作について詳細に説明する。
なお、本実施の形態にかかる画像認識システムの動作はコンピュータ100により処理される学習動作とコンピュータ120により処理される認識動作の2つの動作から成るため、以下では、これら2つの動作に分けて説明する。
まず、図6を参照して、学習動作について詳細に説明する。
まず、画像分割機能101は、画像データベース110内の各画像を、複数の部分領域に分割する(S1)。次に、コンピュータ100は、全ての部分領域の内に、未処理の部分領域が存在するか否かを判定する(S2)。コンピュータ100は、未処理の部分領域が存在すればステップS3へとすすむ(S2:YES)。この場合、画像データベース110内の各画像間で同じ位置に位置する部分領域のそれぞれを、処理対象の部分領域として選択する。なお、ここで選択される部分領域は、未処理の部分領域のうち、いずれかの部分領域となる。コンピュータ100は、未処理の部分領域が存在しなければステップS10へとすすむ(S2:NO)。
コンピュータ100は、画像データベース110内に部分領域についての特徴ベクトルが未計算である画像が存在するか否かを判定する(S3)。なお、ここで対象となる部分領域は、S2で選択された部分領域となる。コンピュータ100は、部分領域についての特徴ベクトルが未計算である画像が存在すればステップS4へとすすむ(S3:YES)。コンピュータ100は、部分領域についての特徴ベクトルが未計算である画像が存在しなければステップS7へとすすむ(S3:NO)。
部分領域集合生成機能102は、画像の部分領域について、その部分領域を含む部分領域集合を生成する(S4)。なお、ここで対象となる画像は、部分領域についての特徴ベクトルが未計算であると判定された画像のうち、いずれかの画像である。また、部分領域集合の生成に用いられる部分領域は、S2で選択された部分領域となる。さらに、コンピュータ100は、部分領域集合に特徴ベクトルが未生成の領域が存在するか否かを判定する(S5)。コンピュータ100は、特徴ベクトルが未生成の領域が存在すればステップS6へとすすむ(S5:YES)。コンピュータ100は、特徴ベクトルが未生成の領域が存在しなければステップS3へとすすむ(S5:NO)。特徴ベクトル生成機能103は、部分領域集合の領域について特徴ベクトルを生成する(S6)。なお、ここで対象となる領域は、S4で生成された部分領域集合において、特徴ベクトルが未計算の領域のうち、いずれかの領域である。これらの処理によって、ステップS4で生成された部分領域集合に含まれる領域の全てについての特徴ベクトルの生成が完了するまで、ステップS5、S6における処理が繰り返されることになる。また、画像データベース110内の全ての画像についてのS2で選択された部分領域に関する特徴ベクトルの生成が完了するまで、ステップS3〜S6における処理が繰り返されることになる。
識別器パラメータ・部分領域位置学習機能104は、部分領域集合に属する領域のそれぞれから生成された特徴ベクトルを用いて、Multiple Instance Learningの枠組みに基づき、部分領域識別器のパラメータを計算する(S7)。なお、ここで対象となる特徴ベクトルは、S2で選択された部分領域に関して、S6で生成された特徴ベクトルとなる。さらに、コンピュータ100は、画像データベース110内に部分領域クラスに対応する投票パターンへの相対位置の投票が行なわれていない画像が存在するか否かを判定する(S8)。コンピュータ100は、相対位置の投票が行われていない画像が存在すればステップS9へとすすむ(S8:YES)。コンピュータ100は、相対位置の投票が行われていない画像が存在しなければステップS2へとすすむ(S8:NO)。部分領域投票パターン生成機能105は、部分領域集合内で最大の識別値を持つ領域から認識対象物の認識基準点への相対位置を投票空間に投票する(S9)。なお、ここで対象となる部分領域集合は、相対位置の投票が行われていないと判定された画像のうち、いずれかの画像における部分領域集合である。また、この部分領域集合は、S2で選択された部分領域について、S4で生成された部分領域集合となる。これらの処理によって、画像データベース110内の全ての画像についてのS2で選択された部分領域に関する相対位置の投票が完了するまで、ステップS8、S9における処理が繰り返されることになる。
部分領域重み計算機能106は、認識対象物とそれ以外のものとの識別が最良となるように各部分領域クラスに対する投票重みを計算する(S10)。さらに、認識パラメータ出力機能107は、学習されたパラメータを出力する(S11)。
なお、本学習動作の内、ステップS1からステップS11までを行う主体はコンピュータ100であり、例えばプログラムに基づき動作する。
次に、図7を参照して、認識動作について詳細に説明する。
まず、コンピュータ120は、撮像された原画像が画像入力装置130により入力される(S12)。次に、コンピュータ120は、原画像内の部分領域の内、未処理の部分領域が存在するか否かを判定する(S13)。コンピュータ120は、未処理の部分領域が存在すればステップS14へとすすむ(S13:YES)。コンピュータ120は、未処理の部分領域が存在しなければステップS17へとすすむ(S13:NO)。
部分領域画像識別機能121は、部分領域を部分領域クラスへと識別する(S13)。なお、ここで対象となる部分領域は、未処理であると判定された部分領域のうち、いずれかの部分領域である。そして、コンピュータ120は、部分領域に対応する識別対象物の部分領域クラスが存在するか否かを判定する(S14)。言い換えると、コンピュータ120は、部分領域が識別対象物の部分領域クラスへと識別されたか否かを判定する。コンピュータ120は、部分領域に対応する部分領域クラスが存在すればステップS16へとすすむ(S15:YES)。コンピュータ120は、部分領域に対応する部分領域クラスが存在しなければステップS13へとすすむ(S15:NO)。部分領域投票機能122は、部分領域クラスに対応する投票パターンと部分領域重みに基づき、投票空間への投票パターンの投票を行なう(S16)。すなわち、部分領域投票機能122は、部分領域クラスに対応する投票パターンに、その部分領域クラスに対応する部分領域重みを乗じてから、その投票パターンを投票空間に投票する。これらの処理によって、原画像内の全ての部分領域について、部分領域クラスへの識別及び投票パターンの投票が完了するまで、ステップS13〜S16における処理が繰り返されることになる。
投票ピーク検出機能123は、投票空間における投票値のピークを検出する(S17)。対象物認識機能124は、投票空間における投票値のピークの位置に基づき認識対象物の位置を特定する(S18)。認識結果出力機能125は、特定された認識対象物の位置を認識結果として出力する(S19)。
なお、本認識動作の内、ステップS12からステップS19までを行う主体はコンピュータ120であり、例えばプログラムに基づき動作する。
次に、本実施の形態の効果について説明する。
本実施の形態では、直接部分領域を識別しているため、特徴点の検出を行なう必要がなく、特徴点の検出が困難な曲線を含む対象物にも適用可能である。さらに、本実施の形態では、ある部分領域について部分領域識別器の学習を行うに際して、その部分領域と、その部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む部分領域集合を生成するようにしている。そして、部分領域集合に含まれる複数の領域のうち、識別対象物であると判定するのに適している画像を含む領域に基づいて、部分領域識別器を学習するようにしている。すなわち、学習用画像において、部分領域のみでなく、その周辺の領域も学習対象としている。そのため、部分領域識別器をより適切な領域によって学習することができ、部分領域識別器の性能を向上することができる。そのため、より頑健な認識を行うことができるようになる。
また、本実施の形態では、認識対象物間における、識別対象物が含まれる部分領域の位置の個体差を考慮した投票により認識対象物を認識するようにしている。具体的には、本実施の形態では、部分領域識別器によって識別対象物らしいと判定される領域の位置に基づいて、認識対象物の相対位置の分布を示す投票パターンを生成するようにしている。これによれば、認識対象物の相対位置の分布を高い精度で示す投票パターンを生成することができる。そのため、投票パターンの投票結果によって認識対象物間の形の個体差に頑健な認識対象物の認識を行なうことができるようになる。つまり、部分領域識別器のパラメータと、その学習の結果に基づいた認識対象物らしい領域の位置とを同時に学習している。そのため、部分領域識別器による識別結果と投票空間への投票とを最適に組み合わせることができる。
次に、具体的な実施例を用いて本発明を実施するための最良の形態の動作を説明する。
本実施例は、図8に示すように輝度画像600を原画像とするものであり、原画像から例えば人物601の認識を行うものである。
本実施例は、図9に示すように、プログラム制御により動作するコンピュータ700、720と画像データベース710、画像入力装置730とから構成されている。コンピュータ700、720のそれぞれは、プロセッサ(中央処理装置又はデータ処理装置とも言う)(図示せず)を含む。
コンピュータ700は、画像分割機能701と、部分領域集合生成機能702と、特徴ベクトル生成機能703と、識別器パラメータ・部分領域位置学習機能704と、部分領域投票パターン生成機能705と、部分領域重み計算機能706と、認識パラメータ出力機能707とを含む。
コンピュータ720は、部分領域画像識別機能721と、部分領域投票機能722と、投票ピーク検出機能723と、対象物認識機能724と、認識結果出力機能725とを含む。ここで、コンピュータ700及びそれに含まれる機能701〜707のそれぞれは、コンピュータ100及びそれに含まれる機能101〜107のそれぞれに対応し、コンピュータ720及びそれに含まれる機能721〜725のそれぞれは、コンピュータ120及びそれに含まれる機能121〜125のそれぞれに対応する。そのため、上述した実施の形態で説明済みの内容と同様の内容については、その一部が適宜省略される。
これらの手段はそれぞれ概略つぎのように動作する。
画像データベース710は、識別器パラメータ・部分領域位置学習機能704の学習に必要な、認識対象物の画像と認識対象物を含まない画像とを学習用画像として格納する。画像分割機能701は、画像データベース710内の各画像中の認識対象物を、例えば図10に示すように横5×縦10のそれぞれが矩形状の複数の部分領域801に分割する。なお、分割数は、ここで例示した値に限られない。また、このように、学習用画像のうち、認識対象物を含む所定の範囲を学習対象としてもよく、認識対象物のみを含む範囲又は学習用画像全体を学習対象としてもよい。好ましくは、認識対象物を含む所定の範囲又は認識対象物のみを含む範囲を学習対象とすることで、識別対象物を含まない領域によって学習が行われる確率を低減することができるため、より部分領域識別器の性能を向上する学習を行うことができる。また、学習用画像として、認識対象物のみを含む画像を用意してもよい。
部分領域集合生成機能702は、例えば、部分領域毎に、学習用画像800の横幅の0から10%にあたる長さまでの範囲で、部分領域を上下左右に1ピクセルずつずらした領域のそれぞれを周辺領域として生成することで、部分領域とそれら複数の周辺領域とを含む部分領域集合を生成する。特徴ベクトル生成機能703は、部分領域集合に含まれる複数の領域のそれぞれについて、学習用画像800のピクセル値を要素としたベクトルを特徴ベクトルとして生成する。なお、部分領域を上下左右にずらす範囲、及び部分領域をずらすピクセル数は、ここで例示した値に限られない。
識別器パラメータ・部分領域位置学習機能704は、例えば非特許文献1に述べられているMultiple Instance Learning Boosting等のMultiple Instance Learningの枠組みに基づき、部分領域集合から最も部分領域クラスとして適している領域を選択しながら部分領域識別器のパラメータを学習する。これにより、その部分領域クラスに対応する部分領域識別器のパラメータが学習される。非特許文献1に述べられているMultiple Instance Learning Boostingを用いた場合、部分領域識別器は非特許文献2に述べられているカスケード型識別器を用いるようにしてもよい。カスケード型識別器は、いわゆるViola-Jonesの識別器である。
また、識別対象物に対する認識対象物の相対位置の学習においては、部分領域識別器のパラメータの学習終了後、各部分領域集合において、部分領域識別器が最も識別対象物らしいと判定する領域を選択するようにしている。これにより、各学習用画像間での識別対象物の位置ずれによらず、識別対象物らしい領域の正確な位置が学習される。部分領域投票パターン生成機能705は、計算された識別対象物に対する認識対象物の相対位置に基づき、その識別対象物の部分領域クラスについての投票パターンを生成する。ここで、投票パターン生成における投票パターン中の相対位置に投票される投票値は定数とする。部分領域重み計算機能706は、例えば非特許文献4の3節に述べられている枠組みにより、認識対象物とそれ以外のものとの識別が最良となるように各部分領域クラスについての部分領域重みを計算する。認識パラメータ出力機能707は、学習された各パラメータを出力する。
画像入力装置730は、原画像をコンピュータ720に入力する。部分領域画像識別機能721は、各部分領域識別器により原画像の各部分領域を各部分領域クラスへと識別する。ここで、原画像の部分領域として、次に述べる大きさ及び位置をとる矩形状の部分領域の全てを対象とする。すなわち、部分領域の大きさについては、横幅を原画像横幅の1/10から1/4までの範囲で1ピクセル単位で異なる長さのうちのいずれかとし、縦幅を横幅の4倍の長さとし、部分領域の位置については、部分領域が原画像内に収まる位置のいずれかとした場合にとり得る部分領域の全て又はいずれか複数とする。
このように、本実施例では、それぞれが異なる大きさで原画像を分割することによって生成された部分領域群のそれぞれについて、学習を行うようにしている。これによれば、原画像における認識対象物の大きさが予測できない場合であっても、いずれかの部分領域群の適切な大きさの部分領域によって識別対象物を識別することが可能となる。なお、部分領域の横幅及び縦幅、並びに、部分領域の縦幅と部分領域の横幅との比は、ここで例示した値に限られない。
部分領域投票機能722は、原画像の各部分領域について、それぞれ部分領域の部分領域クラスに対応する投票パターンに部分領域重みを乗じた値を投票値として投票空間への投票を行なう。ここで、投票空間として原画像と同じ座標系を持つ空間を用いる。投票ピーク検出機能723は、投票空間における投票値のピークを検出する。投票ピーク検出機能723は、所定の閾値以上であり、且つ、近傍の3×3の部分領域のおける極大値である投票値をもつ投票空間内の点を、ピークとして検出する。ここで、投票空間内のある点に対する近傍の3×3の部分領域とは、例えば、その点が含まれる部分領域と、その部分領域と同一の大きさで、その部分領域の上下左右及び斜めに隣接する部分領域とを含む範囲のことである。また、所定の閾値とは、部分領域重みの最大値に適当な乗数(例えば10)を乗じた値とする。なお、乗数、及び極大値を判定する領域の範囲は、ここで例示した値に限られない。対象物認識機能724は、投票空間における投票のピークの位置を認識対象物の位置とすることにより対象物の認識を行なう。認識結果出力機能725は、認識対象物の認識結果を出力する。
次に、以上説明した構成要素により構成される本実施例の動作について、図11及び図12のフローチャートを参照して詳細に説明する。
なお、本実施例の動作は前記コンピュータ700により処理される学習動作とコンピュータ720により処理される認識動作の2つの動作から成るため、以下では、これら2つの動作に分けて説明する。
まず、図11を参照して、学習動作について詳細に説明する。
まず、画像分割機能701は、画像データベース710内の各画像を、例えば図10に示すように横5×縦10の複数の部分領域に分割する(S21)。次に、コンピュータ700は、全ての部分領域の内に、未処理の部分領域が存在するか否かを判定する(S22)。コンピュータ700は、未処理の部分領域が存在すればステップS23へすすむ(S22:YES)。コンピュータ700は、未処理の部分領域が存在しなければステップS30へとすすむ(S22:NO)。
コンピュータ700は、画像データベース710内に部分領域についての特徴ベクトルが未計算である画像が存在するか否かを判定する(S23)。コンピュータ700は、特徴ベクトルが未計算である画像が存在すればステップS24へすすむ(S23:YES)。コンピュータ100は、部分領域についての特徴ベクトルが未計算である画像が存在しなければステップS27へとすすむ(S23:NO)。部分領域集合生成機能702は、画像の部分領域について、例えば、学習用画像800の横幅の0から10%にあたる長さまでの範囲で、部分領域を上下左右に1ピクセルずつずらした領域のそれぞれを周辺領域として生成することで、部分領域集合を生成する(S24)。
さらに、コンピュータ700は、部分領域集合に特徴ベクトルが未生成の領域が存在するか否かを判定する(S25)。コンピュータ700は、特徴ベクトルが未生成の領域が存在すればステップS26へとすすむ(S25:YES)。コンピュータ100は、特徴ベクトルが未生成の領域が存在しなければステップS23へとすすむ(S25:NO)。特徴ベクトル生成機能703は、部分領域集合の領域のそれぞれについて、ピクセル値を要素とする特徴ベクトルを生成する(S26)。識別器パラメータ・部分領域位置学習機能704は、部分領域集合に属する領域のそれぞれから生成された特徴ベクトルを用いて、例えば非特許文献1に述べられているMultiple Instance Learning Boosting等のMultiple Instance Learningの枠組みに基づき、部分領域識別器のパラメータを計算する(S27)。部分領域識別器は、例えば非特許文献2に述べられているカスケード型識別器(いわゆるViola-Jonesの識別器)を用いることができる。
さらに、コンピュータ700は、画像データベース710内に部分領域クラスに対応する投票パターンへの相対位置の投票が行われていない画像が存在するか否かを判定する(S28)。コンピュータ700は、相対位置の投票が行なわれていない画像が存在すればステップS29へとすすむ(S28:YES)。コンピュータ100は、相対位置の投票が行われていない画像が存在しなければステップS22へとすすむ(S28:NO)。部分領域投票パターン生成機能705は、投票パターンにおいて、部分領域に対応する部分領域集合内で最大の識別値を持つ領域から認識対象物の認識基準点への相対位置における投票値に対して定数を加算する(S29)。部分領域重み計算機能706は、例えば非特許文献4の3節に述べられている枠組みにより、認識対象物とそれ以外のものとの識別が最良となるように各部分領域クラスに対する投票重みを計算する(S30)。さらに、認識パラメータ出力機能707は、学習されたパラメータを出力する(S31)。
なお、本学習動作の内、ステップS21からステップS31までを行う主体はコンピュータ700であり、例えばプログラムに基づき動作する。
次に、図12を参照して、認識動作について詳細に説明する。
まず、コンピュータ720は、撮像された原画像が画像入力装置730により入力される(S32)。次に、コンピュータ720は、原画像内の部分領域の内に、未処理の部分領域が存在するか否かを判定する(S33)。ここで、原画像内の部分領域は、横幅を原画像横幅の1/10から1/4までの範囲で1ピクセル単位で異なる長さのいずれかとし、縦長は横幅の4倍の長さとし、位置を原画像内に収まる位置のいずれかとした場合にとり得る矩形状の領域の全て又はいずれか複数とする。コンピュータ720は、未処理の部分領域が存在すればステップS34へとすすむ(S33:YES)。コンピュータ720は、未処理の部分領域が存在しなければステップS37へとすすむ(ステップS33:NO)。部分領域画像識別機能721は、部分領域を、例えば非特許文献2に述べられているカスケード型識別器(いわゆるViola-Jonesの識別器)により部分領域クラスへと識別する(S34)。
さらに、コンピュータ720は、部分領域に対応する識別対象物の部分領域クラスが存在するか否かを判定する(S35)。コンピュータ720は、部分領域に対応する識別対象物の部分領域クラスが存在すればステップS36へとすすむ(S35:YES)。コンピュータ720は、部分領域に対応する識別対象物の部分領域クラスが存在しなければステップS33へとすすむ(S35:NO)。部分領域投票機能722は、部分領域クラスに対応する投票パターンと部分領域重みとを乗じた値を投票空間へ投票する(S36)。投票ピーク検出機能723は、閾値以上であり、且つ、近傍の3×3の部分領域のおける極大値である投票値をもつ投票空間内の点を、投票空間における投票値のピークとして検出する(S37)。例えば、部分領域重みの最大値に適当な乗数(例えば10)を乗じた値を閾値とする。さらに、対象物認識機能724は、投票値のピークの位置を認識対象物の位置とすることにより、認識対象物の位置を特定する(S38)。さらに、認識結果出力機能725は、認識対象物の位置を認識結果として出力する(S39)。
なお、本認識動作の内、ステップS32からステップS39までを行う主体はコンピュータ720であり、例えばプログラムに基づき動作する。
続いて、図13を参照して、本発明の実施の形態にかかるコンピュータ100、120のハードウェア構成について説明する。図13は、本発明の実施の形態にかかるコンピュータ100、120のハードウェア構成を示すブロック図である。
コンピュータ100及び120のそれぞれは、プロセッサ80、記憶手段81、通信手段82、入力手段83、及び外部記憶手段84を有する。
プロセッサ80は、上述した本実施の形態における処理を実行するプログラムを実行することによって、本実施の形態における学習動作又は認識動作を実行する。
記憶手段81は、上述した本実施の形態における処理を実行するプログラム、部分領域識別器として機能する識別関数を示すデータ、学習動作又は認識動作において生成・計算される各種データが格納される。記憶手段81は、例えば、メモリ、ハードディスクドライブ又は光ディスクドライブ等である。
通信手段82は、任意の通信網を介して、他のコンピュータとの間で任意のデータを送受信するインタフェースである。例えば、コンピュータ100の認識パラメータ出力機能107は、通信手段82によって、識別器のパラメータ等のデータをコンピュータ120に出力する。コンピュータ120の部分領域画像識別機能121及び部分領域投票機能122は、通信手段82によって、コンピュータ100から出力されたデータを取得する。
入力手段83は、上述したユーザからの入力内容の入力を受ける。入力手段83は、入力内容を示すデータをプロセッサ80に出力する。プロセッサ80は、入力手段83から出力されたデータに基づいて、ユーザからの入力内容を認識する。
外部記憶手段84は、外部記憶媒体が挿抜される。外部記憶媒体は、例えば、USB(Universal Serial Bus)メモリ、外付けハードディスク、及び書き込み可能な光ディスク等である。外部記憶手段84は、外部記憶媒体に対して、任意のデータの書き込み又は読み出しを行うインタフェースである。例えば、コンピュータ100の認識パラメータ出力機能107は、外部記憶手段84によって、識別器のパラメータ等のデータを外部記憶媒体に書き込むようにしてもよい。この場合、ユーザは、そのデータが格納された外部記憶媒体をコンピュータ100から抜去して、その外部記憶媒体をコンピュータ120の外部記憶手段84に挿入することができる。そして、コンピュータ120の部分領域画像識別機能121及び部分領域投票機能122は、外部記憶手段84によって、挿入された外部記憶媒体からデータを読み出すようにしてもよい。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本実施の形態では、学習用画像を分割することによって、部分領域を生成する場合について例示したが、これに限られない。例えば、学習用画像及び原画像のそれぞれにおいて、それぞれの部分領域の間隔を所定のピクセル数離すように決定するようにしてもよい。
本実施の形態では、コンピュータ100が学習動作を行い、コンピュータ120が認識動作を行う場合について例示したが、コンピュータの数はこれに限られない。例えば、1つのコンピュータで、学習動作及び認識動作を実行するようにしてもよく、複数のコンピュータで、学習動作又は認識動作を実行するようにしてもよい。
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合だけでなく、このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)識別対象物を有する認識対象物を含む入力画像のうち、任意の領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を判定する識別器の判定結果に基づいて、前記入力画像に含まれる認識対象物を認識する画像認識手段と、前記認識対象物を含む学習用画像において、複数の学習部分領域を決定する部分領域決定手段と、前記学習部分領域に基づいて、当該学習部分領域と、当該学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成する部分領域集合生成手段と、前記学習部分領域について前記識別器の学習を行う場合に、当該学習部分領域から生成された学習部分領域集合に含まれる複数の領域から、前記識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度をより高く判定するように、前記識別器を学習する学習手段と、を備えた画像認識システム。
(付記2)前記学習手段は、前記識別器が前記領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物であると判定する尤度が、所定の尤度以上となるように学習された場合、当該領域からの当該識別対象物を有する認識対象物に対して予め設定された基準点の相対位置を算出し、前記画像認識システムは、前記学習手段によって算出された相対位置の分布を示す投票パターンを生成する投票パターン生成手段を更に備え、前記画像認識手段は、前記入力画像において複数の入力部分領域を決定して、当該入力部分領域に関する特徴量に基づいて当該入力部分領域に含まれる画像が前記識別対象物である尤度を前記識別器によって判定する識別手段と、前記入力部分領域に含まれる画像が前記識別対象物である尤度が所定の尤度以上である場合に、当該入力部分領域の位置を基準として、前記投票パターンを所定の投票空間に対して投票する投票手段と、前記投票空間に対する投票結果に基づいて、前記認識対象物を認識する対象物認識手段と、を有する、付記1に記載の画像認識システム。
(付記3)前記所定の尤度以上の尤度とは、前記学習部分集合に含まれる複数の領域のそれぞれについて判定された尤度うち、最も高い尤度である、付記2に記載の画像認識システム。
(付記4)前記識別器は、前記領域に含まれる画像が前記識別対象物であるか否かを判定し、前記学習手段は、前記選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物であると判定するように前記識別器を学習するとともに、当該識別器が前記領域に含まれる画像が前記識別対象物であると判定するように学習された場合、当該領域からの前記基準点の相対位置を算出し、前記識別手段は、前記入力部分領域に含まれる画像が前記識別対象物であるか否かを前記識別器によって判定し、前記投票手段は、前記入力部分領域に含まれる画像が前記識別対象物であると判定された場合に、前記投票を行う、付記2に記載の画像認識システム。
(付記5)前記認識対象物は、前記識別対象物を複数有し、前記投票パターン生成手段は、前記投票パターンを、前記複数の識別対象物のそれぞれに対応し、かつ対応する識別対象物についての相対位置の分布を示すように複数生成し、前記投票手段は、前記入力部分領域に含まれる画像が前記識別対象物である尤度が、前記第2の所定の尤度以上である場合に、当該識別対象物に対応する投票パターンを投票する、付記2乃至4のいずれか1つに記載の画像認識システム。
(付記6)前記画像認識システムは、前記複数の識別対象物のそれぞれについて、当該識別対象物に対応する投票パターンの重みを、所定の算出基準に基づいて算出する重み算出手段を更に備え、前記投票手段は、、当該投票パターンに対応する投票パターンに前記重みをつけて投票する、付記5に記載の画像認識システム。
(付記7)前記画像認識システムは、前記識別器を1つ有し、前記1つの識別器は、前記領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を、前記複数の識別対象物のそれぞれについて判定する、付記5又は6に記載の画像認識システム。
(付記8)前記複数の入力部分領域は、それぞれが異なる識別対象物の画像を含む第1の入力部分領域と第2の入力部分領域とを含み、前記識別器は、前記第1の入力部分領域と前記第2の入力部分領域との類似度が、所定の類似度以上となる場合、前記第1の入力部分領域及び前記第2の入力部分領域のいずれも、前記第1の入力部分領域及び前記第2の入力部分領域のいずれか一方に含まれる画像の識別対象物であると判定する、付記4に従属する請求項5に記載の画像認識システム。
(付記9)前記識別器は、ニューラルネットワーク、線形識別器、サポートベクタマシン、カスケード型識別器、及びベクトル量子化器のうち少なくともいずれか1つを含む、付記1乃至8のいずれか1項に記載の画像認識システム。
(付記10)前記投票空間は、前記入力画像の縦方向及び横方向に座標軸をとった座標系と同一の座標系である、付記1乃至9のいずれか1項に記載の画像認識システム。
(付記11)前記部分領域決定手段は、前記学習用画像を複数の領域に分割して、当該複数の領域を前記複数の学習部分領域として決定し、前記識別手段は、大きさを所定の範囲内で異なる大きさのいずれかとし、位置を前記入力画像において取り得る位置のいずれかとした場合に取る得る領域の全て又はいずれか複数を、前記複数の入力部分領域として決定する、請求項1乃至10のいずれか1項に記載の画像認識システム。
この出願は、2011年3月17日に出願された日本出願特願2011−059356を基礎とする優先権を主張し、その開示の全てをここに取り込む。
5,10,70 画像認識システム
50 部分領域決定手段
51 部分領域集合生成手段
52 学習手段
80 プロセッサ
81 記憶手段
82 通信手段
83 入力手段
84 外部記憶手段
100, 120, 700, 720 コンピュータ
101, 701 画像分割機能
102, 702 部分領域集合生成機能
103, 703 特徴ベクトル生成機能
104, 704 識別器パラメータ・部分領域位置学習機能
105, 705 部分領域投票パターン生成機能
106, 706 部分領域重み計算機能
107, 707 認識パラメータ出力機能
108, 708 特徴値ベクトル計算機能
110, 710 画像データベース
121, 721 部分領域画像識別機能
122, 722 部分領域投票機能
123, 723 投票ピーク検出機能
124, 724 対象物認識機能
125, 725 認識結果出力機能
130 画像入力装置
200 部分領域集合
201 部分領域集合200の内で最も識別対象らしい領域
300 認識対象
301 認識基準点
302, 401, 801 部分領域
303 相対位置
304, 402 投票パターン
305 相対位置に対応する投票パターン上の点
306 相対位置の分布
400 投票空間
403 投票値
500 原画像
601 人物
800 学習用画像
1000 学習画像
1001 特徴点検出部
1002 特徴量計算部
1003 投票学習部
1004 識別器学習部

Claims (9)

  1. 識別対象物を有する認識対象物を含む入力画像のうち、任意の領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を判定する識別器の判定結果に基づいて、前記入力画像に含まれる認識対象物を認識する画像認識手段と、
    前記認識対象物を含む学習用画像において、複数の学習部分領域を決定する部分領域決定手段と、
    前記学習部分領域に基づいて、当該学習部分領域と、当該学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成する部分領域集合生成手段と、
    前記学習部分領域について前記識別器の学習を行う場合に、当該学習部分領域から生成された学習部分領域集合に含まれる複数の領域から、前記識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度をより高く判定するように、前記識別器を学習するとともに、
    前記識別器が前記領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物であると判定する尤度が、第1の所定の尤度以上となるように学習された場合、当該領域からの当該識別対象物を有する認識対象物に対して予め設定された基準点の相対位置を算出する学習手段と、
    前記学習手段によって算出された相対位置の分布を示す投票パターンを生成する投票パターン生成手段と、を備え
    前記画像認識手段は、
    前記入力画像において複数の入力部分領域を決定して、当該入力部分領域に関する特徴量に基づいて当該入力部分領域に含まれる画像が前記識別対象物である尤度を前記識別器によって判定する識別手段と、
    前記入力部分領域に含まれる画像が前記識別対象物である尤度が第2の所定の尤度以上である場合に、当該入力部分領域の位置を基準として、前記投票パターンを所定の投票空間に対して投票する投票手段と、
    前記投票空間に対する投票結果に基づいて、前記認識対象物を認識する対象物認識手段と、を有する、
    画像認識システム。
  2. 前記第1の所定の尤度以上の尤度とは、前記学習部分領域集合に含まれる複数の領域のそれぞれについて判定された尤度うち、最も高い尤度である、
    請求項に記載の画像認識システム。
  3. 前記識別器は、前記領域に含まれる画像が前記識別対象物であるか否かを判定し、
    前記学習手段は、前記選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物であると判定するように前記識別器を学習するとともに、当該識別器が前記領域に含まれる画像が前記識別対象物であると判定するように学習された場合、当該領域からの前記基準点の相対位置を算出し、
    前記識別手段は、前記入力部分領域に含まれる画像が前記識別対象物であるか否かを前記識別器によって判定し、
    前記投票手段は、前記入力部分領域に含まれる画像が前記識別対象物であると判定された場合に、前記投票を行う、
    請求項に記載の画像認識システム。
  4. 前記認識対象物は、前記識別対象物を複数有し、
    前記投票パターン生成手段は、前記投票パターンを、前記複数の識別対象物のそれぞれに対応し、かつ対応する識別対象物についての相対位置の分布を示すように複数生成し、
    前記投票手段は、前記入力部分領域に含まれる画像が前記識別対象物である尤度が、前記第2の所定の尤度以上である場合に、当該識別対象物に対応する投票パターンを投票する、
    請求項1乃至3のいずれか1項に記載の画像認識システム。
  5. 前記画像認識システムは、前記複数の識別対象物のそれぞれについて、当該識別対象物に対応する投票パターンの重みを、所定の算出基準に基づいて算出する重み算出手段を更に備え、
    前記投票手段は、前記投票パターンに、当該投票パターンに対応する重みをつけて投票する、
    請求項に記載の画像認識システム。
  6. 前記画像認識システムは、前記識別器を1つ有し、
    前記1つの識別器は、前記領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を、前記複数の識別対象物のそれぞれについて判定する、
    請求項4又は5に記載の画像認識システム。
  7. 前記複数の入力部分領域は、それぞれが異なる識別対象物の画像を含む第1の入力部分領域と第2の入力部分領域とを含み、
    前記識別器は、前記第1の入力部分領域と前記第2の入力部分領域との類似度が、所定の類似度以上となる場合、前記第1の入力部分領域及び前記第2の入力部分領域のいずれも、前記第1の入力部分領域及び前記第2の入力部分領域のいずれか一方に含まれる画像の識別対象物であると判定する、
    請求項に従属する請求項に記載の画像認識システム。
  8. 識別対象物を有する認識対象物を含む学習用画像において、複数の学習部分領域を決定し、
    前記学習部分領域に基づいて、当該学習部分領域と、当該学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成し、
    前記学習部分領域について、前記認識対象物を含む入力画像のうち、任意の領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を判定する識別器の学習を行う場合に、当該学習部分領域から生成された学習部分領域集合に含まれる複数の領域から、前記識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度をより高く判定するように、前記識別器を学習し、
    前記識別器が前記領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物であると判定する尤度が、第1の所定の尤度以上となるように学習された場合、当該領域からの当該識別対象物を有する認識対象物に対して予め設定された基準点の相対位置を算出し、
    前記算出された相対位置の分布を示す投票パターンを生成し、
    前記入力画像において複数の入力部分領域を決定して、当該入力部分領域に関する特徴量に基づいて当該入力部分領域に含まれる画像が前記識別対象物である尤度を前記識別器によって判定し、
    前記入力部分領域に含まれる画像が前記識別対象物である尤度が第2の所定の尤度以上である場合に、当該入力部分領域の位置を基準として、前記投票パターンを所定の投票空間に対して投票し、
    前記投票空間に対する投票結果に基づいて、前記入力画像に含まれる認識対象物を認識する、
    画像認識方法。
  9. 識別対象物を有する認識対象物を含む学習用画像において、複数の学習部分領域を決定する処理と、
    前記学習部分領域に基づいて、当該学習部分領域と、当該学習部分領域を基準として所定の範囲内に含まれる複数の周辺領域とを含む学習部分領域集合を生成する処理と、
    前記学習部分領域について、前記認識対象物を含む入力画像のうち、任意の領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度を判定する識別器の学習を行う場合に、当該学習部分領域から生成された学習部分領域集合に含まれる複数の領域から、前記識別対象物であると判定するのに適している画像を含む領域を選択して、選択した領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物である尤度をより高く判定するように、前記識別器を学習する処理と、
    前記識別器が前記領域に関する特徴量に基づいて当該領域に含まれる画像が前記識別対象物であると判定する尤度が、第1の所定の尤度以上となるように学習された場合、当該領域からの当該識別対象物を有する認識対象物に対して予め設定された基準点の相対位置を算出する処理と、
    前記算出された相対位置の分布を示す投票パターンを生成する処理と、
    前記入力画像において複数の入力部分領域を決定して、当該入力部分領域に関する特徴量に基づいて当該入力部分領域に含まれる画像が前記識別対象物である尤度を前記識別器によって判定する処理と、
    前記入力部分領域に含まれる画像が前記識別対象物である尤度が第2の所定の尤度以上である場合に、当該入力部分領域の位置を基準として、前記投票パターンを所定の投票空間に対して投票する処理と、
    前記投票空間に対する投票結果に基づいて、前記入力画像に含まれる認識対象物を認識する処理と、
    をコンピュータに実行させる画像認識プログラム。
JP2013504406A 2011-03-17 2011-11-16 画像認識システム、画像認識方法および画像認識用プログラム Active JP5929896B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011059356 2011-03-17
JP2011059356 2011-03-17
PCT/JP2011/006377 WO2012124000A1 (ja) 2011-03-17 2011-11-16 画像認識システム、画像認識方法および画像認識用プログラムが格納された非一時的なコンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JPWO2012124000A1 JPWO2012124000A1 (ja) 2014-07-17
JP5929896B2 true JP5929896B2 (ja) 2016-06-08

Family

ID=46830138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013504406A Active JP5929896B2 (ja) 2011-03-17 2011-11-16 画像認識システム、画像認識方法および画像認識用プログラム

Country Status (3)

Country Link
US (1) US9600745B2 (ja)
JP (1) JP5929896B2 (ja)
WO (1) WO2012124000A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
JP6128910B2 (ja) * 2013-03-21 2017-05-17 キヤノン株式会社 学習装置、学習方法及びプログラム
JP6149710B2 (ja) * 2013-11-27 2017-06-21 富士ゼロックス株式会社 画像処理装置及びプログラム
US10474949B2 (en) 2014-08-19 2019-11-12 Qualcomm Incorporated Knowledge-graph biased classification for data
JP6440303B2 (ja) * 2014-12-02 2018-12-19 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム
EP3136289A1 (en) * 2015-08-28 2017-03-01 Thomson Licensing Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium
US10460470B2 (en) * 2017-07-06 2019-10-29 Futurewei Technologies, Inc. Recognition and reconstruction of objects with partial appearance
US10460210B1 (en) * 2019-01-22 2019-10-29 StradVision, Inc. Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
US10311336B1 (en) * 2019-01-22 2019-06-04 StradVision, Inc. Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
US10339424B1 (en) * 2019-01-22 2019-07-02 StradVision, Inc. Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
US11650164B2 (en) * 2019-05-15 2023-05-16 Getac Technology Corporation Artificial neural network-based method for selecting surface type of object
KR102250077B1 (ko) * 2019-07-23 2021-05-10 파킹클라우드 주식회사 차량번호판 인식률을 모니터링 하는 방법, 장치 및 컴퓨터 판독가능 저장 매체
CN112686831A (zh) * 2019-10-17 2021-04-20 神讯电脑(昆山)有限公司 基于人工神经网络的物件表面型态的检测方法
US11468294B2 (en) 2020-02-21 2022-10-11 Adobe Inc. Projecting images to a generative model based on gradient-free latent vector determination
JP7297705B2 (ja) * 2020-03-18 2023-06-26 株式会社東芝 処理装置、処理方法、学習装置およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306354A (ja) * 1998-04-21 1999-11-05 Matsushita Electric Ind Co Ltd 画像認識方法及び画像認識装置
JP2002032751A (ja) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体
JP2006293528A (ja) * 2005-04-07 2006-10-26 Sharp Corp 学習用画像選択方法および装置、画像処理アルゴリズム生成方法および装置、プログラムならびに記録媒体
JP2007310805A (ja) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd 物体認識装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421463B1 (en) * 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP4767595B2 (ja) * 2005-06-15 2011-09-07 パナソニック株式会社 対象物検出装置及びその学習装置
JP4414401B2 (ja) * 2006-02-10 2010-02-10 富士フイルム株式会社 顔特徴点検出方法および装置並びにプログラム
JP2008217589A (ja) 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置
WO2008133237A1 (ja) * 2007-04-23 2008-11-06 Sharp Kabushiki Kaisha 撮像装置、その制御プログラムを記録したコンピュータ読取り可能な記録媒体、ならびに制御方法
JP5016541B2 (ja) * 2008-04-01 2012-09-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US20100014755A1 (en) * 2008-07-21 2010-01-21 Charles Lee Wilson System and method for grid-based image segmentation and matching
JP5259456B2 (ja) 2009-03-02 2013-08-07 株式会社東芝 学習装置及び物体検出装置
JP5385759B2 (ja) * 2009-10-30 2014-01-08 キヤノン株式会社 画像処理装置及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306354A (ja) * 1998-04-21 1999-11-05 Matsushita Electric Ind Co Ltd 画像認識方法及び画像認識装置
JP2002032751A (ja) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体
JP2006293528A (ja) * 2005-04-07 2006-10-26 Sharp Corp 学習用画像選択方法および装置、画像処理アルゴリズム生成方法および装置、プログラムならびに記録媒体
JP2007310805A (ja) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd 物体認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015039680; Anuj Mohan et al.: 'Example-Based Object Detection in Images by Components' IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE VOL. 23, NO. 4, 200104, Pages 349-361, IEEE *

Also Published As

Publication number Publication date
JPWO2012124000A1 (ja) 2014-07-17
US9600745B2 (en) 2017-03-21
US20140010410A1 (en) 2014-01-09
WO2012124000A1 (ja) 2012-09-20

Similar Documents

Publication Publication Date Title
JP5929896B2 (ja) 画像認識システム、画像認識方法および画像認識用プログラム
Mita et al. Joint haar-like features for face detection
Sikka et al. Multiple kernel learning for emotion recognition in the wild
US10002290B2 (en) Learning device and learning method for object detection
US9208375B2 (en) Face recognition mechanism
Zhou et al. Histograms of categorized shapes for 3D ear detection
US20120288166A1 (en) Association and prediction in facial recognition
GB2516037A (en) Compact and robust signature for large scale visual search, retrieval and classification
US9443137B2 (en) Apparatus and method for detecting body parts
KR102286571B1 (ko) 영상에서 다수의 객체를 인식하는 방법
JP2012073684A (ja) 画像認識方法及び装置並びにプログラム
Tofighi et al. Face detection and recognition using skin color and AdaBoost algorithm combined with Gabor features and SVM classifier
Chen et al. Object detection using color entropies and a fuzzy classifier
HN et al. Human Facial Expression Recognition from static images using shape and appearance feature
Iqbal et al. Positional Ternary Pattern (PTP): An edge based image descriptor for human age recognition
JP2014182754A (ja) 学習装置、学習方法及びプログラム
US9697441B2 (en) Feature selection method and apparatus, and pattern discrimination method and apparatus
Juang et al. Stereo-camera-based object detection using fuzzy color histograms and a fuzzy classifier with depth and shape estimations
Sun et al. Multiple-kernel, multiple-instance similarity features for efficient visual object detection
Bardeh et al. New approach for human detection in images using histograms of oriented gradients
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
Pereira et al. Integral local binary patterns: A novel approach suitable for texture-based object detection tasks
WO2017179728A1 (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN111553195B (zh) 基于多位图切平面与多尺度uLBP的三维人脸遮挡判别方法
JP5625196B2 (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R150 Certificate of patent or registration of utility model

Ref document number: 5929896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150