JP2008077626A - 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム - Google Patents

物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム Download PDF

Info

Publication number
JP2008077626A
JP2008077626A JP2007082109A JP2007082109A JP2008077626A JP 2008077626 A JP2008077626 A JP 2008077626A JP 2007082109 A JP2007082109 A JP 2007082109A JP 2007082109 A JP2007082109 A JP 2007082109A JP 2008077626 A JP2008077626 A JP 2008077626A
Authority
JP
Japan
Prior art keywords
point
feature amount
edge
matching
base point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007082109A
Other languages
English (en)
Other versions
JP4518092B2 (ja
Inventor
Yoshiaki Iwai
嘉昭 岩井
Akira Nakamura
章 中村
Ikoku Go
偉国 呉
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007082109A priority Critical patent/JP4518092B2/ja
Priority to US11/693,614 priority patent/US8009879B2/en
Publication of JP2008077626A publication Critical patent/JP2008077626A/ja
Application granted granted Critical
Publication of JP4518092B2 publication Critical patent/JP4518092B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】一般シーンにおいても、十分ロバストに物体を認識することができる物体認識装置を提供する。
【解決手段】Target画像認識部20は、カメラ21で撮像された画像をフレームメモリ22に蓄積し、フレームメモリ22に蓄積した画像を元にEdge画像生成部23でEdge画像を生成する。Target特徴量抽出部24では、Edge点を元に局所特徴量を抽出する。最後にマッチング部25で、Target特徴量抽出部24にて抽出した特徴量とすでにModel辞書15に登録してあるModelの特徴量を比較することで、モデルModelとターゲットTargetのマッチングペアを取得し、物体同定部26で取得されたマッチングペア数をもとに、Target画像内の物体を同定する。
【選択図】図3

Description

本発明は、画像内に存在する物体を認識する物体認識装置及び物体認識方法に関する。また、画像内に存在する物体を認識する物体認識装置によって実行される物体認識プログラムに関する。また、画像内に存在する物体を認識する物体認識装置に用いられる特徴量登録装置及び特徴量登録方法に関する。また、特徴量登録装置によって実行される特徴量登録プログラムに関する。
カメラから取得した画像から、その画像内に存在する物体認識の研究は、古くから行われてきた。従来は、物体を大局的に記述、つまり物体全体のテクスチャのテンプレートを用意し、このテンプレートを物体全体にあてはめるように利用したマッチングにより、認識を行う方法が主流であった。しかし、この方法では、物体全体が見えていることが望ましく、例えば取得した画像内の物体の部分的な隠れや回転などに対して対応することは非常に困難であった。
しかし、近年では、下記非特許文献1に代表されるように、物体を局所的な特徴量で記述し、その局所特徴量同士のマッチングを行うことで、取得した画像内の物体の部分的な隠れや回転などに非常にロバストな方法が提案され、成功を収めている。しかしながら、上記の手法は物体にテクスチャが多い物体では非常に有効であるが、テクスチャが少ない
物体に関しては適用が困難である。
一方、テクスチャが少ない物体の認識に関しては、物体の輪郭形状、つまりエッジ(Edge)情報を用いる手法が数多く提案されてきた。Edge情報を利用した認識方法においても、大局的な記述方法が主流であったが、一般画像において、物体全体の輪郭を抽出することは非常に困難であり、また前述のように部分的な隠れに弱いといった問題が存在する。しかし、最近では前述したテクスチャベース局所特徴量での記述方法の成功を受け、下記非特許文献2、3のように、Edge情報を局所的に記述する方法が提案されてきた。
D.G.Lowe,"Object Recognitionfrom local scale-invariant features", ICCV, 1999 S.Belongie, J.Malik, J.Puzicha, "Shape Matching and Object Recognition Using Shape Contexts", PAMI, 2002 F.Jurie and C.Schmid, "Scale-invariant shape features for recognition of object categories", CVPR, 2004 J.R.Parker, "Algorithms for Image Processing and Computer Vision", John Wiley & Sons, Inc.
ところで、上記非特許文献2、非特許文献3に記載の、Edge情報を局所的に記述する方法にあっても、一般シーンにおいて、十分ロバストな方法は確立されていないのが現状である。
本発明は、上記実情に鑑みてなされたものであり、一般シーンにおいても、十分ロバストに物体を認識することができる物体認識装置及び物体認識方法の提供を目的とする。
また、上記物体認識処理に用いられる特徴量を登録する特徴量登録装置及び特徴量登録方法の提供を目的とする。
また、上記物体認識装置にて実行される物体認識プログラム、上記特徴量登録装置にて実行される特徴量登録プログラムの提供を目的とする。
本発明に係る物体認識装置は、上記課題を解決するために、物体認識の対象となる物体を含むターゲット画像からエッジ画像を生成するエッジ画像生成部と、上記エッジ画像生成部により生成されたエッジ画像上の各エッジ点の特徴量を抽出し、エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定する局所特徴量抽出部と、予め上記物体に対応して生成されたエッジ画像に設定した局所領域周辺の各エッジ点から決定された当該局所領域周辺にて注目すべきベース点とその特徴量及び当該ベース点をサポートするサポート点とその特徴量と、上記ベース点と上記サポート点の幾何学位置関係を記憶している記憶部を参照して、上記局所特徴量抽出部により抽出された特徴量を持つベース点及びサポート点との特徴量マッチングを行ってマッチングペアを取得する特徴量マッチング部と、上記特徴量マッチング部によって得られたマッチングペアから最もマッチングコストが高いものを採用することで、最終的なマッチングペアを決定するマッチングペア決定部とを備え、上記マッチングペア決定部によって決定されたマッチングペアを基にターゲット画像内の物体を同定する。
この物体認識装置は、テクスチャの少ない物体の認識処理において、物体の輪郭から局所的な特徴量を抽出し、さらにその周辺の特徴量とその幾何学的位置関係を利用した、輪郭記述、及びそのマッチングを行う。
本発明に係る物体認識方法は、上記課題を解決するために、物体認識の対象となる物体を含むターゲット画像からエッジ画像を生成するエッジ画像生成工程と、上記エッジ画像生成工程により生成されたエッジ画像上の各エッジ点の特徴量を抽出し、エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定する局所特徴量抽出工程と、予め上記物体に対応して生成されたエッジ画像に設定した局所領域周辺の各エッジ点から決定された当該局所領域周辺にて注目すべきベース点とその特徴量及び当該ベース点をサポートするサポート点とその特徴量と、上記ベース点と上記サポート点の幾何学位置関係を記憶している記憶部を参照して、上記局所特徴量抽出工程により抽出された特徴量を持つベース点及びサポート点との特徴量マッチングを行ってマッチングペアを取得する特徴量マッチング工程と、上記特徴量マッチング工程によって得られたマッチングペアから最もマッチングコストが高いものを採用することで、最終的なマッチングペアを決定するマッチングペア決定工程とを備え、上記マッチングペア決定工程によって決定されたマッチングペアを基にターゲット画像内の物体を同定する。
本発明に係る物体認識プログラムは、上記課題を解決するために、画像内に存在する物体を認識する物体認識装置によって実行される物体認識プログラムにおいて、物体認識の対象となる物体を含むターゲット画像からエッジ画像を生成するエッジ画像生成工程と、上記エッジ画像生成工程により生成されたエッジ画像上の各エッジ点の特徴量を抽出し、エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定する局所特徴量抽出工程と、予め上記物体に対応して生成されたエッジ画像に設定した局所領域周辺の各エッジ点から決定された当該局所領域周辺にて注目すべきベース点とその特徴量及び当該ベース点をサポートするサポート点とその特徴量と、上記ベース点と上記サポート点の幾何学位置関係を記憶している記憶部を参照して、上記局所特徴量抽出工程により抽出された特徴量を持つベース点及びサポート点との特徴量マッチングを行ってマッチングペアを取得する特徴量マッチング工程と、上記特徴量マッチング工程によって得られたマッチングペアから最もマッチングコストが高いものを採用することで、最終的なマッチングペアを決定するマッチングペア決定工程とを備え、上記マッチングペア決定工程によって決定されたマッチングペアを基にターゲット画像内の物体を同定する。
本発明に係る特徴量登録装置は、上記課題を解決するために、画像内に存在する物体を認識する物体認識処理に用いられる特徴量を登録する特徴量登録装置であって、予め物体のモデルのエッジ画像を生成するエッジ画像生成部と、上記エッジ画像生成部により生成したエッジ画像上の各エッジ点の特徴量を抽出し、かつ上記エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定し、ベース点とその特徴量及びサポート点とその特徴量、さらにベース点とサポート点との幾何学位置関係を記憶部に記憶させるモデル特徴量抽出部とを備えてなる。
本発明に係る特徴量登録方法は、上記課題を解決するために、画像内に存在する物体を認識するための物体認識処理に用いられる特徴量を登録する特徴量登録方法であって、予め物体のモデルのエッジ画像を生成するエッジ画像生成工程と、上記エッジ画像生成工程により生成したエッジ画像上の各エッジ点の特徴量を抽出し、かつ上記エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定し、ベース点とその特徴量及びサポート点とその特徴量、さらにベース点とサポート点との幾何学位置関係を記憶部に記憶させるモデル特徴量抽出工程とを備えてなる。
本発明に係る特徴量登録プログラムは、上記課題を解決するために、画像内に存在する物体を認識するための物体認識処理に用いられる特徴量を登録する装置によって実行される特徴量登録プログラムであって、予め物体のモデルのエッジ画像を生成するエッジ画像生成工程と、上記エッジ画像生成工程により生成したエッジ画像上の各エッジ点の特徴量を抽出し、かつ上記エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定し、ベース点とその特徴量及びサポート点とその特徴量、さらにベース点とサポート点との幾何学位置関係を記憶部に記憶させるモデル特徴量抽出工程とを備えてなる。
とくに、本発明では、物体輪郭をベース点で抽出した局所的な特徴量とその周辺の点(サポート点)の局所的な特徴量、及びその幾何学的な位置関係によって記述している。
各局所特徴量は、回転不変である。局所的な輪郭に応じて、ベース点、サポート点を適応的に決定可能である。
また、各局所特徴量のマッチングとしてベース点及び、サポート点を利用したロバストで柔軟なマッチングが可能である。ベース点のマッチングコストを利用し、サポート点の対応点も取得することで、効率的にマッチングペアを取得できる。
また、物体間に存在する幾何拘束を利用することで、ミスマッチを効率的に除去可能である。
本発明によれば、局所的な特徴量記述を採用しているため、対象物体の部分的な隠れに対してロバストである。また、各局所特徴量は回転正規化することで、対象物体の回転に対応可能である。また、局所領域の特徴記述は、注目点の特徴量とその周辺の特徴量、及びその幾何学関係を利用しているため、対応点検出の精度が高く、ロバストである。また、局所的な輪郭形状に合わせ、適応的にサポートする点を選択できるため、対応点検出の精度が高く、ロバストである。また、対応点探索時に、サポート点については、小領域内での最も類似度の高い点の探索を行うため、サポート点位置補正で生じる誤差の吸収が可能であり、また対称物体の歪みにたいしても対応可能である。
また、Modelのベース点の対応点決定時のコストを、そのサポート点の対応点のコストとして利用することで、効率的、かつよりロバストにマッチングペアを取得可能である。また、物体間のマッチングペアに存在する幾何拘束を利用することで、ミスマッチを除去することができ、ロバストな認識が可能となる。
以下、本発明を実施するための最良の形態について図面を参照しながら説明する。第1の実施の形態は、画像内に存在する物体を認識する物体認識装置1であり、図1に示すように、モデル(Model)の特徴量を登録するモデル特徴量登録部10と、モデル特徴量登録部10で登録されたモデル特徴量に基づいて画像内のターゲット(Target)がどの物体であるかを認識するターゲット画像認識部20という二つに分かれる。
モデル特徴量登録部10は、あらかじめ、上記物体のモデルのエッジ画像を生成し、生成したエッジ画像上のエッジ点の局所特徴量、及びそれをサポートする点を抽出し、それらの幾何学的位置関係とともに辞書に登録する。
ターゲット画像認識部20は、物体認識の対象となる物体を含むターゲット画像からエッジ画像を生成し、生成したエッジ画像上のエッジ点の局所特徴量を抽出し、抽出した特徴量と上記モデル特徴量登録部10で辞書に登録されたモデル特徴量とを比較することで、モデルとターゲットのマッチングペアを取得し、取得されたマッチングペア数をもとに、Target画像内の物体を同定する。
モデル特徴量登録部10は、図2に示すように、カメラ11で撮像された画像をフレームメモリ12に蓄積し、フレームメモリ12に蓄積した画像を元にエッジ(Edge)画像生成部13でEdge画像を生成する。Model特徴量抽出部14では、Edge画像をもとに、局所特徴量、及びそれをサポートする点の抽出を行い、その幾何学的位置関係を算出し、ModelごとにModel辞書15に登録する。モデル辞書15に登録される、モデル毎の局所特徴量、それをサポートするサポート点、その幾何学的位置関係については詳細を後述する。
ターゲット(Target)画像認識部20は、図3に示すように、カメラ21で撮像された画像をフレームメモリ22に蓄積し、フレームメモリ22に蓄積した画像を元にEdge画像生成部23でEdge画像を生成する。Target特徴量抽出部24では、Edge点を元に局所特徴量を抽出する。最後にマッチング部25で、Target特徴量抽出部24にて抽出した特徴量とすでにModel辞書15に登録してあるModelの特徴量を比較することで、モデルModelとターゲットTargetのマッチングペアを取得し、物体同定部26で取得されたマッチングペア数をもとに、Target画像内の物体を同定する。
まず、モデル特徴量登録部10における処理について説明する。図4は、モデル特徴量登録部10におけるModel記述例(局所領域記述例)を示す図である。本発明では、物体形状を表すEdge画像の局所領域を、図4(A)に示すように、参照円Rとし、この参照円R付近のEdge点について、ベース点b、及びサポート点s1,s2,s3を設定する。
そして、図4(B)に示すように、各サポート点s1,s2,s3のベース点bからの相対的な位置関係を、相対距離r1,r2,r3、相対角度θ1,θ2,θ3で記述する。但し、ベース点b,サポート点s1,s2,s3はそれぞれ特徴量を持つものとする。輪郭の局所領域を、注目点(ベース点b)の特徴量、周辺の点(サポート点s1,s2,s3)の特徴量及びその位置関係(相対距離r1,r2,r3、相対角度θ1,θ2,θ3)を拘束として用いることで、柔軟かつロバストな記述が可能となる。
以上の説明から、局所的なModel記述に必要な要素は、[1]Edge画像の生成、[2]Edge点の局所特徴量抽出、[3]参照円Riの決定、[4]ベース点bi,サポート点sijの決定、[5]各サポート点の相対角度θij、相対距離rijの決定となる。
次に、上記各要素に基づいた処理について、図5に示すフローチャートを参照して説明する。ステップS1にてEdge画像を生成(Edge画像生成部13)し、ステップS2にてEdge点の局所特徴量抽出(Model特徴量抽出部14)し、ステップS3にて参照円Riを決定し、ステップS4にてベース点bi及びサポート点sijを決定し、ステップS5にて各サポート点の相対角度θij、相対距離rijを決定することとなる。
以下、各処理について説明する。まず、ステップS1におけるEdge画像作成処理について説明する。ここでは、グレースケール画像からEdge画像を生成する方法を示す。Edge抽出は、様々な方法があるが、安定性、正確性の観点ではカニーエッジフィルタ(Canny-Edge Filter)が有名であり、ここでのEdge抽出処理にもカニーエッジフィルタを利用する。
カニーエッジフィルタは前記非特許文献4で詳しく説明されている。ここでは、図6を用いて処理手順を説明しておく。
まず、ステップS11にてスムーシング(Smoothing)処理を行う。ガウスフィルタG(x,y)を画像f(x,y)に適用することにより、画像内のノイズ及び細かなテクスチャの削減を行う。具体的には,以下の(1)式に示すようにガウスフィルタG(x,y)と画像f(x,y)の畳み込みを行い、画像g(x,y)を得る。ガウスフィルタG(x,y)は、(2)式で示される。
Figure 2008077626
Figure 2008077626
次に、ステップS12にて、x方向及びy方向の勾配gx(x,y)及びgy(x,y)を算出する。ステップS11で作成したSmooting画像g(x,y)に、図7(A)及び図7(B)に示す微分フィルタを適用し、勾配画像を作成する。つまり、gx(x,y)の作成には、図7(A)のx方向フィルタを、gy(x,y)の作成には図7(B)に示すy方向フィルタを適用する。
次に、ステップS13にて、Edge強度及びEdge角度を算出する。上記ステップS12で作成した勾配画像gx(x,y)、gy(x,y)を用いて、Edge強度画像M(x,y)、Edge角度画像θ(x,y)を以下の(3)、(4)式により生成する。
Figure 2008077626
Figure 2008077626
次に、ステップS14にて、Edgeの細線化を行う。これまで生成したEdge強度画像M(x,y)は部分的に数ピクセルの幅をもっている。これを1ピクセルの幅になるよう細線化処理を施す。具体的には、M(x,y)が0でない点(x,y)について、その点のEdge方向θ(x,y)にある点(x1,y1)、及び反対のEdge方向の点(x2,y2)が持つM(x1,y1),M(x2, y2)の値とを比較する。点(x,y)の強度M(x,y)がM(x1,y1),M(x2,y2)より小さい場合は、その点はEdge点ではないとして,M(x,y)を0とする。
そして、最後にステップS15によりEdge検出を行う。ここでは、ステップS14で生成した細線化されたEdge強度画像から閾値処理により、Edge画像を生成する。Canny Edge Filterでは、ここでの閾値処理に2つの閾値(T_high,T_low)を用いる。具体的には、点(x,y)のEdge強度M(x,y)がT_highより大きい場合、その点をスタート点とし、Edge強度がT_low以上の点をトレースしていき、その点はEdge点としていく。
Canny Edgeフィルタでのパラメータは、ステップS11で用いるSmoothingの度合いσ,ステップS15で用いるEdge検出のための2つの閾値、 T_high, T_lowとなる。これらを予め適切な値に設定しておくことで、高精度なEdge検出が可能となる。
以上、図5におけるステップS1でのEdge画像生成処理の具体例(例えばカニーエッジフィルタ)を説明した。次に、図5の処理手順のステップS2に進む。
ステップS2では、Edge点の局所特徴量抽出を行う。ステップS1にて抽出された全てのEdge点について、局所特徴量の抽出を行う。本発明で求める特徴量は、図8に示すように固定半径の円を角度方向、距離方向に分割し、各Binに存在するEdge点の個数をヒストグラム化したものである。局所特徴量抽出の半径、角度方向(円周方向)、距離方向(半径方向)の分割数は特に限定しない。
なお、このステップS2では、抽出した特徴量の回転不変を実現するために、基準軸方向を抽出し、回転正規化を行う。基準軸の抽出は、図9に示すように、注目点を中心とした小領域内において、周辺のEdge点の注目点からの角度を投票し、ヒスグラムを作成する。その極大値に対応する角度が基準軸方向となる。以上により、各点において基準軸の角度が求まれば、図10に示すように、その角度分ヒストグラムを角度方向にシフトすることで、特徴量の回転正規化を行うことが可能となる。
ステップS2にて抽出した特徴量は、基準軸の角度とともにF_Mapに保存する。次に、ステップS3にて、参照円Rを決定する。参照円R決定の基本的な概念は、円の周辺にエッジ点が十分ばらついているかどうかを調べることである。
以下、参照円Rの決定方法を詳細に説明する。物体の輪郭は局所的に様々であり、前述した、幾何拘束を利用するためには、参照円の大きさは各局所領域で異なる必要がある。
図11(A)に示すように、円半径が一定である場合、参照円R1の領域では十分な幾何拘束を得ることができない。一方図11(B)のように参照円R1の円半径を大きく変えた領域とすることで、参照円R1'に示すように十分な拘束を得ることが可能となる。ここでは、参照円R1'によりエッジ点が2つ増えている。もちろん物体の輪郭によっては、参照円の円半径を小さく変えた領域とすることによっても十分な拘束を得ることができる。
以下に、図12及び図13を用いて具体的な参照円Rの決定方法を説明する。参照円Rを決定するためには、その中心画素、及び半径を決定する必要がある。基本的な概念は、参照円周辺で十分な幾何拘束を得られる領域を抽出することである。そのために、参照円付近での円全体のEdge点のばらつき度合いを評価する。
具体的には、Edge点のばらつきの評価基準は、図12に示すように、参照円半径r、参照円中心cからの各Edge点piの距離dとx軸からの角度φを用いて次の(5)式で示すエントロピー値で表す。
Figure 2008077626
ここでは、参照円の角度をM段階に量子化し、kはk=1〜Mの値をとる。h(k,c,r)は次の(6)式で示される。
Figure 2008077626
但し、K(x)はスムージングカーネルで、次の(7)式で表される。
Figure 2008077626
エントロピー値H(c,r)は、参照円上付近のEdgeが円全体に十分なばらつきを持つ程大きくなる。エントロピー値が大きくなれば、円のなかで十分エッジ点がならんでいるだろうという評価である。
まず、エッジ点ではない点に注目して、徐々に円を大きくしていく。その都度エントロピー値を求めて、一番大きくなったエントロピー値のときの半径を保存しておく。すべての点についての半径を調べる。そのなかでエントロピー値の大きいものを選ぶと、その物体にエッジ点が多数乗っていることになる。
この指標を用いた画像上の任意点iにおける参照円抽出処理(参照円決定処理)の流れを図13に示す。
まず、予め設定している、参照円の最小半径st_rを半径として設定し、H_maxを0にしておく(ステップS21)。次に、上記(5)式により、この半径でのエントロピーHi=H(ci,r)を算出する(ステップS22)。
ステップS23では、ステップS22で算出したエントロピーHiがH_maxより大きいか否かをチェックする。エントロピーHiがH_maxより大きいと判定する(YES)とステップS24に進み、小さいと判定する(NO)とステップS25に進む。
ステップS24では、H_max=Hiとし、r_max=rとする。ステップS25では、予め設定している半径の更新ステップr_stepにより、順次半径を変更する。ステップS26では、半径rがしきい値r_threshより大きいか否かをチェックする。半径rがしきい値r_threshより大きければ(YES)この処理手順を終了し、小さければ(NO)ステップS22に戻る。
このように、ステップS22〜S26の繰り返しにより、予め設定している半径の更新ステップで、順次半径を変更しながら、エントロピーを算出し、最大エントロピーHi_max、及びその時の参照円の半径r_maxを保存する。
この処理を画像上のすべての点で行うことで、図14に示すような、各画素におけるエントロピーの最大値H_max、及び参照円の半径r_maxを保存したマップE_Mapを得ることができる。
続いて、マップE_Mapのエントロピー値を使って、ノンマキシマムサプレッションnon-maximum suppressionを行う。つまり、注目画素の近傍領域(8近傍、16近傍など)において、注目画素が極大値でない場合は、マップE_Mapが保持するエントロピー値、半径値を0とする。
最後に事前に設定した最小エントロピー値により閾値処理をすることで、最終的なE_Mapが生成される。E_Mapは、画像サイズと同様の大きさを持ち、各画素にはエントロピー値と円の半径を保持しているため、エントロピー値が0でない画素の位置が参照円の中心となり、これにより参照円Riを決定することが可能となる。
上記図5のフローチャートにあってステップS3で参照円Riを決定したあとには、ステップS4にてベース点とサポート点を決定する。以下、ステップS3にて得られた参照円Ri(i=1〜N)とEdge画像を用いて、ベース点bi、サポート点sijを決定する方法について述べる。但し、参照円の選択順序は、ステップS3で得られるE_Mapにおけるエントロピー値の降順とする。
まず、各点のサンプリングは、図15に示すように参照円を角度方向にM分割する。分割数Mは、参照円の半径に応じて変化させる。さらに、分割した各Binにサンプリング領域を設定する。例えば、図15に示すように、分割した円弧の中心付近にサンプリング領域Asamを設定する。このサンプリング領域内でもっとも参照円に近い点をサンプリング点mij(j=1〜M)とする。
続いて、サンプリング点群からベース点を決定する。本発明では、物体形状はベース点の集合によって記述することから、ベース点はEdge画像全体に広がっていることが望ましい。そこで、ここでは、ベース点として決定された位置の履歴を参照する方法を採用する。つまり、前回までのベース点の位置の履歴を参照し、その画素の周辺に存在しない点を、サンプリング点mij(j=1〜M)中から選択し、今回のベース点、その他をサポート点とする。また、逐次履歴は更新していく。
次に、図5のステップS5にて、各サポート点の相対角度θij、相対距離rijを決定する。上記ステップS4により、ベース点bi(i=1〜N)、及びそのサポート点sij(j=1〜M)が決定されたので、ここでは、ベース点の基準軸方向を用いて、各サポート点sij(j=1〜M)のベース点bからの相対位置を決定する。図16(A)、図16(B)に示す相対角度θij、相対距離rijの決定は、ステップS2によりベース点の基準軸方向が算出されているため、容易に算出可能である。
以上の処理により、Model画像から得られる情報は、抽出されたベース点の数をNとした場合、以下のようになり、Model特徴量として、辞書に登録される。
i=1〜Nとしたとき、ベース点の位置(bxi、byi)、ベース点の特徴量bfi、ベース点の基準軸方向bθiが辞書に登録される。
また、j=1〜Mとしたとき、サポート点の相対位置(θij、rij)、サポート点の特徴量sfij、サポート点の基準軸方向sθijが辞書に登録される。特にサポート点は、領域によって何個あるかは変わってくる。
次にTarget画像認識部20における処理について説明する。ここでTarget画像の認識とは、Target画像が、Model辞書15に登録されているどのModelに最も類似しているかを調べることである。
類似度を図る方法は様々な方法があるが、例えばModelが持つN個の特徴点と、Targetの各点について特徴量同士のコストを算出し、このコスト値が十分高い点をマッチングペアとして保存する。得られたマッチングペア数Mが十分に多ければ、Targetはそのモデルとして同定することができる。
図17は、Target画像とModelでのマッチングペア取得処理の流れを示したフローチャートである。フレームメモリ22に蓄積されたターゲット画像から、ステップS31にてEdge画像生成部23がEdge画像を生成する。次に、ステップS32により、ステップS31で生成したEdge画像の局所特徴量を抽出する。次に、ステップS33にてModel特徴量を参照して特徴量マッチングを行う。最後にステップS35によりマッチングペアが取得される。
以下、各処理について説明する。ステップS31でのEdge画像生成処理は、Model特徴量抽出同様の処理(ステップS1)と同様である。ステップS32の局所特徴量抽出は、ステップS31で生成した、Target画像の各Edge点について、局所特徴量を抽出するものである。具体的には、Model特徴量抽出処理(ステップS2)と同様の処理を行う。なお、このステップS32では、ベース点、サポート点について局所特徴量を抽出するのではなく、すべてのエッジ点について局所特徴量を抽出する。
次に、ステップS33における特徴量マッチングについて説明する。ここでは、Model辞書に登録されているModel特徴量と局所特徴量抽出処理(ステップS32)で抽出したTarget特徴量のマッチングを行い、ModelとTargetのマッチングペアを取得する。
以下具体的な特徴量同士のマッチング方法について説明する。上述したように、本発明でのModel特徴記述は、一つのベース点biに対し、複数のサポート点sijを持つ。さらに、本発明では、Modelを大きさの異なる複数の領域で表現しているため、図18に示すように、各ベース点、サポート点は、他のサポート点と重複する可能性がある。図18にあって、Modelは3つのベース点b1,b2及びb3で表現されるものとする。Modelのベース点b1のサポート点はs11,s12,s13及びs14である。また、Modelのベース点b2のサポート点はs21(b1),s22及びs23である。また、Modelのベース点b3のサポート点はs31(b2),s32及びs33(s22)である。ここで、ベース点b2のサポート点s21は()内に示したようにベース点b1である(s21=b1)。また、ベース点b3のサポート点s31は()内に示したようにベース点b2である(s31=b2)。また、サポート点s22は、ベース点b2のサポート点であるとともに、ベース点b3のサポート点s33でもある。まとめて示すと、ベース点b1はベース点b2のサポート点(b1=s21)、ベース点b2はベース点b3のサポート点(b2=s31)、点s22は、ベース点b2及びベース点b3のサポート点(s22=s33)となっている。
図19(A)は、Modelのベース点b1とTarget上の点p’のマッチング方法を示したものである。まず、Target上の点p'の基準軸にあわせ、Modelのサポート点sの位置補正を行う。具体的には、Modelのベース点b1が持つ基準軸方向nθ、Target上の点p'が持つ基準軸方向n'θを用いて、図19(B)に示すとおりの位置補正を行う。つまり、Modelのベース点b1が持つ基準軸方向nθを、Targetの点p’が持つ基準軸方向n’θとの差dθ分だけ矢印方向に傾ける。
続いて、ベースb1を点p'の位置にあわせ、b1-p'間の特徴量コストd(b1,p')を算出し、各サポート点については、図19(C)に示す、探索領域内で特徴量コストd(s1j,p'k)が最小となる点を探索する。このように探索領域内で最もマッチする点を探すことで、サポート点の位置補正に用いる基準軸方向の誤差を吸収することができ、さらにTarget画像の歪みについても対応することが可能となる。
Model点をm、Target点をtとすると、局所特徴量間の距離を表すd(m,t)は、次の(8)式で表せる。
Figure 2008077626
ここで、hm(k)はModel点のヒストグラム特徴量、ht(k)はTarget点のヒストグラム特徴量を表す。
また、ベース点、及びサポート点をあわせたTotalのマッチングコストは、次の(9)式で表せる。
Figure 2008077626
ここで、α1j、β1jはそれぞれ、角度、距離のペナルティコストであり、次の(10)式となる。
Figure 2008077626
また、θp'k、rp'kは各サポート点に最もマッチする点p’kのベース点biからの角度、及び距離である。
以上の計算をTarget上の全ての点について行い、最大コストを持つ点をモデルのベース点b1の対応点b’1とする。例えば、前述の図18を参照すると、ベース点b1の各サポート点(s11,s12,s13、s14)についても対応点(s’11,s’12,s’13、s’14)が得られる。このため、ここでは、ベース点、サポート点の各対応点とともに、最大コスト値Cost(b1,b’1)、及び基準軸方向の差dθを保存する。
具体的な例を図20〜図23を参照して説明する。図20は前記図18と同様に各ベース点、サポート点は、他のサポート点と重複する可能性があることを示している。この図20のModelとTargetにおいて、各ベース点のマッチング後に得られる結果を以下に説明する。図21(A)はModelの上記ベース点b1とサポート点s11,s12,s13及びs14に対応するTarget上の点を示す。また、図21(B)はModelの上記ベース点b2とサポート点s21,s22及びs23に対応するTarget上の点を示す。また、図21(C)はModelの上記ベース点b3とサポート点s31,s32およびs33に対応するTarget上の点を示す。
また、図22にはModel上の点:Target上の点:コスト値で表現したマッチング後に得られる結果を符号41、42及び43を付して示す。コスト値は前述の式(9)にて得られる。符号41はコスト1が得られた結果を示している。上記ベース点b1に対するTarget上の点b‘1のとき、上記サポート点s11に対する点s’11のとき、上記サポート点s12に対する点s’12のとき、上記サポート点s13に対する点s’13のとき、上記サポート点s14に対する点s’14のときである。符号42はコスト2が得られた結果を示している。上記ベース点b2に対するTarget上の点b‘2のとき、上記サポート点s21に対する点s’21のとき、上記サポート点s22に対する点s’22のとき、上記サポート点s23に対する点s’23のときである。符号43はコスト3が得られた結果を示している。上記ベース点b3に対するTarget上の点b‘3のとき、上記サポート点s31に対する点s’31のとき、上記サポート点s32に対する点s’32のとき、上記サポート点s33に対する点s’33のときである。
前述したように、b1=s21、b2=s31、s22=s33であることから、この3点については図23に示すように2つの対応点を取得することが可能となる。符号51はb1(=s21)の二つの対応点を示している。二つの対応点のコストはb1:b’1:Cost1、s21(b1):s’21:Cost2である。また、符号52はb2(=s31)の二つの対応点を示している。コストはb2:b‘2:Cost2、s31(b2):s’31:Cost3である。また、符号53はs22(=s33)の二つの対応点を示している。コストはs22:s‘22:Cost2、s22(s33):s’33:Cost3である。ここで、マッチング時のコスト計算は上記式(9)に示すように、ベース点、及びサポート点のセットに依存する。さらにTarget画像のオクルージョン(Occlusion)の影響などにより、Model上では、同一点であるb1,s21の対応点(b’1,s’21)は異なる点(b’1!=s’21)になる可能性が大きい。
すなわち、同一のModel点が、そのModel点が対応するベース点とは異なるベース点、もしくは異なるベース点に対応するサポート点となる場合は、各々のベース点に応じて算出された対応点をそれぞれ取得する。この場合、ベース点とベース点に対応するサポート点を構成するModel点の集合が異なるため、上記(9)式で計算されるマッチングコストを最大とするTarget画像上の対応点は、たとえ同一のModel点に対応する対応点であったとしても、Model点の集合に応じて異なるマッチングコストを持つ異なる対応点となり得る。従って、これらの複数の異なる対応点をTarget点の候補とすることで、同一のModel点に対して複数の異なるマッチングコストを持つ異なるTarget点の候補を得ることができる。
以上のようにModelの各ベース点、サポート点は複数の対応点候補を得る可能性があるため、最終的に保存してあるコスト値から最もコスト値が高いものを各点の対応点、つまりマッチングペアとして決定する(ステップS35)。つまり、ここでのマッチングペアは、ベース点に限定するものではなく、ベース点、サポート点をModel上の一つの点として考えたものとなる。
最終的なマッチングペアとして保存する内容は、i=1〜Nとするとき、Model画像の座標点(mxi,myi)、Target画像の座標点(txi,tyi)、基準軸の差dθiとなる。
これによるマッチングの効果を説明する。Model特徴量抽出時に、参照円Rから選択したベース点は必ずしも最適なものでない。例えば、図24(B)に示すようにTargetに部分的な隠れが生じている場合、図24(A)に示すModel点b1がTarget上での対応する点p’1にマッチする可能性は非常に低くなる。しかし、図24(A)のModel点b2は、図24(B)におけるTarget上での対応点p’2にマッチする可能性が高い。ここで、Model点b1は、Model点b2のサポート点でもあるため、上述したようにベース点の対応点決定時にベース点だけでなくサポート点についても、その対応点を保持することで、Model点b1の対応点としてp’1を得ることができる可能性がある。
ところで、ステップS33の特徴量マッチング処理により、ModelとTarget間のマッチングペアを取得することが可能になったが、ステップS33のマッチング処理は、局所的な領域でのマッチングであるため、多くのOutiler(ミスマッチペア)が存在する。
そこで、図25に示すように、ステップS33の特徴量マッチング処理の後に、ステップS34にてOutlier除去処理を行う。つまり、ステップS33で得られたマッチングペアから、ステップS34にてOutlierを除去してからステップS35にて最終的なマッチングペアを取得する。ステップS34では正しくないマッチングペアを除去して、ステップS35では最終的にマッチングペアをとる。
以下にOutlier除去方法について述べる。ModelとTargetが同一物体である場合、マッチングペアは、以下の(11)式に示す幾何拘束を満たす必要がある。
Model点(mx,my)、Target点(tx,ty)、相対角度dθとする。また、dx,dyはx方向、y方向の移動量である。
Figure 2008077626
この拘束条件を利用して、Outlierを除去する方法を図26に示す。図26におけるti−m’iはマッチングペアを示す。各ペアについて、(11)式を用いて回転正規化し、移動量dx、dyを算出する。算出した移動量を予め用意した2次元空間(dx−dy)の対応するBinに投票する。
全てのペアについて投票を行い、2次元空間(dx−dy)で最大値をもつBinを決定する。決定したBinに対応する移動量(dx、dy)をもたないペアは、Outlierとしマッチングペアから除去する。
例えば図26では、t1−m’1,t2−m’2,t3−m’3,t4−m’4は同一の移動量をもち、2次元空間の同一のBinに投票されるが、m4−t4は2次元空間の異なるBinに投票さるため、Outlierとして検出される。
以上の手順を踏むことで、幾何学拘束を満たすペアのみを取得可能となる。最終的に得られたペア数が十分多ければ、入力のTarget画像は注目のModelと同定することが可能となる。
ターゲット画像認識部により認識処理で重要なのは、マッチングと特徴量抽出である。マッチングの数が、十分信頼性の高いマッチング数であれば、それにより物体を同定することができる。特徴量がマッチングするということは、正しいマッチングがたくさん得られるということであるので、その物体であるという可能性が高くなる。
なお、本発明では、局所的な参照円を定義してベース点、サポート点を定義したが、円のほか、局所的な閉曲線であることを条件とした他の形状としてもよい。ただし、回転正規化処理に関連すれば、円であることが有利である。
次に、他の実施の形態について説明する。この他の実施の形態も、図1に示した物体認識装置1であり、画像内に存在する物体を認識するものであるが、モデル特徴量登録部10の構成が異なる。図27には、他の実施の形態におけるモデル特徴量登録部30を示す。
このモデル特徴量登録部30も、モデル(Model)の特徴量を登録する部分であり、あらかじめ、上記物体のモデルのエッジ画像を生成し、生成したエッジ画像上のエッジ点の局所特徴量、及びそれをサポートする点を抽出し、それらの幾何学的位置関係とともに辞書に登録する。
図27にあって、モデル特徴量登録部30は、カメラ11で撮像された画像をフレームメモリ12に蓄積し、フレームメモリ12に蓄積した画像を元に多重解像度画像生成部31で複数の多重解像度画像を生成する。多重解像度画像の生成については後述する。多重解像度画像生成部31で生成された複数の多重解像度画像は、エッジ画像生成部13に送られる。エッジ画像生成部13は、複数の多重解像度画像毎にエッジ画像を生成する。
モデル画像特徴量抽出部14は、エッジ画像生成部13にて複数の多重解像度画像毎に生成された複数のエッジ画像を基に、局所特徴量、及びそれをサポートする点の抽出を行い、その幾何学的位置関係を算出し、モデル毎にモデル辞書15に登録する。
ターゲット画像認識部20については、図3を用いて既に説明した構成と同様であるので説明を省略する。
モデル特徴量登録部30における処理について説明する。モデル特徴量登録部30におけるモデルl記述例(局所領域記述例)は、物体形状を表すEdge画像の局所領域を、前述の図4(A)に示すように、参照円Rとし、この参照円R付近のEdge点について、ベース点b、及びサポート点s1,s2,s3を設定する。
そして、図4(B)を参照して前述したように、各サポート点s1,s2,s3のベース点bからの相対的な位置関係を、相対距離r1,r2,r3、相対角度θ1,θ2,θ3で記述する。但し、ベース点b,サポート点s1,s2,s3はそれぞれ特徴量を持つものとする。輪郭の局所領域を、注目点(ベース点b)の特徴量、周辺の点(サポート点s1,s2,s3)の特徴量及びその位置関係(相対距離r1,r2,r3、相対角度θ1,θ2,θ3)を拘束として用いることで、柔軟かつロバストな記述が可能となる。
以上の説明から、モデル特徴量登録部30にあっても、前述したように、[1]Edge画像の生成、[2]Edge点の局所特徴量抽出、[3]参照円Riの決定、[4]ベース点bi,サポート点sijの決定、[5]各サポート点の相対角度θij、相対距離rijの決定が、局所的なモデル記述に必要な要素となることがわかる。ただし、モデル特徴量登録部30では、[3]参照円Riの決定、[4]ベース点bi,サポート点sijの決定処理が前述のモデル特徴量登録部10と異なる。
先ず、モデル特徴量登録部30にあって特徴的である、[3]参照円Riの決定について説明する。前述したように、物体の輪郭は局所的に様々であり、前述した幾何拘束を利用するためには、参照円の大きさは各局所領域で異なる必要がある。
前述した図4に示すように、円半径が一定である場合、R1の領域では十分な幾何拘束を得ることができない。一方、このような領域で円半径を変えることで,R1’に示すように十分な拘束を得ることが可能となる。
以後、具体的な参照円Riの決定方法を示す。参照円Riを決定するためには、その中心画素及び半径を決定する必要がある。基本的な概念は、前述の実施の形態のモデル特徴量登録部10で用いたものと同様である。すなわち、参照円付近全体にEdge点がばらつき、かつ参照円上のEdge点がもつ各局所特徴量間の距離が大きくなる領域を抽出する。
より具体的には、図28に示すように参照円Riを局所特徴量の半径に応じて分割し、各分割した円弧付近の局所特徴量を抽出する。図28に示した例では、参照円を8つに分割し、円弧付近の局所特徴量を、局所特徴量a、局所特徴量b、局所特徴量c・・・局所特徴量iのように抽出している。
続いて、相互の特徴量間の距離を次式により算出し、図29に示す相互特徴量間の距離マップを生成する。
Figure 2008077626
図29にあって、局所特徴量aと局所特徴量bの距離はd1、局所特徴量aと局所特徴量cの距離はd2、以下局所特徴量aと局所特徴量c,d,e,f,g,h,iとの距離はd3,d4,d5,d6,d7,d8となる。また、局所特徴量bと局所特徴量c,d,e,f,g,h,iとの距離はd9,d10,d11,d12,d13,d14となる。また、局所特徴量cと局所特徴量d,e,f,g,h,iとの距離はd16,d17,d18,d19,d20,d21となる。また、局所特徴量dと局所特徴量e,f,g,h,iとの距離はd22,d23,d24,d25,d26となる。また、局所特徴量eと局所特徴量f,g,h,iとの距離はd27,d28,d29,d30となる。また、局所特徴量fと局所特徴量g,h,iとの距離はd31,d32,d33となる。また、局所特徴量gと局所特徴量h,iとの距離はd34,d35となる。また、局所特徴量hと局所特徴量iとの距離はd36となる。
先に述べたように、ここでは各特徴量間の距離は互いに大きい領域を抽出するのが目標となるが、その評価基準として、具体的には、次式で示す特徴間距離(d1・・・dn)のエントロピー値で表す。
Figure 2008077626
エントロピー値H(k)は,各特徴間距離値が等しく分布する場合するほど大きくなる。これにより、1つの特徴点に対する各点への依存性はほぼ均一になることが期待できる。
この指標を用いた画像上の画像上の任意点iにおける参照円抽出処理の流れを図30に示す。まず、ステップS41にて予め設定している、参照円Riの最小半径st_rを半径として設定し、最大エントロピーをH_max=0のように0にしておく。次に、ステップS42にて、上記式により、この半径でのエントロピーHiを算出する。ステップS43では、エントロピーHiが最大エントロピーH_maxより大きくなったか否かを判断し、大きくなれば、ステップS44にて、最大エントロピーHi_max,及びその時の参照円の半径r_maxを保存する。ステップS45では、予め設定している半径の更新ステップr_stepにより、順次半径を変更する。ステップS46では、半径rが半径の閾値r_threshより大きくなったか否かをチェックする。ステップS43にて、エントロピーHiが最大エントロピーH_maxより大きくないうちは、ステップS45に進む。また、ステップS46にて半径rが半径の閾値r_threshより大きくならないうちはステップS42に進む。
つまり、ステップS42〜ステップS46を繰り返しながら、予め設定している半径の更新ステップr_stepにより、順次半径を変更しエントロピーを算出し、最大エントロピーHi_max,及びその時の参照円の半径r_maxを保存する。
この処理を画像上のすべての点で行うことで、各画素におけるエントロピーの最大値、及び参照円の半径を保存した、前述の図14に示すようなMap(E_Map)を得ることができる。
続いて、E_Mapのエントロピー値を使って、前述したノンマキシマムサプレッション(non-maximum suppression)を行う。つまり、注目画素の近傍領域(8近傍、16近傍など)において、注目画素が極大値でない場合は、マップE_Mapが保持するエントロピー値、半径値を0とする。
以上の処理を図31に示すように、多重解像度生成部31で生成した各解像度に対して行い、それぞれについてエントロピーマップを生成し、参照円の選択を行う。具体的には、各解像度で作成したエントロピー値を降順にソートし、その上位N点を選択する。それ以外のエントロピー値を持つE_Mapの点はエントロピー値、半径を0とし,最終的なエントロピーマップE_Mapi(i=1・・・3)を生成する。
ここで、多重解像度画像生成部31について説明しておく。多重解像度画像生成部31は、解像度が異なった、つまり縮小率の異なる画像を図31の(a)、(b)及び(c)のように作成する。例えば、モデル画像が(a)であった場合に、モデル画像を縮小した画像を(b)、さらに縮小した画像を(c)のように作成する。
そして、多重解像度画像生成部31は、上記解像度の異なる複数の画像毎にエントロピーマップを、E_Map1,E_Map2及びE_Map3のように生成し、エントロピー値から参照円の半径を求める。この場合、エントロピー値の計算は、(a)の画像で300点であれば、(b)の画像では250点、さらに(c)の画像では200点というようにすることができる。このようにモデル特徴量登録部30では、多重解像度画像生成部31及びエッジ画像生成部13を用いて縮小率の異なる画像に対応し、最適な参照円を決定することができる。
つまり、各解像度で作成したE_Mapは、画像サイズと同様の大きさを持ち、各画素にはエントロピー値と円の半径を保持しているため、エントロピー値が0でない画素の位置が参照円の中心となり、これにより参照円Riを決定することが可能となる。
また、各解像度をエントロピー値によって統一的に扱い、参照円を決定することでより識別力の高い領域の局所領域の抽出が可能になる。
参照円Ri(i=1・・・N)を決定した後は、上記図5のステップS3以降の処理と同様に、参照円RiとEdge画像を用いて、ベース点bi,サポート点sijを決定する。以下に各参照円Ri(i=1・・・N)におけるベース点bi,サポート点sijの決定方法について簡単に述べる。但し、参照円の選択順序は、上述の処理で得られるE_Mapにおけるエントロピー値の降順とする。
まず、各点のサンプリングは、図15に示すように参照円を角度方向にM分割する。分割した各Binにサンプリング領域を設定する。例えば、図15に示すように、分割した円弧の中心付近に領域を設定する。このサンプリング領域内でもっとも参照円に近い点をサンプリング点mij(j=1・・・M)とする。サンプリング点群からベース点を決定する。前回までのベース点の位置の履歴を参照し、その画素の周辺に存在しない点をサンプリング点mij(j=1・・・M)中から選択し、今回のベース点、その他をサポート点とする。また、逐次履歴は更新していく。
これ以降のモデル特徴量登録部30の処理は、上記図5を参照して説明したのと同様であるので説明を省略する。また、ターゲット画像認識部20の処理についても、図3、図16〜図31を参照して説明したとおりである。ただし、図3のマッチング部25により実行される、図17のステップS33のマッチング処理で得られたペアは、モデル辞書15に登録されているスケール比で正規化し、図25のステップS34にてアウトライア除去処理を行うのが望ましい。また、モデル登録の際には、参照円を、各局所特徴量間距離が大きく、かつ一様に分布するように決定できるため、1つの点への偏った依存性を回避可能となる。記述する局所領域では、ベース点からのサポート点へ対する依存性が偏っていないため、一部の隠れ領域がある場合でもロバストなマッチングが可能となる。
以上に説明したように、本発明では、参照円のような局所的な領域抽出にマッチングに用いる局所特徴量を利用することから、より識別力の高い領域の抽出が可能となる。また、記述する局所領域では、各局所特徴量間距離が大きく、かつ一様に分布するため、1つの点への偏った依存性を回避可能となる。記述する局所領域では、ベース点からのサポート点へ対する依存性が偏っていないため、一部の隠れ領域がある場合でもロバストなマッチングが可能となる。
また、多重解像度の中から局所領域を決定し、Model記述を行うため、ターゲットのスケール変化に対応可能となる。各解像度をエントロピー値によって統一的に扱い、局所領域決定することで、より識別力の高い領域の局所領域の抽出が可能となる。
なお、多重解像度画像生成部は、図2におけるモデル特徴量登録部にあって、フレームメモリ12とエッジ画像生成部13との間に設けられても良い。
第1の実施の形態である物体認識装置の概略構成図である。 モデル特徴量登録部のブロック図である。 ターゲット画像認識部のブロック図である。 局所領域の記述例である。 モデル特徴量登録部の処理手順を示すフローチャートである。 エッジ画像生成処理の詳細な処理手順を示すフローチャートである。 エッジ画像生成処理で用いる微分フィルタを示す図である。 局所特徴量を説明するための図である。 基準軸抽出を説明するための図である。 回転正規化を説明するための図である。 参照円の例を示す図である。 参照円評価基準を示す図である。 参照円決定処理の流れを示すフローチャートである。 エントロピーマップを示す図である。 サンプリング方法を説明するための図である。 サポート点の相対位置を説明するための図である。 ターゲット画像認識部の処理手順を示すフローチャートである。 ベース点、サポート点が他のサポート点と重複することを説明するための図である。 マッチ部の動作を説明するための図である。 モデルとターゲットのマッチングを説明するための図である。 モデルのベース点、サポート点に対応するターゲット上の点を示す図である。 マッチング後に得られる結果を示す図である。 重複したベース点、サポート点における二つの対応点を説明するための図である。 対応点の決定を説明するための図である。 ターゲット画像認識部の他の処理手順を示すフローチャートである。 幾何学拘束を説明するための図である。 第2の実施の形態の物体認識装置に用いられるモデル特徴量登録部のブロック図である。 参照円の評価基準について説明するための図である。 特徴量間距離マップを示す図である。 参照円の決定処理の手順を示すフローチャートである。 多重解像度画像を用いた参照円選択を説明するための図である。
符号の説明
1 物体認識装置、10 モデル特徴量登録部、13 エッジ画像生成部、14 モデル特徴量抽出部、15 モデル辞書、20 ターゲット画像認識部、23 エッジ画像生成部、24 ターゲット特徴量抽出部、25 マッチング部、26 物体同定部、31 多重解像度画像生成部

Claims (24)

  1. 画像内に存在する物体を認識する物体認識装置において、
    物体認識の対象となる物体を含むターゲット画像からエッジ画像を生成するエッジ画像生成部と、
    上記エッジ画像生成部により生成されたエッジ画像上の各エッジ点の特徴量を抽出し、エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定する局所特徴量抽出部と、
    予め上記物体に対応して生成されたエッジ画像に設定した局所領域周辺の各エッジ点から決定された当該局所領域周辺にて注目すべきベース点とその特徴量及び当該ベース点をサポートするサポート点とその特徴量と、上記ベース点と上記サポート点の幾何学位置関係を記憶している記憶部を参照して、上記局所特徴量抽出部により抽出された特徴量を持つベース点及びサポート点との特徴量マッチングを行ってマッチングペアを取得する特徴量マッチング部と、
    上記特徴量マッチング部によって得られたマッチングペアから最もマッチングコストが高いものを採用することで、最終的なマッチングペアを決定するマッチングペア決定部とを備え、
    上記マッチングペア決定部によって決定されたマッチングペアを基にターゲット画像内の物体を同定することを特徴とする物体認識装置。
  2. 上記局所特徴量抽出部は、固定半径の円を角度方向、距離方向に分割し、分割による各ビンに存在するエッジ点の個数をヒストグラム化することにより全てのエッジ点について局所特徴量を抽出することを特徴とする請求項1記載の物体認識装置。
  3. 上記局所特徴量抽出部は、抽出した特徴量の回転不変を実現するために基準軸方向を抽出し、回転正規化を行うことを特徴とする請求項1記載の物体認識装置。
  4. 上記局所特徴量抽出部は、注目点を中心とした小領域内において、周辺のエッジ点の注目点からの角度を投票し、ヒストグラムを作成し、極大値に対応する角度が基準軸方向となる基準軸を抽出することを特徴とする請求項3記載の物体認識装置。
  5. 上記局所特徴量抽出部は、各点において基準軸方向の角度を求め、角度分ヒストグラムを角度方向にシフトすることにより上記特徴量の回転正規化を行うことを特徴とする請求項4記載の物体認識装置。
  6. 上記局所特徴量抽出部は、任意の半径の参照円を決定し、この参照円付近の上記エッジ点について上記ベース点、及び複数の上記サポート点を決定することを特徴とする請求項1記載の物体認識装置。
  7. 上記局所特徴量抽出部は、多重解像度画像生成部により生成された解像度の異なる複数の多重解像度画像毎に適切な半径の参照円を決定し、この参照円付近の上記エッジ点について上記ベース点、及び複数の上記サポート点を決定することを特徴とする請求項1記載の物体認識装置。
  8. 上記特徴量マッチング部は、ターゲット上の点の基準軸にあわせ、モデルのサポート点の位置補正を行い、モデルのベース点を上記ターゲット上の点の位置に合わせ、上記モデルのベース点と上記ターゲット上の点間の特徴量コストを算出し、各サポート点については、探索領域内で特徴量コストが最小となる点を探索することを特徴とする請求項1記載の物体認識装置。
  9. 上記特徴量マッチング部によって得られたマッチングペアからミスマッチペアを除去するミスマッチペア除去部をさらに備えることを特徴とする請求項1記載の物体認識装置。
  10. 画像内に存在する物体を認識するための物体認識方法において、
    物体認識の対象となる物体を含むターゲット画像からエッジ画像を生成するエッジ画像生成工程と、
    上記エッジ画像生成工程により生成されたエッジ画像上の各エッジ点の特徴量を抽出し、エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定する局所特徴量抽出工程と、
    予め上記物体に対応して生成されたエッジ画像に設定した局所領域周辺の各エッジ点から決定された当該局所領域周辺にて注目すべきベース点とその特徴量及び当該ベース点をサポートするサポート点とその特徴量と、上記ベース点と上記サポート点の幾何学位置関係を記憶している記憶部を参照して、上記局所特徴量抽出工程により抽出された特徴量を持つベース点及びサポート点との特徴量マッチングを行ってマッチングペアを取得する特徴量マッチング工程と、
    上記特徴量マッチング工程によって得られたマッチングペアから最もマッチングコストが高いものを採用することで、最終的なマッチングペアを決定するマッチングペア決定工程とを備え、
    上記マッチングペア決定工程によって決定されたマッチングペアを基にターゲット画像内の物体を同定することを特徴とする物体認識方法。
  11. 画像内に存在する物体を認識する物体認識装置として用いられるコンピュータによって実行される物体認識プログラムにおいて、
    物体認識の対象となる物体を含むターゲット画像からエッジ画像を生成するエッジ画像生成工程と、
    上記エッジ画像生成工程により生成されたエッジ画像上の各エッジ点の特徴量を抽出し、エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定する局所特徴量抽出工程と、
    予め上記物体に対応して生成されたエッジ画像に設定した局所領域周辺の各エッジ点から決定された当該局所領域周辺にて注目すべきベース点とその特徴量及び当該ベース点をサポートするサポート点とその特徴量と、上記ベース点と上記サポート点の幾何学位置関係を記憶している記憶部を参照して、上記局所特徴量抽出工程により抽出された特徴量を持つベース点及びサポート点との特徴量マッチングを行ってマッチングペアを取得する特徴量マッチング工程と、
    上記特徴量マッチング工程によって得られたマッチングペアから最もマッチングコストが高いものを採用することで、最終的なマッチングペアを決定するマッチングペア決定工程とを備え、
    上記マッチングペア決定工程によって決定されたマッチングペアを基にターゲット画像内の物体を同定することを特徴とする物体認識プログラム。
  12. 画像内に存在する物体を認識する物体認識処理に用いられる特徴量を登録する特徴量登録装置であって、
    予め物体のモデルのエッジ画像を生成するエッジ画像生成部と、
    上記エッジ画像生成部により生成したエッジ画像上の各エッジ点の特徴量を抽出し、かつ上記エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定し、ベース点とその特徴量及びサポート点とその特徴量、さらにベース点とサポート点との幾何学位置関係を記憶部に記憶させるモデル特徴量抽出部と
    を備えてなることを特徴とする特徴量登録装置。
  13. 上記モデル特徴量抽出部は、任意の半径の参照円を決定し、この参照円付近の上記エッジ点についてベース点、及び複数のサポート点を設定し、各サポート点の上記ベース点からの相対的な位置関係を算出することを特徴とする請求項12記載の特徴量登録装置。
  14. 上記モデル特徴量抽出部は、上記相対的な位置関係として、上記各サポート点の上記ベース点からの相対距離、相対角度を算出することを特徴とする請求項13記載の特徴量登録装置。
  15. 上記モデル特徴量抽出部は、上記参照円付近での円全体のエッジ点のばらつき度合いを評価することにより、参照円決定のための中心画素及び半径を決定することを特徴とする請求項13記載の特徴量登録装置。
  16. 上記モデル特徴量抽出部は、上記エッジ点のばらつき度合いの評価を、参照円半径、参照円中心から各エッジ点までの距離、固定軸からの角度を用いて算出したエントロピー値に基づいて行うことを特徴とする請求項13記載の特徴量登録装置。
  17. 上記モデル特徴量抽出部は、上記参照円を角度方向に複数に分割し、各分割領域にサンプリング領域を設定し、このサンプリング領域内で最も参照円に近い点をサンプリング点とし、サンプリング点群から前回までのベース点の位置の履歴を参照し、前回までのベース点としての画素の周辺に存在しない点を、サンプリング点から選択し、今回のベース点とし、他をサポート点とすることを特徴とする請求項13記載の特徴量登録装置。
  18. 上記モデル特徴量抽出部は、上記エッジ画像生成部により生成したエッジ画像上の各エッジ点の特徴量を用いて上記参照円を決定することを特徴とする請求項13記載の特徴量登録装置。
  19. 上記モデル特徴量抽出部は、参照円上のエッジ点がもつ各局所特徴量間の距離が大きくなる領域を抽出できるときに参照円を決定することを特徴とする請求項18記載の特徴量登録装置。
  20. 上記モデル特徴量抽出部は、所定の参照円を局所特徴量の半径に応じて分割し、各分割した部分において局所特徴量を抽出し、次に相互の特徴量間の距離を算出して相互特徴量間の距離マップを作成し、この相互特徴量間の距離マップを用いて参照円を決定することを特徴とする請求項19記載の特徴量登録装置。
  21. 上記モデル特徴量抽出部は、特徴間距離のエントロピー値を評価基準として用いることを特徴とする請求項20記載の特徴量登録装置。
  22. 上記モデル特徴量抽出部は、多重解像度画像生成部により生成された解像度の異なる複数の多重解像度画像毎に、適切な半径の参照円を決定し、この参照円付近の上記エッジ点について上記ベース点、及び複数の上記サポート点を決定することを特徴とする請求項12記載の特徴量登録装置。
  23. 画像内に存在する物体を認識するための物体認識処理に用いられる特徴量を登録する特徴量登録方法であって、
    予め物体のモデルのエッジ画像を生成するエッジ画像生成工程と、
    上記エッジ画像生成工程により生成したエッジ画像上の各エッジ点の特徴量を抽出し、かつ上記エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定し、ベース点とその特徴量及びサポート点とその特徴量、さらにベース点とサポート点との幾何学位置関係を記憶部に記憶させるモデル特徴量抽出工程と
    を備えてなることを特徴とする特徴量登録方法。
  24. 画像内に存在する物体を認識するための物体認識処理に用いられる特徴量を登録する装置としてのコンピュータによって実行される特徴量登録プログラムであって、
    予め物体のモデルのエッジ画像を生成するエッジ画像生成工程と、
    上記エッジ画像生成工程により生成したエッジ画像上の各エッジ点の特徴量を抽出し、かつ上記エッジ画像に設定した局所領域内の各エッジ点から当該局所領域内にて注目すべきベース点と、当該ベース点をサポートするサポート点とを決定し、ベース点とその特徴量及びサポート点とその特徴量、さらにベース点とサポート点との幾何学位置関係を記憶部に記憶させるモデル特徴量抽出工程と
    を備えてなることを特徴とする特徴量登録プログラム。
JP2007082109A 2006-03-31 2007-03-27 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム Expired - Fee Related JP4518092B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007082109A JP4518092B2 (ja) 2006-03-31 2007-03-27 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
US11/693,614 US8009879B2 (en) 2006-03-31 2007-03-29 Object recognition device, object recognition method, object recognition program, feature registration device, feature registration method, and feature registration program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006100705 2006-03-31
JP2006227062 2006-08-23
JP2007082109A JP4518092B2 (ja) 2006-03-31 2007-03-27 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム

Publications (2)

Publication Number Publication Date
JP2008077626A true JP2008077626A (ja) 2008-04-03
JP4518092B2 JP4518092B2 (ja) 2010-08-04

Family

ID=38712026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007082109A Expired - Fee Related JP4518092B2 (ja) 2006-03-31 2007-03-27 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム

Country Status (2)

Country Link
US (1) US8009879B2 (ja)
JP (1) JP4518092B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2136319A2 (en) 2008-06-20 2009-12-23 Sony Corporation Object recognition device, object recognition method, program for object recognition method, and recording medium having recorded thereon program for object recognition method
JP2010055195A (ja) * 2008-08-26 2010-03-11 Sony Corp 画像処理装置および方法、並びにプログラム
JP2010152543A (ja) * 2008-12-24 2010-07-08 Fujitsu Ltd 検出装置、検出方法および検出プログラム
CN101814135A (zh) * 2009-02-19 2010-08-25 索尼公司 学习设备、学习方法、识别设备、识别方法和程序
JP2011054062A (ja) * 2009-09-03 2011-03-17 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2011519090A (ja) * 2008-04-23 2011-06-30 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 画像識別のためのスケールにロバストな特徴に基づく識別子
US8160366B2 (en) 2008-06-20 2012-04-17 Sony Corporation Object recognition device, object recognition method, program for object recognition method, and recording medium having recorded thereon program for object recognition method
JP2014056507A (ja) * 2012-09-13 2014-03-27 Omron Corp 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法
KR101491906B1 (ko) 2013-05-29 2015-02-11 고려대학교 산학협력단 정합속도 증강 인식 방법
KR102161679B1 (ko) * 2020-01-03 2020-10-05 주식회사 케이스랩 객체 인식 장치 및 방법
KR20210108906A (ko) * 2020-02-25 2021-09-03 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 점군 데이터 처리방법, 장치, 전자기기 및 판독 가능 기록매체
CN114219699A (zh) * 2022-02-22 2022-03-22 绍兴埃瓦科技有限公司 匹配代价处理方法及电路和代价聚合处理方法

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
JP5031641B2 (ja) * 2008-03-31 2012-09-19 富士通株式会社 パターンの位置合わせ方法、照合方法及び照合装置
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US8744122B2 (en) * 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US8611695B1 (en) * 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8396325B1 (en) 2009-04-27 2013-03-12 Google Inc. Image enhancement through discrete patch optimization
US8391634B1 (en) * 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8385662B1 (en) 2009-04-30 2013-02-26 Google Inc. Principal component analysis based seed generation for clustering analysis
JP2011008713A (ja) * 2009-06-29 2011-01-13 Fujitsu Semiconductor Ltd 画像処理プログラム、画像処理装置、および画像処理方法
EP2278548A1 (en) * 2009-07-21 2011-01-26 Karlsruher Institut für Technologie Analysis of embryo images
JP4971483B2 (ja) 2010-05-14 2012-07-11 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
EP2395474A3 (en) 2010-06-11 2014-03-26 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
CN101957919B (zh) * 2010-09-22 2012-10-10 上海交通大学 基于图像局部特征检索的文字识别方法
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
US8538077B2 (en) * 2011-05-03 2013-09-17 Microsoft Corporation Detecting an interest point in an image using edges
US9697346B2 (en) * 2012-03-06 2017-07-04 Cisco Technology, Inc. Method and apparatus for identifying and associating devices using visual recognition
US8938119B1 (en) 2012-05-01 2015-01-20 Google Inc. Facade illumination removal
KR20140102038A (ko) * 2013-02-13 2014-08-21 삼성전자주식회사 영상 정합 장치 및 영상 정합 방법
CN104112137B (zh) * 2013-04-22 2017-07-28 富士通株式会社 对象边界提取方法和对象边界提取设备
CN104715227B (zh) 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
US9830532B1 (en) 2014-08-22 2017-11-28 Matrox Electronic Systems Ltd. Object detection in images using distance maps
RU2591175C1 (ru) * 2015-03-19 2016-07-10 Общество с ограниченной ответственностью "Аби ИнфоПоиск" Способ и система для глобальной идентификации в коллекции документов
CN104751475B (zh) * 2015-04-16 2017-09-26 中国科学院软件研究所 一种面向静态图像对象识别的特征点优选匹配方法
CN106725564B (zh) * 2015-11-25 2021-08-13 东芝医疗系统株式会社 图像处理装置及图像处理方法
US10366301B1 (en) * 2017-05-02 2019-07-30 Ambarella, Inc. Block based non-maximum suppression
CN110110189A (zh) 2018-02-01 2019-08-09 北京京东尚科信息技术有限公司 用于生成信息的方法和装置
US20200320334A1 (en) * 2019-04-05 2020-10-08 Ent. Services Development Corporation Lp Systems and methods for digital image-based object authentication

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05159065A (ja) * 1991-05-21 1993-06-25 Internatl Business Mach Corp <Ibm> 映像形状の獲得および認識のための方法およびシステム
JP2004326693A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
JP2005174062A (ja) * 2003-12-12 2005-06-30 Japan Science & Technology Agency 線図形マッチング方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4047154A (en) * 1976-09-10 1977-09-06 Rockwell International Corporation Operator interactive pattern processing system
US4135147A (en) * 1976-09-10 1979-01-16 Rockwell International Corporation Minutiae pattern matcher
JPS6012674B2 (ja) * 1979-04-02 1985-04-02 日本電気株式会社 パタ−ン特徴抽出装置
CA1199732A (en) * 1982-06-28 1986-01-21 Koh Asai Method and device for matching fingerprints with precise minutia pairs selected from coarse pairs
DE3587083T2 (de) * 1984-04-18 1993-06-03 Nec Corp Identifizierungssystem durch pruefung von fingerabdruecken.
US4790564A (en) * 1987-02-20 1988-12-13 Morpho Systemes Automatic fingerprint identification system including processes and apparatus for matching fingerprints
CA2064926C (en) * 1991-04-03 1996-07-16 Ritsuko Omori Fingerprint image processing system capable of simply processing minutiae
JP2759309B2 (ja) * 1993-04-21 1998-05-28 株式会社松村エレクトロニクス 指紋照合方法
US5613014A (en) * 1994-10-12 1997-03-18 Martin Marietta Corp. Fingerprint matching system
JP3002721B2 (ja) * 1997-03-17 2000-01-24 警察庁長官 図形位置検出方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
US6681034B1 (en) * 1999-07-15 2004-01-20 Precise Biometrics Method and system for fingerprint template matching
US6546122B1 (en) * 1999-07-29 2003-04-08 Veridicom, Inc. Method for combining fingerprint templates representing various sensed areas of a fingerprint to derive one fingerprint template representing the fingerprint
JP4032241B2 (ja) * 2003-02-28 2008-01-16 日本電気株式会社 指紋照合装置及びその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05159065A (ja) * 1991-05-21 1993-06-25 Internatl Business Mach Corp <Ibm> 映像形状の獲得および認識のための方法およびシステム
JP2004326693A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
JP2005174062A (ja) * 2003-12-12 2005-06-30 Japan Science & Technology Agency 線図形マッチング方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831355B2 (en) 2008-04-23 2014-09-09 Mitsubishi Electric Corporation Scale robust feature-based identifiers for image identification
JP2011519090A (ja) * 2008-04-23 2011-06-30 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 画像識別のためのスケールにロバストな特徴に基づく識別子
US8160366B2 (en) 2008-06-20 2012-04-17 Sony Corporation Object recognition device, object recognition method, program for object recognition method, and recording medium having recorded thereon program for object recognition method
JP2010027025A (ja) * 2008-06-20 2010-02-04 Sony Corp 物体認識装置、物体認識方法及び物体認識方法のプログラム
EP2136319A2 (en) 2008-06-20 2009-12-23 Sony Corporation Object recognition device, object recognition method, program for object recognition method, and recording medium having recorded thereon program for object recognition method
JP4569698B2 (ja) * 2008-06-20 2010-10-27 ソニー株式会社 物体認識装置、物体認識方法及び物体認識方法のプログラム
JP2010055195A (ja) * 2008-08-26 2010-03-11 Sony Corp 画像処理装置および方法、並びにプログラム
JP4547639B2 (ja) * 2008-08-26 2010-09-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2010152543A (ja) * 2008-12-24 2010-07-08 Fujitsu Ltd 検出装置、検出方法および検出プログラム
CN101814135A (zh) * 2009-02-19 2010-08-25 索尼公司 学习设备、学习方法、识别设备、识别方法和程序
JP2011054062A (ja) * 2009-09-03 2011-03-17 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2014056507A (ja) * 2012-09-13 2014-03-27 Omron Corp 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法
KR101491906B1 (ko) 2013-05-29 2015-02-11 고려대학교 산학협력단 정합속도 증강 인식 방법
KR102161679B1 (ko) * 2020-01-03 2020-10-05 주식회사 케이스랩 객체 인식 장치 및 방법
KR20210108906A (ko) * 2020-02-25 2021-09-03 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 점군 데이터 처리방법, 장치, 전자기기 및 판독 가능 기록매체
JP2021136037A (ja) * 2020-02-25 2021-09-13 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 点群データ処理方法、装置、電子機器及び読み取り可能な記憶媒体
US11521370B2 (en) 2020-02-25 2022-12-06 Beijing Baidu Netcom Science And Technology Co., Ltd. Point cloud data processing method, apparatus, electronic device and computer readable storage medium
KR102615957B1 (ko) 2020-02-25 2023-12-19 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 점군 데이터 처리방법, 장치, 전자기기 및 판독 가능 기록매체
CN114219699A (zh) * 2022-02-22 2022-03-22 绍兴埃瓦科技有限公司 匹配代价处理方法及电路和代价聚合处理方法

Also Published As

Publication number Publication date
US20070269107A1 (en) 2007-11-22
JP4518092B2 (ja) 2010-08-04
US8009879B2 (en) 2011-08-30

Similar Documents

Publication Publication Date Title
JP4518092B2 (ja) 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
US9141871B2 (en) Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space
US8103115B2 (en) Information processing apparatus, method, and program
JP5384746B2 (ja) プルーニング機能、画像スケーリング、および、空間制約付き特徴マッチングによる画像認識アルゴリズムの性能の改善
CN102016880B (zh) 用于图像识别的尺度健壮的基于特征的标识符
US9619733B2 (en) Method for generating a hierarchical structured pattern based descriptor and method and device for recognizing object using the same
US10496863B2 (en) Systems and methods for image alignment
US8515177B2 (en) Image processing apparatus, image processing method, and program
CN109886878B (zh) 一种基于由粗到精配准的红外图像拼接方法
TWI434220B (zh) 利用手掌靜脈之生物特徵辨識使用者之方法
US20080199044A1 (en) Image Processing Apparatus, Image Processing Method, and Program
JP4378660B2 (ja) 情報処理装置および方法、並びにプログラム
CN111507908B (zh) 图像矫正处理方法、装置、存储介质及计算机设备
JP2006523345A (ja) マルチメディアデータに索引付けをし、そして検索するための形状マッチング方法
Rogers et al. Robust and accurate registration of 2-D electrophoresis gels using point-matching
US10127681B2 (en) Systems and methods for point-based image alignment
Ma et al. Image feature matching via progressive vector field consensus
JPWO2018179338A1 (ja) 機械学習装置及び画像認識装置
US20180189582A1 (en) Multi-stage tattoo matching techniques
CN111753119A (zh) 一种图像搜索方法、装置、电子设备及存储介质
JP2011221689A (ja) 学習装置、学習方法、認識装置、認識方法、およびプログラム
Zhang et al. A context-aware locality measure for inlier pool enrichment in stepwise image registration
Seib et al. Object recognition using hough-transform clustering of surf features
JP2009129237A (ja) 画像処理装置及びその方法
Mentzer et al. Self-calibration of wide baseline stereo camera systems for automotive applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees