JP5353631B2 - 画像処理方法、画像処理プログラム及び画像処理装置 - Google Patents

画像処理方法、画像処理プログラム及び画像処理装置 Download PDF

Info

Publication number
JP5353631B2
JP5353631B2 JP2009243862A JP2009243862A JP5353631B2 JP 5353631 B2 JP5353631 B2 JP 5353631B2 JP 2009243862 A JP2009243862 A JP 2009243862A JP 2009243862 A JP2009243862 A JP 2009243862A JP 5353631 B2 JP5353631 B2 JP 5353631B2
Authority
JP
Japan
Prior art keywords
image
local neighborhood
neighborhood structure
basic element
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009243862A
Other languages
English (en)
Other versions
JP2010102711A (ja
Inventor
リュウ,ルジエ
月紅 王
孝之 馬場
大器 増本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2010102711A publication Critical patent/JP2010102711A/ja
Application granted granted Critical
Publication of JP5353631B2 publication Critical patent/JP5353631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理分野に属し、特に第一画像から第二画像を検出するための画像処理方法、画像処理プログラム及び画像処理装置に関する。
近年、情報技術の発展と社会生活のデジタル化に伴って、設計図の管理及び検索が早急に解決を要する研究課題になっている。統計によると、前世紀の90年代初め頃までに、アメリカとカナダ地域の各種の設計図は、既に35億枚に達し、毎年2600万枚の速度で増加し続けている。これらの設計図を集めて整理する、例えばファイリング、複製及びサーチングするために毎年かかる費用は、平均的に10億ドルに達している。
仕事の効率を向上させてコストを低下させるため、近年、研究者は、設計図の電子化管理に関する研究に力を尽くしている。かかる電子化管理には、主に、ハードコピーの設計図から自動的にCAD(Computer Aided Design)電子ファイルを生成する設計図理解、一枚の図面又は図面の一部分の形状をインデックスとして自動的に相似の設計図をサーチングする設計図の内容に基づく整合及び検索が含まれる。
内容に基づく設計図の整合は、極めて高い応用価値を有する。設計技術者は、ある製品を設計するとき、以前の設計図を参照又は修正することがよくある。このため、設計技術者は、以前の設計図のファイルを閲覧しながら関連する設計図をサーチングする必要がある。しかし、この過程では、多くの時間と工夫が必要とされる。
上述の問題を解決するため、テキストを用いて補助検索を行う手法、即ち各設計図に注釈文字を標記し、注釈文字を利用してキーワード検索を行う手法が提案されている。しかし、人手により多くの設計図に対して注釈文字の標記を行うことは、莫大な労力を必要とする。さらに、注釈文字のみを利用する場合、設計図の内容を適切に表現することができず、検索の精度を低下させることがある。設計図の内容に基づいて自動的に設計図の検索及び整合を行えば、設計技術者の作業効率を大幅に向上させて製品の開発及び保護のコストを低下させることができる。
例えば、テキスト及び設計図の構造情報を組み合わせてデータベースからある部材を含む設計図をサーチングする従来技術がある。かかる従来技術によれば、テキストを検索条件とし、テキスト情報よりモデルデータベースから幾何学的モデルを整合し、最後にテキスト及び幾何学的モデルの形状に基づいて設計図を検索する。かかる従来技術は、主に組立図を適用の対象としている。
また、例えば、設計図から特定の目標を検索する従来技術がある。かかる従来技術において、先ず、設計図から直線線分及び平滑な曲線を抽出する。設計図から抽出した直線線分及び平滑な曲線を後処理のベーシックエレメント(以下、「BE」(Basic Element)と略す)とする。そして、BEの空間分布に基づいてDelaunayの三角網の技術を用いて属性グラフ(Attributed Graph)を構築する。即ち、属性グラフの形状により設計図の内容を陳述する。最後に、属性グラフの整合手法を用いて目標画像と検出待ち画像の相似度を計算することにより、目標検出の任務が完成する。また、例えば、特別なヒストグラムであるF-Signatureを利用して設計図の構成部分に対して整合を行う従来技術がある。
また、例えば、ドットマトリックスによる表現方法に代えて、設計図から抽出した直線のBEを用いて設計図の内容を表現する従来技術がある。かかる従来技術は、ドットマトリックスによる表現方法と比較して多くの利点、例えば表現の簡潔性、認知上の合理性を有する。また、かかる表述方法は、中間レベルの情報を用いて、設計図を表現する内容、例えばBEの平行又は交差関係等を提供する。かかる従来技術では、直線を基本的な描写子として用い、直線間の相対関係の属性を定義することにより、画像の構造情報を表現している。よって、目標検出は、描写子の集合間の対応問題に変換される。当該対応問題は、一つの二次最適化の過程を通じて実現される。
また、視覚的な角度からエッジ輪郭を合理的に組み合わせて、この組み合わせを基に目標検出を行うことは、既にコンピュータ視覚分野における一つの重要な課題になっている。例えば、エッジ輪郭ネットワーク(Contour Segment Network)の規則に基づいてエッジ輪郭を局部構造に組み合わせる従来技術がある。また、グルーピング(Grouping)手法を利用して試行サンプルにおけるエッジ輪郭構造に対して処理を行って、一つのエッジ輪郭のコードブックを生成する。そして、当該コードブックを利用して一つのサポートベクターマシン(SVM(Support Vector Machine))を取得する。目標検出の際には、光格子のスキャニング手法を利用して、検出待ち画像における各位置に目標画像が含まれているか否かを検証する。当該従来技術は、自然の背景画像から特定の対象を有効に検出できるとしている。
米国特許第5845288号明細書 米国特許第7106330B2号明細書
S.Tabbone、L.Wendling、K.Tombre、「Matching of graphical symbols in line-drawing images using angular signature information」、International Journal of Document Analysis and Recognition、volume6、issue1、June 2003 Xiaofeng Ren、「Learning and matching line aspects for articulated object」、in Proceedings of the IEEE conference of computer vision and pattern recognition、1-8、2007 Vittorio Ferrari、Loic Fevrier、Frederic Jurie、Cordelia Schmid、「Groups of adjacent contour segments for object detection」、IEEE transactions on pattern analysis and machine intelligence、vol.30、no.1、36-51、2008 Jamie Shotton、Andrew Blake、Roberto Cipolla、「Contour-based learning for object detection」、in Proceedings of the IEEE international conference on computer vision、503-510、2005 Yossi Rubner、Carlo Tomasi、Leonidas J.Guibas、「The earth mover’s distance as a metric for image retrieval」、International journal of computer vision、volume40、no.2、page99-121、2000 Bogdan Georgescu、Ilan Shimshoni、Peter Meer、「Mean shift based clustering in high dimensions:a texture classification example」、in Proceedings of the IEEE international conference on computer vision、456-463、2003
しかしながら、上述した従来技術では、次の問題があった。テキスト及び設計図の構造情報を組み合わせてデータベースからある部材を含む設計図をサーチングする従来技術は、依然としてテキストに基づく検索方法への依存から脱却していない。このため、テキストによって設計図の内容を適切に表現することができず、検索の精度を低下させるという問題があった。
また、設計図から特定の目標を検索する従来技術は、実行速度が遅いという問題点があった。実際、属性グラフ整合の計算複雑度は、目標画像及び検出待ち画像の複雑度と指数関係を持つため、比較的複雑な目標画像と検出待ち画像に対しては、当該従来技術が実用化されることは難しかった。
また、特別なヒストグラムであるF-Signatureを利用して設計図の構成部分に対して整合を行う従来技術は、設計図における独立な構成部分のみ整合及び検索を行うことができるため、部分的検出及び整合を行うことができず、適用範囲が制限されていた。
また、ドットマトリックスによる表現方法に代えて、設計図から抽出した直線のBEを用いて設計図の内容を表現する従来技術は、実質は、依然として属性グラフの整合の範囲に属するため、計算速度が大きなボトルネックとなり、実用性が制限されていた。
また、視覚的な角度からエッジ輪郭を合理的に組み合わせて、この組み合わせを基に目標検出を行う従来技術は、設計図から対象を有効に検出する実際の要求に適していない。具体的には、先ず、当該従来技術は、各種の対象に対して試行を行ってエッジ輪郭コードブックを生成する。次に、光格子のスキャニング手法を用いて検出を行う。このため、当該従来技術は、実行速度が遅く、且つ比例拡大縮小の尺度が変化する状況に良好に対応できなかった。
総合的に見ると、従来の目標検出方法の主な問題には、下記のことが含まれている。
(1)属性グラフの整合を利用して検出を完了する目標検出方法は、例えば整合速度が遅く、比較的複雑な画像に対して一回の整合を完了するために何秒、延いては何十秒の時間がかかる。
(2)試行に基づく目標検出方法は、検出性能は比較的良好であるが、例えば各種の特定の対象に対して試行を行う必要があるため、実用化することが難しく、また検出の速度は実用の要求を満足できない場合があった。
(3)全面的な整合に基づく目標検出方法は、先ず、検出待ち画像を独立の分割単位に分割した後、目標画像と分割単位に対して整合を行っているので、特定の種類の画像である場合にのみ適用可能であった。
開示技術は、上述した問題に鑑みてなされたものであって、第一画像から第二画像を検出するための新規な画像処理方法及び画像処理装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、開示技術の一の態様によれば、第一画像から第二画像を画像処理装置が検出する画像処理方法において、第一画像及び第二画像における各画像に対して、画像おける各ベーシックエレメントに基づいて局部近傍構造を構築する。そして、局部近傍構造の特徴を抽出する局部近傍構造構築ステップを含む。そして、局部近傍構造構築ステップにより抽出された第一画像及び第二画像における局部近傍構造の特徴に基づいて、第二画像における局部近傍構造から第一画像における局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とする。そして、候補整合対に対して、第二画像が第一画像に現れる変換パラーメータを推測する局部近傍構造整合ステップを含む。そして、局部近傍構造整合ステップによって推測された変換パラーメータをパラーメータ空間におけるベクトルとし、パラーメータ空間中の密集領域を探索した結果に基づいて最終的な変換パラーメータを確定する検出ステップを含むことを要件とする。
また、開示技術の一の態様によれば、上述した画像処理方法を実現するための画像処理プログラムを提供している。また、開示技術の一の態様によれば、上述した画像処理方法を実行する画像処理装置を提供している。また、開示技術の一の態様によれば、上述した画像処理方法を実現するためのコンピュータプログラムコードを記録しているコンピュータ読取り可能な記録媒体を提供している。
以上の記載は、開示技術に関する概略を与えており、開示技術に関するある面の基本的な理解を提供する。しかし、かかる記載は開示技術に関する徹底的な記載ではないことを理解するべきである。即ち、開示技術のポイント部分又は重要な部分を確定することを意図しておらず、開示技術の範囲を限定することを意図しているのではない。以上の記載の目的は、ただ簡単な形式で開示技術のある概念を与えることであり、後に挙げるより詳しい記載の前書きとすることである。
開示技術によれば、低い計算複雑度及び高い検出正確度で目標画像を検出することができるという効果を奏する。
図1は、実施例に係る検出待ち画像から目標画像を検出する画像処理方法の全体的なフローチャートである。 図2は、図1に示すステップS110の局部近傍構造を構築する処理を具体的に示すフローチャートである。 図3は、局部近傍構造構築処理においてK隣接法により構築した局部近傍構造を示す模式図である。 図4Aは、局部近傍構造構築処理においてEMD距離に基づいてBE間の夾角を計算する例を示す図である。 図4Bは、局部近傍構造構築処理においてEMD距離に基づいてBE間の夾角を計算する例を示す図である。 図4Cは、局部近傍構造構築処理においてEMD距離に基づいてBE間の夾角を計算する例を示す図である。 図4Dは、局部近傍構造構築処理においてEMD距離に基づいてBE間の夾角を計算する例を示す図である。 図5は、図1に示すステップS120の局部近傍構造整合処理を具体的に示すフローチャートである。 図6は、図5に示すステップS510の局部近傍構造距離計算処理を具体的に示すフローチャートである。 図7Aは、局部近傍構造距離計算処理の例における目標画像の一つの局部近傍構造を示す図である。 図7Bは、局部近傍構造距離計算処理の例における検出待ち画像の一つの局部近傍構造を示す図である。 図8は、図5に示すステップS530のパラーメータ推算処理を具体的に示すフローチャートである。 図9は、パラーメータ推算処理の例においてウィンドウサーチング(Window Searching)手法を利用してパラーメータを確定した結果を示す模式図である。 図10は、パラーメータ推算処理の例において目標画像の一つの局部近傍構造から推測した中心位置を示す模式図である。 図11は、パラーメータ推算処理の例において目標画像の全ての局部近傍構造から推測した中心位置を示す模式図である。 図12は、図1に示すステップS130の検出処理を具体的に示すフローチャートである。 図13は、検出処理の例における検出結果を示す模式図である。 図14は、実施例に係る検出待ち画像から目標画像を検出する画像処理装置を示すブロック図である。
以下、図面を参照して、開示技術の代表的な実施例を説明する。記載の明瞭及び簡単のために、実施例においては全ての特徴を記載していない。しかしながら、如何なる実施例を開発する過程においても、実施例を多く特定することによって開発者の具体的な目標を実現する。例えば、システム及び業務に関する限定条件を満たさなければならい。また、限定条件は、実施例によって変化する場合がある。また、実施例の開発は、非常に複雑で、工夫を必要とする可能性がある。しかし、開示技術から益を得た当業者にとって、限定条件を含む実施例の開発は、日常の業務に過ぎない。
以下の実施例では、全ての図面において、同一又は類似な図面符号を用いて同一又は類似の部材を示す。図面は、以下の実施例とともに本明細書に含まれる。そして、図面は、さらに例を挙げて開示技術の好ましい実施例を説明し、また、開示技術の原理及び利点を解釈するに用いられている。
また、図面における部材は、記載の簡単及び明瞭を趣旨として示したものである。図面におけるある部材の大きさは、他の部材に対して拡大されることも可能である。これは、開示技術の実施例の理解に役立つようにするためである。
また、必要でない詳細なものにより開示技術が不明瞭になることを回避するため、図面において開示技術に緊密に関連する装置の構造及び/又は処理ステップのみを図示しており、開示技術に大きな関係がない他の詳細については図示を省略している。
開示技術の実施例による画像処理方法及び画像処理装置は、工程設計図を処理対象とすることが好ましいが、例えば予めエッジ輪郭抽出処理を経て画像を線図に変換することにより一般的な画像にも適用することができる。
以下、図面を参照して、開示技術の実施例に係る検出待ち画像から目標画像を検出するための画像処理方法を詳細に説明する。以下の実施例において、第一画像は検出待ち画像に相当し、第二画像は目標画像に相当する。また、「サーチング」は、例えば探索又は検索を意味する。
図1は、開示技術の実施例に係る検出待ち画像から目標画像を検出する画像処理方法の全体的なフローチャートである。
図1に示すように、ステップS110において、検出待ち画像と目標画像における各BEに局部近傍構造を構築し、構築した局部近傍構造の特徴を抽出する。
続いて、ステップS120において、抽出した局部近傍構造の特徴に基づいて、目標画像における各局部近傍構造に対して、検出待ち画像から最も相似する一つ又は複数の局部近傍構造を探索して候補整合とする。そして、各候補整合の対に対して、目標画像が検出待ち画像において現れる変換パラーメータを推定する。
最後に、ステップS130において、ステップS120で推測した変換パラーメータをパラーメータ空間におけるベクトルとし、パラーメータ空間内においてベクトルが密集する密集領域をサーチングする。そして、サーチングした密集領域に含まれるベクトルに基づいて最終的な変換パラーメータを確定する。
ここで、検出待ち画像又は目標画像は、工程設計図のドットマトリックス画像であってもよい。例えば、BMP、JIF、JPG(JPEG)など標準画像の形式であってもよい。検出待ち画像又は目標画像は、スキャナ又はカメラにより工程設計図のハードコピーから取得することができる。また、検出待ち画像又は目標画像は、ベクトル化したCAD電子ファイルから取得してもよい。
ドットマトリックス画像に対しては、ベクトル化装置又は類似の機能を有する装置を用いて当該工程設計図から直線と曲線の線分を抽出する必要がある。CAD電子ファイルに対しては、CAD電子ファイルから当該CAD工程設計図の直線及び曲線の線分を抽出する必要がある。また、CAD電子ファイルに対しては、予め工程設計図を直線及び曲線の線分の集合に分解する必要がある。直線と曲線の線分は、「BE」と総称される。
一つの工程設計図は、部材そのものの輪郭情報の他、通常その他の補助情報を含んでいる。例えば部材の寸法、組み立てプロセス等を説明するための標識線と標識テキスト、及び部材に対して補助的な説明をするための点線、破線等がある。しかし、開示技術による画像処理方法は、補助情報に依存していない。逆に、補助情報に依存すると、性能を低下させる可能性がある。従って、入力に対して処理を行う際に、補助情報の全部又は一部を除去することができれば、開示技術による画像処理方法の性能を向上するために有利である。
以下、図面を参照して、開示技術の実施例に係る画像処理方法の各ステップの具体的な実施例を詳細に説明する。しかし、開示技術は以下の具体的な実施例に限られるものではない。
(1.局部近傍構造の構築処理)
図2は、図1に示すステップS110の局部近傍構造構築処理のフローチャートを示す図である。局部近傍構造を構築する処理は、検出待ち画像と目標画像の各画像を対象としている。
図2に示すように、先ず、ステップS210において、画像における各BEを参照BEとし、画像におけるBEの空間分布の関係に基づいて、当該参照BEに隣接する隣接BEをサーチングして確定し、参照BEと隣接BEを組み合わせて局部近傍構造を構築する。
続いて、ステップS220において、参照BEと隣接BEの形状の特徴、及び参照BEと隣接BE間の空間的な構造関係の特徴を、局部近傍構造の特徴とする。
ここで、説明しておく必要があるのは、画像における比較的小さいBEに対して、即ち寸法が所定の閾値より小さいBEに対しては、当該BEが持つ情報が少なく、且つ大部分がノイズにより生じたものである。このため、好ましくは、実際の応用において、画像における比較的小さいBEを先にフィルタリングして局部近傍構造の構築から除外する。
ステップS210における局部近傍構造構築処理に関して、例えば、以下の幾つかの実施例がある。
(局部近傍構造の構築方法(その1))
予め二つのBE(直線及び曲線の線分)間の最小距離を定義する。定義:二つのBE、即ちPとQ間の最小距離は、BEのPを形成する画素とBEのQを形成する画素の最小ユークリッド空間距離(Euclidean distance)である。
即ち、二つのBEを形成する画素がそれぞれP=(x,y)(i=1,・・・,M)、Q=(x,y)(j=1,・・・,N)であるとする。すると、BEとしてのPとQとの間の最小距離は、mini,j{((x−x+(y−y1/2}(i=1,・・・,M、j=1,・・・,N)である。ただし、「mini,j{*}」は、i及びjを走査して求まる*の最小値を表わす。
局部近傍構造を構築するため、先ず、何れか二つのBE間の最小距離を計算する必要がある。
続いて、各BEに対して、その隣接BEをサーチングする。以下の二つの方法により一つのBEの隣接BEを確定することができる。
(1−1)K隣接法。一つのBEを参照BEとし、当該参照BEとの最小距離が最も小さい前からk個のBEを探索して、当該k個のBEを当該参照BEの隣接BEとする。kは本装置を実現するためのパラーメータであり、経験により確定することができ、その値は一般的に5〜15のある整数を取る。
図3は、K隣接法により構築した局部近傍構造を示す模式図である。当該模式図において、kの値は5であり、実線L1は局部近傍構造の参照BEを示し、その他の実線は、局部近傍構造の隣接BEを示し、破線は工程設計図における他のBEを示す。
(1−2)距離閾値法。一つのBEを参照BEとして定義し、あるBEから当該参照BEまでの最小距離がある閾値dより小さい場合、当該BEを当該参照BEの隣接BEとする。dは本装置を実現するための一つのパラーメータであり、一般的には処理対象の工程設計図及び目標画像に応じて設定される。dは、一定の値を設定してもよく、また、各BEによって異なる値、例えば各BEの大きさに応じてdの値を設定してもよい。
(局部近傍構造の構築方法(その2))
以下に示す方式は、従来技術における属性グラフ構築処理に類似し、以下のステップを主に有する。
(2−1)BEをサンプリングする。均一サンプリングの方法を利用して、BEを形成する画素点に対してサンプリングを行い、これらのサンプル点により一つのBEを示すとともに、各サンプル点の基になるBEを記録する。
(2−2)Delaunay図を構築する。全てのこれらのサンプル点を入力とし、Delaunayの三角網の技術を利用して属性グラフを構築する構造を三角に区画する。Delaunay図において、各サンプル点は一つの図の節点に対応し、BE間の連結関係は、Delaunay図の辺として表される。
(2−3)図を簡略化する。ステップ(2−2)により取得した図を簡略化し、同一のBEからのサンプル点を一つの節点に併合するとともに、それに対応する辺を併合する。
上記作業を経て、各BEが属性グラフの一つの節点として表され、属性グラフの辺がBE間の隣接関係として表わされる。一つのBE(属性グラフ節点)を参照BEと定義し、属性グラフにおいてそれに直接繋がっている辺があるBEは、当該参照BEの隣接BEである。
ステップS220における特徴抽出処理に関して、好ましくは、BEの形状の特徴は、BE方向のヒストグラムにより描写される。具体的には、先ず、BEにおける各画素点の接線方向(一つのBEは実際には一つの直線又は曲線の線分であるため、各画素点の接線方向を容易に取得することができる)を計算する。続いて、各画素点の接線方向を示す値によりヒストグラムを構築する。ヒストグラムの大きさは、経験的に確定することができる。例えば32個のbinのヒストグラム、或いは16個のbinのヒストグラム等がある。最後に、各画素点の接線方向を示す方向値により構築された方向ヒストグラムに対してフーリエ変換を行い、変換された係数の幅値をBEの形状の特徴とする。フーリエ変換により、当該形状の特徴にアフィン(affine)不変性を与える。その結果、方向ヒストグラムは、接線方向及び大きさの変化に無関係になる。
また、好ましくは、局部近傍構造におけるBEの空間構造の関係は、以下に列挙した属性のうち一つ又は複数により表されることができる。
(3−1)相対的長さ、即ち隣接BEの長さを参照BEの長さに除算したもの。
(3−2)相対的中心距離、即ち隣接BEの中心から参照BEの中心までの接続線の長さを、参照BEの長さに除算したもの。
(3−3)相対的最小距離、即ち隣接BEから参照BEまでの最小距離を、参照BEの長さで除算したもの。
(3−4)夾角、即ち隣接BEと参照BE間の夾角。
開示技術において、各BEは、工程設計図における一つの直線又は曲線を示す。隣接BEと参照BEとがいずれも直線であれば、その夾角を容易に計算することができる。しかし、隣接BEと参照BEとの少なくとも一方が曲線である場合、ある手法を用いてその夾角を計測する必要がある。この目的を実現するため、本実施例では、EMD距離(Earth Mover’s Distance)を利用してBE間の夾角を計算する。EMD距離の詳細は、非特許文献5に記載されている。
具体的には、参照BE及び隣接BEを定義すると、その夾角を計算するステップは以下の通りである。
(4−1)先ず、BEにおける各画素点の接線方向を計算して、方向値を区間0からπに変換する。
(4−2)続いて、画素点の接線方向に基づいて、参照BE及び隣接BEに対して、それぞれの方向ヒストグラムを構築する。その後、方向ヒストグラムにおける各分量の総和を1として方向ヒストグラムの正規化を行う。
(4−3)続いて、参照BE及び隣接BEの正規化された方向ヒストグラムのEMD距離を計算し、計算したEMD距離を参照BE及び隣接BEの夾角とする。
角度は周期性を有するため、0と2πは同一方向に該当する。EMD距離を計算する際には、周期性による偏差を防止するため、本実施例では、次式に基づく測度により参照BE及び隣接BEのEMD距離を算出する。ただし、次式において、sとsは、0からπ間の値を取る二つの方向値である。
Figure 0005353631
図4A〜図4Dは、局部近傍構造構築処理においてEMD距離に基づいてBE間の夾角を計算する例を示す図である。即ち、図4A〜図4Dでは、EMD距離を利用して参照BE及び隣接BE間の夾角を計算する4つの例をそれぞれ示している。各例は、いずれも二つのBE(直線又は曲線の線分)を含んでいる。図4Aに関して算出した夾角は0.34πであり、図4Bに関して算出した夾角は0.15πであり、図4Cに関して算出した夾角は0.05πであり、図4のDに関して算出した夾角は0.39πである。図4Aおいて、一つの直線の線分は、一つの楕円の長軸と垂直に近い位置関係にあり、π/2に近い角度を成す。
図4Bにおいて、一つの直線線分は、一つの楕円の長軸と平行に近い位置関係、即ち0に近い角度を成す。従って、一つの直線線分と、一つの楕円の長軸との夾角は、図4Aにおける夾角が、図4Bにおける夾角よりも大きいことが分かる。以上から、本実施例において、EMD距離によるBE間の夾角の計算方法が合理的であることが分かる。
本実施例におけるEMD距離に基づくBE夾角の計算方法は、一般的な夾角の計算方法であるので、計算の際には、BEが直線線分又は曲線線分であるかによって区別する必要がなく、BEの方向ヒストグラムに基づいて直接計算を行えばよい。
また、従来の方法を用いてBE間の夾角を計算してもよい。例えば、以下の2つの方法がある。
(5−1)先ず、最小二乗誤差(MSE)の手法を利用して、BEを一つの直線に近似する。即ち、BEが直線又は曲線であるかに関わらず、統一的に直線として表す。その後、近似した後の二つの直線間の夾角をBE間の夾角とする。
(5−2)主成分分析技術を利用して、BEの主方向を計算する。主方向は一つの角度方向を示し、近似的にBEにおける画素の主なる方向であると理解することができる。二つのBEの主方向の成分の差は当該二つのBE間の夾角である。
また、好ましくは、ステップS220の局所近傍の構造の特徴抽出処理において、中心位置(即ちBEの中心座標)、参照BEの中心から画像中心に向かうベクトル(目標画像の局部近傍構造に対して)等の特徴を抽出して、後処理で使用する。
(2.局部近傍構造の整合処理)
図5は、図1に示すステップS120の局部近傍構造整合処理を具体的に示すフローチャートである。
図5に示すように、ステップS510において、局部近傍構造の特徴に基づいて検出待ち画像における各局部近傍構造と目標画像における各局部近傍構造間の距離を計算する。続いて、ステップS520において、目標画像における各局部近傍構造に対して、検出待ち画像から当該目標画像の局部近傍構造との距離が最小の一つ又は複数の局部近傍構造をサーチングして、サーチングした局部近傍構造を候補整合とする。最後に、ステップS530において、各候補整合の対に対して、目標画像が検出待ち画像において現れる変換パラーメータを推測する。以下、これらのステップの具体的な実施例をそれぞれ詳細に説明する。しかし、開示技術は、下記の具体的な実施例に限られるものではない。
記載の便利のため、次のように符号を定義する。ある局部近傍構造の第i個の隣接BEをN、当該BEの形状の特徴(即ち方向ヒストグラムのフーリエ変換)をT、当該BEと参照BEの空間構造の関係(相対的長さ、相対的中心距離、相対的最小距離、夾角を含む)をEと記す。当該局部近傍構造の参照BEの形状特徴をSと記す。また、目標画像に対応する局部近傍構造を上付きM、検出待ち画像に対応する局部近傍構造を上付きGと記す。例えば、N は、目標画像における一つの局部近傍構造の第i個の隣接BEを示し、N は、検出待ち画像における一つの局部近傍構造の第j個の隣接BEを示す。
目標画像における一つの局部近傍構造をP={S,N =(T ,E ),i=1,・・・,u}と記し、検出待ち画像における一つの局部近傍構造をP={S,Nj=(T ,E ),j=1,・・・,v}と記す。ここで、P及びPの二つの局部近傍構造は、それぞれu及びv個の隣接BEを含んでいる。
本実施例では、以下のように、距離測度により局部近傍構造の特徴間の距離を定義する。
(6−1)BEの形状の特徴である距離測度d。BEの形状の特徴はベクトルで表現される。よって、d(S,S)=||S−S||、d(T ,T )=||T −T ||と定義する。
(6−2)BEの空間構造の関係の特徴である相対的長さの距離測度d。E における相対的長さの値をl 、E における相対的長さの値をl と設定すると、dは、次式で表わされる。
Figure 0005353631
また、同様に、本実施例では、以下のように、距離測度により局部近傍構造の特徴間の距離を定義する。
(6−3)BEの空間構造の関係の特徴である中心距離の相対的な距離測度d
(6−4)BEの空間構造の関係の特徴である相対的な最小距離の距離測度d
(6−5)BEの空間構造関係特徴である夾角の距離測度d。E における夾角の値をl 、E における夾角の値をl と設定すると、dは、次式のように表わされる。
Figure 0005353631
また、距離測度dに基づいて、局部近傍構造PとPの参照BEの形状の特徴の距離S及びSを次式のように定義する。
Figure 0005353631
また、距離測度d〜dに基づいて、局部近傍構造Pの第i個の隣接BEであるNiと、Pの第j個の隣接BEであるNjとの距離を次式のように定義する。ただし、次式におけるα及びβは、予め決められたパラーメータであり、0から1の値を取る。
Figure 0005353631
図6は、図5に示すステップS510の局部近傍構造距離計算処理を示すフローチャートである。局部近傍構造距離計算処理は、目標画像及び検出待ち画像における局部近傍構造P及びPに関して行う。
まず、ステップS610において、P及びPの参照BEの形状の特徴S及びSの距離D(S,S)を計算する。続いて、ステップS620において、Pの隣接BEからPの隣接BEまでの距離を計算する。これにより、u行v列の距離マトリックス[D]u×vを生成する。生成した距離マトリックスの第i行、第j行の要素の値はD(S,S)である。
続いて、ステップS630において、距離マトリックス[D]u×vに基づいて、グリーディ探索手法(Greedy Search Strategy)を利用して隣接BEを整合する際の最小距離を算出する。
隣接BEを整合する際の最小距離を算出する具体的なステップは、以下のようになる。
(7−1)[D]u×vにおける要素に未処理と標記する。
(7−2)[D]u×vの未処理の要素から最小値を探索し、最小値の要素の位置を第x行、第y行と記録し、第x行、第y行における全ての要素を処理済みと標記する。
(7−3)[D]u×vの全ての要素が処理済みになるまで、(7−2)を繰り返す。
(7−4)(7−2)及び(7−3)で取得した最小値の和Dを算出する。
(7−5)Pの隣接BEの個数uがPの隣接BEの個数vより大きければ、次式によりDを修正する。ただし、次式における「cost」は、コスト因子と呼ばれる予め設定されたパラーメータであり、一般的には0から1の値を取る。
Figure 0005353631
最後に、ステップS640において、例えば次式により局部近傍構造P及びPの距離を算出する。なお、局部近傍構造P及びPの距離を算出する際に、目標画像の局部近傍構造Pにおける隣接BEの個数に基づいて局部近傍構造P及びPの距離の正規化を行う。
Figure 0005353631
以下、具体的な例を通じて、局部近傍構造の距離計算処理をさらに説明する。図7Aは、局部近傍構造距離計算処理の例における目標画像の一つの局部近傍構造を示す図である。図7Aは、目標画像の一つの局部近傍構造を示す。当該局部近傍構造は、3個の隣接BEを含む、即ちu=3である。図7Aにおいて、実線L2は、局部近傍構造の参照BEを示し、実線N 、N 、N は、局部近傍構造の隣接BEを示し、破線は、工程設計図における他のBEを示す。
図7Aに示す例において、BEの形状の特徴は、16個のbinのヒストグラムとして示されている。フーリエ変換の対称性のため、フーリエ変換後の第1から第8までの8個の係数をBEの形状の特徴とする。フーリエ変換後の第1から第8までの8個の係数は、次表のようになる。
Figure 0005353631
また、参照BE及び隣接BEの空間構造の関係の特徴は、下表のようになる。
Figure 0005353631
図7Bは、局部近傍構造距離計算処理の例における検出待ち画像の一つの局部近傍構造を示す図である。図7Bは、検出待ち画像の一つの局部近傍構造を示す。当該局部近傍構造は、8個の隣接BEを含む、即ちv=8である。図7Aと同様に、実線L3は、局部近傍構造の参照BEを示す。また、実線N 、N 、N 、N 、N 、N 、N 、N は、局部近傍構造の隣接BEを示す。また、破線は、工程設計図におけるその他のBEを示す。
図7Aと同様に、図7Bに示す例において、BEの形状特徴は、16個のbinのヒストグラムとして示されている。フーリエ変換後の第1から第8までの8個の係数は、次表のようになる。
Figure 0005353631
また、参照BE及び隣接BEの空間構造の関係の特徴は、次表のようになる。
Figure 0005353631
上述した局部近傍構造の特徴に基づいて、局部近傍構造の距離を計算するステップは、次の通りである。
(8−1)参照BEの形状特徴の距離を計算して、D(S,S)=0.03を取得する。
(8−2)パラーメータα及びβの値をそれぞれ0.5、0.25とし、目標画像の局部近傍構造における隣接BEから検出待ち画像の局部近傍構造における隣接BEまでの距離を計算して、次式で表わされる3行8列の距離マトリックスを生成する。
Figure 0005353631
続いて、以下のステップを行う。
(8−3)グリーディ探索を行う。
(8−3a)先ず、(5)表で示される距離マトリックスから要素の最小値0.03を取得する。最小値を取る要素の位置は、第3行、第7列である。
(8−3b)続いて、(5)表で示される距離マトリックスの(8−3a)で未処理の要素から最小値0.06を取得する。最小値を取る要素の位置は、第1行、第2列である。
(8−3c)続いて、(5)表で示される距離マトリックスの(8−3b)で未処理の要素から最小値0.07を取得する。最小値を取る要素の位置は、第2行、第4列である。
(8−3d)最後に、最小値の和Dを算出する。即ちD=0.03+0.06+0.07=0.16である。
続いて、次のステップを行う。
(8−4)従って、図7A及び図7Bに示す例では、二つの局部近傍構造の距離は、(0.16+0.03)/7≒0.027である。
図8は、図5に示すステップS530のパラーメータ推算処理を示すフローチャートである。図8において、検出待ち画像における局部近傍構造Pは、目標画像における局部近傍構造Pの候補整合であると仮定する。また、P及びPに基づいて、目標画像が検出待ち画像に現れる可能性がある変換パラーメータを推定する。変換パラーメータは、例えば中心位置、比例拡大縮小の尺度及び回転角度を含む。
従来の方法おいて、検出待ち画像における局部近傍構造Pは、目標画像における局部近傍構造Pの候補整合として選択されると仮定している。これは、PとPは、一対の実際の整合対となることが可能であるためである。従って、PとPに基づいて、検出待ち画像において目標画像に相似する部分の情報を推測できる。しかし、従来の方法は、PとPにおけるBEの対応関係を精確に確定できない。従って、本実施例では、信頼できるBE整合対に基づいてパラーメータ推測を行う方法を提出している。
図8に示すように、先ず、ステップS810において、PとPから信頼できるBE整合対を選択する。そのうち、図5におけるステップS510から取得した距離マトリックス[D]u×vに基づいて、距離が比較的小さいBE対を選択して信頼できるBE整合対とする。続いて、ステップS820において、信頼できるBE整合対に基づいて、アフィン変換により変換パラーメータを推算して、パラーメータ値の序列を取得する。そして、任意の二対の信頼できるBE整合対を選択して、変換パラーメータを推算する。最後に、ステップS830において、パラーメータ値の序列に対してウィンドウサーチング手法を利用して変換パラーメータを確定する。
具体的に言えば、ステップS810において信頼できるBE整合対を選択する作業は、次の通りである。
(9−1)Pの参照BEとPの参照BEが、信頼できるBE整合対として選択される。
(9−2)Pの各隣接BEであるN に対して、Pの隣接BEから信頼できるBEを選択して、N とともに信頼できるBE整合対を形成する。選択過程は、閾値法により実現され、具体的には次の通りである。
(9−2a)[D]u×vの第i行の要素(即ちN に対応する距離要素)から最小値をサーチングする。
(9−2b)第i行におけるある要素jの値が次の条件を満たす場合、N をN の信頼できるBEと見なして、それらを一つの信頼できるBE整合対として組み合わせる。
(条件1)要素jの値と上述した最小値の差異値はtより小さい。tは予め決めたパラーメータであり、通常0から0.5間の比較的小さい数として設定される。
(条件2)要素jの値と上述した最小値の比例値はtより小さい。tは予め決めたパラーメータであり、通常1から2.5間の数として設定される。
また、具体的な応用に基づいて、その他の距離閾値を設定してもよい。パラーメータによって信頼できるBEの最大数などを設定することができる。
当該方法は、実際は、PとPのBE間の距離に基づいて信頼できるBEを選択する。Pの隣接BEとPの隣接BEとの距離が小さいほど、これらの二つのBEが整合対を形成する信頼度がより高い。逆の場合も同様である。
具体的に言えば、ステップS820において、任意に二対の信頼できるBE整合対を選択して、次式に従ってパラーメータを推算する。PにおけるBEであるN1及びN2に対応するPにおける信頼できるBEは、それぞれN 及びN であり、且つ、N 及びN の中心から目標画像中心までのベクトルはV(x)とV(y)であり、N 及びN の中心座標はOとOとする。すると、次の方程式を解くことにより、変化するパラーメータが得られる。
Figure 0005353631
上記(8)式において、O(x)、O(y)はそれぞれOのx座標とy座標を示し、O(x)、O(y)も同様である。同様に、V(x)とV(y)は、ベクトルVのx成分とy成分を示し、V(x)とV(y)も同様である。sは変換する際の比例拡大縮小の尺度パラーメータを示し、θは、変換する際の回転角度のパラーメータを示している。
上記(8)式の方程式を解くことにより、パラーメータsとθの値が得られる。検出待ち画像において目標画像が現れる中心位置は、次式の通りである。
Figure 0005353631
または、検出待ち画像において目標画像が現れる中心位置は、次式の通りである。
Figure 0005353631
具体的な実施例において、全ての可能な二対の信頼できるBE整合対を選択して、それらに基づいてパラーメータを推測することにより、パラーメータ値の序列を取得する。このパラーメータ値の序列を(x,y,s,θ)(i=1,・・・,K)と記す。x、yは推算した検出待ち画像において目標画像が現れる中心位置座標を示し、Kはパラーメータの数(即ち、任意的に二対の信頼できるBE整合対を選択する回数)である。
具体的に言えば、ステップS830において、次の方式に従って変換パラーメータ値を確定する。
(10−1)パラーメータの序列において、全てのsの平均値は、最終的な比例拡大縮小の尺度パラーメータの値である。
(10−2)検出待ち画像において目標画像が現れる中心位置座標を確定する。
(10−2a)各(x,y)を中心として、方形のウィンドウを構築する。ウィンドウの大きさは被処理画像の寸法によって経験により決めることができる。
(10−2b)各ウィンドウ内に入る中心位置座標(x,y)の数を計算する。
(10−2c)ウィンドウ内に入る中心位置座標の数が最も多いウィンドウを選択して、当該ウィンドウ内に入る中心位置座標(x,y)の平均値を最終的な中心位置座標とする。
(10−3)Pの参照BEの中心から(10−2)で得られた中心位置までのベクトルを計算すると同時に、Pの参照BEの中心から目標画像の中心までのベクトルを計算する。この二つのベクトルの角度差は、最終的な回転角度のパラーメータである。
以下、例を用いてパラーメータ推測処理をさらに説明する。当該例に用いられた局部近傍構造は、上述した局部近傍構造の距離計算処理の例において用いられた局部近傍構造と同じである。即ち、図7A及び図7Bに示す局部近傍構造と同じである。
まず、隣接BEから信頼できるBE整合対を選択する。本実施例において、tの値は0.1であり、tの値は1.5である。その他、本実施例は、各BEの信頼できるBEの数を最大2に限定している。
上述した局部近傍構造の距離計算処理によって得られた距離マトリックス[D]は次表のようになる。
Figure 0005353631
従って、N の信頼できるBEは、N とN であり、N の信頼できるBEは、N とN であり、N の信頼できるBEは、N とN である。
これらの信頼できるBEから、全ての可能な二対の信頼できるBE整合対を選択して、17種の組合せを得る。即ち、K=17である。これらの組合せに基づいてパラーメータを推測して、検出待ち画像において目標画像が現れる中心位置座標を取得する。二対のBE整合対及び取得した中心位置座標を次表に示す。
Figure 0005353631
上述のパラーメータ値の序列の中心位置の座標において、一部の値は負数である。これは目標画像が検出待ち画像の外に現れていることを意味するため、合理的ではない。以下のパラーメータを確定する過程において、負の座標値を含むパラーメータは、計算から除外する。
本例において、次の方式に従って方形のウィンドウの大きさを確定する。
(11−1)Pから任意的に二つのBEを選択して、この二つのBEの中心の距離を計算する。
(11−2)全ての距離の平均に係数0.3を掛けたものが、ウィンドウの大きさである。
図9は、ウィンドウサーチングを利用してパラーメータを確定した結果の模式図である。図9において、W1は、中心位置座標を最も多く含んでいるウィンドウを示している。ウィンドウW1は、三つの中心位置の座標を含み、それぞれ(72,94)、(73,90)、(68,94)である。これらの値の平均を取って、最終的な中心位置の座標(71,93)を取得する。
最後に、回転角度パラーメータを計算する。Pの参照BEの中心の座標は、(136,91)であり、当該位置から上述のように得られた中心位置の座標(71,93)までのベクトルは、(−65,2)である。よって、ベクトルの方向は0.99πである。同様に、Pの参照BEの中心から目標画像の中心までのベクトルが成す角度を計算すると、得られる値は、-0.97πである。従って、得られる回転角度のパラーメータは、−0.02πである。
上記過程を経て、目標画像における局部近傍構造Pと検出待ち画像における局部近傍構造Pに基づいて得られる変換パラーメータは、次の通りである。検出待ち画像において目標画像が現れる中心位置の座標は(71,93)である。また、回転角度は、-0.02πである。また、比例拡大縮小の尺度は、1.27である。
上記過程に基づくと、図7Aにおける局部近傍構造Pを利用して、図7Bに示す検出待ち画像から最も距離が近い六つの局部近傍構造をサーチングする。そして、この六つの候補整合に基づいて目標画像が検出待ち画像において現れる可能性がある位置及び他の変換パラーメータを推測する。図10は、この六つの候補整合から推測した検出待ち画像において目標画像が現れる中心位置を示す模式図である。当該図において、図中の網掛けした方形は、一つの推測結果を示す。パラーメータの具体的な値を次表に示す。
Figure 0005353631
図7Aに示す目標画像における各局部近傍構造と同様に、図7Bに示す検出待ち画像から最も距離が近い六つの候補整合をサーチングする。そして、パラーメータ推測を行う。図11は全ての推測した目標画像が検出待ち画像において現れる中心位置を示す模式図である。
(3.検出処理)
図12は、図1に示すステップS130における検出処理を具体的に示すフローチャートである。図12に示すように、まず、ステップS1210において、推測した変換パラーメータを上記パラーメータ空間におけるベクトルとして、モード検出手法を利用して上記パラーメータ空間における密集領域をサーチングする。続いて、ステップS1220において、検出したモードに対して検証を行い、信頼度が高いモードに基づいて上記最終の変換パラーメータを確定する。以下、これらのステップの具体的な実施例に対して、それぞれ詳細に説明する。しかし、本発明は、以下の具体的な実施例に限られるのではない。
具体的に言えば、上述した局部近傍構造の整合処理により、目標画像の局部近傍構造とその候補整合に基づいて、目標画像が検出待ち画像において現れる中心位置及び他の変換パラーメータを推測した。しかしながら、これらの推測結果は不正確である場合がよくある。目標画像の局部近傍構造とその候補整合が実際には互いに対応するのであれば(それらは外形上相似しており、且ついずれも目標の同一領域に対応する)、これにより得られる推測結果は、正確である。逆に、当該二つの局部近傍構造が実際には互いに対応していないのであれば、得られる推測結果は、誤っている可能性がある。局部近傍構造の整合ブロックから出力した各推測結果をパラーメータ空間における一つのベクトルとして見なせば、その互いに対応する局部近傍構造対から得られる推測結果は、密集的に集中している。そして、実際には互いに対応していない局部近傍構造対から得られる推測結果は、パラーメータ空間においてランダム的に分布している。従って、パラーメータ空間における密集領域をサーチングすることにより、正確なパラーメータ値を取得できる。
ステップS1210においてパラーメータ空間から密集領域をサーチングする過程は、例えばMean-Shiftモード検出方法を用いたモード検出手法により実現できる。Mean-Shift方法の詳細情報については、非特許文献5を参照することができる。
モード検出過程の入力は、局部近傍構造整合ブロックから出力した推算パラーメータであり、各パラーメータ組(目標画像の一つの局部近傍構造とその一つの候補整合に対応する)はいずれもパラーメータ空間における一つのベクトルである。そして、各パラーメータ組は、中心位置座標、比例拡大縮小の尺度、角度等の計4つの分量を含む。Mean-Shiftモード検出過程の出力は、検出したモードであり、一つのモードはパラーメータ空間においてベクトルが比較的密集した一つの領域に対応し、モードの値は当該領域の中心位置である。即ち、当該モードに対応するパラーメータ値(中心位置の座標、比例拡大縮小の尺度、角度等の計4つの分量)である。同時に、モード検出過程において、各入力パラーメータ組は、異なるモードに区画されている。
続いて、ステップS1220において、検出したモードに対して検証を行い、信頼度が高いモードを目標画像が検出待ち画像において現れる変換パラーメータとする。ある一つのモードCを与え、当該モードに対応するパラーメータ値をfとする。また、当該モードに属する入力パラーメータは、(P ,P ,D(P ,P ),fij、(n=1,・・・,N)である。そのうち、P は目標画像の第i個の局部近傍構造を示し、P は検出待ち画像の第j個の局部近傍構造(P はP の候補整合である)を示し、D(P ,P )は局部近傍構造の整合ブロックが出力したP とP の距離を示し、fijは局部近傍構造の整合ブロックが出力したP とP に基づいて推算したパラーメータを示す。
本実施例に基づくと、モードCに対する検証の過程は次の通りである。
(12−1)当該モードに属する各入力パラーメータに対して、次式により信頼度を計算する。なお、次式におけるαは、予め決められたパラーメータである。
Figure 0005353631
続いて、以下のステップを行う。
(12−2)グリーディ探索手法を利用して最大の信頼度を計算する。そのステップは次の通りである。
(12−2a)当該モードに属する入力パラーメータを未処理と標記する。
(12−2b)当該モードに属する未処理と標記された入力パラーメータから、信頼度が最大のパラーメータをサーチングする。なお、当該パラーメータに対応する局部近傍構造はP 、P である。
(12−2c)当該モードに属する入力パラーメータにおけるP 又はP を含むパラーメータを処理済みと標記する。
(12−2d)全てのパラーメータが処理済みと標記されるまで、ステップ(12−2b)及びステップ(12−2c)を繰り返す。
(12−2e)ステップ(12−2b)及びステップ(12−2c)により得られた最大値を加算して得られる値をZと記す。
(12−3)次式によりモードCの信頼度を計算する。
Figure 0005353631
モードの信頼度がある閾値より高い場合には、当該モードが検出待ち画像における目標画像の一例に対応すると判定する。当該モードに対応するパラーメータ値に基づいて、検出待ち画像から当該例を容易に検出できる。即ち、(1)パラーメータ中の中心座標位置分量は当該例の中心位置である。(2)パラーメータ中の比例拡大縮小の尺度の分量に基づいて、当該例の大きさが得られる。(3)パラーメータ中の回転角度の分量に基づいて、当該例の方向が得られる。
図13は、検出結果の実例である。当該例において、被処理対象はそれぞれ図7Aに示す目標画像と図7Bに示す検出待ち画像である。局部近傍構造の整合処理により、推算したパラーメータ組を取得する(パラーメータ中の中心座標位置の分量は、図11に示す通りである)。これらのパラーメータを入力としてMean-Shiftモード検出を行って得られるモードパラーメータ値は、次表の通りである。
Figure 0005353631
その後、これらのモードに対して検証を行う。得られる各モードの信頼度は、それぞれ0.86、0.51、0.48、0.47、0.33である。閾値を0.6に設定すると、モード1のみが目標画像の一例に対応する。当該モードのパラーメータ値に基づいて、目標画像が検出待ち画像において現れる位置、大きさ及び角度情報を取得する。図13は、当該モードの検出結果に対応する。図13において、W2が検出結果、即ち検出待ち画像において目標画像に相似している部分を示している。
以上、図面を参照して、本発明の実施例に係る検出待ち画像から目標画像を検出するための画像処理方法を詳細に説明した。以下は、図面を参照して、本発明の実施例に係る検出待ち画像から目標画像を検出するための画像処理装置を説明する。
図14は、実施例に係る検出待ち画像から目標画像を検出するための画像処理装置1400のブロック図を示している。簡単のため、実施例に密接に関連する部分のみを示す。画像処理装置1400において、図1を参照して記載した画像処理方法を実行することができる。
図14に示すように、画像処理装置1400は、局部近傍構造構築手段1410と、局部近傍構造整合手段1420と、検出手段1430とを備えている。局部近傍構造構築手段1410は、検出待ち画像と目標画像における各画像に対して、検出待ち画像と目標画像における各画像における各BEに局部近傍構造を構築し、局部近傍構造の特徴を抽出する。
局部近傍構造整合手段1420は、局部近傍構造構築手段1410により抽出した局部近傍構造の特徴に基づいて、目標画像における各局部近傍構造に対して、検出待ち画像から目標画像と最も相似する一つ又は複数の局部近傍構造をサーチングしてその候補整合とする。そして、局部近傍構造整合手段1420は、各候補整合対に対して、目標画像が上記検出待ち画像に現れる変換パラーメータを推測する。
検出手段1430は、局部近傍構造整合手段1420が推測した変換パラーメータをパラーメータ空間におけるベクトルとし、パラーメータ空間中の密集領域をサーチングした結果に基づいて、最終的な変換パラーメータを確定する。
以上に挙げられた対応する処理に対する記載により、画像処理装置1400の各構成部材の機能がどのように実現されるかは明瞭になっているため、ここで再び説明しない。
また、本実施例に係る上述した方法の各作業過程は、各種のデバイスが読み取り可能な記録媒体に記憶される、コンピュータが実行可能なプログラムの形で実現されることは、明らかである。
なお、本発明の目的は、下記の形態で実現されることも可能である。即ち、実行可能なプログラムコードを記憶している記録媒体を、直接または間接的にシステム又は装置に提供し、当該システムまたは装置中のコンピュータ或いは中央処理装置(CPU)がそれを読み出してプログラムコードを実行する。このとき、当該システム或いは装置がプログラムを実行する機能を備えていれば、本発明の実施例はプログラムに限定されず、且つ当該プログラムはいずれの形でもよい。例えば、オブジェクトプログラム、インタープリタが実行するプログラム或いはオペレーティングシステムに提供されたシナリオプログラムなどの可能性もある。
上記のデバイスがプログラムを読み取る記録媒体は、各種メモリ、記憶装置、半導体装置、ディスク装置、例えば光ディスク、磁気ディスク、光磁気ディスク、及び他の情報を記憶するに適した媒体などが含まれているが、これらに限られるものではない。
また、コンピュータは、インターネット上の対応のウェブサイトに接続して、本発明に係るコンピュータプログラムコードをダウンロードしてコンピュータにインストールした後、当該プログラムを実行することにより、本実施例を実現することができる。
本実施例の装置及び方法において、各部材又は各ステップは、分散及び/又は統合することができる。これらの分散及び/又は統合は、本実施例の同等の方案として見なされるべきである。且つ、上述した系列処理のステップは、説明の順を時間順として自然的に実行することができるが、必ずしも説明の順に実行する必要はない。幾つかのステップは、並行或いは互いに独立して実行することができる。
以上、図面を参照して、開示技術の実施例を詳細に説明したが、上述した実施例は、開示技術を説明するために過ぎず、開示技術に対して如何なる限定にもならない。当業者にとっては、本発明の実質及び範囲を脱離しない限り、上述した実施例に対して各種の訂正と変更を行えること可能であることは明らかである。従って、本発明の範囲は、添付の特許請求の範囲及びそれに同等する意味のみにより限定される。
上述した実施例の一例を含む実施例に関し、以下の付記を開示する。
(付記1)第一画像から第二画像を画像処理装置が検出する画像処理方法において、
前記第一画像及び前記第二画像における各画像に対して、前記画像おける各ベーシックエレメントに基づいて局部近傍構造を構築し、前記局部近傍構造の特徴を抽出する局部近傍構造構築ステップと、
前記局部近傍構造構築ステップにより抽出された前記第一画像及び前記第二画像における前記局部近傍構造の特徴に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とし、前記候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測する局部近傍構造整合ステップと、
前記局部近傍構造整合ステップによって推測された変換パラーメータをパラーメータ空間におけるベクトルとし、前記パラーメータ空間中の密集領域を探索した結果に基づいて最終的な変換パラーメータを確定する検出ステップと
を含むことを特徴とする画像処理方法。
(付記2)前記局部近傍構造構築ステップは、
前記第一画像及び前記第二画像における各画像に対して、前記画像におけるベーシックエレメントを参照ベーシックエレメントとし、前記画像における各ベーシックエレメントの空間分布の関係に基づいて前記参照ベーシックエレメントと隣接する隣接ベーシックエレメントを探索し、前記参照ベーシックエレメントと前記隣接ベーシックエレメントとを組み合わせて前記局部近傍構造を形成する局部近傍構造形成ステップと、
前記局部近傍構造形成ステップにより形成された局部近傍構造から前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴と、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴とを前記局部近傍構造の特徴として抽出する抽出ステップと、
をさらに含むことを特徴とする付記1に記載の画像処理方法。
(付記3)前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴は、ベーシックエレメントの方向ヒストグラムを利用したフーリエ変換により計算されることを特徴とする付記2に記載の画像処理方法。
(付記4)前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴は、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の相対的長さ、相対的な中心距離、相対的な最小距離、夾角のうち少なくとも一つを含むことを特徴とする付記2に記載の画像処理方法。
(付記5)前記夾角は、ベーシックエレメントの方向ヒストグラム間のEMDにより計算されることを特徴とする付記4に記載の画像処理方法。
(付記6)前記局部近傍構造整合ステップは、
前記局部近傍構造構築ステップにより抽出された局部近傍構造の特徴に基づいて、前記第一画像における各局部近傍構造と、前記第二画像における各局部近傍構造との距離を計算する距離計算ステップと、
前記距離計算ステップにより計算された距離に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とする候補整合探索ステップと、
前記候補整合探索ステップにより探索された候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測するパラーメータ推測ステップと
をさらに含むことを特徴とする付記1に記載の画像処理方法。
(付記7)前記距離計算ステップは、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
前記第一局部近傍構造及び前記第二局部近傍構造の各参照ベーシックエレメントの形状特徴間の距離を計算する計算ステップと、
前記第一局部近傍構造の各隣接ベーシックエレメント及び前記第二局部近傍構造の各隣接ベーシックエレメント間の距離を計算して、距離マトリックスを取得する取得ステップと、
前記取得ステップにより取得された距離マトリックスにおいて、グリーディ探索手法を利用して、前記第一局部近傍構造及び前記第二局部近傍構造の隣接ベーシックエレメント間の最小距離を確定する最小距離確定ステップと、
前記最小距離確定ステップによって確定された最小距離に基づいて、前記第一局部近傍構造及び前記第二局部近傍構造間の距離を確定する距離確定ステップと
をさらに含むことを特徴とする付記6に記載の画像処理方法。
(付記8)前記パラーメータ推測ステップは、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
前記第一局部近傍構造と前記第二局部近傍構造から信頼できるベーシックエレメント整合対を選択する選択ステップと、
前記選択ステップにより選択された信頼できるベーシックエレメント整合対に基づいて、アフィン変換により前記変換パラーメータを推算して、パラーメータ値の序列を取得するパラーメータ値序列取得ステップと、
前記パラーメータ値序列取得ステップにより取得されたパラーメータ値の序列からウィンドウサーチング手法を利用して前記変換パラーメータを確定する変換パラーメータ確定ステップと
をさらに含むことを特徴とする付記6に記載の画像処理方法。
(付記9)前記検出ステップは、
前記局部近傍構造整合ステップにより推測された変換パラーメータを前記パラーメータ空間におけるベクトルとし、モード検出手法を利用して前記パラーメータ空間における密集領域を探索する探索ステップと、
前記探索ステップによる前記探索領域の探索によって検出されたモードに対して検証を行って、信頼度が高いモードに基づいて前記最終的な変換パラーメータを確定する最終変換パラーメータ確定ステップと
をさらに含むことを特徴とする付記1に記載の画像処理方法。
(付記10)前記変換パラーメータは、中心位置、比例拡大縮小の尺度及び回転角度を含むことを特徴とする付記1〜9のいずれか一つに記載の画像処理方法。
(付記11)第一画像から第二画像を検出する画像処理プログラムにおいて、
コンピュータに、
前記第一画像及び前記第二画像における各画像に対して、前記画像おける各ベーシックエレメントに基づいて局部近傍構造を構築し、前記局部近傍構造の特徴を抽出する局部近傍構造構築手順と、
前記局部近傍構造構築手順により抽出された前記第一画像及び前記第二画像における前記局部近傍構造の特徴に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とし、前記候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測する局部近傍構造整合手順と、
前記局部近傍構造整合手順によって推測された変換パラーメータをパラーメータ空間におけるベクトルとし、前記パラーメータ空間中の密集領域を探索した結果に基づいて最終的な変換パラーメータを確定する検出手順と
を実行させることを特徴とする画像処理プログラム。
(付記12)前記局部近傍構造構築手順は、
前記第一画像及び前記第二画像における各画像に対して、前記画像におけるベーシックエレメントを参照ベーシックエレメントとし、前記画像における各ベーシックエレメントの空間分布の関係に基づいて前記参照ベーシックエレメントと隣接する隣接ベーシックエレメントを探索し、前記参照ベーシックエレメントと前記隣接ベーシックエレメントとを組み合わせて前記局部近傍構造を形成する局部近傍構造形成手順と、
前記局部近傍構造形成手順により形成された局部近傍構造から前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴と、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴とを前記局部近傍構造の特徴として抽出する抽出手順と
をさらに含むことを特徴とする付記11に記載の画像処理プログラム。
(付記13)前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴は、ベーシックエレメントの方向ヒストグラムを利用したフーリエ変換により計算されることを特徴とする付記12に記載の画像処理プログラム。
(付記14)前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴は、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の相対的長さ、相対的な中心距離、相対的な最小距離、夾角のうち少なくとも一つを含むことを特徴とする付記12に記載の画像処理プログラム。
(付記15)前記夾角は、ベーシックエレメントの方向ヒストグラム間のEMDにより計算されることを特徴とする付記14に記載の画像処理プログラム。
(付記16)前記局部近傍構造整合手順は、
前記局部近傍構造構築手順により抽出された局部近傍構造の特徴に基づいて、前記第一画像における各局部近傍構造と、前記第二画像における各局部近傍構造との距離を計算する距離計算手順と、
前記距離計算手順により計算された距離に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とする候補整合探索手順と、
前記候補整合探索手順により探索された候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測するパラーメータ推測手順と
をさらに含むことを特徴とする付記11に記載の画像処理プログラム。
(付記17)前記距離計算手順は、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
前記第一局部近傍構造及び前記第二局部近傍構造の各参照ベーシックエレメントの形状特徴間の距離を計算する計算手順と、
前記第一局部近傍構造の各隣接ベーシックエレメント及び前記第二局部近傍構造の各隣接ベーシックエレメント間の距離を計算して、距離マトリックスを取得する取得手順と、
前記取得手順により取得された距離マトリックスにおいて、グリーディ探索手法を利用して、前記第一局部近傍構造及び前記第二局部近傍構造の隣接ベーシックエレメント間の最小距離を確定する最小距離確定手順と、
前記最小距離確定手順によって確定された最小距離に基づいて、前記第一局部近傍構造及び前記第二局部近傍構造間の距離を確定する距離確定手順と
をさらに含むことを特徴とする付記16に記載の画像処理プログラム。
(付記18)前記パラーメータ推測手順は、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
前記第一局部近傍構造と前記第二局部近傍構造から信頼できるベーシックエレメント整合対を選択する選択手順と、
前記選択手順により選択された信頼できるベーシックエレメント整合対に基づいて、アフィン変換により前記変換パラーメータを推算して、パラーメータ値の序列を取得するパラーメータ値序列取得手順と、
前記パラーメータ値序列取得手順により取得されたパラーメータ値の序列からウィンドウサーチング手法を利用して前記変換パラーメータを確定する変換パラーメータ確定手順と
をさらに含むことを特徴とする付記16に記載の画像処理プログラム。
(付記19)前記検出手順は、
前記局部近傍構造整合手順により推測された変換パラーメータを前記パラーメータ空間におけるベクトルとし、モード検出手法を利用して前記パラーメータ空間における密集領域を探索する探索手順と、
前記探索手順による前記探索領域の探索によって検出されたモードに対して検証を行って、信頼度が高いモードに基づいて前記最終的な変換パラーメータを確定する最終変換パラーメータ確定手順と
をさらに含むことを特徴とする付記11に記載の画像処理プログラム。
(付記20)前記変換パラーメータは、中心位置、比例拡大縮小の尺度及び回転角度を含むことを特徴とする付記11〜19のいずれか一つに記載の画像処理プログラム。
(付記21)第一画像から第二画像を検出するための画像処理装置において、
前記第一画像及び前記第二画像における各画像に対して、前記画像おける各ベーシックエレメントに基づいて局部近傍構造を構築し、前記局部近傍構造の特徴を抽出する局部近傍構造構築手段と、
前記局部近傍構造構築手段により抽出された前記第一画像及び前記第二画像における前記局部近傍構造の特徴に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とし、前記候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測する局部近傍構造整合手段と、
前記局部近傍構造整合手段によって推測された変換パラーメータをパラーメータ空間におけるベクトルとし、前記パラーメータ空間中の密集領域を探索した結果に基づいて最終的な変換パラーメータを確定する検出手段と
を有することを特徴とする画像処理装置。
(付記22)前記局部近傍構造構築手段は、
前記第一画像及び前記第二画像における各画像に対して、前記画像におけるベーシックエレメントを参照ベーシックエレメントとし、前記画像における各ベーシックエレメントの空間分布の関係に基づいて前記参照ベーシックエレメントと隣接する隣接ベーシックエレメントを探索し、前記参照ベーシックエレメントと前記隣接ベーシックエレメントとを組み合わせて前記局部近傍構造を形成する局部近傍構造形成手段と、
前記局部近傍構造形成手段により形成された局部近傍構造から前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴と、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴とを前記局部近傍構造の特徴として抽出する抽出手段と、
をさらに備えることを特徴とする付記21に記載の画像処理装置。
(付記23)前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴は、ベーシックエレメントの方向ヒストグラムを利用したフーリエ変換により計算されることを特徴とする付記22に記載の画像処理装置。
(付記24)前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴は、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の相対的長さ、相対的な中心距離、相対的な最小距離、夾角のうち少なくとも一つを含むことを特徴とする付記22に記載の画像処理装置。
(付記25)前記夾角は、ベーシックエレメントの方向ヒストグラム間のEMDにより計算されることを特徴とする付記24に記載の画像処理装置。
(付記26)前記局部近傍構造整合手段は、
前記局部近傍構造構築手段により抽出された局部近傍構造の特徴に基づいて、前記第一画像における各局部近傍構造と、前記第二画像における各局部近傍構造との距離を計算する距離計算手段と、
前記距離計算手段により計算された距離に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とする候補整合探索手段と、
前記候補整合探索手段により探索された候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測するパラーメータ推測手段と
をさらに備えることを特徴とする付記21に記載の画像処理装置。
(付記27)前記距離計算手段は、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
前記第一局部近傍構造及び前記第二局部近傍構造の各参照ベーシックエレメントの形状特徴間の距離を計算する計算手段と、
前記第一局部近傍構造の各隣接ベーシックエレメント及び前記第二局部近傍構造の各隣接ベーシックエレメント間の距離を計算して、距離マトリックスを取得する取得手段と、
前記取得手段により取得された距離マトリックスにおいて、グリーディ探索手法を利用して、前記第一局部近傍構造及び前記第二局部近傍構造の隣接ベーシックエレメント間の最小距離を確定する最小距離確定手段と、
前記最小距離確定手段によって確定された最小距離に基づいて、前記第一局部近傍構造及び前記第二局部近傍構造間の距離を確定する距離確定手段と
をさらに備えることを特徴とする付記26に記載の画像処理装置。
(付記28)前記パラーメータ推測手段は、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
前記第一局部近傍構造と前記第二局部近傍構造から信頼できるベーシックエレメント整合対を選択する選択手段と、
前記選択手段により選択された信頼できるベーシックエレメント整合対に基づいて、アフィン変換により前記変換パラーメータを推算して、パラーメータ値の序列を取得するパラーメータ値序列取得手段と、
前記パラーメータ値序列取得手段により取得されたパラーメータ値の序列からウィンドウサーチング手法を利用して前記変換パラーメータを確定する変換パラーメータ確定手段と
をさらに備えたことを特徴とする付記26に記載の画像処理装置。
(付記29)前記検出手段は、
前記局部近傍構造整合手段により推測された変換パラーメータを前記パラーメータ空間におけるベクトルとし、モード検出手法を利用して前記パラーメータ空間における密集領域を探索する探索手段と、
前記探索ステップによる前記探索領域の探索によって検出されたモードに対して検証を行って、信頼度が高いモードに基づいて前記最終的な変換パラーメータを確定する最終変換パラーメータ確定手段と
をさらに備えることを特徴とする付記21に記載の画像処理装置。
(付記20)前記変換パラーメータは、中心位置、比例拡大縮小の尺度及び回転角度を含むことを特徴とする付記21〜29のいずれか一つに記載の画像処理装置。
1400 画像処理装置
1410 局部近傍構造構築手段
1420 局部近傍構造整合手段
1430 検出手段

Claims (10)

  1. 第一画像から第二画像を画像処理装置が検出する画像処理方法において、
    前記画像処理装置が、前記第一画像及び前記第二画像における各画像に対して、前記画像おけるベーシックエレメントを参照ベーシックエレメントとし、前記画像における各ベーシックエレメントの空間分布の関係に基づいて前記参照ベーシックエレメントと隣接する隣接ベーシックエレメントを探索し、前記参照ベーシックエレメントと前記隣接ベーシックエレメントとを組み合わせて局部近傍構造を構築し、前記局部近傍構造の特徴を抽出する局部近傍構造構築ステップと、
    前記画像処理装置が、前記局部近傍構造構築ステップにより抽出された前記第一画像及び前記第二画像における前記局部近傍構造の特徴に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とし、前記候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測する局部近傍構造整合ステップと、
    前記画像処理装置が、前記局部近傍構造整合ステップによって推測された変換パラーメータをパラーメータ空間におけるベクトルとし、前記パラーメータ空間中の密集領域を探索した結果に基づいて最終的な変換パラーメータを確定する検出ステップと
    を含むことを特徴とする画像処理方法。
  2. 前記局部近傍構造構築ステップは、
    前記第一画像及び前記第二画像における各画像に対して、前記画像におけるベーシックエレメントを参照ベーシックエレメントとし、前記画像における各ベーシックエレメントの空間分布の関係に基づいて前記参照ベーシックエレメントと隣接する隣接ベーシックエレメントを探索し、前記参照ベーシックエレメントと前記隣接ベーシックエレメントとを組み合わせて前記局部近傍構造を形成する局部近傍構造形成ステップと、
    前記局部近傍構造形成ステップにより形成された局部近傍構造から前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴と、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴とを前記局部近傍構造の特徴として抽出する抽出ステップと、
    をさらに含むことを特徴とする請求項1に記載の画像処理方法。
  3. 前記参照ベーシックエレメント及び前記隣接ベーシックエレメントの形状の特徴は、ベーシックエレメントの方向ヒストグラムを利用したフーリエ変換により計算されることを特徴とする請求項2に記載の画像処理方法。
  4. 前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の空間構造の関係の特徴は、前記参照ベーシックエレメント及び前記隣接ベーシックエレメント間の相対的長さ、相対的な中心距離、相対的な最小距離、夾角のうち少なくとも一つを含むことを特徴とする請求項2に記載の画像処理方法。
  5. 前記局部近傍構造整合ステップは、
    前記局部近傍構造構築ステップにより抽出された局部近傍構造の特徴に基づいて、前記第一画像における各局部近傍構造と、前記第二画像における各局部近傍構造との距離を計算する距離計算ステップと、
    前記距離計算ステップにより計算された距離に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とする候補整合探索ステップと、
    前記候補整合探索ステップにより探索された候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測するパラーメータ推測ステップと
    をさらに含むことを特徴とする請求項1に記載の画像処理方法。
  6. 前記距離計算ステップは、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
    前記第一局部近傍構造及び前記第二局部近傍構造の各参照ベーシックエレメントの形状特徴間の距離を計算する計算ステップと、
    前記第一局部近傍構造の各隣接ベーシックエレメント及び前記第二局部近傍構造の各隣接ベーシックエレメント間の距離を計算して、距離マトリックスを取得する取得ステップと、
    前記取得ステップにより取得された距離マトリックスにおける各要素から各最小値を探索し、探索した各最小値の和を算出し、前記第二局部近傍構造における隣接ベーシックエレメントの個数に基づいて、前記第一局部近傍構造及び前記第二局部近傍構造の隣接ベーシックエレメント間の最小距離を確定する最小距離確定ステップと、
    前記最小距離確定ステップによって確定された最小距離に基づいて、前記第一局部近傍構造及び前記第二局部近傍構造間の距離を確定する距離確定ステップと
    をさらに含むことを特徴とする請求項5に記載の画像処理方法。
  7. 前記パラーメータ推測ステップは、前記第一画像における第一局部近傍構造と前記第二画像における第二局部近傍構造とに対して、
    前記第一局部近傍構造と前記第二局部近傍構造から信頼できるベーシックエレメント整合対を選択する選択ステップと、
    前記選択ステップにより選択された信頼できるベーシックエレメント整合対に基づいて、アフィン変換により前記変換パラーメータを推算して、パラーメータ値の序列を取得するパラーメータ値序列取得ステップと、
    前記パラーメータ値序列取得ステップにより取得されたパラーメータ値の序列から方形のウィンドウを構築し、構築したウィンドウ内に入る所定座標を検索していくことで前記変換パラーメータを確定する変換パラーメータ確定ステップと
    をさらに含むことを特徴とする請求項5に記載の画像処理方法。
  8. 前記検出ステップは、
    前記局部近傍構造整合ステップにより推測された変換パラーメータを前記パラーメータ空間におけるベクトルとし、Mean−Shiftモード検出方法を用いたモード検出手法を利用して前記パラーメータ空間における密集領域を探索する探索ステップと、
    前記探索ステップによる前記探索領域の探索によって検出されたモードに対して検証を行って、信頼度が高いモードに基づいて前記最終的な変換パラーメータを確定する最終変換パラーメータ確定ステップと
    をさらに含むことを特徴とする請求項1に記載の画像処理方法。
  9. 第一画像から第二画像を検出する画像処理プログラムにおいて、
    コンピュータに、
    前記第一画像及び前記第二画像における各画像に対して、前記画像おけるベーシックエレメントを参照ベーシックエレメントとし、前記画像における各ベーシックエレメントの空間分布の関係に基づいて前記参照ベーシックエレメントと隣接する隣接ベーシックエレメントを探索し、前記参照ベーシックエレメントと前記隣接ベーシックエレメントとを組み合わせて局部近傍構造を構築し、前記局部近傍構造の特徴を抽出する局部近傍構造構築手順と、
    前記局部近傍構造構築手順により抽出された前記第一画像及び前記第二画像における前記局部近傍構造の特徴に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とし、前記候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測する局部近傍構造整合手順と、
    前記局部近傍構造整合手順によって推測された変換パラーメータをパラーメータ空間におけるベクトルとし、前記パラーメータ空間中の密集領域を探索した結果に基づいて最終的な変換パラーメータを確定する検出手順と
    を実行させることを特徴とする画像処理プログラム。
  10. 第一画像から第二画像を検出するための画像処理装置において、
    前記第一画像及び前記第二画像における各画像に対して、前記画像おけるベーシックエレメントを参照ベーシックエレメントとし、前記画像における各ベーシックエレメントの空間分布の関係に基づいて前記参照ベーシックエレメントと隣接する隣接ベーシックエレメントを探索し、前記参照ベーシックエレメントと前記隣接ベーシックエレメントとを組み合わせて局部近傍構造を構築し、前記局部近傍構造の特徴を抽出する局部近傍構造構築手段と、
    前記局部近傍構造構築手段により抽出された前記第一画像及び前記第二画像における前記局部近傍構造の特徴に基づいて、前記第二画像における前記局部近傍構造から前記第一画像における前記局部近傍構造と最も相似する一つ又は複数の局部近傍構造を探索して候補整合対とし、前記候補整合対に対して、前記第二画像が前記第一画像に現れる変換パラーメータを推測する局部近傍構造整合手段と、
    前記局部近傍構造整合手段によって推測された変換パラーメータをパラーメータ空間におけるベクトルとし、前記パラーメータ空間中の密集領域を探索した結果に基づいて最終的な変換パラーメータを確定する検出手段と
    を有することを特徴とする画像処理装置。
JP2009243862A 2008-10-22 2009-10-22 画像処理方法、画像処理プログラム及び画像処理装置 Active JP5353631B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN200810171186A CN101727452B (zh) 2008-10-22 2008-10-22 图像处理方法和设备
CN200810171186.1 2008-10-22

Publications (2)

Publication Number Publication Date
JP2010102711A JP2010102711A (ja) 2010-05-06
JP5353631B2 true JP5353631B2 (ja) 2013-11-27

Family

ID=42293254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009243862A Active JP5353631B2 (ja) 2008-10-22 2009-10-22 画像処理方法、画像処理プログラム及び画像処理装置

Country Status (2)

Country Link
JP (1) JP5353631B2 (ja)
CN (1) CN101727452B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101882312B (zh) * 2010-06-07 2011-12-14 河南理工大学 数字图像中基于基元表示的多边形检测方法
CN102375993A (zh) * 2010-08-23 2012-03-14 索尼公司 目标检测方法和设备
CN101976338B (zh) * 2010-10-29 2013-03-13 杭州电子科技大学 一种基于梯度方向直方图的判决式视觉显著性检测方法
CN102103700A (zh) * 2011-01-18 2011-06-22 南京邮电大学 基于陆地移动距离的相似度检测图像型垃圾邮件的方法
CN103379258B (zh) * 2012-04-20 2016-08-03 宏碁股份有限公司 利用旋转操作辅助视频压缩的方法及其图像获取装置
CN106909539A (zh) * 2015-12-22 2017-06-30 成都理想境界科技有限公司 图像检索系统、服务器、数据库及相关的方法
CN106909552A (zh) * 2015-12-22 2017-06-30 成都理想境界科技有限公司 图像检索服务器、系统、相关检索及排错方法
CN105527461B (zh) * 2016-01-16 2018-04-27 北京工业大学 一种基于透射电镜haadf图像的材料结构定量化分析方法
CN113239222B (zh) * 2021-01-19 2023-10-31 佳木斯大学 一种基于图像信息提取与改进emd距离的图像检索方法
CN115423855B (zh) * 2022-11-04 2023-05-02 深圳市壹倍科技有限公司 图像的模板匹配方法、装置、设备及介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239862A (ja) * 1994-03-01 1995-09-12 Nippon Steel Corp 画像データベース検索システム
US5845288A (en) * 1995-12-11 1998-12-01 Xerox Corporation Automated system for indexing graphical documents having associated text labels
JP3513562B2 (ja) * 2000-04-20 2004-03-31 インターナショナル・ビジネス・マシーンズ・コーポレーション 形状解析システム、3次元形状モデルの差分検出システム、類似形状検索システム、形状解析方法及び記憶媒体
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
JP4267475B2 (ja) * 2004-02-13 2009-05-27 富士通株式会社 図面照合装置
JP4477468B2 (ja) * 2004-10-15 2010-06-09 富士通株式会社 組み立て図面の装置部品イメージ検索装置
CN101110101A (zh) * 2006-07-17 2008-01-23 松下电器产业株式会社 识别图像的方法及设备
JP4467583B2 (ja) * 2007-01-17 2010-05-26 富士通株式会社 設計支援プログラム、設計支援方法および設計支援装置
CN100530222C (zh) * 2007-10-18 2009-08-19 清华大学 图像匹配方法

Also Published As

Publication number Publication date
CN101727452A (zh) 2010-06-09
CN101727452B (zh) 2012-09-19
JP2010102711A (ja) 2010-05-06

Similar Documents

Publication Publication Date Title
JP5353631B2 (ja) 画像処理方法、画像処理プログラム及び画像処理装置
Fan et al. Robust line matching through line–point invariants
Zhang et al. An efficient and robust line segment matching approach based on LBD descriptor and pairwise geometric consistency
Barnes et al. The generalized patchmatch correspondence algorithm
US8737739B2 (en) Active segmentation for groups of images
US8200010B1 (en) Image segmentation by clustering web images
JP5754055B2 (ja) 物体または形状の情報表現方法
Lee et al. Place recognition using straight lines for vision-based SLAM
JP6393230B2 (ja) オブジェクト検出方法及び画像検索システム
JP6039413B2 (ja) 文字切り出し装置、文字認識装置、文字切り出し方法、およびプログラム
Lian et al. Weakly supervised road segmentation in high-resolution remote sensing images using point annotations
Gonzalez-Diaz et al. Neighborhood matching for image retrieval
Suwanwimolkul et al. Learning of low-level feature keypoints for accurate and robust detection
Kleiman et al. Robust structure-based shape correspondence
Zheng et al. Smoothly varying projective transformation for line segment matching
CN113988198A (zh) 一种基于地标约束的多尺度城市功能分类方法
Jablons Identifying humpback whale flukes by sequence matching of trailing edge curvature
Martin et al. A learning approach for adaptive image segmentation
Havlena et al. Optimal reduction of large image databases for location recognition
Liu et al. Extended cone-curvature based salient points detection and 3D model retrieval
Meng et al. Token based crack detection
Strassburg et al. On the influence of superpixel methods for image parsing
Shen et al. Robust line segment mismatch removal using point-pair representation and Gaussian-uniform mixture formulation
Fan et al. A multi-scale face detection algorithm based on improved SSD model
Divya Lakshmi et al. Helly hypergraph based matching framework using deterministic sampling techniques for spatially improved point feature based image matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Ref document number: 5353631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150