JP2016099835A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2016099835A JP2016099835A JP2014236993A JP2014236993A JP2016099835A JP 2016099835 A JP2016099835 A JP 2016099835A JP 2014236993 A JP2014236993 A JP 2014236993A JP 2014236993 A JP2014236993 A JP 2014236993A JP 2016099835 A JP2016099835 A JP 2016099835A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- relationship
- image data
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像間の関係性のデータベースを用いて取得画像の部分領域間の関係性を推定し、この関係性に基づき取得画像における関心領域を決定する。
【解決手段】装置に備えられたカメラ等により撮像された画像を取得する画像取得部101、取得した画像を複数の部分領域に分割する領域分割部102を有する。部分領域と類似する領域を画像データ記憶部104に問合せる類似領域問合せ部103、複数の画像及び画像間の関係性の情報を格納する画像データ記憶部104を有する。取得した画像中の被写体の存在する領域を関心領域として決定する関心領域決定部105、取得した画像の各領域について被写体のカテゴリーを判別するカテゴリー判別部106を有する。関心領域、および関心領域以外の領域の判別結果を統合する結果統合部107、最終的な領域の判別結果を出力する結果出力部108を有する。
【選択図】図1
【解決手段】装置に備えられたカメラ等により撮像された画像を取得する画像取得部101、取得した画像を複数の部分領域に分割する領域分割部102を有する。部分領域と類似する領域を画像データ記憶部104に問合せる類似領域問合せ部103、複数の画像及び画像間の関係性の情報を格納する画像データ記憶部104を有する。取得した画像中の被写体の存在する領域を関心領域として決定する関心領域決定部105、取得した画像の各領域について被写体のカテゴリーを判別するカテゴリー判別部106を有する。関心領域、および関心領域以外の領域の判別結果を統合する結果統合部107、最終的な領域の判別結果を出力する結果出力部108を有する。
【選択図】図1
Description
本発明は、入力画像中の被写体の検出、および被写体ごとに領域を分割する画像処理装置、画像処理方法、及びプログラムに関する。
従来から、画像シーンの認識や被写体に応じた画質補正等の後段処理のために、被写体の検出および被写体ごとに領域を分割する処理が知られている。特許文献1には、入力画像を複数の部分領域に分割し、部分領域ごとに類似画像をデータベースに問合せ、得られた類似画像を利用して領域分割することが記載されている。
R. Achanta,A. Shaji,K. Smith,A. Lucchi,P. Fua,and S. Susstrunk, SLIC Superpixels Compared to State−of−the−art Superpixel Methods, IEEE Transactions on Pattern Analysis and Machine Intelligence,vol. 34,num. 11,p. 2274−2282,2012.
E. Rahtu,J. Kannala,M. Blaschko,Learning a Category Independent Object Detection Cascade,IEEE International Conference on Computer Vision,2011
J. Sivic,A. Zisserman,Video Google:A Text Retrieval Approach to Object Matching in Videos,ICCV 2003
しかし、特許文献1の方法は、類似画像同士の関係性を考慮せず、得られた全ての類似画像に共通する主要な領域の成分を求め、その上位の成分ごとに異なる被写体として領域を分割する。そのため、特許文献1の方法では入力画像中の主要な領域以外の被写体の検出精度が低くなるという問題があった。
上記課題を解決するために、本発明は、複数の画像データと当該複数の画像データの関係性に関する情報が記憶された記憶手段を用いて、取得した画像において関係性を有する領域を決定する画像処理装置であって、前記取得した画像を複数の部分領域に分割する領域分割手段と、前記分割した複数の部分領域それぞれについて、類似する1以上の前記画像データを前記記憶手段から抽出する抽出手段と、前記抽出手段により抽出された前記画像データと当該画像データの関係性に関する情報とに基づいて、前記取得した画像において関係性を有する領域を決定する決定手段とを有することを特徴とする。
以上の構成によれば、本発明は、入力画像中の主要領域以外においても高精度に被写体の検出ができ、精度良く被写体ごとに領域に分割することが可能となる。
[第1の実施形態]
本発明の実施形態に係る画像処理装置は、取得した画像から複数の部分領域を取り出して、各部分領域に類似する類似領域を画像データベースから得るものである。画像データベースには、画像間の関係性を示す情報が併せて記憶されており、この情報に基づいて類似領域同士の関係性を調べ、関係性が強いまたは同一の関係性を有する類似領域のそれぞれに類似する部分領域同士は共通の被写体を構成していると判断する。そして、このような部分領域を結合して「関心領域」として決定し、この関心領域ごとに被写体のカテゴリーが何であるかの推定を行う。なお、本実施形態において、画像間の関連性を示す情報とは、画像領域を被写体ごとにグループ分けした情報に相当するものである。
本発明の実施形態に係る画像処理装置は、取得した画像から複数の部分領域を取り出して、各部分領域に類似する類似領域を画像データベースから得るものである。画像データベースには、画像間の関係性を示す情報が併せて記憶されており、この情報に基づいて類似領域同士の関係性を調べ、関係性が強いまたは同一の関係性を有する類似領域のそれぞれに類似する部分領域同士は共通の被写体を構成していると判断する。そして、このような部分領域を結合して「関心領域」として決定し、この関心領域ごとに被写体のカテゴリーが何であるかの推定を行う。なお、本実施形態において、画像間の関連性を示す情報とは、画像領域を被写体ごとにグループ分けした情報に相当するものである。
以下、図面を参照して本発明の実施形態を詳細に説明する。
図1は本実施形態に関わる画像処理装置の構成(機能構成)を説明する図である。図1に示す各機能部は、画像処理装置が有しているCPUがROMまたはRAM等の格納手段に格納されている制御プログラムを実行することにより実現される。
本実施形態の画像処理装置は、装置外から入力された若しくは装置に備えられたカメラ等により撮像された画像を取得する画像取得部101、取得した画像を複数の部分領域に分割する領域分割部102を有する。また、前記部分領域と類似する領域を画像データ記憶部104に問合せる類似領域問合せ部103、複数の画像および画像間の関係性の情報を格納する画像データ記憶部104を有する。さらに、取得した画像中の被写体の存在する領域を関心領域として決定する関心領域決定部105、取得した画像の各領域について被写体のカテゴリーを判別するカテゴリー判別部106を有する。またさらに、関心領域、および関心領域以外の領域の判別結果を統合する結果統合部107、最終的な領域の判別結果を出力する結果出力部108を有する。
以下、本実施形態の画像処理装置の各機能について説明する。図2は本実施形態の画像認識処理のフローを示し、図3は本実施形態における画像認識処理の結果を示している。
まず図2の処理フローのステップS101で、画像取得部101は、装置に設けられたカメラによって撮像された画像を取得する。図3(A)は、画像取得部101によって取得された画像の例を示している。
次に、ステップS102では、領域分割部102は画像取得部101によって取得した画像を複数の小領域に分割する。この小領域は、非特許文献1にも開示されるように、Super−pixel(スーパーピクセル、以下、SPと略す)と呼ばれる色などが似た画素をまとめたものである。画像を複数のSPに分割した結果を図3(B)に示す。図3(B)では、6つのSPに対してSP1〜SP6の符号をつけて示している。SPは色の似たサイズの小さな局所領域に過ぎないため、この領域を手掛かりに類似画像を問合せても同種の被写体に正しくマッチングする可能性は小さい。
次に、ステップS103において、上記の小領域をいくつか組み合わせて、類似の被写体を問合せるのに適した大きさの部分領域を作成する。その方法としては、例えば隣接した数個のSPのペアをランダムに組み合わせてもよいが、ランダムに組み合わせただけでは複数の被写体を跨いで連結する可能性もある。そこで、より物体らしさの可能性の高い領域に絞りこむことが望ましい。本実施形態では、そのための方法として、非特許文献2に開示されている物体らしさ度(Objectness)推定と呼ばれる技術を用いる。Objectness推定は、領域の凹凸形状や輪郭のエッジの強度など、複数の特徴を手掛かりに学習を行って領域がひとつの物体のまとまりを形成しているか否かを推定する手法である。図3(C)は、上記のObjectness推定の方法により得られた部分領域の例を示す。同図において、5つの部分領域に対してBB1〜BB5の符号を付している。ここで、BB1として示した部分領域は、図3(B)のSP1、SP2、SP5、SP6が組み合わさってできた部分領域である。なお、図示の簡略化のために、部分領域をその領域に外接する矩形の領域として表示しているが、部分領域は特に矩形形状に限るものではない。
続いて、ステップS104〜S106では、類似領域問合せ部103が、上述の処理で得られた部分領域BB1〜BBnの一つ一つについて類似領域を持つ画像があるかどうかを画像データ記憶部104に問合せる。本実施形態では、その手法として、非特許文献3に記載の方法を用いる。具体的には、まず部分領域の領域内からSIFT特徴などの局所特徴を抽出する。次いで、似たような局所特徴の組み合わせを含む領域があるかどうか、画像データ記憶部104が記憶している画像データ中を探し、類似度の高い上位k個の画像を抽出する。なお、kは1以上の整数であって、類似領域問合せ部103は1または複数の類似した領域を問合せる。
また、ここでは部分領域内の特徴を問合せのときの手掛かりとしているが、他の形態として、部分領域内の特徴のみならず、部分領域の周辺の領域の特徴を用いるようにしてもよい。具体的には、まず(1)部分領域から特徴を抽出する。そして、(2)部分領域を所定の幅だけ広げた領域を生成し、特徴量を抽出する。そして、(3)二つの特徴量を連結し、連結後の特徴量を用いて類似領域の問い合わせを行って上位k個の画像を抽出する。
さらに他の形態として、(1)の領域内の特徴量と(2)の周囲の領域の特徴量それぞれで領域間の類似度を計算し、二つの類似度を重み付け和した値に基づいて類似領域を探索することもできる。また更に他の形態として、画像全体を周辺領域と見なし、画像全体の特徴量も用いて類似領域を探索してもよい。これらの派生形態によれば、領域内のみならず、その周囲まで含めて類似領域を探索することができる。
次に、画像データ記憶部104の詳細な構成について説明する。図4は、本実施形態の画像データ記憶部104の構成を説明するための図である。画像データ記憶部104は同図(A)に示すように、複数の画像、および画像の被写体をいくつかのグループに分けたサブグループS1〜Smで構成された画像データベースを記憶している。なお、このサブグループS1〜Smは画像間の類似度の関係性に基づいて予め作成されたものであり、具体的な作成方法については後述する。画像データ記憶部104は、図4(B)に示すように各画像の領域の被写体のカテゴリーの教師情報を記憶している。図4(A)には、数個の画像のみを図示しているが、実用に供するためのデータベースは数万枚以上の画像および数百個以上のサブグループを含むことが望ましい。
図4(C)は、類似領域の問合せ処理の結果を示している。同図では、部分領域と部分領域にマッチした類似領域とを黒太線の矩形で示し、マッチした領域間を矢印線で接続して示している。ここでは、ある部分領域に対してマッチした類似領域として、上位1個の結果のみを示している。以上が、類似領域の問合せの具体的な処理である。
次に、ステップS107では、関心領域決定部105が、類似領域の問合せ結果に基づき、取得した画像中のどの部分領域同士が関連するかを推定する。本実施形態では、各部分領域にマッチした類似領域を調べ、同一のサブグループに属する類似領域を持つ部分領域同士は関連性が高いとする。なお、サブグループは後述するように予め画像間の類似度の関係性に基づいて作成されたものである。
ステップS108では、S107で関連性が高いと判断された部分領域のペアのうち、領域の範囲が所定値以上にオーバーラップしているペアを抽出して統合する。オーバーラップの値OVは、例えば下記の数1式により評価する。
上式の分母は部分領域iと部分領域jの和集合の画素数、分子は同じく積集合の画素数である。このオーバーラップ値が所定値以上である部分領域のペアは、同一被写体の領域である可能性が高い。本ステップでは、このような条件を満たす部分領域ペアの関係で結ばれる全ての部分領域をまとめ、これを包含するような領域の範囲を設定して関心領域とする。
図3(D)は、本実施形態において部分領域を統合して生成した関心領域の結果を示す。本実施形態では、部分領域BB2、BB3、BB4が統合されて関心領域ROI1が生成されている。なお、ここでは図の簡略化のために関心領域ROI1の形状を矩形領域として示しているが、特に矩形に限るものでなく、部分領域の和集合といった不規則な形状であってもよい。
図2の画像認識処理のフローに戻ると、ステップS109〜S111では、各関心領域の内部の領域について、カテゴリー判別部106が被写体カテゴリーの判別を行う。被写体カテゴリーの判別を行うにあたって、本実施形態では、関心領域中の小領域(SP)の特徴量を入力とし、小領域のカテゴリーを出力するように学習しておいた識別器を用いる。識別器としては、ランダムフォレストやサポートベクトルマシンなどといった公知の手法を用いることができる。本実施形態では、このような識別器を予め画像データベースのサブグループごとに特化させて学習しており、サブグループの画像データを重点的に与えて学習を行っている。
関心領域が決定したら、カテゴリー判別部106は各関心領域に対応するサブグループの判別用の辞書を読み出し(ステップS110)、識別器で領域カテゴリーの判別を行う(ステップS111)。本実施形態では、このように関心領域を生成し、関心領域ごとに詳細な領域判別処理を行う。そのため、本実施形態は、関心領域を作成しない従来の方法よりも高い精度で領域カテゴリーを推定できる。
なお、ステップS110〜S111における代替手法として、識別器を用いない手法を用いることも可能である。その手順としては、まず関心領域に対応するサブグループの画像群を複数取得する。ここで、取得した画像群には領域ラベルの真値が付されている。そして、関心領域中の小領域(SP)ごとに特徴の類似する小領域を画像群からk個求め、最も頻度の高かったカテゴリーをその領域のカテゴリーとすることにより、各関心領域内の領域のカテゴリーを判別することもできる。
ステップS113では、カテゴリー判別部106が関心領域以外の領域についても領域のカテゴリーの判別を行う。これには被写体を限定せずに学習した通常の判別辞書を用いて領域カテゴリーの判別を行う。
ステップS114では、結果統合部107が、カテゴリーが判別された関心領域、および関心領域以外の領域の判別結果を統合して最終の結果とする。各関心領域間に重畳がなければ、各領域のカテゴリーの判別結果を最終結果とする。重畳がある部分については、それぞれのカテゴリーの尤度スコアを平均するか、最大のカテゴリーを求めて最終の検出結果とすればよい。図3(E)には、最終的な検出結果の例を示す。
ステップS115において、結果出力部108が、最終の検出結果を画像表示装置等に出力して動作を終了する。なお、ここでは、結果出力部108が関心領域および関心領域以外の領域のカテゴリーの情報も含めた最終の検出結果を出力するようにしているが、関心領域の位置のみを出力するようにしてもよい。またさらに、関連性のある部分領域のペアを特定しただけの簡単な結果を出力するようにしてもよい。以上が、本実施形態の画像認識処理フローである。
ここで、画像データ記憶部104が備える画像データベースの詳細および被写体のサブグループの生成方法について述べる。サブグループの作成では、まず学習用のプログラムが、画像の部分領域の関係性のグラフデータを作成する。図5は、画像中の部分領域をノードとし、類似する部分領域のノード間を連結して作成したグラフデータである。次いで、学習用のプログラムがこのグラフデータに対してクラスタリングを行い、部分領域のデータを複数のサブグループに分割する。グラフデータ作成のための学習用プログラムの詳細な処理を以下に説明する。
本実施形態では、まず画像データから部分領域を生成する。これは、取得画像に対して行った上述の方法と同様に、画像データベースの各画像について複数の部分領域を得る。そして、得られた部分領域の数と同じ数のグラフのノードを生成し、各部分領域に対応させる。次に、類似度の高い部分領域のペアがないかを探し、類似度が所定値以上となるような、類似する部分領域ペアがあれば対応するノード間にエッジを追加する。その際、本実施形態では、エッジの重みとして部分領域間の類似度の距離を与えるようにしている。
部分領域間の類似度の基準は様々に考えられるが、本実施形態では(1)部分領域の被写体カテゴリーの一致度と、(2)部分領域の見えの特徴の一致度、の二つの値の和を部分領域間の類似度とする。見えの類似度に加えて部分領域のカテゴリーの真値を用いることで、例えば水面と車のフロントガラスなど、見た目が類似していても無関係な物体の領域同士の偽の対応付けを防ぐことができる。その結果、より質の良いグラフデータを得ることができる。
本実施形態において、(1)被写体カテゴリーの一致度は以下の数式2により算出する。すなわち、各画像には図4(B)で示されるような部分領域の各画素にカテゴリーの教師値が予め付されているので、このカテゴリーラベルが部分領域間でどれだけ一致しているかを計算する。具体的には、まず二つの部分領域BBiとBBjの縦横の長さが等しくなるよう正規化する。次に、下記数2式に従って二つの部分領域のカテゴリーの類似度の距離dCatを求める。
ここで、|x|と|y|は部分領域の横と縦の画素数である。またq(x,y,c)は部分領域の画素(x,y)のカテゴリーの教師値がcならば1、それ以外は0の値をとるインデックス関数である。ΔxとΔyは、二つの領域のカテゴリーを比較するときに位置ずれを許容するための変数で、領域幅の1/4程度を目安に上下左右にずらしながら最大にマッチする位置を探索する操作を表している。カテゴリーの類似度の距離dcatは、二つの領域内のカテゴリーが完全に一致すると0、完全にカテゴリーが異なると1をとるようになっている。
本実施形態では、画素単位のカテゴリーの教師値のデータにより類似度の定義を行ったが、全画像についてこのような教師値を用意するのは手間とコストがかかる。そこで、部分領域の被写体カテゴリーの一致度の算出は、例えば、画像のシーンのカテゴリー情報を用いる形態としてもよい。予め全画像にシーンのカテゴリーの教師値を付しておき、二つの領域の属する二枚の画像が同一のシーンのカテゴリーであれば一致度の距離を0、異なるシーンの画像であれば一致度の距離を1とする。また別の形態として、予め各画像について物体検出器による画像認識を行っておき、同種類の物体が検出された領域周辺の部分領域のペアは一致度が高いとすることも可能である。
次いで、(2)領域の見えの特徴の一致度の算出には、Bag of words手法と呼ばれる標準的な方法を用いる。具体的には、部分領域BBiとBBjからそれぞれ格子状に複数のSIFT特徴を抽出し、特徴のコードブック頻度ヒストグラムを作成する。そして、以下の数3式によりヒストグラム交差の値を求める。
ここで、f(k)はk番目のSIFTコードブックの頻度値であり、Σf(k)=1である。dfeatは、二つの領域の特徴のベクトルが完全に一致すれば0で、全く一致しなければ1をとる値である。なお、領域の見えの特徴の一致度の算出には、SIFTコードブックの頻度値以外に、領域の形状情報やエッジの一致度等を用いることもできる。また、部分領域の内部のみならず、周囲領域の特徴を併せて使うようにしてもよい。
このようにして求めた二種類の類似度の距離を足して、部分領域iとjの類似度の距離dijとする。以下の数4式において、αは0から1の間の値を取る重みパラメータである。重みパラメータαは、本画像処理装置の最終的な認識精度が高くなるように、交差検定法等の一般的な手法を用いて予めその値が決められている。
このように類似度の基準を設定することにより、同一カテゴリーの被写体で見えの類似する部分領域が重み付きエッジで繋がったグラフが得られる。図5は、このようにして得られた、類似する部分領域同士が連結されたグラフデータを示している。このグラフに対して、スペクトルクラスタリングといった公知のグラフベースのクラスタリング手法を適用すれば、各部分領域は複数のクラスタに分割される。図5において、各クラスタにはサブグループとしての符号S1〜S3を付して示している。なお同図において、規模の小さなクラスタはサブグループとせず省いている。これは、小さなサブグループが多数できると認識時のノイズおよび計算量増大の原因になりやすいためである。
また、同一の画像中の部分領域の間の類似度を、見えの特徴に加えて数1式のオーバーラップ値に基づいて定義することもできる。図6は、本実施形態における類似度を模式的に説明する図である。類似度の定義として、画像I2に存在する重畳した部分領域BB2とBB3の間の類似度d23を、新たに領域間でオーバーラップする値で定義する。さらに、類似度を距離の一種と見なし、画像I1の部分領域BB1と画像I3の部分領域BB4の間に類似度のエッジで辿ることのできる経路が存在する場合は、距離d14をd14=d12+d23+d34と個々の距離を加算した値で定義する。ただし、グラフのノードiからノードjまでに複数の経路が有り得るときは、そのうちの最短の経路を距離dijとする(測地距離)。このようにすれば、人体と人物の顔や、車と車のフロントグリルのように、物体の全体の領域とその部分領域との関係(is a part of関係)にあるような二つの領域についても、類似度が近いと評価される。これにより、本実施形態では、物体がまとまって同一のサブグループに含まれやすくなる。
以上、本発明の第1の実施形態によれば、部分領域間の関係性を推定し、この関係性に基づき関心領域を決定することにより、被写体領域の同定、および領域カテゴリーの判別を高い精度で実現することができる。
[第2の実施形態]
次に、本発明の第2の実施形態として、画像中に存在する被写体とその範囲を同定する物体検出を行うとともに、検出された物体についてのメタ情報を取得する構成について説明を行う。本実施形態において、メタ情報とは画像全体および画像中の被写体に関する付加的な情報全般と定義する。したがって、本実施形態のメタ情報には、被写体の人物の属性(性別や職業など)やシーン情報(海辺や夕焼けシーンなど)のように、ユーザによって画像もしくは指定した局所領域に対して与えられる情報が含まれる。また、画像の撮影場所のGPSデータや、カメラの焦点距離などの撮影パラメータのように、撮影機器等によって撮影時の情報などが与えられる情報も含まれるものである。以下の説明では、被写体の局所的な部位の位置およびその名称を示すアノテーション情報を取得する形態について示す。
次に、本発明の第2の実施形態として、画像中に存在する被写体とその範囲を同定する物体検出を行うとともに、検出された物体についてのメタ情報を取得する構成について説明を行う。本実施形態において、メタ情報とは画像全体および画像中の被写体に関する付加的な情報全般と定義する。したがって、本実施形態のメタ情報には、被写体の人物の属性(性別や職業など)やシーン情報(海辺や夕焼けシーンなど)のように、ユーザによって画像もしくは指定した局所領域に対して与えられる情報が含まれる。また、画像の撮影場所のGPSデータや、カメラの焦点距離などの撮影パラメータのように、撮影機器等によって撮影時の情報などが与えられる情報も含まれるものである。以下の説明では、被写体の局所的な部位の位置およびその名称を示すアノテーション情報を取得する形態について示す。
なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。本実施形態の画像処理装置も、図1に示した第1の実施形態の画像処理装置と同様の構成(機能部)を有している。また、本実施形態の画像処理装置は、第1の実施形態と同様に画像データおよび画像データ間の関係性の情報に基づいて関心領域を同定する。本実施形態では、画像の部分領域をノード、画像の部分領域の見えおよびカテゴリーの類似度をエッジとするグラフ構造の情報を、画像データ間の関係性の情報として用いる。以下、図面を参照して本実施形態を詳細に説明する。
図7は、本実施形態における画像認識処理のフローである。本実施形態でも、第1の実施形態と同様に、取得した画像より部分領域を抽出し、類似領域を問合せる構成となっている。第1の実施形態と異なる点は、ステップS204における部分領域の統合処理になる。第1の実施形態では、同じサブグループに属する類似領域を持つ部分領域同士を統合したが、本実施形態ではサブグループを使わないため、異なる方法を用いた統合処理になる。
その手順としては、ステップS201〜ステップS203において、類似領域問合せ部103が各部分領域の類似領域を得る。次に、ステップS204で関心領域決定部105が所定値以上に重畳している部分領域のペアを一つ選び、対応する類似領域同士の類似度を求める。この類似度は、第1の実施形態で述べた測地距離の方法によって算出され、類似度が所定値以上の領域ペアを統合して関心領域とする。
図8は、本実施形態における画像認識処理の結果を示している。本実施形態では、図8(A)に示されるように、入力画像の人体を構成する二つの部分領域BB1とBB4は、BB1→BB2→BB3→BB4と他の人物の類似画像を経由することで距離が計算されている。また、本実施形態のステップS202では、一つの類似領域のみを問合せて使うようにしているが、上位k個の類似領域を問合せるようにしてもよい。その場合には、k2個の組み合わせの類似度のうちの最小値を距離とする。
また、ステップS204では、取得画像上で重畳している二つの部分領域を関心領域の候補となる部分領域のペアとして選び、それらに対応する類似画像が類似しているかどうかを調べて統合する。なお、候補となる部分領域ペアの選択の方法として、二つの領域が重畳しているか否かのみでなく、所定の相対位置関係にあるかどうかに基づいて選択してもよい。
次に、ステップS206において、カテゴリー判別部106が各関心領域のカテゴリーを決定する。ここでは、各関心領域に対応する類似領域のカテゴリーの真値を調べ、最頻値のカテゴリーを関心領域のカテゴリーとする。本実施形態の画像認識の結果、図8(B)では、検出された物体領域ROI1と、関心領域ROI1のカテゴリーである“body”というラベルが得られている。
さらに、本実施形態では、画像データベース中の一部の画像領域に予めユーザによって物体のアノテーションが付けられているとし、取得画像の部分あるいは全体についてアノテーションラベルを得る処理を行う。例えば、図8(A)の場合、ユーザによって指定されたアノテーション領域BB6に“Straw hat”というアノテーションラベルA6が付されている。
ステップS208において、類似領域問い合わせ部103は、関心領域の各部分領域について類似領域の問合せを行い、それぞれの類似領域を得る。本実施形態では、部分領域BB1について類似領域の問合せを行い、類似領域BB2を得ている。そして、測地距離を用いて所定の閾値よりも近い距離にある類似領域を全て抽出する。ここでは、部分領域BB1の類似領域として類似領域BB2、類似領域BB3、類似領域BB5が得られている。
ステップS209において、カテゴリー判別部106は、前段のステップS207により得られた類似領域のうちいずれかのアノテーション領域に所定閾値以上に重なった領域があれば、そのラベルを抽出して記憶する。ここでは、類似領域BB5にアノテーション領域BB6が重なっているので、“Straw hat”というアノテーションラベルA6を記憶する。
次に、ステップS210において、結果統合部107は、部分領域BB1について得られた全てのアノテーションラベルの頻度を総和する。その際、部分領域BB1と各アノテーション領域(ここではアノテーション領域BB6)との類似度の距離を求め、距離の近さに応じてアノテーションラベルを重み付けして総和する。アノテーションラベルの頻度を総和した結果、閾値を超えるラベルがあれば、ステップS213で結果出力部108が部分領域BB1に関連づけて出力する。図8(B)は、本実施形態におけるアノテーションラベルの出力結果を示す。
なお、アノテーションラベルの候補の集計を行う際は、関心領域を同定するときよりも大きな値の閾値を用い、より広い範囲の類似領域を調べてアノテーションを集計するようにしてもよい。また、アノテーションの集計は、語彙を階層的に分類したオントロジーデータなどを使ってラベル間の関係を加味した集計を行ってもよい。例えば、一般的に語彙“Straw hat”はオントロジーデータにおいて語彙“Hat”の下位概念として分類されている。そのため、“Straw hat”のアノテーションラベルが1つカウントされたときは、オントロジーデータを参照して上位概念である“Hat”についても1つカウントする。そして、集計の際は語彙ごとに集計と総和を行い、閾値を超えた語彙を全て出力する。このとき、“Straw hat”と“Hat”という意味の重なる複数の語彙が出力されるのを避けたい場合は、閾値を超えた語彙のうち最も下位の階層のラベルを出力すればよい。
また、用意するアノテーションラベルの情報は、領域を特に設定せず、画像1枚に対して1つのアノテーションラベルが対応するような形態も可能である。その場合、アノテーション領域が画像全体であると見なして先述と同様に処理すればよい。
以上、本実施形態によれば、画像データベース中のアノテーションのデータに基づいて、取得画像における部分領域のアノテーションを推定することができる。また、画像データベース上にサブグループを作らなくても関心領域を決定でき、取得画像に対してカテゴリー判別を行うことが出来る。
[第3の実施形態]
次に、本発明の第3の実施形態として、誤って選択される可能性の高い類似領域(以下、NGパターンとも称す)を学習し、この誤って選択される可能性の高い類似領域を画像データベースより排除する構成について説明する。この構成によって、カテゴリーの誤判別の可能性を軽減することができる。
次に、本発明の第3の実施形態として、誤って選択される可能性の高い類似領域(以下、NGパターンとも称す)を学習し、この誤って選択される可能性の高い類似領域を画像データベースより排除する構成について説明する。この構成によって、カテゴリーの誤判別の可能性を軽減することができる。
例えば、取得画像に自動車が大きく写っている場合、光沢のあるフロントガラスが表面の反射によって風景写真の湖面と似てしまうようなことがある。この場合、車のフロントガラスの領域の類似領域に湖面の関心領域が関連付けられ、結果的にフロントガラスが水面のカテゴリーと判別されてしまう可能性がある。このような誤判別を軽減するために、本実施形態は、画像間の関係性のデータベースを拡張して、画像の部分領域間の見えの類似度に加えて、部分領域間の誤った対応関係の情報もデータベースに追加する。
なお、第1、第2の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。本実施形態の画像処理装置も、図1に示した第1の実施形態の画像処理装置と同様の構成(機能部)を有している。以下、図面を参照して本実施形態の詳細を説明する。
まず初めに、本実施形態で定義される「偽対応」について説明する。偽対応とは、ガラスの領域と水面の領域のように、見えの特徴がよく一致しているが、カテゴリーの真値の一致度が低い領域ペアのことである。したがって、偽対応は数式3のdfeat値が0に近く、数式2のdCatの値が1に近い領域ペアに相当することになる。そこで、偽対応を測る値として、上述の数式4を変更して下記の数5式を定義する。
図10は、本実施形態のデータベースを模式的に示した図である。数5式より得られる距離の値が所定値より小さい領域のペアは、図10(A)に示すように偽対応の関係としてエッジを付ける。なお、dfeatの見えの特徴は、類似画像の問合せを行うときに用いる特徴と同じものを用いる必要がある。
偽対応を軽減する単純な方法の一つは、画像データベース上の領域を各個に調べ、偽対応の関係を所定数以上持っている領域があれば、これをNGパターンとして画像データベースの関係グラフから削除する方法である。図11(A)は、この方法の概念図である。例えば、同図の左側に示されるように、画像データベース上で領域xが領域wと領域yに対して偽対応の関係にある場合には、このような領域xは類似領域問合せの結果としても信頼度が低いため、画像データベースの関係性グラフから削除する。そして、同図の右側が領域xを削除した後の画像データベースの模式図である。この手法によれば、テクスチャのない均一な領域等の情報量の少ない領域が画像データベースから排除される。
本実施形態では、別の方法として、学習プログラムが特定の被写体の組み合わせにおいて起こり易い偽対応のパターンを学習、判別して画像データベースから除去する方法を用いる。これは、先ほどの車のフロントガラスに対して、風景の湖面が偽対応するようなケースに対して有効な方法である。図9にこの処理フローを示す。
同図のステップS311〜S314は、学習プログラムが画像データベースのサブグループごとに偽対応のパターンを集計し、特定のパターンがないかを調べるステップである。ステップS312〜S313において、まずサブグループの特定のペアSpとSqの中からそれぞれ部分領域BBpiとBBqjを抽出し、この領域ペアの間の測地距離を数式5より算出する。この算出した距離の値が所定値以内であれば、その領域ペアはサブグループのペアSpq間に発生している偽対応の事例であるので、抽出して記憶しておく(ステップS313)。このようにして、S311〜S314において、学習プログラムは全ての部分領域ペアBBij間で上記の処理を行う。
そして、抽出された偽対応の事例数が所定数以上であれば(ステップS315)、全ての事例を総和し、その分布形状をサブグループのペアSpqのNGパターンの事前分布として記憶する(ステップS316、S317)。NGパターンの事前分布として、本実施形態では、サブグループpの関心領域ROIpに対してサブグループSqの領域が混入するときに現れるNGパターンp−qについて集計する。
具体的な処理の手順としては、まず(1)偽対応の事例の領域BBpiの画像を得る。これは、図10(A)ではフロントガラスに該当する。次に、(2)領域BBpiの類似領域を連結して関心領域ROIpiを作成する。そして、(3)全事例の偽対応の関心領域ROIpiと偽対応の部分領域BBqiがどのような位置関係に存在するか、平均して事前分布を得る。このとき、本実施形態では、図10(B)の左側に示すように各関心領域を正方形に正規化した上で平均して分布を得る。その際、図10(B)の右側に示すように、(4)部分領域BBpiとBBqjの特徴量の分布の情報も集計して記憶する。
以上のようにして、本実施形態では、NGパターンp−qを学習する。なお、NGパターンq−pを集計するには、上述の処理において添え字のpとqを交換した処理を行う。以上の処理により、再現性の高いNGパターンほどはっきりしたピークの分布が学習され、認識フェーズでの判別が容易となる。
次に、本実施形態の画像処理装置の認識のフェーズの処理について説明する。図12には、本実施形態の認識フェーズの処理フローを示す。まずステップS301において、関心領域決定部105が関心領域を生成する。次にステップS302において、関心領域決定部105は各関心領域のうち重畳のある関心領域同士でペアを作り、関心領域と部分領域の配置関係や特徴量が事前に学習したNGパターンの事前分布に当てはまるかどうかを調べる。ステップS303では、NGパターンの尤度の高い関心領域を削除する。その後の処理は第1の実施形態と同様であり、カテゴリー判別部106によって関心領域中の領域のカテゴリーが判別される。
本実施形態では、予め学習フェーズを設けてNGパターンを集計したが、認識フェーズにおいて探索を行うことにより、類似領域問合せ結果が偽対応か否かを判断する形態でもよい。図11(B)は、この方法を概念的に説明するための図である。
同図において、取得画像中の領域a(例:フロントガラス)は画像データベース上の領域x(例:湖面)およびy(例:別の車のフロントガラス)の両方に類似している。さらに取得画像中の領域b(例:車体)は画像データベース上の領域z(例:別の車体)に類似関係がある。また、ここでは、画像データベースに格納されたカテゴリーの真値により、予め領域x(湖面)と領域y(別の車のフロントガラス)は偽対応であることが分かっている。そのため、領域a、x、yが同じ被写体に属する場合には矛盾となるため、a→xとa→yのどちらかの問合せ結果は誤りと判断される。一方で、領域y(別の車のフロントガラス)とz(別の車体)の類似度が高く、同一の被写体を構成しているので、対応する領域aとbは同一の被写体に属する可能性が高いと判断される。
そこで、本実施形態では、領域a→xの対応関係が偽対応の関係である場合と、領域a→yの対応関係が偽対応である場合とを仮定する。そして、仮定した場合ごとに関心領域を生成し、より整合性の高い結果が得られた方を正しいパターンと判断し選択する。ここでの整合性は、カテゴリーの異なる関心領域が互いに重畳しているほど、その整合性は低いと判断されるような基準とする。すなわち、車と湖面の関心領域が大きく重なっている場合には、整合性は低いと判断される。このような整合性を用いた判断の結果、本実施形態では、図11(B)右側の模式図に示すように、領域aとbに対応する領域yとzが同一の関心領域(車体)に属するという正しい結果を得ることができる。
以上、本実施形態では、画像データベースの部分領域間の偽対応情報に基づいて、関心領域を決定し領域カテゴリーの判別を行うことにより、カテゴリーの誤判別の可能性を軽減することができる。なお、本実施形態の構成は、領域間の真の対応と偽の対応の関係情報を用いて判別する手法に広く適用可能である。また、図11を用いて説明したように、本実施形態は、偽対応を削除する方法として複数の形態をとることが可能である。
[第4の実施形態]
次に、本発明の第4の実施形態として、画像間で被写体の照合を行う構成について説明を行う。なお、上述の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。本実施形態の画像処理装置も、図1に示した第1の実施形態の画像処理装置と同様の構成(機能部)を有している。
次に、本発明の第4の実施形態として、画像間で被写体の照合を行う構成について説明を行う。なお、上述の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。本実施形態の画像処理装置も、図1に示した第1の実施形態の画像処理装置と同様の構成(機能部)を有している。
図13は、本実施形態における画像の照合を説明する図である。照合とは、複数の画像Iinput1とIinput2を入力(取得)すると、これらの画像に共通する被写体の領域を自動的に抽出するような処理のことである。図13(A)では、二枚の画像に共通する被写体として、人体の領域である関心領域ROI1とROI2がそれぞれ抽出される例を示している。以下に、図13の照合処理を説明する概念図と、図14の本実施形態の画像認識処理フローとを参照して、本実施形態の処理の詳細について説明する。
図14において、ステップS401〜ステップS402では、領域分割部102が取得した二枚の画像それぞれを、第1の実施形態と同様の手順により、複数の部分領域に分割する。ステップS403〜ステップS405において、類似領域問い合わせ部103は、生成された各部分領域について画像の問合せを行い、各部分領域に対して類似領域を得る。ただし、以降の説明の簡略化のために、一つの部分領域に複数の類似領域が該当する場合は、その中で最も類似度のスコアの高かった類似領域を一つ選択するものとする。
次に、ステップS407〜ステップS415では、関心領域決定部105が二枚の取得画像間で対応関係のある部分領域のペアを抽出する。具体的には、共通の領域を類似領域として持つ、二つの部分領域が画像間に存在していないかどうかを全ての部分領域のペアについて調べる(ステップS408〜410)。以上のステップにおいて、共通の領域を類似領域として持つ部分領域ペアがあれば、これを対応関係のある部分領域ペアとして抽出して記憶する(ステップS413)。図13(B)には、以上の処理により得られた部分領域の抽出結果を示す。同図では、画像問合せの参照元の部分領域と、問合せ結果の類似領域を矢印でつないで示している。ここでは、部分領域BB1と部分領域BB5が部分領域BB3を共通の類似領域として持っているので、対応関係のある部分領域ペアとして抽出されている。領域BB2と部分領域BB6も部分領域BB3を共通の類似領域として持っているので同様に抽出されている。
次に、ステップS411で、関心領域決定部105は、画像間で類似度の高い領域ペアがあるかどうかを調べ、もしあればステップS413において対応関係のある領域として抽出する。この処理において、判断基準となる類似度の距離には、第2の実施例と同様に画像の関係グラフに基づいた測地距離を用いる。図13(C)は、本実施形態における類似度の高い部分領域ペアの抽出結果を示す。同図では、部分領域BB1と部分領域BB5の類似度を、類似領域BB3と類似領域BB7を経由する測地距離として求めたことを模式的に示している。ここでは、その測地距離が所定の閾値よりも小さかったと判定し、部分領域BB1と部分領域BB5は対応関係のあるペアとして抽出されている。
ステップS416〜S418では、関心領域決定部105が、以上の処理により得られた部分領域ペアを調べ、各部分領域ペアが他の部分領域ペアと所定の関係にあるか否かを判定する。「所定の関係」とは、部分領域ペアを構成する各部分領域がそれぞれの画像上で所定の閾値以上に互いに重なっている状態である。図13(D)の場合、入力画像IInput1上のBB1とBB2、入力画像IInput2中のBB5とBB6が所定値以上に重なっていれば所定の関係の条件を満たすと判定する。本実施形態において、部分領域ペアの重なりは、上述した数1式により判定を行う。
ステップS419〜S421では、関心領域決定部105が、上述した所定の関係を満たす部分領域のペアを連結して関心領域を生成する。図13(D)では、画像IInput1と画像IInput2の両方において各部分領域が連結され、関心領域ROI1および関心領域ROI2が生成されている。
本実施形態の画像処理装置によれば、以上のように画像間で被写体を照合することにより、被写体の見えや姿勢のバリエーションに対してロバストに被写体の照合を行うことができる。
また、本実施形態の変形例として、例えば、(1)一方の画像の上に関心領域を手動で設定し、他方の画像から対応する関心領域があるかどうかを照合する、といった形態が可能である。また、別の変形例として、(2)2枚の画像の上に関心領域を手動で設定し、画像間で2つの関心領域が対応するかどうかを照合する、といった形態も可能である。
また、上述のステップS404では各部分領域に対して類似領域を一つのみ抽出することとしたが、一つの部分領域に対して複数の類似領域を抽出するようにしてもよい。この場合、複数の類似領域それぞれについて対応関係の認められる複数の部分領域のペアを抽出し、抽出された全ペアを使って関心領域を抽出すればよい。
また、上述のステップS411では部分領域間の類似度を算出する際に、画像間の関係性のグラフによる測地距離をその都度求めたが、他の構成を採用することもできる。例えば、画像間の関係性のグラフ情報を保持するのでなく、予め全ての部分領域間の測地距離を求めておき、距離行列として保持しておくことも可能である。図15は、部分領域間の測地距離に関する距離行列の例を示す。同図では、関係性のグラフ上の経路が存在しない領域間の類似度の距離を無限大とし、記号infとして示している。このように、画像間の関係性のグラフのデータに基づいて得られる情報の表現形態は種々考えられる。例えば、第1の実施形態で説明した画像のサブグループも、画像間の関係性のグラフに基づく情報表現の形態の一つである。本発明は画像間の関係性の情報を利用するが、その形態は様々であり一つに限定されない。
更には、上述のステップS418では部分領域ペアが「所定の関係」を満たすか否かの判断のために、部分領域ペアの重なりを調べたが、重なり以外の基準によって「所定の関係」を満たすか否かを判定するようにしてもよい。図16は、「所定の関係」の充足を判断する他の形態を模式的に説明する図面である。同図において、画像aの中に二つの領域a1と領域a2、画像bの中に二つの領域b1と領域b2がある。このとき、本実施形態は、領域a1と領域a2の相対的な位置関係が、領域b1と領域b2の位置関係と類似しているかどうかを以下の数6式により判定することで、この領域ペアが「所定の関係」を満たすか否かを判定するようにしてもよい。
ここで、ΔxaとΔyaは領域a1と領域a2の重心位置のx方向とy方向のオフセット量である。また、wa1とha1は領域a1の幅と高さであり、オフセット量をサイズで正規化するものである。θは所定の閾値である。
以上の方法を用いた場合の処理フローを図17に示す。ステップS516、S517において、部分領域ペアp、qを抽出する。ステップS518で、上述の数6式に基づき、部分領域pとqの位置関係が類似しているかどうかを判定する。類似していると判定されれば、ステップS519〜S520において、関心領域決定部105が部分領域ペアp、qに対応する領域を統合して関心領域とする。なお、上述の説明では、部分領域のペアが類似した関係にあるかを判定するようにしたが、3以上の部分領域の関係性が類似しているか否かを調べる形態としてもよい。また、関心領域を得る処理では、図6で示した測地距離を用いる方法により、画像間の類似関係を複数跨ぐようにして取得する構成であってもよい。
[その他の実施形態]
上述した第4の実施形態では、取得画像上の部分領域のペアの位置関係が他の画像上の部分領域のペアの位置関係と所定の関係(類似)があるかを調べて、関心領域を決定するようにしている。この手法は、他の実施形態にも応用可能な方法である。例えば、第2の実施形態では、図7のステップS204において、2つの部分領域の関係性を調べ、関連性があると判断されれば、これら部分領域を統合して関心領域とする処理としていた。図18は、第2の実施形態において、ステップS204に代えて第4の実施形態で説明した関心領域の決定方法を採用した場合の処理フローを示す図である。
上述した第4の実施形態では、取得画像上の部分領域のペアの位置関係が他の画像上の部分領域のペアの位置関係と所定の関係(類似)があるかを調べて、関心領域を決定するようにしている。この手法は、他の実施形態にも応用可能な方法である。例えば、第2の実施形態では、図7のステップS204において、2つの部分領域の関係性を調べ、関連性があると判断されれば、これら部分領域を統合して関心領域とする処理としていた。図18は、第2の実施形態において、ステップS204に代えて第4の実施形態で説明した関心領域の決定方法を採用した場合の処理フローを示す図である。
まず、第2の実施形態では、図8(A)に示すように入力画像Iinputに部分領域BB1とBB4が作成される。図18の処理フローでは、ステップS2041〜S2042において、BB1とBB4にそれぞれ対応する類似領域が一枚の類似画像上に存在していないかどうかを調べる。ここでは、一枚の類似画像I1上に類似領域BB2とBB3が存在していると判断される。
次に、ステップS2043では、領域BB1とBB4を領域a1とa2、領域BB2とBB3を領域b1とb2として、これら4つの領域の相対位置関係が数式6の条件を満たすかどうかを調べる。そして、数式6の条件を満たす場合には、関心領域決定部105は、領域BB1とBB4が所定の関係にあると見なし、ステップS2044で領域BB1とBB4を関心領域として統合する。このようにして、第4の実施形態で説明した関心領域の決定方法は他の実施形態にも適用可能である。
また、上述の各実施形態では、画像処理装置が画像データ記憶手段を備える構成としたが、この画像データ記憶手段は画像処理装置とは別体として設けられた構成であってもよい。
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
101 画像取得部
102 領域分割部
103 類似領域問合せ部
104 画像データ記憶部
105 関心領域決定部
106 カテゴリー判別部
107 結果統合部
108 結果出力部
102 領域分割部
103 類似領域問合せ部
104 画像データ記憶部
105 関心領域決定部
106 カテゴリー判別部
107 結果統合部
108 結果出力部
Claims (17)
- 複数の画像データと当該複数の画像データの関係性に関する情報が記憶された記憶手段を用いて、取得した画像において関係性を有する領域を決定する画像処理装置であって、
前記取得した画像を複数の部分領域に分割する領域分割手段と、
前記分割した複数の部分領域それぞれについて、類似する1以上の前記画像データを前記記憶手段から抽出する抽出手段と、
前記抽出手段により抽出された前記画像データと当該画像データの関係性に関する情報とに基づいて、前記取得した画像において関係性を有する領域を決定する決定手段とを有することを特徴とする画像処理装置。 - 前記画像処理装置が、前記記憶手段を有することを特徴とする請求項1に記載の画像処理装置。
- 前記取得した画像について、前記関係性を有する領域に関する情報を出力する出力手段を更に有することを特徴とする請求項1または2に記載の画像処理装置。
- 前記複数の画像データの関係性に関する情報は、前記複数の部分領域間の対応関係を定めるための情報を含むことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
- 前記複数の画像データの関係性に関する情報は、前記複数の画像データを分割してなる部分領域をノード、当該領域間の対応関係をエッジとしたグラフデータに関する情報を含むことを特徴とする請求項4に記載の画像処理装置。
- 前記グラフデータは、前記複数の画像データにおける部分領域の類似度に基づいて重み付けされたエッジによって構成されることを特徴とする請求項5に記載の画像処理装置。
- 前記重み付けされたエッジは、前記複数の画像データにおける被写体のカテゴリーに関する教師値に基づいて得られることを特徴とする請求項6に記載の画像処理装置。
- 前記複数の画像データの関係性に関する情報は、前記グラフデータに基づいて前記複数の画像データをクラスタリングして得られるサブグループの情報であることを特徴とする請求項5から7のいずれか1項に記載の画像処理装置。
- 前記サブグループの情報に基づいて、前記関係性を有する領域のカテゴリーを判別する判別手段を更に有することを特徴とする請求項8に記載の画像処理装置。
- 前記判別手段は、学習された判別用の辞書をさらに用いて前記関係性を有する領域のカテゴリーを判別することを特徴とする請求項9に記載の画像処理装置。
- 前記複数の画像データの関係性に関する情報は、前記複数の部分領域間の誤った対応関係を定めるための情報を含むことを特徴とする請求項5から10のいずれか1項に記載の画像処理装置。
- 前記複数の画像データの関係性に関する情報は、当該複数の画像データにおける画像のメタ情報を含み、
前記画像のメタ情報に基づいて、前記関係性を有する領域のカテゴリーを判別する判別手段を更に有することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 前記メタ情報は、前記複数の画像データにおける被写体または前記被写体の部位に関するアノテーションラベルであることを特徴とする請求項12に記載の画像処理装置。
- 前記複数の画像データの関係性に関する情報は、前記複数の部分領域間の相対位置関係を定めるための情報であることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
- 前記相対位置関係を定めるための情報に基づいて、複数の前記取得した画像における前記関係性を有する領域が互いに関連するか否かを照合する照合手段を更に有することを特徴とする請求項14に記載の画像処理装置。
- 複数の画像データと当該複数の画像データの関係性に関する情報が記憶された記憶手段を用いて、取得した画像において関係性を有する領域を決定する画像処理方法であって、
前記取得した画像を複数の部分領域に分割するステップと、
前記分割した複数の部分領域それぞれについて、類似する1以上の前記画像データを前記記憶手段から抽出するステップと、
前記抽出された前記画像データと当該画像データの関係性に関する情報とに基づいて、前記取得した画像において関係性を有する領域を決定するステップとを有することを特徴とする画像処理方法。 - コンピュータを、請求項1から15のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014236993A JP2016099835A (ja) | 2014-11-21 | 2014-11-21 | 画像処理装置、画像処理方法、及びプログラム |
US14/942,619 US10007678B2 (en) | 2014-11-21 | 2015-11-16 | Image processing apparatus, image processing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014236993A JP2016099835A (ja) | 2014-11-21 | 2014-11-21 | 画像処理装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016099835A true JP2016099835A (ja) | 2016-05-30 |
Family
ID=56010553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014236993A Pending JP2016099835A (ja) | 2014-11-21 | 2014-11-21 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10007678B2 (ja) |
JP (1) | JP2016099835A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028700A (ja) * | 2017-07-28 | 2019-02-21 | 日本電信電話株式会社 | 検証装置、方法、及びプログラム |
JP2021005417A (ja) * | 2020-10-02 | 2021-01-14 | 日本電信電話株式会社 | 検証装置、方法、及びプログラム |
JP2021068140A (ja) * | 2019-10-23 | 2021-04-30 | セコム株式会社 | 領域分割装置、領域分割方法および領域分割プログラム |
JP2021068141A (ja) * | 2019-10-23 | 2021-04-30 | セコム株式会社 | 領域分割装置、領域分割方法および領域分割プログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2653322C1 (ru) * | 2016-12-21 | 2018-05-07 | ООО "Ай Ти Ви групп" | Способ показа объектов в последовательности изображений, полученных от стационарной видеокамеры |
EP3832491A1 (en) * | 2019-12-06 | 2021-06-09 | Idemia Identity & Security France | Methods for processing a plurality of candidate annotations of a given instance of an image, and for learning parameters of a computational model |
CN117710758B (zh) * | 2024-02-05 | 2024-05-10 | 中国地质大学(武汉) | 一种遥感图像岩土解译方法、介质及设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6138045A (en) * | 1998-08-07 | 2000-10-24 | Arch Development Corporation | Method and system for the segmentation and classification of lesions |
US6813395B1 (en) * | 1999-07-14 | 2004-11-02 | Fuji Photo Film Co., Ltd. | Image searching method and image processing method |
JP4167390B2 (ja) * | 2000-11-20 | 2008-10-15 | 日本電気株式会社 | 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体 |
US7324665B2 (en) * | 2002-09-16 | 2008-01-29 | Massachusetts Institute Of Technology | Method of multi-resolution adaptive correlation processing |
EP1603077B1 (en) * | 2003-03-07 | 2010-06-02 | Nippon Telegraph and Telephone Corporation | Biological image correlation device and correlation method thereof |
JP2005149455A (ja) * | 2003-10-21 | 2005-06-09 | Sharp Corp | 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体 |
DE102006043910B4 (de) * | 2006-09-19 | 2010-02-25 | Siemens Ag | Ergebnisfilter und Verfahren zur Selektion der Ergebnisdaten einer Applikation zur automatischen Mustererkennung |
JP4921253B2 (ja) * | 2007-06-13 | 2012-04-25 | 富士フイルム株式会社 | 画像処理装置および画像処理プログラム |
US8058888B2 (en) * | 2009-10-13 | 2011-11-15 | Nanya Technology Corporation | Test apparatus for electronic device package and method for testing electronic device package |
JP5057183B2 (ja) * | 2010-03-31 | 2012-10-24 | アイシン・エィ・ダブリュ株式会社 | 風景マッチング用参照データ生成システム及び位置測位システム |
JP5836779B2 (ja) | 2011-12-02 | 2015-12-24 | キヤノン株式会社 | 画像処理方法、画像処理装置、撮像装置およびプログラム |
-
2014
- 2014-11-21 JP JP2014236993A patent/JP2016099835A/ja active Pending
-
2015
- 2015-11-16 US US14/942,619 patent/US10007678B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028700A (ja) * | 2017-07-28 | 2019-02-21 | 日本電信電話株式会社 | 検証装置、方法、及びプログラム |
JP2021068140A (ja) * | 2019-10-23 | 2021-04-30 | セコム株式会社 | 領域分割装置、領域分割方法および領域分割プログラム |
JP2021068141A (ja) * | 2019-10-23 | 2021-04-30 | セコム株式会社 | 領域分割装置、領域分割方法および領域分割プログラム |
JP7292178B2 (ja) | 2019-10-23 | 2023-06-16 | セコム株式会社 | 領域分割装置、領域分割方法および領域分割プログラム |
JP7312082B2 (ja) | 2019-10-23 | 2023-07-20 | セコム株式会社 | 領域分割装置、領域分割方法および領域分割プログラム |
JP2021005417A (ja) * | 2020-10-02 | 2021-01-14 | 日本電信電話株式会社 | 検証装置、方法、及びプログラム |
JP7016130B2 (ja) | 2020-10-02 | 2022-02-04 | 日本電信電話株式会社 | 検証装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20160148070A1 (en) | 2016-05-26 |
US10007678B2 (en) | 2018-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885397B2 (en) | Computer-executed method and apparatus for assessing vehicle damage | |
JP2016099835A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Maurya et al. | Road extraction using k-means clustering and morphological operations | |
JP6395481B2 (ja) | 画像認識装置、方法及びプログラム | |
CN107346409B (zh) | 行人再识别方法和装置 | |
US9092662B2 (en) | Pattern recognition method and pattern recognition apparatus | |
Grote et al. | Road network extraction in suburban areas | |
CN109154978A (zh) | 用于检测植物疾病的系统和方法 | |
CN107256017B (zh) | 路线规划方法及系统 | |
JP5963609B2 (ja) | 画像処理装置、画像処理方法 | |
JP2004361987A (ja) | 画像検索システム、画像分類システム、画像検索プログラム及び画像分類プログラム、並びに画像検索方法及び画像分類方法 | |
JP2017016593A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20130095727A (ko) | 비디오 내 객체들의 시맨틱 파싱 | |
GB2528669A (en) | Image Analysis Method | |
CN112633297A (zh) | 目标对象的识别方法、装置、存储介质以及电子装置 | |
US20080222113A1 (en) | Image search method, apparatus, and program | |
CN106780551A (zh) | 一种三维运动目标检测方法和系统 | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
CN112528781B (zh) | 一种障碍物检测方法、装置、设备和计算机可读存储介质 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
JP4926266B2 (ja) | 学習データ作成装置、学習データ作成方法及びプログラム | |
KR101089847B1 (ko) | 얼굴 인식을 위한 sift 알고리즘을 이용한 키포인트 매칭 시스템 및 방법 | |
US20230033875A1 (en) | Image recognition method, image recognition apparatus and computer-readable non-transitory recording medium storing image recognition program | |
JP2020095757A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2018081452A (ja) | 画像処理装置、画像処理方法 |