JPWO2011061905A1 - 物体領域抽出装置、物体領域抽出方法、及びプログラム - Google Patents

物体領域抽出装置、物体領域抽出方法、及びプログラム Download PDF

Info

Publication number
JPWO2011061905A1
JPWO2011061905A1 JP2011541801A JP2011541801A JPWO2011061905A1 JP WO2011061905 A1 JPWO2011061905 A1 JP WO2011061905A1 JP 2011541801 A JP2011541801 A JP 2011541801A JP 2011541801 A JP2011541801 A JP 2011541801A JP WO2011061905 A1 JPWO2011061905 A1 JP WO2011061905A1
Authority
JP
Japan
Prior art keywords
region
likelihood
feature
background
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011541801A
Other languages
English (en)
Inventor
哲夫 井下
哲夫 井下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2011061905A1 publication Critical patent/JPWO2011061905A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本発明にかかる物体領域抽出装置は、画像中から抽出された特徴と類似度の高い領域を算出する類似領域算出手段120と、特徴の位置と類似領域とから特徴領域の尤度を算出する特徴領域尤度算出手段130と、特徴領域の尤度に基づいて物体領域を抽出する物体領域抽出手段140と、を備える。また、本発明にかかる物体領域抽出方法は、画像中から特徴を求め、当該特徴の位置を抽出し、抽出された特徴と類似度の高い領域を算出し、類似領域と特徴の位置とから特徴領域の尤度を算出し、特徴領域の尤度に基づいて物体領域を抽出する。本発明により、画像中から物体を精度よく抽出することができる物体領域抽出装置及び物体領域抽出方法を提供することができる。

Description

本発明は、画像中から物体を抽出する物体領域抽出装置、物体領域抽出方法、及び物体領域を抽出するためのプログラムに関し、特に画像中から物体を精度よく抽出することができる物体領域抽出装置、物体領域抽出方法、及び物体領域を抽出するためのプログラムに関する。
スチルカメラやビデオカメラで撮影した画像中の様々な物体をトリミングする場合、所望の物体領域を精度よく、手間をかけずに抽出することが望まれている。撮影した画像から物体領域と背景領域とに分離し、物体領域のみを抽出する方法としては、画像中から物体領域と背景領域とを大雑把に指定し、物体領域と背景領域とを分離し、物体領域を抽出する方法や、物体領域を含む矩形領域を指定し、矩形内外の色分布から物体領域と背景領域に分離し、物体領域を抽出する方法などがある。
非特許文献1には、画像中から物体領域と背景領域を、ユーザが手動で大雑把に指定することで物体領域と背景領域を分離し、物体領域を抽出する技術が開示されている。その抽出方法は、データ項と平滑化項からなるエネルギー関数を最小化することで、背景領域と物体領域とを分離する方法であり、いわゆるグラフカットと呼ばれている方法である。具体的には、ユーザが指定した物体領域と背景領域の輝度ヒストグラムから生成した確率分布を基にデータ項を定義し、隣接画素間の輝度の差を基に平滑化項を定義する。
非特許文献2には、画像中から物体領域を含む矩形領域を指定することで、物体領域と背景領域を分離し、物体領域を抽出する方法が開示されている。その抽出方法は、非特許文献1に開示されているグラフカットを改良したものである。非特許文献2にかかる技術では、物体領域として指定した矩形領域の内側および背景領域として指定した矩形領域の外側に基づき色分布のモデルを生成し、各領域に該当する色分布をデータ項としているため、ユーザは物体領域を含む矩形領域を指定するだけで物体領域を抽出することができる。
特許文献1には、医用画像において既知形状の物体を検出し物体領域として指定し、検出点を中心として十分大きな範囲外を背景領域として指定することで、物体領域と背景領域を分離し、物体領域を抽出する方法が開示されている。その抽出方法は、医用画像中の臓器を抽出するために、抽出対象の臓器を物体領域の1点として検出する。特許文献1にかかる技術では、撮影時に画像中心に抽出対象の臓器を配置することで、画像中心を物体領域の1点としている。この方法では、臓器の形状がある程度既知であるため、形状情報を用いて抽出対象の臓器を検出することができる。そして、物体領域の1点から十分離れた領域を背景領域として定義し、グラフカット(非特許文献1、非特許文献3参照)を用いて物体を抽出している。
特許文献2には、物体固有の色情報を用いて物体色の存在する位置を物体領域として指定することで、物体領域と背景領域とを分離し、物体領域を抽出する技術が開示されている。この抽出方法では、人間の肌といった物体固有の色を事前に確率で定義し、その色を含む確率が高い場合にデータ項が小さくなるエネルギー関数を用いて、エネルギー関数が最小となる分離部分を求める方法(グラフカット)を用いている。
特開2008−245719号公報 特開2007−172224号公報
Yuri Y. Boykov, Marie-Pierre Jolly, "Interactive Graph Cuts for Optimal Boundary and Region Segmentation of Objects in N-D images", Proc. IEEE Int. Conf. on Computer Vision, 2001 C.Rother, V.Kolmogorv, A.Blake, "GrabCut: Interactive Foreground Extraction Using Iterated Graph Cuts",ACM Trans. Graphics(SIGGRAPH'04), vol.23, no.3,pp.309-314, 2004 Yuri Boykov and Vladimir Kolmogorov. "An Experimental Comparison of Min-Cut/Max-Flow Algorithms for Energy Minimization in Vision." In IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI),September 2004
しかしながら、非特許文献1、2では、手動で物体領域や背景領域を指定する必要がある。また、非特許文献2では、物体領域を含む矩形領域から物体色分布、矩形領域外から背景色分布を推定するため、矩形領域外に物体色と似た背景が存在した場合に、誤って物体領域として抽出してしまうという問題がある。
また、特許文献1の方法では、対象物体の大きさが分かっている範囲で、物体位置を設定する必要があるため、ユーザが自由に撮影した場合など、対象物体の大きさが変化する場合には適用することができない。また、特許文献2の方法では、物体固有の色を物体領域として指定している。このため、例えば車の場合、タイヤの色はどの車でも同じであることが多く、物体固有の色として用いることができるが、車体の色は様々であるため、物体固有の色として定義することはできない。従って、タイヤを抽出することはできるが、車全体は抽出することができないという問題がある。
よって、本発明の目的は、画像中から物体を精度よく抽出することができる物体領域抽出装置、物体領域抽出方法、及び物体領域を抽出するためのプログラムを提供することである。
本発明にかかる物体領域抽出装置は、画像中から抽出された特徴と類似度の高い領域を算出する類似領域算出手段と、前記特徴の位置と前記類似領域とから特徴領域の尤度を算出する特徴領域尤度算出手段と、前記特徴領域の尤度に基づいて物体領域を抽出する物体領域抽出手段と、を備える。
本発明により、画像中から物体を精度よく抽出することができる物体領域抽出装置、物体領域抽出方法、及び物体領域を抽出するためのプログラムを提供することができる。
実施の形態1にかかる物体領域抽出装置を示すブロック図である。 実施の形態1にかかる物体領域抽出装置の他の態様を示すブロック図である。 実施の形態1にかかる物体領域抽出装置を用いて物体領域を抽出する方法を説明するためのフローチャートである。 実施の形態2にかかる物体領域抽出装置を示すブロック図である。 実施の形態2にかかる物体領域抽出装置を用いて物体領域を抽出する方法を説明するためのフローチャートである。 物体の特徴点の位置を中心とするガウス分布に基づき算出された物体位置尤度を示す図である。 物体位置尤度に基づき物体色尤度を算出する方法を説明するための図である。 画像の周囲4辺付近の位置を背景の特徴点位置の中心とし、この特徴点の位置を中心とするガウス分布に基づき算出された背景位置尤度を示す図である。 実施の形態2にかかる物体領域抽出装置を用いて物体領域を抽出した結果を示す図である。 実施の形態3にかかる物体領域抽出装置を示すブロック図である。 実施の形態3にかかる物体領域抽出装置において、物体領域内の物体検出結果から物体位置尤度を生成した結果を示す図である。 実施の形態4にかかる物体領域抽出装置を示すブロック図である。 実施の形態4にかかる物体領域抽出装置において、物体固有の形状の検出結果から物体位置尤度を生成した結果を示す図である。
実施の形態1
以下、図面を参照して本発明の実施の形態1について説明する。図1は、本実施の形態にかかる物体領域抽出装置を示すブロック図である。本実施の形態にかかる物体領域抽出装置100は、画像中から抽出された特徴と類似度の高い領域を算出する類似領域算出手段120と、抽出された特徴の位置と類似領域とから特徴領域の尤度を算出する特徴領域尤度算出手段130と、特徴領域の尤度に基づいて物体領域を抽出する物体領域抽出手段140と、を備える。
類似領域算出手段120は、画像入力装置10から入力された画像中から抽出された特徴と類似度の高い領域を算出する。入力された画像中から特徴を抽出する際は、例えばユーザが画像中の特徴を決定し、この特徴を入力端末(不図示)を用いて指定することができる。また、図2に示すように類似領域算出手段120の前段に特徴抽出手段110を設け、この特徴抽出手段110を用いて入力された画像中から特徴を抽出してもよい。ここで特徴とは、物体の特徴や背景の特徴である。
図2に示す特徴抽出手段110を用いて画像から特徴を抽出する際は、例えばHaar−Like特徴、SIFT特徴、HOG特徴などのような物体の形状の特徴を抽出する方法を用いてもよいし、物体の色の特徴を抽出する方法を用いてもよい。また、物体の形状の特徴と物体の色の特徴を組み合わせて画像から物体の特徴を抽出してもよい。また、データ記憶部20の物体特徴記憶部21に格納されている所望の物体特徴(物体の形状の特徴と物体の色の特徴)と、入力画像から抽出した特徴とを比較し、入力画像の中から所望の特徴を抽出してもよい。
類似領域算出手段120は、例えば、抽出された特徴の形状もしくは色と、特徴の位置を中心とした周辺領域の形状もしくは色との類似度を算出する。ここで、周辺領域の範囲は抽出された特徴(特徴の形状、特徴の色)の位置を中心として、特徴の大きさに応じた分散を持つガウス分布を生成することで決定することができる。また、抽出された特徴が複数ある場合は、複数のガウス分布を混合ガウス分布として表現し、当該混合ガウス分布を用いることで周辺領域の範囲を決定することができる。なお、周辺領域の範囲の決定方法はこの方法に限定されることはなく、これ以外に周辺領域の範囲を決定することができる方法であればどのような方法を用いてもよい。
特徴領域尤度算出手段130は、抽出された特徴の位置と、類似領域算出手段120で算出された類似度の高い領域(類似領域)とから特徴領域の尤度を算出する。例えば、特徴領域尤度算出手段130は、抽出された特徴の位置と、類似度を算出した領域との距離と、類似度との積により、特徴領域尤度を算出することができる。また、特徴領域尤度算出手段130は、算出された位置尤度と特徴位置を中心とした周辺領域の類似度との積に基づき特徴領域尤度を算出することもできる。ここで、位置尤度は、抽出された特徴の位置を中心として、特徴の大きさに応じた分散を持つガウス分布を生成することで算出することができる。
物体領域抽出手段140は、特徴領域尤度算出手段130で算出された特徴領域の尤度に基づいて物体領域を抽出する。物体領域抽出手段140は、特徴領域尤度算出手段130で算出された特徴領域の尤度と、隣接する画素間の強度を表す関数とからなるエネルギー関数に対して、グラフカット法などを用いて最小化処理を実施する。この最小化処理を用いることで分割された領域から物体領域を抽出することができる。そして、物体領域抽出手段140で抽出された物体領域は、画像出力装置30に送られる。
なお、本実施の形態において、図2に示す特徴抽出手段110は、物体および背景を表す特徴の位置を抽出してもよい。また、類似領域算出手段120は、抽出された物体の特徴と類似度の高い領域および抽出された背景の特徴と類似度の高い領域をそれぞれ算出してもよい。また、特徴領域尤度算出手段130は、物体の特徴の位置と類似領域とから物体領域の尤度を算出すると共に、背景の特徴の位置と類似領域とから背景領域の尤度を算出してもよい。また、物体領域抽出手段140は、背景領域の尤度と物体領域の尤度に基づき物体領域を抽出してもよい。
本実施の形態にかかる物体領域抽出装置では、抽出された特徴と類似度の高い領域を算出する類似領域算出手段120と、抽出された特徴の位置と類似領域算出手段120で算出された類似領域とから特徴領域の尤度を算出する特徴領域尤度算出手段130とを備えているので、精度よく物体領域を抽出することができる。また、図2に示す特徴抽出手段110を備えることで、画像中から所望の物体領域を自動で抽出することができるため、ユーザの手を煩わせることもない。
次に、本実施の形態にかかる物体領域抽出方法について説明する。図3は、本実施の形態にかかる物体領域抽出方法を説明するためのフローチャートである。本実施の形態にかかる発明を用いて画像中の物体領域を抽出する場合は、まず処理の対象となる画像を入力する(ステップS1)。次に、画像中から特徴を求め、当該特徴の位置を抽出する(ステップS2)。次に、抽出された特徴と類似度の高い領域を算出する(ステップS3)。次に、類似領域と特徴の位置とから特徴領域の尤度を算出する(ステップS4)。最後に、特徴領域の尤度に基づいて物体領域を抽出する(ステップS5)。なお、ステップS2で画像中から特徴を抽出する際はユーザが手動で指定してもよいし、例えば図2に示す特徴抽出手段110等の装置を用いて自動で抽出してもよい。各ステップにおける動作は、物体領域抽出装置の動作と同様であるので重複した説明を省略する。
また、本実施の形態にかかる物体領域を抽出するためのプログラムは、画像中から特徴を求め、当該特徴の位置を抽出し、抽出された特徴と類似度の高い領域を算出し、類似領域と特徴の位置とから特徴領域の尤度を算出し、特徴領域の尤度に基づいて物体領域を抽出する動作をコンピュータに実行させるためのプログラムである。なお、画像中から特徴を抽出する際はユーザが手動で指定してもよいし、例えば特徴を抽出するプログラムを用いて自動で抽出してもよい。
以上で説明したように、本実施の形態にかかる物体領域抽出装置により、画像中から物体を精度よく抽出することができる物体領域抽出装置、物体領域抽出方法、及び物体領域を抽出するためのプログラムを提供することが可能となる。また、図2に示す特徴抽出手段110を用いることで手動で特徴を抽出する必要がなくなり、入力画像から自動で物体を抽出することが可能となる。
実施の形態2
次に、本発明の実施の形態2について説明する。図4は、本実施の形態にかかる物体領域抽出装置を示すブロック図である。図4に示すように、本実施の形態にかかる物体領域抽出装置300は、特徴抽出手段210と、物体位置尤度算出手段220と、物体色尤度算出手段230と、物体領域尤度算出手段240と、背景位置尤度算出手段250と、背景色尤度算出手段260と、背景領域尤度算出手段270と、物体領域抽出手段280とを有する。本実施の形態にかかる物体領域抽出装置300は、物体領域の尤度を算出する以外に、背景領域の尤度を算出する手段、すなわち、背景位置尤度算出手段250と、背景色尤度算出手段260と、背景領域尤度算出手段270を更に備えている。なお、本実施の形態にかかる物体領域抽出装置300は、実施の形態1で説明した類似領域算出手段120として、物体位置尤度算出手段220と物体色尤度算出手段230と、背景位置尤度算出手段250と背景色尤度算出手段260とを備える。また、実施の形態1で説明した特徴領域尤度算出手段130として、物体領域尤度算出手段240と背景領域尤度算出手段270とを備える。
画像入力装置10は、スチルカメラやビデオカメラ、コピー機といった撮像システムから取得した画像やウェブ上に投稿された画像を取得し、特徴抽出手段210に渡す機能を有する。特徴抽出手段210は入力された画像から特徴抽出を行う。画像から特徴を抽出する際は、例えばHaar−Like特徴、SIFT特徴、HOG特徴などのような物体の形状の特徴を抽出する方法を用いてもよいし、物体の色の特徴を抽出する方法を用いてもよい。また、物体の形状の特徴と物体の色の特徴を組み合わせて画像から物体の特徴を抽出してもよい。また、データ記憶部20の物体特徴記憶部21に格納されている所望の物体特徴(物体の形状の特徴と物体の色の特徴)や背景特徴(背景の形状の特徴と背景の色の特徴)と、入力画像から抽出した特徴(物体特徴と背景特徴)とを比較し、入力画像の中から所望の特徴を抽出してもよい。なお、特徴の抽出は実施の形態1で説明したように、特徴抽出手段210を用いる以外にユーザが画像中の特徴を決定し、この特徴を入力端末(不図示)を用いて指定してもよい。この場合、特徴抽出手段210は設けなくてもよい。
物体位置尤度算出手段220は、物体が存在する領域中から、物体が存在する位置の尤もらしさを物体の特徴から算出する機能を有している。物体位置尤度算出手段220は、特徴抽出手段210で抽出された物体の特徴の位置を中心として、特徴の大きさに応じた分散を持つガウス分布を生成することで物体位置尤度を算出する。なお、特徴抽出手段210で抽出された物体の特徴が複数ある場合は、複数のガウス分布を混合ガウス分布として表現し、当該混合ガウス分布から物体位置尤度を算出することもできる。
また、物体位置尤度算出手段220は、一定の領域内に存在する特徴群を用いて物体の照合を行い、照合した結果から物体位置尤度を算出してもよい。また、物体位置尤度算出手段220は、予め領域分割された領域内に存在する特徴群を用いて物体の照合を行い、照合した結果から物体位置尤度を算出してもよい。
物体色尤度算出手段230は、物体位置尤度算出手段220で算出された物体位置尤度に基づいて物体色の尤もらしさを算出する機能を有している。物体色尤度算出手段230は、物体位置尤度算出手段220で生成されたある画素における物体位置尤度を物体色尤度の候補とし、当該物体色尤度の候補のうち同一の画素色で物体色尤度が最大となる物体色尤度の候補を物体色尤度とする。
物体領域尤度算出手段240は、物体位置尤度算出手段220で算出された物体位置尤度と物体色尤度算出手段230で算出された物体色尤度から物体領域の尤もらしさを算出する機能を有している。また、物体領域尤度算出手段240は、算出された物体位置尤度と特徴位置を中心とした周辺領域の類似度との積に基づき物体領域尤度を算出してもよい。
同様に、背景位置尤度算出手段250は、背景が存在する領域中から、背景が存在する位置の尤もらしさを背景特徴から算出する機能を有している。背景位置尤度算出手段250は、特徴抽出手段210で抽出された背景特徴の位置を中心として、特徴の大きさに応じた分散を持つガウス分布を生成することで背景位置尤度を算出する。この場合も、特徴抽出手段210で抽出された背景特徴が複数ある場合は、複数のガウス分布を混合ガウス分布として表現し、当該混合ガウス分布から背景位置尤度を算出することもできる。
背景色尤度算出手段260は、背景位置の尤度に基づいて背景色の尤もらしさを算出する機能を有している。背景色尤度算出手段260は、背景位置尤度算出手段250で生成されたある画素における背景位置尤度を背景色の尤度候補とし、同一色で最も尤度が大きい値を背景色尤度とする。
背景領域尤度算出手段270は、背景位置尤度算出手段250で算出された背景位置尤度と背景色尤度算出手段260で算出された背景色尤度から背景領域の尤もらしさを算出する機能を有している。
物体領域抽出手段280は、物体領域尤度算出手段240で算出された物体領域の尤度および背景領域尤度算出手段270で算出された背景領域の尤度からエネルギー関数のデータ項を定義して、エネルギー関数を最小化することで物体領域と背景領域に分割し、物体領域を抽出する機能を有する。つまり、物体領域抽出手段280は、物体領域尤度算出手段240で算出された物体領域の尤度と、背景領域尤度算出手段270で算出された背景領域の尤度と、隣接する画素間の強度とを表す関数からなるエネルギー関数に対して、グラフカット法などを用いて最小化処理を実施する。この最小化処理を用いて分割された領域から物体領域を抽出することができる。
そして、物体領域抽出手段280で抽出された物体領域は、画像出力装置30に送られる。
次に、本実施の形態にかかる物体領域抽出方法について説明する。図5は、本実施の形態にかかる物体領域抽出方法を説明するためのフローチャートである。本実施の形態にかかる発明を用いて画像中の物体領域を抽出する場合は、まず処理の対象となる画像を入力する(ステップS11)。次に、画像中から抽出する物体と背景の特徴を求め、当該物体と背景を表す特徴の位置を抽出する(ステップS12)。次に、抽出された物体の特徴から物体位置尤度を算出する(ステップS13)。次に、算出された物体位置尤度から物体色尤度を算出する(ステップS14)。次に、算出された物体位置尤度と物体色尤度から物体領域尤度を算出する(ステップS15)。
同様に、抽出された背景の特徴から背景位置尤度を算出する(ステップS16)。次に、算出された背景位置尤度から背景色尤度を算出する(ステップS17)。次に、算出された背景位置尤度と背景色尤度から背景領域尤度を算出する(ステップS18)。なお、物体領域尤度の算出(ステップS13〜S15)と背景領域尤度の算出(ステップS16〜S18)の順番は任意に設定することができる。
最後に、算出された物体領域尤度と背景領域尤度とに基づいて物体領域を抽出する(ステップS19)。なお、各ステップにおける動作は、上記で説明した物体領域抽出装置の動作と同様であるので重複した説明を省略する。また、画像中から特徴を抽出する際はユーザが手動で指定してもよいし、例えば図4に示す特徴抽出手段210等の装置を用いて自動で抽出してもよい。
次に、本実施の形態にかかる物体領域抽出装置を用いて物体領域を抽出する例について具体的に説明する。まず、予め、様々な車、森、空、道路などが映っている画像から物体ごとに特徴抽出を行い、物体ごとの特徴を特徴記憶部21に格納しておく。車、森、空、道路などの画像から特徴を抽出する際は、例えば、SIFT特徴を抽出する。全画像から抽出した特徴数は数万程度となるため、k−means等のクラスタリング手法を用いて数百程度の代表特徴を算出する。
その後、車の画像で頻出する代表的な特徴を車の特徴として特徴記憶部21に格納する。このように頻出する代表的な特徴を物体の特徴としてもよいし、また、特徴間の共起頻度に基づき物体の特徴を求めてもよい。また、SIFT特徴に限らず、テクスチャ特徴などを用いてもよい。
次に、特徴抽出手段210を用いて入力画像から特徴を抽出する。このとき、特徴記憶部21に格納されている車特徴との照合を行い車特徴を決定する。
次に、物体位置尤度算出手段220は物体位置尤度を算出する。このとき、特徴抽出手段210で決定された車特徴点(車特徴の位置)の周囲も車領域である可能性が高いので、物体位置尤度算出手段220は車特徴点の位置を基準に、車領域の位置を表す物体位置尤度を(式1)で定義されるガウス分布に基づき算出する。図6は、物体の特徴点の位置を中心とするガウス分布に基づき算出された物体位置尤度を示す図である。
Figure 2011061905

ここで、Σは共分散で特徴の分布を表し、μは特徴点の位置、xは特徴点周辺の位置をベクトルで表記している。Tは転置を表す。なお、特徴点が複数ある場合は、(式2)に示す混合ガウス分布から物体位置尤度を算出する。また、分散値は特徴の大きさに制限するものではなく、一定の値を設定してもよい。
Figure 2011061905
次に、物体色尤度算出手段230を用いて、物体位置尤度算出手段220で求めた物体位置尤度から物体色尤度を算出する。この場合、ある画素位置に設定された物体位置尤度を、その位置にある物体色尤度候補とする。そして、同一の画素色で最大となる物体色尤度候補を物体色尤度とする。図7は、物体位置尤度に基づき物体色尤度を算出する方法を説明するための図である。図7に示すように、3つの物体色尤度候補のうち尤度が最大となる物体色尤度候補(尤度が0.7の物体色尤度候補)を物体色尤度としている。このとき、物体色尤度は(式3)のように表すことができる。
Figure 2011061905

なお、物体色尤度を算出する場合、入力画像を用いてもよいし、入力画像の色クラスタリングを行った画像を用いてもよい。
次に、物体領域尤度算出手段240は、物体位置尤度と物体色尤度からある画素Iにおける物体領域尤度を(式4)を用いて算出する。
Figure 2011061905

例えば、物体とよく似た背景がある場合、背景に対しても物体色尤度が大きくなるため、物体色尤度のみでは、物体領域として背景が抽出される場合がある。そこで、物体位置尤度を用いて位置の制約を加えることにより、背景領域を物体領域として抽出されることを防ぐことができる。
次に、背景領域尤度を算出する。背景領域尤度の算出も上記で説明した物体領域尤度の算出と同様に算出することができる。
まず、背景位置尤度算出手段250は、車領域の位置尤度を算出した方法と同様に、背景位置尤度を算出する。つまり、背景位置尤度算出手段250は、背景位置尤度を(式5)で定義されるガウス分布に基づき算出する。
Figure 2011061905

ここで、背景位置は入力画像中の周囲4辺である可能性が高いという事前知識を用いて、入力画像の周囲4辺を中心とするガウス分布を設定してもよい。図8は、画像の周囲4辺付近の位置を背景の特徴点位置の中心とし、この特徴点の位置を中心とするガウス分布に基づき算出された背景位置尤度を示す図である。
次に、背景色尤度算出手段260を用いて、背景位置尤度算出手段250で求めた物体位置尤度から物体色尤度を算出する。このとき、背景色尤度は(式6)のように表すことができる。
Figure 2011061905

なお、背景色尤度を算出する場合、入力画像を用いてもよいし、入力画像の色クラスタリングを行った画像を用いてもよい。
次に、背景領域尤度算出手段270は、背景位置尤度と背景色尤度からある画素Iにおける背景領域尤度を(式7)を用いて算出する。
Figure 2011061905
次に、グラフカット法を用いて物体領域の抽出を行う。グラフカット法では、エネルギー関数を(式8)のように定義する。(式8)のλはR(I)とB(I)の比率のパラメータであり、R(I)は領域に対するペナルティ関数、B(I)は隣接する画素間の強度を表すペナルティ関数である。R(I)とB(I)により定義したエネルギー関数E(式8)を最小化する。このとき、R(I)は(式9)、(式10)で表され、物体と背景の尤度を設定する。また、B(I)は(式11)で表され、隣接画素間の輝度値の類似度を設定する。ここで、|p−q|は隣接画素p、q間の距離を表す。グラフカット法では、最小化する前述のエネルギーを最小カット最大流定理に帰着させ、例えば非特許文献3に開示されているアルゴリズムを用いて、グラフの分割を行うことで、物体領域と背景領域に分割する。本実施の形態にかかる物体領域抽出装置を用いて物体領域を抽出した結果を図9に示す。
Figure 2011061905

Figure 2011061905

Figure 2011061905

Figure 2011061905
なお、上記ではエネルギー関数を最小化する方法としてグラフカット法を用いる場合を例示したが、例えば信念伝播法(Belief Propagation)等の他の最適化アルゴリズムを用いても良い。
以上で説明したように、本実施の形態にかかる物体領域抽出装置を用いることで、画像中から物体を精度よく抽出することができる。特に本実施の形態にかかる物体領域抽出装置では、物体領域尤度に加えて背景領域尤度を算出しているので、画像中から物体をより精度よく抽出することができる。また、特徴抽出手段210を用いることで手動で特徴を抽出する必要がなくなり、入力画像から自動で物体を抽出することが可能となる。
実施の形態3
次に、本発明の実施の形態3について説明する。図10は、本実施の形態にかかる物体領域抽出装置を示すブロック図である。図10に示すように、本実施の形態にかかる物体領域抽出装置400は、特徴抽出手段210と、物体検出手段310と、物体位置尤度算出手段220と、物体色尤度算出手段230と、物体領域尤度算出手段240と、背景位置尤度算出手段250と、背景色尤度算出手段260と、背景領域尤度算出手段270と、物体領域抽出手段280とを有する。すなわち、本実施の形態にかかる物体領域抽出装置400は、実施の形態2で説明した物体領域抽出装置300に、物体検出手段310が追加されている。これ以外の部分については実施の形態2と同様であるので重複した説明は省略する。
物体検出手段310は、入力画像に対して一定の領域内に存在する特徴から物体を検出する。物体らしい領域であれば、物体らしさに基づいた値を領域の画素に投票していく。例えば、物体らしさが大きければ"1"を、物体らしさが小さければ"0.2"を物体らしさに基づいた値とすることができる。その結果、入力画像中で物体らしい領域には大きな値が、物体らしくない領域には小さな値が投票されることになる。そして、物体位置尤度算出手段220においてこの投票値を正規化することにより、投票結果を物体位置尤度として用いることができる。図11は、このような手法を用いて物体位置尤度を生成した結果を示す図である。図11に示すように、入力画像の車の位置に対応した位置の物体位置尤度が大きくなっている。その他の部分については、実施の形態2で説明した場合と同様であるので説明を省略する。
本実施の形態にかかる物体領域抽出装置では、物体検出手段310を用いて、領域全体から物体らしい領域の画素に投票を行い、この投票結果に基づいて物体位置尤度を定めている。このため、一定領域のテクスチャパターンを持っている物体に対して、実施の形態2にかかる物体領域抽出装置よりも細かい尤度分布を設定することができる。なお、物体の特徴点から求めた物体位置尤度(実施の形態2で説明)と物体検出手段310を用いて求めた物体位置尤度とを統合してもよい。
実施の形態4
次に、本発明の実施の形態4について説明する。図12は、本実施の形態にかかる物体領域抽出装置を示すブロック図である。図12に示すように、本実施の形態にかかる物体領域抽出装置500は、特徴抽出手段210と、物体形状検出手段410と、物体位置尤度算出手段220と、物体色尤度算出手段230と、物体領域尤度算出手段240と、背景位置尤度算出手段250と、背景色尤度算出手段260と、背景領域尤度算出手段270と、物体領域抽出手段280とを有する。すなわち、本実施の形態にかかる物体領域抽出装置500は、実施の形態2で説明した物体領域抽出装置300に、物体形状検出手段410が追加されている。また、本実施の形態ではデータ記憶部20に物体形状記憶部22が設けられている。これ以外の部分については実施の形態2と同様であるので重複した説明は省略する。
物体形状検出手段410は、物体形状記憶部22に格納されている物体形状と照合することで、入力画像から物体固有の形状を検出する。例えば、物体領域として車を抽出する場合、物体固有の形状としてタイヤを用いることができる。この場合は、物体形状検出手段410は、物体形状記憶部22に格納されているタイヤの形状と照合し、入力画像からタイヤの形状である楕円を検出する。そして、検出された楕円について、予め設定されたタイヤ用の閾値を用いて処理を行う。そして、閾値処理後の楕円の位置に対して、大きい物体尤度を設定し、物体位置尤度算出手段220で算出された物体位置尤度と統合する。図13は、物体固有の形状(タイヤ)の検出結果から物体位置尤度を生成した結果を示す図である。図13の右側の図は、物体形状検出手段410で求めた物体固有の形状(タイヤ)と物体位置尤度算出手段220で算出された物体位置尤度とが統合されている状態を示している。その他の部分については、実施の形態2で説明した場合と同様であるので説明を省略する。
本実施の形態にかかる物体領域抽出装置では、物体形状検出手段410を用いて物体固有の形状を検出し、検出した物体固有の形状の位置に対して物体位置尤度を大きく設定している。このため、特徴点として抽出されにくい物体形状でも、物体固有の形状として検出することができるので、実施の形態2にかかる物体領域抽出装置よりも物体位置尤度の分布を細かく設定することができる。
また、上記実施の形態で説明したように、本発明は任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2009年11月20日に出願された日本出願特願2009−265545を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、入力画像から所望の物体を抽出する画像処理の分野において広く適用することができる。
100 物体領域抽出装置
110 特徴抽出手段
120 類似領域算出手段
130 特徴領域尤度算出手段
140 物体領域抽出手段
200、300、400、500 物体領域抽出装置
210 特徴抽出手段
220 物体位置尤度算出手段
230 物体色尤度算出手段
240 物体領域尤度算出手段
250 背景位置尤度算出手段
260 背景色尤度算出手段
270 背景領域尤度算出手段
280 物体領域抽出手段
310 物体検出手段
410 物体形状検出手段

Claims (19)

  1. 画像中から抽出された特徴と類似度の高い領域を算出する類似領域算出手段と、
    前記特徴の位置と前記類似領域とから特徴領域の尤度を算出する特徴領域尤度算出手段と、
    前記特徴領域の尤度に基づいて物体領域を抽出する物体領域抽出手段と、を備える、
    物体領域抽出装置。
  2. 前記物体領域抽出装置は、前記画像中から特徴を求め、当該特徴の位置を抽出する特徴抽出手段を更に有する、請求項1に記載の物体領域抽出装置。
  3. 前記類似領域算出手段は、抽出された前記特徴の形状もしくは色と、当該特徴の位置を中心とした周辺領域の形状もしくは色との類似度を算出する、請求項1または2に記載の物体領域抽出装置。
  4. 前記周辺領域の範囲は、前記特徴の位置を中心として当該特徴の大きさに応じた分散を持つガウス分布を生成することで決定される、請求項3に記載の物体領域抽出装置。
  5. 前記周辺領域の範囲は、前記特徴が複数ある場合は、複数のガウス分布を混合ガウス分布として表現し、当該混合ガウス分布を用いることで決定される、請求項4に記載の物体領域抽出装置。
  6. 前記特徴領域尤度算出手段は、抽出された前記特徴の位置と、類似度を算出した領域との距離と、類似度との積により、前記特徴領域の尤度を算出する、請求項1乃至5のいずれか一項に記載の物体領域抽出装置。
  7. 前記特徴抽出手段は、物体および背景を表す特徴の位置を抽出し、
    前記類似領域算出手段は、抽出された前記物体の特徴と類似度の高い領域および抽出された前記背景の特徴と類似度の高い領域をそれぞれ算出し、
    前記特徴領域尤度算出手段は、前記物体の特徴の位置と前記類似領域とから物体領域の尤度を算出すると共に、前記背景の特徴の位置と前記類似領域とから背景領域の尤度を算出し、
    前記物体領域抽出手段は、前記物体領域の尤度と前記背景領域の尤度とに基づき物体領域を抽出する、請求項2乃至6のいずれか一項に記載の物体領域抽出装置。
  8. 前記類似領域算出手段は、前記物体が存在する領域中から当該物体が存在する位置の尤度を物体の特徴から算出する物体位置尤度算出手段と、
    前記物体位置尤度算出手段で算出された物体位置尤度に基づいて物体の色の尤度を算出する物体色尤度算出手段と、有し、
    前記特徴領域尤度算出手段は、前記物体位置尤度と前記物体色尤度に基づき物体領域尤度を算出する物体領域尤度算出手段を有する、請求項1または2に記載の物体領域抽出装置。
  9. 前記類似領域算出手段は、背景が存在する領域中から当該背景が存在する位置の尤度を背景の特徴から算出する背景位置尤度算出手段と、
    前記背景位置尤度算出手段で算出された背景位置尤度に基づいて背景の色の尤度を算出する背景色尤度算出手段と、を更に有し、
    前記特徴領域尤度算出手段は、前記背景位置尤度と前記背景色尤度に基づき背景領域尤度を算出する背景領域尤度算出手段を更に有する、請求項8に記載の物体領域抽出装置。
  10. 前記物体位置尤度算出手段は、前記特徴の位置を中心として当該特徴の大きさに応じた分散を持つガウス分布を生成することで前記物体位置尤度を算出し、
    前記背景位置尤度算出手段は、前記特徴の位置を中心として当該特徴の大きさに応じた分散を持つガウス分布を生成することで前記背景位置尤度を算出する、請求項9に記載の物体領域抽出装置。
  11. 前記物体色尤度算出手段は、前記物体位置尤度算出手段で生成されたある画素における物体位置尤度を物体色尤度の候補とし、当該物体色尤度の候補のうち同一の画素色で物体色尤度が最大となる物体色尤度の候補を物体色尤度とし、
    前記背景色尤度算出手段は、前記背景位置尤度算出手段で生成されたある画素における背景位置尤度を背景色尤度の候補とし、当該背景色尤度の候補のうち同一の画素色で背景色尤度が最大となる背景色尤度の候補を背景色尤度とする、請求項9または10に記載の物体領域抽出装置。
  12. 前記物体位置尤度算出手段は、一定の領域内に存在する特徴群を用いて物体の照合を行い、照合した結果から物体位置尤度を算出する、請求項8乃至11のいずれか一項に記載の物体領域抽出装置。
  13. 前記物体位置尤度算出手段は、予め領域分割された領域内に存在する特徴群を用いて物体の照合を行い、照合した結果から物体位置尤度を算出する、請求項8乃至11のいずれか一項に記載の物体領域抽出装置。
  14. 前記物体領域尤度算出手段は、算出された前記物体位置尤度と特徴位置を中心とした周辺領域の類似度との積に基づき物体領域尤度を算出する、請求項8乃至11のいずれか一項に記載の物体領域抽出装置。
  15. 前記物体領域抽出手段は、前記物体領域尤度と前記背景領域尤度から、各画素における物体・背景の事後確率を算出する関数と、隣接する画素間の輝度が類似している程、値が高くなる関数が最小化するように、全画素を物体・背景領域に分離し、物体領域を抽出する、請求項8乃至14のいずれか一項に記載の物体領域抽出装置。
  16. 前記物体領域抽出装置は、物体らしさに基づいた値を領域の画素に投票する物体検出手段を更に有し、
    前記物体位置尤度算出手段は当該物体検出手段の当該投票値を正規化した結果を物体位置尤度として用いる、請求項8乃至15のいずれか一項に記載の物体領域抽出装置。
  17. 前記物体領域抽出装置は、予め設定された物体形状に関する情報と照合することで、入力画像から物体固有の形状を検出する物体形状検出手段を更に有し、
    前記物体位置尤度算出手段は前記算出された物体位置尤度と前記物体形状検出手段で検出された物体固有の形状に関する情報を統合する、請求項8乃至15のいずれか一項に記載の物体領域抽出装置。
  18. 画像中から特徴を求め、当該特徴の位置を抽出し、
    抽出された前記特徴と類似度の高い領域を算出し、
    前記類似領域と前記特徴の位置とから特徴領域の尤度を算出し、
    前記特徴領域の尤度に基づいて物体領域を抽出する、
    物体領域抽出方法。
  19. 画像中から特徴を求め、当該特徴の位置を抽出し、
    抽出された前記特徴と類似度の高い領域を算出し、
    前記類似領域と前記特徴の位置とから特徴領域の尤度を算出し、
    前記特徴領域の尤度に基づいて物体領域を抽出する動作をコンピュータに実行させるための非一時的なコンピュータ可読媒体。
JP2011541801A 2009-11-20 2010-11-10 物体領域抽出装置、物体領域抽出方法、及びプログラム Pending JPWO2011061905A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009265545 2009-11-20
JP2009265545 2009-11-20
PCT/JP2010/006612 WO2011061905A1 (ja) 2009-11-20 2010-11-10 物体領域抽出装置、物体領域抽出方法、及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
JPWO2011061905A1 true JPWO2011061905A1 (ja) 2013-04-04

Family

ID=44059392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011541801A Pending JPWO2011061905A1 (ja) 2009-11-20 2010-11-10 物体領域抽出装置、物体領域抽出方法、及びプログラム

Country Status (3)

Country Link
US (1) US20120230583A1 (ja)
JP (1) JPWO2011061905A1 (ja)
WO (1) WO2011061905A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011005715A1 (de) * 2011-03-17 2012-09-20 Siemens Aktiengesellschaft Verfahren zum Gewinnen eines von Spuren eines Metallobjektes befreiten 3D-Bilddatensatzes
US8943426B2 (en) 2011-11-03 2015-01-27 Htc Corporation Method for displaying background wallpaper and one or more user interface elements on display unit of electrical apparatus at the same time, computer program product for the method and electrical apparatus implementing the method
KR101747216B1 (ko) * 2012-05-30 2017-06-15 한화테크윈 주식회사 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체
JP5961512B2 (ja) * 2012-09-28 2016-08-02 富士フイルム株式会社 画像処理装置およびその作動方法並びに画像処理プログラム
JP6524910B2 (ja) * 2013-10-01 2019-06-05 日本電気株式会社 物体検出装置、物体検出方法および学習装置
JP6509762B2 (ja) * 2016-03-03 2019-05-08 日本電信電話株式会社 物体領域特定方法、装置、及びプログラム
US10810744B2 (en) * 2016-05-27 2020-10-20 Rakuten, Inc. Image processing device, image processing method and image processing program
JP7104375B2 (ja) 2018-07-09 2022-07-21 日本電気株式会社 施術支援装置、施術支援方法、及びプログラム
CN112288003B (zh) * 2020-10-28 2023-07-25 北京奇艺世纪科技有限公司 一种神经网络训练、及目标检测方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09163161A (ja) * 1995-12-01 1997-06-20 Brother Ind Ltd 画像処理装置
JP2005293367A (ja) * 2004-04-01 2005-10-20 Seiko Epson Corp 画像処理方法及び装置
JP2006053919A (ja) * 2004-08-06 2006-02-23 Microsoft Corp 画像データ分離システム及びその方法
JP2008015641A (ja) * 2006-07-04 2008-01-24 Fujifilm Corp 人体領域抽出方法および装置並びにプログラム
JP2008152555A (ja) * 2006-12-18 2008-07-03 Olympus Corp 画像認識方法及び画像認識装置
WO2009113265A1 (ja) * 2008-03-11 2009-09-17 パナソニック株式会社 タグセンサシステムおよびセンサ装置、ならびに、物体位置推定装置および物体位置推定方法
JP2010258914A (ja) * 2009-04-27 2010-11-11 Nippon Telegr & Teleph Corp <Ntt> 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579360A (en) * 1994-12-30 1996-11-26 Philips Electronics North America Corporation Mass detection by computer using digital mammograms of the same breast taken from different viewing directions
CN1313979C (zh) * 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
US20060083428A1 (en) * 2004-01-22 2006-04-20 Jayati Ghosh Classification of pixels in a microarray image based on pixel intensities and a preview mode facilitated by pixel-intensity-based pixel classification
KR20050085638A (ko) * 2002-12-13 2005-08-29 코닌클리케 필립스 일렉트로닉스 엔.브이. 텔레비전 이미지들의 적응형 분할
JP2004350130A (ja) * 2003-05-23 2004-12-09 Fuji Photo Film Co Ltd デジタルカメラ
KR100647322B1 (ko) * 2005-03-02 2006-11-23 삼성전자주식회사 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
US7929775B2 (en) * 2005-06-16 2011-04-19 Strider Labs, Inc. System and method for recognition in 2D images using 3D class models
JP4685711B2 (ja) * 2006-05-25 2011-05-18 日本電信電話株式会社 画像処理方法及び装置及びプログラム
US8102465B2 (en) * 2006-11-07 2012-01-24 Fujifilm Corporation Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
JP4493679B2 (ja) * 2007-03-29 2010-06-30 富士フイルム株式会社 対象領域抽出方法および装置ならびにプログラム
JP5004181B2 (ja) * 2008-01-11 2012-08-22 Kddi株式会社 領域識別装置およびコンテンツ識別装置
US20120002855A1 (en) * 2010-06-30 2012-01-05 Fujifilm Corporation Stent localization in 3d cardiac images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09163161A (ja) * 1995-12-01 1997-06-20 Brother Ind Ltd 画像処理装置
JP2005293367A (ja) * 2004-04-01 2005-10-20 Seiko Epson Corp 画像処理方法及び装置
JP2006053919A (ja) * 2004-08-06 2006-02-23 Microsoft Corp 画像データ分離システム及びその方法
JP2008015641A (ja) * 2006-07-04 2008-01-24 Fujifilm Corp 人体領域抽出方法および装置並びにプログラム
JP2008152555A (ja) * 2006-12-18 2008-07-03 Olympus Corp 画像認識方法及び画像認識装置
WO2009113265A1 (ja) * 2008-03-11 2009-09-17 パナソニック株式会社 タグセンサシステムおよびセンサ装置、ならびに、物体位置推定装置および物体位置推定方法
JP2010258914A (ja) * 2009-04-27 2010-11-11 Nippon Telegr & Teleph Corp <Ntt> 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体

Also Published As

Publication number Publication date
WO2011061905A1 (ja) 2011-05-26
US20120230583A1 (en) 2012-09-13

Similar Documents

Publication Publication Date Title
WO2011061905A1 (ja) 物体領域抽出装置、物体領域抽出方法、及びコンピュータ可読媒体
US10438059B2 (en) Image recognition method, image recognition apparatus, and recording medium
US10242249B2 (en) Method and apparatus for extracting facial feature, and method and apparatus for facial recognition
US9798956B2 (en) Method for recognizing target object in image, and apparatus
CN107346409B (zh) 行人再识别方法和装置
US9367766B2 (en) Text line detection in images
Konstantinidis et al. Building detection using enhanced HOG–LBP features and region refinement processes
US9317784B2 (en) Image processing apparatus, image processing method, and program
Cohen et al. Robust text and drawing segmentation algorithm for historical documents
JP4905931B2 (ja) 人体領域抽出方法および装置並びにプログラム
US9489566B2 (en) Image recognition apparatus and image recognition method for identifying object
US10929978B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
JP6702716B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP2500864B1 (en) Irradiation field recognition
US20130301911A1 (en) Apparatus and method for detecting body parts
JP2009069996A (ja) 画像処理装置および画像処理方法、認識装置および認識方法、並びに、プログラム
Heimowitz et al. Image segmentation via probabilistic graph matching
Michail et al. Detection of centroblasts in h&e stained images of follicular lymphoma
Kotteswari et al. Analysis of foreground detection in MRI images using region based segmentation
JP2017084006A (ja) 画像処理装置およびその方法
AU2017279658A1 (en) Pose-aligned descriptor for person re-id with geometric and orientation information
Rafiee et al. Automatic segmentation of interest regions in low depth of field images using ensemble clustering and graph cut optimization approaches
Manivannan et al. Local structure prediction for gland segmentation
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150324