JP5290915B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5290915B2
JP5290915B2 JP2009204137A JP2009204137A JP5290915B2 JP 5290915 B2 JP5290915 B2 JP 5290915B2 JP 2009204137 A JP2009204137 A JP 2009204137A JP 2009204137 A JP2009204137 A JP 2009204137A JP 5290915 B2 JP5290915 B2 JP 5290915B2
Authority
JP
Japan
Prior art keywords
area
small
region
reference area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009204137A
Other languages
English (en)
Other versions
JP2011054062A (ja
Inventor
貴之 岩本
健二 塚本
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009204137A priority Critical patent/JP5290915B2/ja
Priority to US12/857,804 priority patent/US8891879B2/en
Publication of JP2011054062A publication Critical patent/JP2011054062A/ja
Application granted granted Critical
Publication of JP5290915B2 publication Critical patent/JP5290915B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は画像の特徴抽出手法および該特徴抽出手法を用いた画像処理に関する。
画像中の物体の輪郭を、輪郭候補となる画素の近傍の画像特徴を利用して抽出する技術が知られている。特許文献1は、エッジ領域抽出時に注目画素周辺の所定のマスク領域内の画素の統計的特徴量と、注目画素のエッジ強度に基づき、エッジ領域とそれ以外とを識別する閾値を変化させる技術を開示する。これにより、一定の閾値を用いてエッジ領域を識別する方法に較べ、確実かつ効率的にエッジ領域を識別することができる。
また、特許文献2は、輪郭追跡方法を開示する。この方法では、画像中の物体の輪郭上の1画素を始点とし、当該画素から所定範囲内に含まれる画素を輪郭候補点とする。そして、各輪郭候補点とその周辺画素とにおける色を表す画像データに基づいて、輪郭候補点が輪郭上の点かどうかを判別し、輪郭を追跡する。
特開平8−16793号公報 特開平5−324830号公報
しかしながら、特許文献1や特許文献2に開示される技術では、注目画素の近傍領域を設定する際に、適切な範囲や形状の領域を自動的に定めることができない。
特許文献1に開示する技術では、画像中の指定された点に対して、マスク領域を設定していたが、マスク領域の形状や範囲をどのようにとるかという問題が残されていた。また、背景が複雑な環境下における画像を処理の対象とする場合、境界は領域を2分するものばかりでなく、Tジャンクションなどの分岐点が存在する。その場合、単純な内側と外側という領域のマスク領域を設定することはできず、輪郭の形状や周辺の輝度勾配を考慮したマスク領域を設定する必要がある。
また、特許文献2に開示される技術では、輪郭候補点それぞれと各輪郭候補点の周囲の画素とにおける色を表す画像データに基づいて、輪郭候補点が輪郭上の点かどうかを判別していたが、候補点周囲の画素をどの範囲までとるかという問題が残されていた。この問題であるが、例えば、隣接画素のみをその範囲とする場合では、画像ノイズの影響を強く受ける。そのため、適切な範囲の近傍領域を設定し、その領域における画素値の平均値やヒストグラムなどの統計量を用いることでノイズの影響の軽減を図る必要がある。この場合、特に対象の輪郭付近においては、輪郭の凹凸の細かさに対して大きい領域や、輪郭の形状に対して不適切な形状の領域を設定すると、本来対象側に属する画素群のみで構成されているべき領域内に、背景側に属する画素群も混入することが起こる。そのため、この場合も同様に、輪郭の形状や周辺の輝度勾配を考慮した部分領域を設定する必要がある。
周辺の輝度勾配に応じた部分領域を設定する方法には、Harris-Affine Region Detectorが知られている。Harris-Affine Region Detectorについては、クリスチアン・ミコラスキ、コルデリア・シュミット等の「スケール及びアフィン不変注目点検出器」コンピュータビジョン国際論文誌、61(1),63から86ヘ゜ーシ゛,2004年(Krystian Mikolajczyk and Cordelia Schmidt,"Scale & Affine Invariant Interest Point Detectors,"International Journal of Computer Vision,60(1),pp.63--86, 2004.)に記載されている。
この技術は同一のシーンや物体を異なる角度から見た2つの画像があった場合に、部分画像同士の対応をとるための技術である。しかし、輪郭追跡法などのように、物体の輪郭を順次つなぎ合わせて輪郭を抽出するような手法に適用することを考えた場合、実画像中では背景が均一ではないため、部分画像の中でも対象物体に属する部分同士に関して対応をとる必要がある。
これらの点を鑑み、本発明では、輪郭抽出の際に、小領域から構成される基準領域を、対象物体の適切な範囲における輪郭の大域的な形状に応じて設定する。これにより輪郭候補点の探索範囲、および輪郭候補点が輪郭かどうかを判別する際に用いる画像特徴を適切に設定し、輪郭周辺の画素を輪郭の形状によらずに安定的に抽出する。すなわち、輪郭が滑らかな曲線と細かな凹凸を含む曲線とから構成されているような場合でも、正確に輪郭を抽出する。
上記課題を解決するための本発明は、画像中の物体の輪郭を抽出する画像処理装置であって、
前記画像から複数の境界候補点を抽出し、各境界候補点を中心とした、複数の小領域からなる基準領域を設定する領域設定手段と、
複数の前記基準領域の中から、第1の基準領域を設定する第1の基準領域設定手段と、
前記第1の基準領域に含まれる前記複数の小領域の中から第1の小領域を設定する第1の小領域設定手段と、
前記複数の基準領域の中から、前記第1の基準領域と形状に関する特徴が類似する第2の基準領域を設定する第2の基準領域設定手段と、
前記第2の基準領域に含まれる複数の小領域のうち、前記第1の小領域が有する特徴量と類似する特徴量を有する小領域を、第2の小領域として設定する第2の小領域設定手段と、
前記第1の基準領域、前記第2の基準領域、前記第1の小領域及び前記第2の小領域を関連づけて格納する記憶手段と、
前記記憶手段に格納されている情報に基づき、前記境界候補点を追跡して前記物体の輪郭を抽出する輪郭抽出手段とを備えることを特徴とする。
本発明によれば、画像中の複雑な形状の輪郭をした物体を背景中から抽出することができる。
実施形態における処理対象画像の一例を示す図。 実施形態における輪郭抽出結果の一例を示す図。 実施形態における画像処理の過程の一例を示す図。 実施形態の画像処理装置の構成例を示す図。 実施形態の画像処理装置による画像処理の一例を示す図。 実施形態の画像処理装置による画像の統合を説明する図。 実施形態における第2の基準領域の選択を説明する図。 実施形態における第2の小領域の選択を説明する図。 実施形態の画像処理装置の処理のフローチャート。
以下、添付図面を参照して、発明の実施形態を詳細に説明する。本実施形態に係る画像処理装置は、画像中の輪郭の大域的な形状に基づいて設定された、複数の小領域から構成される基準領域内の画像特徴量を用い、輪郭近傍の画素のグループ化を行う装置である。
以下、図を用いて一例を示す。本実施形態では、複数物体と背景からなる静止画像中から、色情報を利用した画像特徴に基づき、境界の近傍画素の評価を行う場合について説明する。本実施形態に関わる画像特徴は色情報を利用しているが、これに限定するものではなく、他の画像情報、例えば、輝度値や動きベクトルなど、静止画および動画より得られる画像情報ならば、これを用いることができる。
図1(a)は本発明が対象とする画像の一例で、図形(丸)110、図形(四角)120、図形(三角)130はそれぞれ異なる色情報の物体であり、それらが重なっている画像を表している。図1(b)は、図形の境界近傍の境界候補点に対し、基準領域を設定した画像を表している。基準領域210は、丸110と四角120との境界近傍の点において設定された基準領域である。基準領域220はTジャンクション近傍に位置する点において設定された基準領域である。「Tジャンクション」とは、図形の輪郭線同士が交差する領域である。例えば、基準領域220では、丸110の輪郭線と四角120の輪郭線とが交差している。
それぞれの基準領域は、周辺の色情報に対応して、さらに小さな領域へ分割されている。基準領域210に含まれる小領域と基準領域220に含まれる小領域のうち、同側にある小領域同士を比較する。比較の結果、もし両者の画像特徴量が類似するならば、基準領域210と基準領域220とは、比較に用いた小領域の画像特徴の下で同一のグループにあると判定される。この判定処理を繰り返し、最終的に図2のように各図形が有している色情報と輪郭形状の情報とを利用して輪郭をグループ化し、画像310から330を得る。
また本実施形態では、図3のように境界の形状が複雑な場合、輪郭の大域的な形状に基づいて、注目する範囲や形状を定めることで、適切な範囲の画像情報を参照して、輪郭近傍画素のグループ化を行うことができる。図3の基準領域410乃至430は、ある境界候補点を中心とし、後述する方法により設定された基準領域を示す。基準領域410と420とを比較すると、同様の大きさと形状をしているが、輪郭に沿うようにそれぞれの方向が設定されている。また、基準領域430を基準領域410や420と比較すると、近傍の輪郭の凹凸の細かさに応じた大きさと形状と方向に設定されている。
図4は本実施形態に係る画像処理装置100の機能ブロック図である。当該画像処理装置100の各ブロックは専用ロジック回路やメモリを用いてハードウェア的に構成されてもよい。或いは、メモリに記憶されている処理プログラムをCPU等の演算装置が実行することにより、ソフトウェア的に構成されてもよい。
画像入力部501は、実時間で撮影を行い画像データを生成する撮像装置であってもよいし、画像データを格納するストレージであってもよい。画像入力部501から入力された画像は、基準領域設定部502に出力される。基準領域設定部502は、画像入力部501から取得した画像中のある1点において、その点における画像特徴量が極値をとるようなスケールを求め、さらに、そのスケールに基づいた範囲の領域を設定する。
以下に具体的に方法を説明する。まず、ある点を中心とした領域の画素を用いて算出され、スカラー量として与えられる特徴量が、ガウシアン・スケール空間(Gaussian Scale Space)において極値をとるようなスケールを求める。ここでの特徴量には、例えば、輝度勾配強度やラプラシアンや各種のウェーブレット・フィルタの出力などが含まれる。ガウシアン・スケール空間については、「トニー・リンドバーグ、“自動スケール選択を用いたエッジ検出及びリッジ検出”コンピュータ・ビジョン国際論文誌、第30巻、第2号、117〜154ページ、1998年」(Tony Lindberg,”Edge Detection and Ridge Detection with Automatic Scale Selection,International Journal of Computer Vision,vol30,number2,pp117−154,1998.)に記載されている。ここで求めた極値が、所定の閾値より大きい場合、その点を境界候補点とし、その点におけるスケールに比例した大きさの円形または矩形の領域を仮領域として定める。
極値が小さく、境界候補点と判定されなかった点は、以降の処理では扱われない。次に、仮領域内の輝度値や勾配の広がり方を示す行列の固有値および固有ベクトルを求める。ここでの行列には、例えば輝度値や輝度勾配の共分散行列や二次モーメント行列などが含まれる。そして、固有ベクトルの方向を軸方向とし、対応する固有値に比例して設定された大きさを軸の長さとする楕円形領域を基準領域に定める。なお、本実施形態では、基準領域の形状を楕円としたが、長方形や、パラメタ表現された曲線で囲まれた形状など、任意の形状を用いてもよい。
次に、基準領域分割部503は、基準領域設定部502が設定した基準領域を複数の小領域に分割する。分割の具体例を図5により説明する。まず、図5(a)に示すように基準領域600の中心601より放射状に等角度に設定した境界線によりM個の扇形領域602に分割する。次に、各扇形領域602の画像特徴量を算出する。本実施形態では、領域内の画素の色の平均値をL*a*b*表色系で表現したものを画像特徴とするが、他の画像特徴を用いてもかまわない。次に、隣接する扇形領域602の類似性を評価する。例えば、ある扇形領域602を第1の領域とし、その色度を(L1,a1,b1)とする。また、第1の領域に隣接する第2の領域の色度を(L2,a2,b2)とする。この場合、類似度は以下の式で算出され、算出値が所定の閾値よりも小さい場合、第1の領域と第2の領域は類似と判定され、1つの領域に統合される。
{(L1−L2)2+(a1−a2)2+(b1−b2)21/2
基準領域分割部503は、基準領域を分割して得られた小領域のうち、隣接する類似領域を1つの小領域として統合する処理を行い、最終的にm個(m<M、または、m=M)の複数の小領域を出力する。
次に、図5(b)に示す基準領域610は、基準領域600を構成する小領域602が統合された後の状態を示している。基準領域610は、最終的に小領域611と小領域612の2つの小領域に分割される。
小領域特徴抽出部504は、基準領域分割部503から出力された各小領域内における画像特徴量を算出する。ここでの画像特徴量は、基準領域分割部503が算出したものと同様とすることができる。但し、画像特徴量は色情報に限定されるものではなく、他の画像情報を利用して画像特徴量を算出して用いてもよい。次に、基準領域情報記憶部505は、基準領域の位置、境界、スケールの情報、および基準領域分割部503より出力されたi番目の小領域の位置および境界の情報と、小領域特徴抽出部504より出力された小領域の画像特徴とを対応づけて記憶する。なお、iは1からmまでの整数のいずれかであり、mは対象とする基準領域を構成する小領域の個数を表す。
ここで図6を参照して具体的に説明する。まず、基準領域の位置は、図6(a)における基準領域の中心701の座標(x,y)である。次に、基準領域の境界は、基準領域の境界を形成する楕円の長軸長la、短軸長lb、および長軸と画像のx軸とがなす角θ(−90°<θ<90°またはθ=90°)で表される。図6(a)において基準領域700は、その長軸とx軸のなす角が−30°である。また、スケールの情報は、基準領域設定部502によって求められた最適なスケールパラメータσである。
次に、i番目の小領域の位置、境界の情報は以下のように定める。まず小領域の境界の情報について述べる。基準領域分割部503における処理過程において生成される中心角をM個に等分割した扇形に対して、基準領域700内の楕円の長軸の正方向から反時計回りに番号を付す。図6(b)では、1から8までの番号が付されている。また、最終的に統合された小領域を構成する両端の扇形の番号c1、c2を、反時計回りに出現する順に並べたものを小領域の境界の情報とする。例えば図6(c)の基準領域700において、小領域711は扇形5番と扇形7番を両端とするため、境界の情報は(5,7)となる。小領域712は扇形8番と扇形4番を両端とするため、境界の情報は(8,4)となる。
また、図6(c)の基準領域700にあるように、小領域の中心角を2等分する方向を指す単位ベクトル(e1,e2)を小領域の位置情報と定める。i番目の小領域を構成する両端の扇形の番号c1, c2と、小領域の位置情報(e1,e2)と小領域内の色の色度の平均値(L,a,b)とをひとつのベクトルvi=(c1, c2,e1,e2,L,a,b)にまとめる。この時、基準領域情報記憶部505は、(x,y,la,lb,θ,σ,v1,v2,・・・,vm)をひとつの構造体とし、基準領域情報として格納する。
第1の基準領域設定部506は、基準領域情報記憶部505に記憶されている基準領域のうち、比較に用いる第1の基準領域を選択する。第1の小領域設定部507は、第1の基準領域設定部506より出力された基準領域に属する小領域のうち、比較に用いる第1の小領域を定める。第2の基準領域設定部508は、第1の基準領域との比較対象となる第2の基準領域を定める。第2の基準領域の選定は、第1の基準領域のスケール及び形状の情報、第1の小領域の位置及び境界の情報をもとに行う。第2の基準領域は、第1の基準領域の楕円を所定割合で縮小または拡大した領域に含まれる境界候補点のうち、最も第1の基準領域と形状に関する特徴(形状と方向)が類似し、第1の基準領域との中心点間の距離が最も近い基準領域が選択される。なお、形状は基準領域の長軸と短軸との比で表すことができ、方向は、長軸または短軸の所定方向に対する傾きとして表すことができる。
ここで、図7を参照して、第2の基準領域の選択方法を具体的に説明する。図7では、第1の基準領域801と、その周辺の基準領域802、803、804が存在する場合を示している。領域801’は、第1の基準領域801を一定の割合で拡大した領域である。基準領域804は中心点がこの領域801’に含まれていないため、第2の基準領域として選択されない。また、基準領域802と803は中心点が領域801’に含まれているが、基準領域803の方が第1の基準領域801に類似した形状と方向を有するため、基準領域830が第2の基準領域として選択される。
ここで、基準領域の形状と方向の類似性の判定は、例えば、以下のようにして行われる。ある基準領域Ri関して、基準領域情報記憶部505の基準領域情報のうち、基準領域の境界を形成する楕円の長軸長laと短軸長lbの比をSiとする。また角度をθi、スケールをσiとする。この時、第1の基準領域Rfと該基準領域Riとの類似度は、楕円の長短軸比Sf、角度θf、スケールσfについて以下の3つの評価式により評価される。
|Si−Sf|<Sth、|θi−θf|<θth、|σi−σf|<σth
ここで、Sth、θth、σthは所定の閾値である。θi、σiはそれぞれ、基準領域情報記憶部505に記憶されている、対応する基準領域Riの長軸の角度、およびスケールパラメータである。この3つの評価式全てを満たすような複数の基準領域のうち、第1の基準領域との中心点間距離が最小の基準領域を第2の基準領域として選択する。
これにより、第2の基準領域を選択する際に、大域的な輪郭形状などの周辺の画像情報を考慮した選択を行うことができる。よって、単純に隣接エッジ点を探索するような輪郭追跡方法において課題であった、エッジ点の不連続性やノイズによりグルーピングが失敗するという問題が解決される。また、隣接画素のみを参照するような既存の領域成長手法と異なり、本件では境界領域を最もよく特徴づけるスケールによって定められた範囲における画像特徴量を参照することで、局所的なノイズの影響が低減される。
次に第2の小領域設定部509は、第1の基準領域のスケールと形状の情報、及び、第1の小領域の位置と境界の情報をもとに、第1の小領域との比較対象となる第2の小領域を定める。また、判定結果記憶部511にすでに判定結果がある小領域は選択対象から除く。
図8(a)、(b)は、図1(b)の基準領域210及び220を拡大して示している。基準領域210は、小領域901および902に分割されている。基準領域220は小領域903から905に分割されている。ここで基準領域210を第1の基準領域、小領域901を第1の小領域と、基準領域220を第2の基準領域と考える。この時、第2の小領域の候補は小領域903から905となり、第2の小領域は以下の内積演算で最も値が大きくなる領域として選択することができる。
ν0・νi
ここで、ν0,は基準領域210の中心を始点とし、小領域901の重心を終点とするベクトルである。また、νiは、基準領域220の中心を始点とし、小領域903から905のいずれかの重心を終点とするベクトルである。
特徴量比較部510は、第1の小領域設定部507によって設定された小領域内の画像特徴量と、第2の小領域設定部509によって設定された小領域内の画像特徴量とから類似度を算出する。算出した類似度が所定閾値以上である場合、比較した小領域同士が同一のグループに属すると判定する。類似度の算出は、例えば、基準領域分割部503において用いた算出手段と同様のものを用いる。判定結果記憶部511は、特徴量比較部510により類似と判定された場合に、第2の基準領域の座標、第2の小領域の番号とそれらが属すると判定されたグループの番号を関連づけて記憶する。
輪郭抽出部512は、判定結果記憶部511が記憶する情報に従い、構造体としてグループ化されている基準領域の境界候補点を追跡して、画像中の物体の輪郭を抽出する。
以上が、本実施形態にかかる画像処理装置に関する構成部分である。続いて、図10のフローチャートを参照して、本実施形態の画像処理装置100が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUなどにより読み出され、実行される。これにより、パーソナルコンピュータのような情報処理装置も、本実施形態の画像処理装置100として動作可能である。まず、画像中からの特徴抽出をステップS1乃至S5で行い、次にステップS6乃至S14において特徴量の類似度を用いて境界候補点のグルーピングを行う。
まず、S1において、基準領域設定部502が画像入力部501から入力された画像のある画素Pについて、楕円形状の基準領域を設定する。続くS2において、基準領域分割部503が設定された基準領域をm個の小領域に分割する。続いてS3において、S2で分割された各小領域の特徴量を抽出する。ここでの特徴量は、領域内の画素の色の平均値をL*a*b*表色系で表現したものである。基準領域分割部503は、当該特徴量に基づき類似度の高い隣接小領域を統合する。
続いてS4において、S1で設定された基準領域について、基準領域情報を基準領域情報記憶部505に保存する。基準領域情報には、基準領域の位置、スケール、境界の形状と大きさ、及び内部の統合後の小領域の位置、境界、小領域内部の特徴量が含まれる。続くS5において、画面内に上記S1乃至S4の処理がなされていない画素があれば、その画素につき再びS1乃至S4の処理を行う。上記のS1乃至S5により、画像中からの特徴量抽出が完了する。
次にS6乃至S14では、これら特徴量の類似度による境界候補点のグループ化を行う。まず、S6において、画像中のある基準領域Aを第1の基準領域に設定する。この基準領域Aは、例えば、画像から抽出した境界候補点のうち、座標の最も小さいもの(最も画像の左上にあるもの)を選ぶことができる。第1の基準領域の選択方法はこれに限定されるものではなく、基準領域の面積が最大のものや、座標が最も大きいものなどを選択してもよい。続くS7において、第1の基準領域の内部の小領域a0を第1の小領域として設定する。この小領域a0は、例えば、S14によるチェック済み符号がついていない小領域の中で、例えば、最小番号、或いは最大番号の付された領域を含む小領域ものを選ぶことができる。
続くS8において、第1の基準領域の形状と方向の情報に基づいて、基準領域Bを、第1の基準領域との類似度を比較するための第2の基準領域に設定する。第2の基準領域の選択方法は、上述の通りである。続くS9において、基準領域B内の小領域bcを第2の小領域に設定する。第2の小領域bcは、例えば、第1の基準領域の中心から第1の小領域の中心を指すベクトルと、第2の基準領域の中心から第2の基準領域内の小領域biの中心を指すベクトルとの内積が最も近いものを選ぶ。さらに、S14によりチェック済みの符号がない小領域を小領域bcとして選択する。これによりTジャンクションなどのようにエッジが複数に分岐し、1つのエッジ点が複数の領域にまたがるような場合においても、比較すべき小領域を正しく選択することができる。
続くS10では、S9で条件に該当する小領域が選択可能だった場合はS11へ、選択不可能だった場合は、処理を終了する。続くS11において、第1の小領域と第2の小領域の特徴量を比較し、類似する場合は、S12へ、類似しない場合はS14へ進む。続くS12では第1の基準領域、第1の小領域、第2の基準領域、第2の小領域の基準領域情報を、一つの構造体として記憶媒体に保存する。即ち、第1及び第2の基準領域についてのx,y,la,lb,θ,σの情報と、第1及び第2の小領域のviの情報が一つの構造体に纏められる。なお、第1の小領域と第2の小領域とが同一のグループに属する領域であることが分かればよいので、グループの番号を付すなど、構造体としての纏め方については特に限定はない。
続くS13では、基準領域Bを新たに第1の基準領域に、小領域bcを第1の小領域に設定する。続いてS14において、基準領域Bの小領域bcにチェック済みの符号をつける。これは、基準領域情報記憶部505が基準領域情報を管理する際に、各小領域の情報viにチェック済か否かを示すフラグ領域を持たせておくことにより実現できる。その後、S13において設定された新たな第1の基準領域および基準小領域を用いて、S5からの処理を繰り返す。
以上の処理により、境界候補点を基準として小領域がグループ化され、図1の入力画像から図3の輪郭の抽出ができる。本発明は、画像中の注目物体の切り出しや物体検出用の特徴抽出手段として用いることができる。例えば、複雑背景中に存在する人物の衣服や顔の輪郭抽出および切り出しができる。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 画像中の物体の輪郭を抽出する画像処理装置であって、
    前記画像から複数の境界候補点を抽出し、各境界候補点を中心とした、複数の小領域からなる基準領域を設定する領域設定手段と、
    複数の前記基準領域の中から、第1の基準領域を設定する第1の基準領域設定手段と、
    前記第1の基準領域に含まれる前記複数の小領域の中から第1の小領域を設定する第1の小領域設定手段と、
    前記複数の基準領域の中から、前記第1の基準領域と形状に関する特徴が類似する第2の基準領域を設定する第2の基準領域設定手段と、
    前記第2の基準領域に含まれる複数の小領域のうち、前記第1の小領域が有する特徴量と類似する特徴量を有する小領域を、第2の小領域として設定する第2の小領域設定手段と、
    前記第1の基準領域、前記第2の基準領域、前記第1の小領域及び前記第2の小領域を関連づけて格納する記憶手段と、
    前記記憶手段に格納されている情報に基づき、前記境界候補点を追跡して前記物体の輪郭を抽出する輪郭抽出手段と
    を備えることを特徴とする画像処理装置。
  2. 第2の基準領域設定手段は、前記第1の基準領域を拡大又は縮小した場合に含まれる前記境界候補点について設定された基準領域の中から、前記第2の基準領域を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記基準領域は、前記境界候補点を中心とした楕円形を有し、
    前記形状に関する特徴には、前記楕円形を有する基準領域の長軸と短軸との比、所定方向に対する前記長軸または前記短軸の傾きが含まれる
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記領域設定手段は、前記基準領域を分割し、分割された領域のうち類似する前記特徴量を有する隣接する領域を統合して前記小領域を設定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第2の小領域設定手段は、前記第1の小領域の重心と前記第1の基準領域の境界候補点とを結ぶベクトルと、前記第2の基準領域に含まれる各小領域の重心と該第2の基準領域の前記境界候補点とを結ぶ各ベクトルとの内積を算出し、該内積が最大となるベクトルを有する前記第2の基準領域の小領域を前記第2の小領域に設定することを特徴とする請求項1乃至4のいずれか1項の画像処理装置。
  6. 前記特徴量は、該当する領域における画素の色情報を含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 画像中の物体の輪郭を抽出する画像処理方法であって、
    領域設定手段が、前記画像から複数の境界候補点を抽出し、各境界候補点を中心とした、複数の小領域からなる基準領域を設定する領域設定工程と、
    第1の基準領域設定手段が、複数の前記基準領域の中から、第1の基準領域を設定する第1の基準領域設定工程と、
    第1の小領域設定手段が、前記第1の基準領域に含まれる前記複数の小領域の中から第1の小領域を設定する第1の小領域設定工程と、
    第2の基準領域設定手段が、前記複数の基準領域の中から、前記第1の基準領域と形状に関する特徴が類似する第2の基準領域を設定する第2の基準領域設定工程と、
    第2の小領域設定手段が、前記第2の基準領域に含まれる複数の小領域のうち、前記第1の小領域が有する特徴量と類似する特徴量を有する小領域を、第2の小領域として設定する第2の小領域設定工程と、
    記憶手段が、前記第1の基準領域、前記第2の基準領域、前記第1の小領域及び前記第2の小領域を関連づけて格納する記憶工程と、
    輪郭抽出手段が、前記記憶手段に格納されている情報に基づき、前記境界候補点を追跡して前記物体の輪郭を抽出する輪郭抽出工程と
    を備えることを特徴とする画像処理方法。
  8. コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置の各手段として動作させるためのプログラム。
JP2009204137A 2009-09-03 2009-09-03 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5290915B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009204137A JP5290915B2 (ja) 2009-09-03 2009-09-03 画像処理装置、画像処理方法及びプログラム
US12/857,804 US8891879B2 (en) 2009-09-03 2010-08-17 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009204137A JP5290915B2 (ja) 2009-09-03 2009-09-03 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011054062A JP2011054062A (ja) 2011-03-17
JP5290915B2 true JP5290915B2 (ja) 2013-09-18

Family

ID=43625018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009204137A Expired - Fee Related JP5290915B2 (ja) 2009-09-03 2009-09-03 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US8891879B2 (ja)
JP (1) JP5290915B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5756812B2 (ja) * 2010-11-25 2015-07-29 株式会社日立メディコ 超音波動画像処理方法、装置、およびプログラム
KR101694309B1 (ko) * 2013-10-02 2017-01-09 한국전자통신연구원 서브영역 기반의 객체 인식 방법 및 그 장치
CN103903280B (zh) * 2014-03-28 2017-01-11 哈尔滨工程大学 一种改进水平集目标提取的子块权重Mean-Shift跟踪方法
JP7105370B2 (ja) * 2019-03-28 2022-07-22 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
WO2020194663A1 (ja) * 2019-03-28 2020-10-01 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
WO2020241855A1 (ja) * 2019-05-31 2020-12-03 富士フイルム株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0820725B2 (ja) * 1990-02-06 1996-03-04 大日本スクリーン製造株式会社 画像輪郭データの作成方法
US5619593A (en) * 1991-09-12 1997-04-08 Fuji Photo Film Co., Ltd. Method for extracting object images and method for detecting movements thereof
US6728404B1 (en) * 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
CA2097492C (en) * 1991-10-02 1999-05-18 Shinji Kanda Method for determining orientation of contour line segment in local area and for determining straight line and corner
JPH05324830A (ja) 1992-05-15 1993-12-10 Fujitsu Ltd 画像中の物体輪郭追跡方法および輪郭抽出装置
US5396584A (en) * 1992-05-29 1995-03-07 Destiny Technology Corporation Multi-bit image edge enhancement method and apparatus
US5680471A (en) * 1993-07-27 1997-10-21 Kabushiki Kaisha Toshiba Image processing apparatus and method
JP3380609B2 (ja) * 1993-12-24 2003-02-24 コニカ株式会社 放射線画像の照射野領域抽出装置
JP3496734B2 (ja) 1994-04-30 2004-02-16 ソニー株式会社 エッジ領域検出装置及び方法
JP3794502B2 (ja) * 1994-11-29 2006-07-05 ソニー株式会社 画像領域抽出方法及び画像領域抽出装置
KR100414432B1 (ko) * 1995-03-24 2004-03-18 마츠시타 덴끼 산교 가부시키가이샤 윤곽추출장치
US5852475A (en) * 1995-06-06 1998-12-22 Compression Labs, Inc. Transform artifact reduction process
US6493465B2 (en) * 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US5754180A (en) * 1996-03-11 1998-05-19 Avid Technology, Inc. Computer system and process for defining and manipulating images using structured objects with variable edge characteristics
US5982386A (en) * 1996-04-02 1999-11-09 Dainippon Screen Mfg. Co., Ltd. Image boundary correction by fractal processing
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
KR100239302B1 (ko) * 1997-01-20 2000-01-15 전주범 변형된 정점 부호화를 이용한 윤곽선 부호화 방법 및 그 장치
JP3511454B2 (ja) * 1997-10-31 2004-03-29 大日本スクリーン製造株式会社 画像切り抜き方法および装置
US6031935A (en) * 1998-02-12 2000-02-29 Kimmel; Zebadiah M. Method and apparatus for segmenting images using constant-time deformable contours
DE69937476T2 (de) * 1998-07-31 2008-08-28 Canon K.K. Bildverarbeitungsvorrichtung und -Verfahren und Speichermedium
JP3330090B2 (ja) * 1998-09-30 2002-09-30 松下電器産業株式会社 臓器境界抽出方法および装置
JP2001078184A (ja) * 1999-09-08 2001-03-23 Nippon Telegr & Teleph Corp <Ntt> 抽出領域符号化方法、復号方法、符号化器、復号器および抽出領域符号化プログラム、復号プログラムを記録した記録媒体
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7636455B2 (en) * 2002-06-04 2009-12-22 Raytheon Company Digital image edge detection and road network tracking method and system
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
KR100513784B1 (ko) * 2004-01-15 2005-09-09 삼성전자주식회사 영상 개선 방법 및 장치
JP4598426B2 (ja) * 2004-03-30 2010-12-15 富士通株式会社 境界抽出方法、プログラムおよびこれを用いた装置
KR100542365B1 (ko) * 2004-05-07 2006-01-10 삼성전자주식회사 영상 화질 개선 장치 및 그 방법
WO2006062163A1 (ja) * 2004-12-10 2006-06-15 Olympus Corporation 医用画像処理方法
FR2880455A1 (fr) * 2005-01-06 2006-07-07 Thomson Licensing Sa Methode et dispositif de segmentation d'une image
EP1875855B1 (en) * 2005-04-27 2012-05-02 Olympus Medical Systems Corp. Image processing apparatus, image processing method, and image processing program
JP4185083B2 (ja) * 2005-09-20 2008-11-19 株式会社東芝 形状認識装置及びその方法
JP4774265B2 (ja) * 2005-09-30 2011-09-14 富士通株式会社 画像符号化装置
JP4518092B2 (ja) * 2006-03-31 2010-08-04 ソニー株式会社 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
ES2425241T3 (es) * 2006-05-18 2013-10-14 Elekta Ltd. Métodos y sistemas de segmentación usando reparametrización de límites
KR100954989B1 (ko) * 2006-10-18 2010-04-30 주식회사 메디슨 대상체의 크기를 측정하기 위한 초음파 진단 장치 및 방법
WO2008050320A2 (en) * 2006-10-23 2008-05-02 Ben Gurion University Of The Negev, Research And Development Authority Blind restoration of images degraded by isotropic blur
US7903861B2 (en) * 2006-12-28 2011-03-08 Carestream Health, Inc. Method for classifying breast tissue density using computed image features
EP2143041A4 (en) * 2007-05-01 2011-05-25 Compulink Man Ct Inc PHOTODOCUMENTEGMENTATION METHOD AND METHOD
US8200011B2 (en) * 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
JP4518139B2 (ja) * 2007-11-30 2010-08-04 トヨタ自動車株式会社 画像処理装置
JP2009199232A (ja) * 2008-02-20 2009-09-03 Seiko Epson Corp 画像処理装置
US20090237406A1 (en) * 2008-03-21 2009-09-24 Chun-Chia Chen Character rendering system
CN101609506B (zh) * 2008-06-20 2012-05-23 索尼株式会社 用于识别图像中的模型对象的装置及方法
US8249345B2 (en) * 2008-06-27 2012-08-21 Mako Surgical Corp. Automatic image segmentation using contour propagation
US8175379B2 (en) * 2008-08-22 2012-05-08 Adobe Systems Incorporated Automatic video image segmentation
US8655097B2 (en) * 2008-08-22 2014-02-18 Adobe Systems Incorporated Adaptive bilateral blur brush tool
US8422788B2 (en) * 2008-08-26 2013-04-16 Microsoft Corporation Automatic image straightening
US8559746B2 (en) * 2008-09-04 2013-10-15 Silicon Image, Inc. System, method, and apparatus for smoothing of edges in images to remove irregularities
US8330997B2 (en) * 2008-10-02 2012-12-11 Samsung Electronics Co., Ltd. Image processing apparatus, image forming apparatus and image processing method
JP5267110B2 (ja) * 2008-12-24 2013-08-21 富士通株式会社 検出装置、検出方法および検出プログラム
WO2010099034A1 (en) * 2009-02-25 2010-09-02 Honda Motor Co., Ltd. Capturing and recognizing hand postures using inner distance shape contexts
US8223402B2 (en) * 2009-05-04 2012-07-17 Xerox Corporation Color trapping on a halftoned bi-level bitmap

Also Published As

Publication number Publication date
US8891879B2 (en) 2014-11-18
JP2011054062A (ja) 2011-03-17
US20110052071A1 (en) 2011-03-03

Similar Documents

Publication Publication Date Title
Boyer et al. SHREC 2011: robust feature detection and description benchmark
JP4879028B2 (ja) 画像処理方法および画像解析方法ならびにプログラム記憶媒体
US20160180196A1 (en) Object re-identification using self-dissimilarity
JP5290915B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN110717489A (zh) Osd的文字区域的识别方法、装置及存储介质
CN110807473A (zh) 目标检测方法、装置及计算机存储介质
JP4964171B2 (ja) 対象領域抽出方法および装置ならびにプログラム
CN104574401A (zh) 一种基于平行线匹配的图像配准方法
KR101753360B1 (ko) 시점 변화에 강인한 특징점 정합 방법
JP4629053B2 (ja) トボガンに基づく形状の特徴描写方法
US11087159B2 (en) Object detection device, object detection method and non-transitory computer readable medium
US20170309024A1 (en) Image processing device, image processing method, and computer-readable recording medium
JP5747733B2 (ja) 対象検出装置、対象検出方法、分類器作成装置及び分類器作成方法
Wang et al. Superpixel-level target discrimination for high-resolution SAR images in complex scenes
JP2014010633A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
Afzali et al. Foreground and background feature fusion using a convex hull based center prior for salient object detection
Ito et al. Point proposal based instance segmentation with rectangular masks for robot picking task
KR101749029B1 (ko) 영상에서의 신체 부위 검출 방법 및 그 장치
Liang et al. Sketch-based retrieval using content-aware hashing
JP2016081472A (ja) 画像処理装置、画像処理方法及びプログラム
JP6389452B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
Csillik Superpixels: The end of pixels in obia. A comparison of stat-of-the-art superpixel methods for remote sensing data
JP6278757B2 (ja) 特徴量生成装置、特徴量生成方法、およびプログラム
Tian et al. Point-cut: Fixation point-based image segmentation using random walk model
JP2011170554A (ja) 物体認識装置、物体認識方法及び物体認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130606

R151 Written notification of patent or utility model registration

Ref document number: 5290915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees