JP3814353B2 - 画像分割方法および画像分割装置 - Google Patents

画像分割方法および画像分割装置 Download PDF

Info

Publication number
JP3814353B2
JP3814353B2 JP32329996A JP32329996A JP3814353B2 JP 3814353 B2 JP3814353 B2 JP 3814353B2 JP 32329996 A JP32329996 A JP 32329996A JP 32329996 A JP32329996 A JP 32329996A JP 3814353 B2 JP3814353 B2 JP 3814353B2
Authority
JP
Japan
Prior art keywords
image
extracted
region
line
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32329996A
Other languages
English (en)
Other versions
JPH10149449A (ja
Inventor
優和 真継
達嗣 片山
耕治 畑中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP32329996A priority Critical patent/JP3814353B2/ja
Priority to US08/972,166 priority patent/US6453069B1/en
Publication of JPH10149449A publication Critical patent/JPH10149449A/ja
Priority to US10/150,062 priority patent/US6766055B2/en
Application granted granted Critical
Publication of JP3814353B2 publication Critical patent/JP3814353B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、基準画像を用いて入力画像から抽出対象となる画像領域を分割するための画像分割方法および画像分割装置に関する。
【0002】
【従来の技術】
一般に、画像切出し(抽出)を行う手法として、特定の色背景を用いるクロマキーや、所定の画像処理(ヒストグラム処理、差分、微分処理、輪郭強調、輪郭追跡など)によりキー信号を生成するビデオマット(テレビビジョン学会報告、VOL.12,pp.29-34,1988)などの手法が知られている。
【0003】
上述の手法において、背景画像との差分に基づいて画像抽出を行う手法は古典的なものであり、例えば、特開平4−216181号公報には、背景画像と処理対象画像との差分データにマスク画像(特定処理領域)を設定して画像中の複数の特定領域における対象物体を抽出また検出する方法が記載されている。また、特公平7−16250号公報に記載の方式では、抽出対象の色彩モデルを用いて背景を含む原画像の色彩変換データ、背景画像と原画像との明度の差データから抽出対象の存在確立分布を求めて画像抽出を行う。
【0004】
背景画像との差分方式は、一般的には背景画像と被写体像の各画素間で輝度レベルまたは色成分などの差異を所定の評価関数で表し、閾値処理して差異レベルが所定値以上の領域を抽出するものである。例えば評価関数としては、各点を中心とする所定サイズのブロック間の相互間数(Digital Picture Processing(2nd ed),by Rosendfeld,A. and Kak,A.C.,Academic Press,1982) 、正規化主成分特徴量(電子情報通信学会論文誌 Vol.J74-D-II,pp. 1731-740)、標準偏差値と差分値との重み付き加算値(テレビジョン学会誌、VOL.45,pp.1270-1276,1991)、色相と輝度レベルに関する局所ヒストグラム間距離(テレビジョン学会誌、VOL.45,pp.1270-1276,1991)などがある。
【0005】
また、特定対象の識別、認識を行う手法としては、その対象に関するモデル画像またはテンプレートを予め準備し、また識別対象の物体の画像領域を予め他の領域と分離するかまたは識別対象画像領域の大きさの正規化、位置の固定などを行うかまたは大きさが異なる複数のモデル画像を用意し、対象画像上を走査しながらモデル画像またはテンプレートと識別対象との類似度を相関関係などの尺度を用いて判定する方法が多く用いられている。
【0006】
【発明が解決しようとする課題】
しかし、画像切出しにおいて、クロマキー方式では、特別な色背景を要するなど背景に対する制約が大きく屋外での使用が難しい、また背景と同色の被写体領域では色抜けが生じるなどの問題がある。また、ビデオマット方式では、輪郭の指定作業において作業者が画素単位で正確に行う必要があるから、輪郭の指定作業には労力と熟練とを要するという問題がある。
【0007】
また、上述した背景画像との差分方式では、被写体上の背景と類似した部分領域において背景か被写体かを判別することが難しいこと、背景画像と入力画像間での撮影条件(例えば露光条件、倍率、照明条件、ピント条件、視点位置など)の差異を一般的に許容しないことなどの問題がある。特に、入力画像の被写体を除いた背景と背景画像とが異なる場合には、仮にそれらが類似していてもそれらの差異に関する許容度は著しく低い。また、ノイズの影響を排除しながら被写体の細かい輪郭形状、細かな凹凸形状を残すことは非常に難しい。
【0008】
特定対象画像の識別、認識方式においては、上述したような前処理のうち他の領域との分離処理が一般的に認識技術の表裏一体をなし複雑かつ困難なものになる。また、予め認識対象の大きさ、位置が分からないために行う上述のサイズ位置などの正規化を自動化することは難しい。さらに、サイズが異なる複数のモデル画像を用意することはデータベースの記憶容量の制約により制限され、汎用化は非常に難しい。
【0013】
本発明の目的は、基準画像と入力画像の背景部分との間にある違いに対する許容度が高い画像切出しを行うことができる画像分割方法および画像分割装置を提供することにある。
【0014】
【課題を解決するための手段】
上記目的を達成するために本願の請求項1記載の発明は、入力画像から抽出対象となる画像領域を、該画像領域を除いた他の領域に略等しい領域を表す基準画像を用いて分割するための画像分割方法であって、前記入力画像および前記基準画像の各画像中におけるエッジ強度分布を抽出するエッジ強度分布抽出ステップと、前記抽出された各画像中におけるエッジ強度分布に基づき該各画像中における各エッジについて所定の方向別ラインを検出し、方向別ラインラベル付けを行う方向別ライン検出ステップと、前記各画像における前記検出された方向別ラインの分布に基づき前記抽出対象となる画像領域に特異な輪郭部分を抽出する特異輪郭抽出ステップと、前記抽出された特異輪郭部分を表す分布データに基づき前記抽出対象となる画像領域を切り出す画像切出しステップとを有し、前記特異輪郭抽出ステップは、前記入力画像と前記基準画像とをそれぞれ複数のブロックに分割し、各ブロック内の支配的ライン方向成分を検出する支配的ラインマップ抽出ステップを有し、前記入力画像の各ブロックの内の前記支配的方向ライン成分が存在しないブロックと前記支配的方向ライン成分が存在するブロックとの境界近傍にある境界点を抽出し、該境界点を含む所定の局所領域について該境界点と最短距離に位置する前記入力画像のエッジを前記抽出対象となる画像領域と前記他の領域との境界となる遮蔽境界線の一部として検出することを特徴とする。
【0015】
また本願の請求項5に記載の発明は、入力画像から抽出対象となる画像領域を、該画像領域を除いた他の領域に略等しい領域を表す基準画像を用いて分割するための画像分割装置であって、前記入力画像および前記基準画像の各画像中におけるエッジ強度分布を抽出するエッジ強度分布抽出手段と、前記抽出された各画像中におけるエッジ強度分布に基づき該各画像中における各エッジについて所定の方向別ラインを検出し、方向別ラインラベル付けを行う方向別ライン検出手段と、前記各画像における前記検出された方向別ラインの分布に基づき前記抽出対象となる画像領域に特異な輪郭部分を抽出する特異輪郭抽出手段と、前記抽出された特異輪郭部分を表す分布データに基づき前記抽出対象となる画像領域を切り出す画像切出し手段とを有し、前記特異輪郭抽出手段は、前記入力画像と前記基準画像とをそれぞれ複数のブロックに分割し、各ブロック内の支配的ライン方向成分を検出する支配的ラインマップ抽出手段を有し、前記入力画像の各ブロックの内の前記支配的方向ライン成分が存在しないブロックと前記支配的方向ライン成分が存在するブロックとの境界近傍にある境界点を抽出し、該境界点を含む所定の局所領域について該境界点と最短距離に位置する前記入力画像のエッジを前記抽出対象となる画像領域と前記他の領域との境界となる遮蔽境界線の一部として検出することを特徴とする。
【0016】
また本願の請求項9に記載の発明は、入力画像から抽出対象となる画像領域を、該画像領域を除いた他の領域に略等しい領域を表す基準画像を用いて分割するための画像分割装置であって、前記基準画像を記憶する記憶手段と、前記入力画像および前記基準画像の各画像におけるエッジ分布を抽出するエッジ抽出手段と、前記抽出された各画像中におけるエッジ分布に基づき該各画像における方向別ライン分布を検出する方向別ライン検出手段と、前記基準画像と前記入力画像との間の対応点情報を抽出する対応点抽出手段と、前記抽出された対応点情報に基づき前記各画像のいずれか一方に対し幾何学的変換を施す変換手段と、前記幾何学的変換が施された画像と他方の画像間の前記方向別ライン分布の差異に基づき特異エッジを抽出する特異エッジ抽出手段と、前記抽出された特異エッジに基づき前記入力画像から前記抽出対象となる画像領域を分割する分割手段とを有し、前記特異エッジ抽出手段は、前記入力画像と前記基準画像とをそれぞれ複数のブロックに分割し、各ブロック内の支配的ライン方向成分を検出する支配的ラインマップ抽出手段を有し、前記入力画像の各ブロックの内の前記支配的方向ライン成分が存在しないブロックと前記支配的方向ライン成分が存在するブロックとの境界近傍にある境界点を抽出し、該境界点を含む所定の局所領域について該境界点と最短距離に位置する前記入力画像のエッジを前記抽出対象となる画像領域と前記他の領域との境界となる遮蔽境界線の一部として検出することを特徴とする。
【0032】
【発明の実施の形態】
以下に、本発明の実施の形態について図を参照しながら説明する。
【0033】
(実施の第1形態)
図1は本発明の画像分割装置の実施の一形態を構成する画像切出し手段の構成を示すブロック図である。
【0034】
本実施の形態では、切出し対象となる被写体を含む入力画像と該被写体を除いた背景画像とを用いて、入力画像から被写体を切り出す処理を行う。入力画像および背景画像は、図1に示すように、画像入力手段1から画像切出し手段2に入力される。画像入力手段1は、例えば、レンズ、絞りおよびそれらの駆動制御手段を含む結像工学系、イメージセンサ、映像信号処理回路部、画像記録部などを主な構成要素とする撮像装置からなる。
【0035】
画像切出し手段2は、図1に示すように、画像入力手段1から入力される入力画像および背景画像と、マウス、キーボートなどのデータ入力手段15から入力されるデータとを記憶する記憶手段3と、入力画像と背景画像との間の対応点を探索し、対応点位置データを生成する対応点抽出手段7とを有する。
【0036】
生成された対応点位置データは幾何学的変換手段8に与えられ、幾何学的変換手段8は対応点位置データに基づき背景画像または入力画像の一方に対し幾何学的変換を施す。一方に幾何学的変換が施された各画像は階調変換推定および変換手段(以下、階調変換手段)9に与えられ、階調変換手段9は、対応点間の画像値(例えばR,G,B値など)データに基づき対応点を含む領域の画素間の階調が略等しくするための階調変換関数を推定し、この階調変換関数を用いて一方の画像に階調補正を施す。
【0037】
幾何学的変換、階調変換後の各画像はエッジ強度抽出手段4に与えられ、エッジ強度抽出手段4は各画像におけるエッジ分布を抽出する。抽出された各画像のエッジ分布は方向別ラインラベリング手段5および局所支配的ライン方向抽出手段6に与えられる。方向別ラインラベリング手段5は、抽出された各画像のエッジ分布に基づき各エッジについて方向別ライン検出とラベリングとを行う。局所支配的ライン方向抽出手段6は、各画像を適当なサイズの複数のブロックに分割し、エッジ分布に基づき局所的支配的ライン方向検出とラベルリングとを行う。
【0038】
ラベリング処理によって得られた各データは特異輪郭抽出復元手段10に与えられ、特異輪郭抽出復元手段10は、入力画像と背景画像との同一近傍領域において対応する方向別ラインラベルが異なる入力画像中のエッジを被写体の輪郭線、すなわち特異輪郭として抽出するとともに、該特異輪郭を平滑化した後に初期核の一部として復元する処理を行う。
【0039】
抽出された特異輪郭は初期マスク領域抽出手段11に与えられ、初期マスク領域抽出手段11は閾値処理により特異輪郭の一部を初期核として抽出する。抽出された初期核は領域成長手段12に与えられ、領域成長手段12は初期核の近傍領域との類似度の閾値処理により領域成長を行う。
【0040】
領域成長によって得られた成長領域データは切出し画像出力手段13に与えられ、切出し画像出力手段13は、成長領域データが示す領域を被写体切出しマスク領域とし、この被写体切出しマスク領域に該当する領域を入力画像から抽出する。抽出された領域の画像データは画像表示手段14に与えられ、画像表示手段14は抽出された領域の画像データが示す画像(被写体)を表示する。
【0041】
次に、本実施の形態における画像切出し処理について図2ないし図5を参照しながら説明する。図2は図1の画像切出し手段による画像切出し処理を示すフローチャート、図3は図2の画像切出し処理における画像入力処理を示すフローチャート、図4は図2の画像切出し処理における初期核データ処理を示すフローチャート、図5は図2の画像切出し処理における初期の領域成長処理を示すフローチャートである。
【0042】
図2を参照するに、まずステップS1で画像入力処理を行う。この画像入力処理では、図3に示すように、ステップS101で画像入力手段1から切出すべき対象(被写体)が存在する入力画像とその対象が存在しない背景画像とを画像入力手段1から入力し、記憶手段3に記憶する。次いで、後続の処理の効率を上げるために、ステップS102で、適当な縮尺率で入力された画像データの間引き処理を行い、続くステップS103で、入力画像に対し被写体を含む領域を処理領域として設定する領域設定をデータ入力手段15のマウスなどを用いて行う。この間引き、領域設定後の各画像は再度記憶手段3に記憶され、この記憶された画像が後続の処理に用いられる。
【0043】
次いで、ステップS2に進み、各画像の左右端から画像フレーム幅の25%から35%の領域範囲で、または前記ステップS103で処理領域が設定されている場合にはその領域の外側領域で、各画像間の対応点の探索と抽出とを対応点抽出手段7で行う。この対応点の探索範囲の設定例を図9(a),(b)に示す。入力画像(対象画像)を図9(a)に示す画像とし、背景画像(基準画像)を図9(b)に示す画像とすると、各画像の左右端からの所定領域範囲(左右端から2点鎖線で示す位置までの範囲)が対応点探索範囲として設定され、丹生りょk画像において対応点探索範囲に被写体の一部分が含まれるときでも、この対応点探索範囲は標準的に固定される。対応点探索範囲に被写体の一部分が含まれることにより対応点の抽出誤差が発生することがあるが、後述する対応点の絞り込みにより誤って抽出された対応点は排除され、対応点の抽出誤差に起因する問題(幾何学的変換誤差)の発生は未然に防止される。
【0044】
対応点の抽出は、後述する背景画像または入力画像のいずれか一方に対する幾何学的変換に対する、視点位置の変動、手振れなどによる画像の位置ずれ、回転などの変動、倍率変動などの条件の違いを吸収する目的で行われる。この対応点の抽出方法としては、一方の画像の各点を中心とした所定サイズのブロックと他方の画像の所定サイズのブロック間において、相関係数が最大となる互いの点どうしを求めるブロックマッチング方法が用いられるが、これに代えて他の方法を用いることも可能である。対応点が抽出されると、抽出された各対応点の位置を示す対応点位置データが生成される。
【0045】
次いで、ステップS3に進み、幾何学的変換手段8により、対応点位置データを用いて各画像間の互いに対応する画素の位置が一致するようにすなわち画像フレーム内の同一位置となるように、一方の画像に幾何学的変換を施すための変換行列の推定と変換を行う。本実施の形態では、背景画像に幾何学的変換を施すものとする。この幾何学的変換には、平行移動、回転、ある点を中心とした拡大縮小、またはこれらの組合せによる変換が含まれている。この処理においては、対応点間で推定された変換行列を用いて一方の点から他方の対応する点への変換を行い、変換された点と対応すべき点との位置の誤差が予め定められている閾値より大きくなるような対応点の組を除外し、残りの対応点の組を用いて変換行列の推定を再度行うようにしてもよい。また、上述した誤差の平均値が所定の閾値以下となるまで対応の絞り込みを繰り返し行うようにしてもよい。
【0046】
続くステップS4では、階調変換手段9により、対応点どうしの画素レベルが一致するような階調変換の変換関数または変換表を作成し、変換関数または変換表に従い一方の画像の階調を変換(補正)する。本実施の形態では、背景画像に対し階調変換を行うものとする。具体的には、RGBの各画素値について背景画像と入力画像間の対応点の変換関数または変換表(RGBの各レベル、すなわち0から255レベルまでの各レベルに対する変換値を表す関数または表)を最小二乗法などにより回帰分析により推定する。変換関数または変換表に従う階調変換を行うことにより、露光条件やホワイトバランス特性などの変動を入力画像と背景画像間で吸収して後述する画像切出しの精度を安定的に向上させることができる。
【0047】
一方の画像の階調の変換後、ステップS5に進み、エッジ強度抽出手段4により、エッジ抽出処理を行い、続くステップS6で、方向別ラインラベリング手段5により方向別ライン検出とラベリングとを行う。エッジ抽出処理では、SOBEL演算子などの微分処理演算子などを用いる。また、方向別ライン検出とラベリングとしては、例えば、水平方向、垂直方向、45度斜め方向、−45度斜め方向の順に、
【0048】
【数1】
Figure 0003814353
の各行列と画像とのコンボリューション演算を行い、その値の高低に基づきラベル付けを各画素毎に行う方法が用いられる。具体的には、各方向検出演算子(行列)とエッジデータとのコンボリューション値が所定の閾値より大でかつ最大となる方向に対しラベル付けが行われる。いずれの方向も閾値以下の場合は、ラベルなしとなる。または適正な閾値を用いてコンボリューション値が閾値以上の値を有する画素に、各ラインのラベル付けを重複を許して与えてもよい。方向別ライン検出は上述の方法によるものに限定されることはなく、例えばより精密な方向検出のためには、検出行列のサイズを5×5以上にして与えることにより、上記4方向に加えて+/−30度方向、+/−60度方向などを検出することができる。
【0049】
次いで、ステップS7に進み、局所支配的ライン方向抽出手段6により、局所的ライン方向抽出手段6で画像を適当なサイズ例えば5×5画像サイズの複数のブロックに分割し、各ブロック内で各方向別ラベル付きエッジの総数を求め、その総数の最も多くラベルが付された方向を局所支配的ライン方向として、ブロックのライン方向ラベル代表値を抽出し、そのブロック内の各画素位置に同一ラベルを付与する。
【0050】
この局所支配的ライン方向の抽出過程の一例を図11に示す。例えば、図11(a)に示す画像を入力画像(対象画像)とし、図11(b)に示す画像を背景画像(基準画像)とすると、ステップS7には前記ステップS3で幾何学的変換が施された背景画像が与えられ、この背景画像と入力画像とは、図11(c),(d)に示すように、所定サイズの複数のブロックに分割される。各画像の各ブロックのライン方向が検出され、対応するブロックには方向別ラベルが付与される。そのラベル付与の結果、入力画像、背景画像の各画像の対応するブロックのそれぞれには、図11(e),(f)に示すように、水平方向ラベル、垂直方向、45度方向ラベルまたは−45度方向ラベルが付与されることになる。
【0051】
このラベリング処理後、ステップS8に進み、特異輪郭抽出復元手段10により、特異輪郭抽出処理を行う。基本的には、背景画像上のエッジと異なる方向ラベルを有するラインを被写体固有の輪郭線すなわち特異輪郭として抽出するが、背景画像と入力画像間の位置合せすなわち幾何学的変換に伴う誤差、または幾何学的変換誤差がなくてもフォーカシング変動、露光(照明)条件変動により、同じ背景部分であっても同一ラインが同一場所に存在するとは限らない。
【0052】
このような問題に対応するために、背景画像の局所支配的ラインラベルを用いて各画素位置においてそのラベルと入力画像におけるライン方向ラベルとを比較し、そのラベルと入力画像におけるライン方向ラベルとが一致すれば、そのラインを背景画像の領域部分のエッジの一部であると推定し、異なれば、そのラインを被写体固有の輪郭(特異輪郭)の一部として抽出する方法が用いられている。本例では、入力画像の方向別ラインラベルと背景画像の局所支配的方向別ラインラベルとを用いているが、この逆の組合せ、または全てのラベルを用いて特異輪郭の抽出を行うことも可能である。
【0053】
また、他の方法としては、入力画像の各エッジ上の点と同一位置を中心として背景画像上に局所的に近傍領域(例えば5×5画像サイズ)を設け、その領域内でエッジを探索し、同一ラベルのエッジが存在すればそのエッジを背景領域のエッジであると判定し、ラベルが異なれば特異輪郭として抽出するものを用いることができる。
【0054】
さらに、特異輪郭抽出のさらに他の例を図12に示す。背景のパターンが無地の被写体(切出し対象)によって遮られ、かつ被写体の色または画素値と背景部分の画素値の間に大きな差がない場合、すなわち低コントラストな部分が存在する場合には、上述した方法によりラベル付けを行っても、所望の被写体固有の輪郭線を容易に抽出することができないことが多い。具体的には、図12(a)に示す画像を入力画像(対象画像)とし、図12(b)に示す画像を背景画像(基準画像)とし、入力画像における被写体の鉢の輪郭線の一部(点線で示す部分)が低コントラストであるときには、この輪郭線の一部を抽出することができないことがある。そこで、図12(c),(d)に示すように、各画像を所定サイズの複数のブロックに分割して各ブロックに局所支配的ライン方向ラベルを付与する。次いで、図12(e)に拡大図示したラベルなしのブロックとラベル付きブロックとの境界上(またはその最近傍)の点から局所的に背景または被写体の輪郭線の端点位置を探索、抽出する。この場合、背景の輪郭線部分は高コントラストかつ明瞭に現れているから、検出を容易に行うことができる。この端点位置どうしを結ぶことにより被写体と背景との境界線、すなわち遮蔽輪郭線を被写体の輪郭線(特異輪郭)として抽出することができる。
【0055】
このように、ステップS2からステップS8までの処理により、撮影条件の変動、特に視点位置、フォーカシング、倍率などが変動しても高い許容度をもって被写体固有の輪郭を高精度に抽出することができる(但し、被写体の輪郭が背景の輪郭と場所、方向ともに一致するよう場合を除く)。
【0056】
次いで、ステップS9に進み、初期マスク領域抽出手段11により初期核データ抽出処理を行う。この処理では、図4に示すように、まずステップS901で背景画像と入力画像の各画像間において各画像の画素の色成分(RGB値、色相、または彩度)の差異を求め、例えばその差異から各成分の差分絶対値を算出して各成分の差分絶対値を閾値処理するなどして初期核抽出を行う。ここで閾値を比較的高く設定することにより、ノイズや撮影条件の差異に起因する画素値の変動の影響を排除し、かつ淡い陰影などを除去することができる。初期核を表すデータ(初期核データ)としては、被写体領域を「0」と背景領域を「1」とする二値化データが用いられる。
【0057】
このように単に差分データを閾値処理するだけでは、細かなノイズが残ることが多いから、このノイズを除去する目的で、ステップS902で、孤立領域(点)の除去を行う。具体的には、背景部分の孤立点または面積が小さい孤立領域が除去される。また、孤立領域(点)の除去に代えて、適当なサイズのメディアンフィルタなどの平滑化フィルタで初期核データからノイズ成分を除去する平滑化処理を用いることもできる。
【0058】
なお、背景部分のみを選択して自動的に除去することは通常困難であり、結果として被写体の部分領域、特に被写体の細かい部分形状が除去されることがある。そのために、ステップS10に進み、特異輪郭抽出復元手段10により、孤立領域(点)の除去後にステップS8で抽出された特異輪郭を初期核の一部として復元する。
【0059】
この初期核データ抽出処理例を図8に示す。本例では、図8(a)に示す画像を入力画像(対象画像)とし、図8(b)に示す画像を背景画像(基準画像)とすると、図8(c)に示すように、初期核データ抽出処理によるマスク領域が得られ、このマスク領域の黒色で示す領域は被写体領域を表している。
【0060】
この図から分かるように、一般的に背景と被写体との組合せにおいては、この段階で切り出すべき被写体の領域が完全に抽出されることはあり得ない。すなわち、入力画像と背景画像間において同一箇所で部分的にRGBレベル、またはそれらの局所的統計量(平均値、標準偏差など)が類似した領域がある場合には、その部分領域が閾値処理後には未抽出領域として残る。よって、この未抽出領域の抽出を行うために、ステップS11で、領域成長手段12により初期核の成長処理を行う。
【0061】
この初期核の成長処理では、初期マスクの各核領域の境界上の点において近傍画素(または領域)との画素特徴量の類似度を求め、これが所定の閾値より高いときには当該近傍画素を同一被写体領域と見做してマスク領域に併合する。本実施の形態では、図5に示すように、まず、領域成長を行う前に、ステップS1101で初期核の成長範囲を制限するための最大領域成長範囲の設定をマスク領域を示すデータに基づき行う。
【0062】
次いで、ステップS1102に進み、類似度判定に必要な特徴量パラメータとして輝度レベル、色相の近傍との差異の初期閾値を設定する。これらの初期閾値を背景画像と入力画像間のそれぞれのパラメータに関する差分(差分絶対値)データの平均値、標準偏差などの統計量に基づき自動的に設定することも可能である。
【0063】
続くステップS1103では、最大領域成長範囲およびエッジ強度分布に基づき各閾値を可変に設定する。まず、最大領域成長範囲の中では閾値を高く、その範囲外では閾値を低く設定する。具体的には、点(X,Y)が最大領域成長範囲にあるときには高い閾値例えば初期閾値を、範囲外にあるときには低い閾値例えば初期閾値の1割の値をそれぞれ設定する。また、最大領域成長範囲外の閾値を分布関数により設定することもでき、この閾値の分布関数としては、最大領域成長範囲の境界線からの距離が大きくなる従い閾値が減少するような任意の関数を用いることができる。さらに他の閾値の設定方法としては、最大領域成長範囲内の閾値を成長方向別に与え、入力画像の局所支配的ライン方向にはそれと異なる方向の閾値より高い値を設定する方法がある。
【0064】
本実施の形態では、入力画像のエッジ強度分布を所定の閾値で二値化し、エッジが存在する位置およびその近傍で閾値を低く設定する。特にエッジの種類を限定し、特異輪郭線上のエッジとその近傍でのみ閾値を低く設定するようにしてもよい。閾値の分布としては、エッジの位置で最も低く(例えば「0」とするとエッジと交差する領域の成長は完全に抑止される)、その近傍ではエッジからの距離に対し若干の増加を呈するもの、またはエッジとその近傍で一様に低い値を取るものが用いられる。なお、最大領域成長範囲の境界線を入力画像に重畳して画像表示手段14に表示し、ユーザがこれに基づき適正な平滑化フィルタサイズを設定するようにしてもよい。
【0065】
以上の閾値設定により、その値を多少大まかに設定したとしても、被写体の輪郭形状に沿った形状の変動が少ないなどの領域成長結果の安定が達成される。また、最大領域成長範囲の境界線と被写体の外側輪郭形状とが異なる場合でも、領域成長の結果として得られる輪郭線と実際の被写体の輪郭線とを最終的に一致させることができる。
【0066】
次いで、ステップ1104に進み、近傍画素との類似度判定に基づく領域成長を行う。本実施の形態では、近傍画素とのRGBそれぞれの差分絶対値のいずれもが閾値以下となるか、または色相の差分絶対値が閾値以下となるかを類似度判定の条件すなわち成長の条件に用い、いずれか一方の条件が成立すると、当該近傍画素を同一被写体領域として併合する。類似判定に用いる特徴量としてはこれらに限定されるものではなく、例えば彩度などの低次特徴量、または高次特徴量としてエッジを含む局所的ラインセグメントの部分形状(セグメントとの向きなど)、局所空間周波数、さらにはRGB値などの低次特徴量を統計処理して得られる特徴量(分散、モーメントなど)を用いてよい。また、領域成長の併合処理は必ずしも画素単位で行うことに限定されるものではなく、他の方法で求めた領域どうしで行うようにすることも可能である。
【0067】
この領域成長の結果の一例を図8(d)に示す。本図8(d)と図8(a)とを比較すると、領域成長の結果として得られる輪郭線は実際の被写体の輪郭線に略一致していることが分かる。
【0068】
この領域成長後、ステップS12に進み、マスク領域内の一定サイズ以下の穴を自動的に埋める穴埋め処理を行う。この穴埋め処理は、画像特徴量の近傍領域との類似度、均質性などとは一切無関係にすなわち入力画像データとは一切無関係に行われ、領域成長後の領域を示す二値化マスクデータに対し行われるものである。続くステップS13では、この穴埋め処理が施された領域成長後のマスク領域を被写体切出しマスク領域とし、これに該当する領域すなわち被写体領域を入力画像から抽出する。なお、この処理において、被写体マスク領域の境界線の平滑化処理、または境界線の補正処理などを行った後に、被写体領域の抽出を行うようにしてもよい。この穴埋め処理の結果を図8(e)に示す。
【0069】
次いで、ステップS14で抽出された領域の画像データ(または画像ファイル)を画像表示手段14に出力し、切出し画像すなわち被写体を表示する。この切出し処理の結果により、例えば図8(a)に示す入力画像から図8(f)に示す被写体が切出されて表示される。このように入力画像から被写体を切出し、表示することにより本処理は終了する。
【0070】
(実施の第2形態)
次に、本発明の実施の第2形態について図6を参照しながら説明する。図6は本発明の画像識別装置の実施の一形態の主要部構成を示すブロック図である。
【0071】
本実施の形態では、所定物体を表す標準モデル画像と基準画像とを用いて該基準画像中に存在しない識別対象を含む対象画像に対し該識別対象を識別するための画像識別装置について説明する。
【0072】
画像識別装置20は、図6に示すように、カメラ、スキャナなどの画像入力手段200から入力される対象画像およびデータベース201に格納されている基準画像を一時的に記憶する一次記憶手段210を有する。本実施の形態では、例えば、図9(a)に示す画像が対象画像として、図9(b)に示す画像が基準画像として用いられている。
【0073】
一次記憶手段210に記憶されている対象画像および基準画像は対応点抽出手段204に与えられる。対応点抽出手段204は、対象画像と基準画像間の画像サイズの正規化(同一化)を拡大縮小処理などにより行った後、対応点抽出処理を行う。この対応点抽出処理は、上述した実施の第1形態と同様のものであり、その説明は省略する。
【0074】
この対応点抽出手段204による処理後の処理順序は、図6に示す各手段の接続順に同じであり、次ぎに幾何学的変換手段205による処理が実行される。幾何学的変換手段205は、基準画像または対象画像の実質的に共通な部分(例えば対象画像から識別対象を共通部分)において一方の各画素位置の画像情報が他方の画像情報と略一致するようなアフィン変換行列を対応点データに基づき推定し、変換(平行移動、回転、倍率変換などを含む)を基準画像に対して実行する。但し、前もって対象の画像サイズは分からないから、例えば実施の第1形態と同様に各画像の左右端からそれぞれ画像フレーム幅の25%から35%の領域範囲で対応点の探索と抽出とを対応点抽出手段204により行う(図9(a),(b)を参照)。
【0075】
幾何学的変換手段205による処理に続いてエッジ強度抽出手段202による処理が実行される。エッジ強度抽出手段202は、対応点データに基づき幾何学的変換後の基準画像および対象画像の各画像中におけるエッジ分布を抽出し、続く方向別ラインラベリング手段203は、抽出された各画像のエッジ分布に基づき各エッジについて方向別ライン検出とラベリングとを行う。そのラベリングの結果、対象画像、背景画像のそれぞれには、図9(c),(d)に示すように、水平方向ラベル、垂直方向、45度方向ラベルまたは−45度方向ラベルのいずれかが付与されることになり、そのラベル付与の決定方法は、実施の第1形態と同様に、各方向の検出演算子(行列)とエッジデータとのコンボリューション値が最大となる方向に対しラベル付けを行う。
【0076】
次いで、オートフレーミング手段206により処理が実行される。オートフレーミング手段206は、基準画像と対象画像との各位置における方向別ラインラベルの一致度に基づき、各位置における方向別ラインラベルの一致度が基準値より小くなる領域を検出し、該領域を含むような最小サイズの矩形領域(または楕円、多角形などの単純な図形領域)を識別対象の存在範囲として出力する。このラベル一致度の付与方法としては、例えば、同一ラベルならば一致度を「1」、直交方向ラベルならば一致度を「−1」、いずれでもなければ一致度を「0」をとする方法がある。なお、この一致度「0」には一方にラインが存在し、他方にはラインが存在しない場合を含む。また、多くのラベル方向がある場合は、方向の近さに応じて一致度の値を与えてもよい。この場合には、一致度のとり得る値はより多くなる。基準値としては、上述した一致度の付与方法であれば、例えば「1」とすればよい。この存在範囲の重心位置とサイズとは識別対象の画像上の位置とサイズとに相当する。
【0077】
このオートフレーミングにより、例えば図5(c)に示すように、一点鎖線で囲まれた矩形領域が識別対象の存在範囲として抽出される。
【0078】
続いてモデル画像サイズ変更手段207による処理が実行される。モデル画像サイズ変更手段207は、オートフレーミング手段206によって推定された識別対象の存在範囲のサイズ(例えば縦横サイズまたは面積)に、標準モデル画像のサイズ(例えば標準モデル画像の枠の縦横サイズ)が一致するように変更する。また、縦横比がフレーミング後のフレームと標準モデル画像のフレームとで異なる場合には、それが一致するように標準モデル画像の縦横サイズを異なる倍率で変更することもできる。この標準モデル画像はデータベース201に基準画像とともに格納されている。本実施の形態では、この標準モデル画像として図9(e)に示す画像が用いられ、本サイズ変更により図9(f)に示す縮小された標準モデル画像が得られる。
【0079】
次いで、類似度判定手段208による処理が実行される。類似度判定手段208は、サイズ変換後の標準モデル画像と対象画像中の特定された存在範囲の識別対象を含む画像部分との類似度を判定する。この類似度判定方法としては、上述のオートフレーミングと同様に、方向別ラインラベルの一致度比較(図10(a),(b)に示す各画像のラインラベルデータの一致度比較)をエッジ毎に局所的に行い、この一致度比較により一致度が高い領域(図10(c),(d)を参照)を検出し、さらに識別対象の画像部分についてはその境界線(輪郭線;図10(e)を参照)を抽出するとともに、ラベル付けがされた標準モデル画像のラベル成分によって構成される輪郭線(図10(f)を参照)を生成した後に、それら輪郭線どうしの一致度を判定する。このようにして、方向別ラインラベルデータに基づき識別対象の輪郭を絞り込むことにより、既存の手法、例えば動的輪郭、可変形状テンプレートマッチングなどに比して識別対象および標準モデルの輪郭の比較すべき部分を高速にかつ確実に抽出することができる。輪郭の一致度は輪郭線の各点の位置を重心からの距離と方向との関数として極座標展開して符号化し、その符号化データのフーリエ変換係数の一致度などから判定する。
【0080】
類似度判定の他の方法としては、標準モデル画像と識別対象との対応点抽出(上述の実施の第1形態と同じ)および局所領域間の相関係数値の平均、分散などの統計量を用いる。この場合、対象画像のフレーミング範囲内において、なお残存する背景部分と標準モデル画像の背景部分(一般的に無地で色、輝度レベルが均一)との不一致領域では対応点が求まらないか、または対応点を求める際に用いる相関計数などの尺度が低いことなどを条件として、そのような部分が選択的に除去される。また、対応点が検出された領域についてはブロック分割が行われ、各対応ブロックの相関係数の平均値が算出され、その値が基準値より高ければ標準モデル画像と同じ対象である、または同じカテゴリであるという判定結果が出力される。この方法の場合、相関係数の種類などは特に限定されない。
【0081】
さらに他の方法として、標準モデル画像の対象物体の輪郭線を予め抽出しておき、その輪郭線を対象画像の存在範囲領域に重心位置が略一致するように初期輪郭として設定し、その後、動的輪郭、可変形状テンプレートマッチングなどの既存の手法を用いて比較すべき輪郭部分を抽出する方法を用いることもできる。この方法においては、色情報の一致度は形状に関する概略の一致を前提とした上でRGB値または色相などの差異を各領域毎に求め、その平均値または絶対値の総和などに基づき最終的に類似度を判定する。
【0082】
類似度判定に方向別ラインラベルを用いる他の例としては、輪郭形状の特徴部分、特に曲率の極大または極小部分の位置での方向別ラベルの差異、およびその特徴部分に内接する部分領域の色情報、輝度情報または局所空間周波数、あるいは分散、モーメントなどの領域特徴量の差異を判定するものがある。この方法においては、特徴部分の内側外側の判定は基本的に抽出された特徴分布の重心位置と特徴位置とを結ぶ線分上にあるものを内側と判定する。
【0083】
なお、いうまでもなく類似度判定方法は上述した方法に限定されるものではない。
【0084】
類似度判定結果が得られると、この類似度判定結果は識別結果出力手段209により出力される。
【0085】
以上のように、対象画像と基準画像との正規化を行った後に、方向別ラインラベルの差異に基づく識別対象の存在範囲の特定、および類似度判定を行うことにより、高速かつ確実な対象識別を行うことができる。
【0086】
なお、上述の各処理を実行する各手段を専用のハードウェアで構成することもでき、また上述の各処理を実行する各手段をCPUが実行可能なソフトウェアで構成することもできる。
【0087】
(実施の第3形態)
次に、本発明の実施の第3形態について図7を参照しながら説明する。図7は本発明の画像分割装置の実施の他の形態を構成する画像切出し手段の構成を示すブロック図である。
【0088】
本実施の形態では、図7に示すように、代表背景画像として、予め撮影された典型的な背景シーン、またはコンピュータグラフィックス、ペインティングソフトなどを使用して作成された背景画像のスケッチを用い、この代表背景画像をデータベース301に格納している。切出し対象となる被写体を含む入力画像は、撮像装置などの画像入力手段300から画像切出し手段30に入力される。画像切出し手段30は、画像入力手段300から入力される入力画像を一次記憶手段312に格納するとともに、表示手段311に表示する。表示手段311には入力画像とともに、データベース301に格納されている代表背景画像の画像サンプルが表示され、ユーザは入力画像の背景に最もマッチした代表背景画像を画像サンプルから選択する。選択された代表背景画像は一次記憶手段312に記憶される。例えば、入力画像(対象画像)として図13(a)に示す画像が入力されると、この入力像に対して最もマッチした代表背景画像として図13(b)に示す画像が選択される。
【0089】
対応点抽出手段304、エッジ強度抽出手段302、方向別ラインラベリング手段303は、実施の第1形態と同様に、入力画像と代表背景画像とに対して処理を実行し、幾何学的変換手段305は背景画像に対し幾何学的変換を施す。
【0090】
本実施の形態では、特に、代表背景画像と入力画像中の背景部分との細部の違いに対する許容度を上げるために、対応点抽出前に各画像の方向別ラインラベル付けを粗い解像度で行い、その解像でエッジ特徴点の方向を考慮した対応点抽出処理を行う。具体的には、各画像を所定サイズのフィルタ(例えばGaussian filter )で平滑化(またはブロック分割して各ブロック内の平均値で各画素値を置換)して、エッジ検出と方向別ラベル付けとを行った後に対応点抽出を行う。
【0091】
対応点抽出においては、各エッジを中心として所定サイズのブロックマッチングを行ってもよいが、類似度尺度しては実施の第1形態に示した相関係数の類の他に、方向ラベルの一致度をいれる。但し、方向ラベルの違いに対する許容度を緩和するように設定され、例えば、10度程度の違いは考慮されないように設定されている。対応点抽出に方向ラベルと色情報を合わせて用いる場合には、方向ラベルの相違を優先し、色の差異に対する許容度を比較的高く設定する。
【0092】
幾何学的変換行列の推定に用いて変換する処理においては、上述の実施の第1形態で述べたように、対応点間で推定された変換行列を用いて一方の点から他方の対応する点への変換を行い、変換された点と対応すべき点との位置の誤差が予め定められている閾値より大きくなるような対応点の組を除外し、残りの対応点の組を用いて変換行列の推定を再度行うようにしてもよい。また、上述した誤差の平均値が所定の閾値以下となるまで対応の絞り込みを繰り返し行うようにしてもよい。
【0093】
また、幾何学的変換行列の推定はブロック分割して局所的に行い、場所毎に異なる変換行列を求めて変換を行ってもよい。
【0094】
局所支配的ライン方向抽出手段306は、代表背景画像を適当なサイズの複数のブロックに分割して各ブロック内で方向別ライン画素数の投票を行い、最も投票数の多い方向ラベルを当該ブロックの支配的ライン方向としてラベル付けする。
【0095】
特異輪郭抽出手段307は、入力画像のエッジ方向別ラインラベルと、代表背景画像における入力画像のエッジと同一位置の点を含むブロックの局所支配的ラインラベルまたはエッジに付与された方向別ラインラベルとを比較し、それらが異なるとそのエッジを被写体の特異輪郭として抽出する。なお、一般的には、ライン方向ラベルのみでは抽出すべき被写体の輪郭を特定することは困難であるから、予め抽出すべき被写体を囲む最小サイズの処理枠をマニュアル設定してから行うようにすることが好ましい。この特異輪郭の抽出例を図13(c)に示す。
【0096】
特異領域抽出手段308は、ライン長が基準値以上のラインにおいて、そのラインより局所的に分断される2つの局所領域の色、輝度レベルなどの特徴量を方向ラベルとともに、ラインの属性情報として抽出し、その入力画像と代表背景画像の属性どうしの相違を場所毎に比較することにより、被写体固有の色または輝度を有する部分領域を特異領域として抽出する。具体的には、属性情報の内、特に色に関しては、例えばRGB各成分の局所(例えば5×5画素サイズ)平均値、または色相と彩度の局所的平均値に関する差分絶対値を閾値処理する(閾値より高ければ被写体に固有の特異領域とする)ことにより被写体固有度を判断する。閾値は、例えば色成分に関するヒストグラムを入力画像と代表背景画像とで局所毎に作成し、その最大ピークレベルの色成分値の差異に基づいて設定することが可能である。但し、ヒストグラムの作成対象となる局所領域サイズは、上述した平均値算出のための局所領域サイズより大きくする(例えば30×30画素サイズ)。一例としては、最大ピークの色成分値の差異が大きいほど閾値が高くなるようにする。例えば、図13(a)に示す入力画像に対する特異領域としては、図13(d)に示すように、黒く塗りつぶされた領域が抽出される。
【0097】
なお、特異輪郭抽出手段307により、特異領域抽出手段308の出力に基づき属性値の異なる領域に隣接するライン成分を優先的に抽出するように設定することも可能である。
【0098】
抽出された特異領域は、実施の第1形態における初期マスク領域に相当するものであり、抽出された特異領域に対する領域成長が領域成長手段39で行われる。この領域成長手段309による成長処理は、実施の第1形態における領域成長処理内容と同様に行われる。
【0099】
領域成長後のマスク領域は被写体切出しマスク領域とされ、これに該当する領域すなわち被写体領域は切出し画像出力手段310で入力画像から抽出される。この抽出された領域の画像データは表示手段311に出力され、表示手段311には切出し画像すなわち被写体が表示される。この切出しの結果、例えば、図13(a)に示す入力画像から図13(e)に示す画像が切り出される。
【0100】
【発明の効果】
以上に説明したように、本発明によれば、基準画像と入力画像の背景部分との間に位置ずれ、回転ずれ、歪みの違いなどが存在する場合にそれらの違いを吸収して被写体固有の輪郭のみを抽出することができ、基準画像と入力画像の背景部分との間にある違いに対する許容度が高い画像切出しを行うことができる
【図面の簡単な説明】
【図1】本発明の画像分割装置の実施の一形態を構成する画像切出し手段の構成を示すブロック図である。
【図2】図1の画像切出し手段による画像切出し処理を示すフローチャートである。
【図3】図2の画像切出し処理における画像入力処理を示すフローチャートである。
【図4】図2の画像切出し処理における初期核データ処理を示すフローチャートである。
【図5】図2の画像切出し処理における初期の領域成長処理を示すフローチャートである。
【図6】本発明の画像識別装置の実施の一形態の主要部構成を示すブロック図である。
【図7】本発明の画像分割装置の実施の他の形態を構成する画像切出し手段の構成を示すブロック図である。
【図8】本発明の実施の第1形態の各処理により得られた画像例を示す図である。
【図9】本発明の実施の第2形態の各処理により得られた画像例を示す図である。
【図10】本発明の実施の第2形態の各処理により得られた画像例を示す図である。
【図11】局所支配的ライン方向ラベルの抽出過程を説明するための画像例を示す図である。
【図12】遮蔽輪郭線の抽出過程を説明するための画像例を示す図である。
【図13】本発明の実施の第3形態の処理により得られた画像例を示す図である。
【符号の説明】
1、200、300 画像入力手段
2,30 画像切出し手段
3 記憶手段
4,202,302 エッジ強度抽出手段
5,203,303 方向別ラインラベリング手段
6,606 局所支配的ライン方向抽出手段
7,204,304 対応点抽出手段
8,205,305 幾何学的変換手段
9 階調変換関数推定および変換手段
10 特異輪郭抽出復元手段
11 初期マスク領域抽出手段
12 領域成長抽出手段
13,310 切出し画像出力手段
14 画像表示手段
20 画像識別装置
201,301 データベース
206 オートフレーミング手段
207 モデル画像サイズ変更手段
208 類似度判定手段
209 識別結果出力手段
210,312 一次記憶手段
307 特異輪郭抽出手段
308 特異領域抽出手段
311 表示手段

Claims (10)

  1. 入力画像から抽出対象となる画像領域を、該画像領域を除いた他の領域に略等しい領域を表す基準画像を用いて分割するための画像分割方法であって、
    前記入力画像および前記基準画像の各画像中におけるエッジ強度分布を抽出するエッジ強度分布抽出ステップと、
    前記抽出された各画像中におけるエッジ強度分布に基づき該各画像中における各エッジについて所定の方向別ラインを検出し、方向別ラインラベル付けを行う方向別ライン検出ステップと、
    前記各画像における前記検出された方向別ラインの分布に基づき前記抽出対象となる画像領域に特異な輪郭部分を抽出する特異輪郭抽出ステップと、
    前記抽出された特異輪郭部分を表す分布データに基づき前記抽出対象となる画像領域を切り出す画像切出しステップとを有し、
    前記特異輪郭抽出ステップは、前記入力画像と前記基準画像とをそれぞれ複数のブロックに分割し、各ブロック内の支配的ライン方向成分を検出する支配的ラインマップ抽出ステップを有し、前記入力画像の各ブロックの内の前記支配的方向ライン成分が存在しないブロックと前記支配的方向ライン成分が存在するブロックとの境界近傍にある境界点を抽出し、該境界点を含む所定の局所領域について該境界点と最短距離に位置する前記入力画像のエッジを前記抽出対象となる画像領域と前記他の領域との境界となる遮蔽境界線の一部として検出することを特徴とする画像分割方法。
  2. 前記画像切出しステップは、前記入力画像から前記抽出対象となる画像領域の一部を部分領域として抽出する部分領域抽出ステップと、前記抽出された部分領域を核としてその近傍領域との類似度の閾値処理により領域成長を行う領域成長ステップと、前記領域成長によって得られた領域を前記抽出対象となる画像領域として抽出する抽出ステップとを有することを特徴とする請求項1記載の画像分割方法。
  3. 前記画像切出しステップは、前記抽出対象となる画像領域の一部を二値化してマスクデータとして抽出する部分領域抽出ステップと、前記抽出されたマスクデータを平滑化する平滑化ステップと、前記マスクデータの平滑化後に前記特異輪郭部分をマスクデータとして復元する特異輪郭復元ステップとを有することを特徴とする請求項1記載の画像分割方法。
  4. 前記領域成長ステップは、前記エッジからの領域成長方向が該エッジの方向別ラベルに略一致するように前記領域成長を制御することを特徴とする請求項2記載の画像分割方法。
  5. 入力画像から抽出対象となる画像領域を、該画像領域を除いた他の領域に略等しい領域を表す基準画像を用いて分割するための画像分割装置であって、
    前記入力画像および前記基準画像の各画像中におけるエッジ強度分布を抽出するエッジ強度分布抽出手段と、
    前記抽出された各画像中におけるエッジ強度分布に基づき該各画像中における各エッジについて所定の方向別ラインを検出し、方向別ラインラベル付けを行う方向別ライン検出手段と、
    前記各画像における前記検出された方向別ラインの分布に基づき前記抽出対象となる画像領域に特異な輪郭部分を抽出する特異輪郭抽出手段と、
    前記抽出された特異輪郭部分を表す分布データに基づき前記抽出対象となる画像領域を切り出す画像切出し手段とを有し、
    前記特異輪郭抽出手段は、前記入力画像と前記基準画像とをそれぞれ複数のブロックに分割し、各ブロック内の支配的ライン方向成分を検出する支配的ラインマップ抽出手段を有し、前記入力画像の各ブロックの内の前記支配的方向ライン成分が存在しないブロックと前記支配的方向ライン成分が存在するブロックとの境界近傍にある境界点を抽出し、該境界点を含む所定の局所領域について該境界点と最短距離に位置する前記入力画像のエッジを前記抽出対象となる画像領域と前記他の領域との境界となる遮蔽境界線の一部として検出することを特徴とする画像分割装置
  6. 前記画像切出し手段は、前記入力画像から前記抽出対象となる画像領域の一部を部分領域として抽出する部分領域抽出手段と、前記抽出された部分領域を核としてその近傍領域との類似度の閾値処理により領域成長を行う領域成長手段と、前記領域成長によって得られた領域を前記抽出対象となる画像領域として抽出する抽出手段とを有することを特徴とする請求項5記載の画像分割装置
  7. 前記画像切出し手段は、前記抽出対象となる画像領域の一部を二値化してマスクデータとして抽出する部分領域抽出手段と、前記抽出されたマスクデータを平滑化する平滑化手段と、前記マスクデータの平滑化後に前記特異輪郭部分をマスクデータとして復元する特異輪郭復元手段とを有することを特徴とする請求項5記載の画像分割装置
  8. 前記領域成長手段は、前記エッジからの領域成長方向が該エッジの方向別ラベルに略一致するように前記領域成長を制御することを特徴とする請求項記載の画像分割装置
  9. 入力画像から抽出対象となる画像領域を、該画像領域を除いた他の領域に略等しい領域を表す基準画像を用いて分割するための画像分割装置であって、
    前記基準画像を記憶する記憶手段と、
    前記入力画像および前記基準画像の各画像におけるエッジ分布を抽出するエッジ抽出手段と、
    前記抽出された各画像中におけるエッジ分布に基づき該各画像における方向別ライン分布を検出する方向別ライン検出手段と、
    前記基準画像と前記入力画像との間の対応点情報を抽出する対応点抽出手段と、
    前記抽出された対応点情報に基づき前記各画像のいずれか一方に対し幾何学的変換を施す変換手段と、
    前記幾何学的変換が施された画像と他方の画像間の前記方向別ライン分布の差異に基づき特異エッジを抽出する特異エッジ抽出手段と、
    前記抽出された特異エッジに基づき前記入力画像から前記抽出対象となる画像領域を分割する分割手段とを有し、
    前記特異エッジ抽出手段は、前記入力画像と前記基準画像とをそれぞれ複数のブロックに分割し、各ブロック内の支配的ライン方向成分を検出する支配的ラインマップ抽出手段を有し、前記入力画像の各ブロックの内の前記支配的方向ライン成分が存在しないブロックと前記支配的方向ライン成分が存在するブロックとの境界近傍にある境界点を抽出し、該境界点を含む所定の局所領域について該境界点と最短距離に位置する前記入力画像のエッジを前記抽出対象となる画像領域と前記他の領域との境界となる遮蔽境界線の一部として検出することを特徴とする画像分割装置。
  10. 前記幾何学的変換は、平行移動、回転、倍率変換、透視変換のうちの少なくとも1つに関する全体的または局所的処理を含むことを特徴とする請求項9記載の画像分割装置。
JP32329996A 1996-11-20 1996-11-20 画像分割方法および画像分割装置 Expired - Fee Related JP3814353B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP32329996A JP3814353B2 (ja) 1996-11-20 1996-11-20 画像分割方法および画像分割装置
US08/972,166 US6453069B1 (en) 1996-11-20 1997-11-17 Method of extracting image from input image using reference image
US10/150,062 US6766055B2 (en) 1996-11-20 2002-05-20 Method of extracting image from input image using reference image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32329996A JP3814353B2 (ja) 1996-11-20 1996-11-20 画像分割方法および画像分割装置

Publications (2)

Publication Number Publication Date
JPH10149449A JPH10149449A (ja) 1998-06-02
JP3814353B2 true JP3814353B2 (ja) 2006-08-30

Family

ID=18153240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32329996A Expired - Fee Related JP3814353B2 (ja) 1996-11-20 1996-11-20 画像分割方法および画像分割装置

Country Status (1)

Country Link
JP (1) JP3814353B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062954A (ja) * 2008-09-04 2010-03-18 Japan Science & Technology Agency 対応点推定装置、対応点推定方法及び対応点推定プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293696A (ja) 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
US7574070B2 (en) 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP4765363B2 (ja) * 2005-03-24 2011-09-07 日産自動車株式会社 乗員検出装置及び乗員検出方法
JP4316629B2 (ja) 2007-03-29 2009-08-19 株式会社東芝 画像処理システム、画像取得方法及びプログラム
JP2010039868A (ja) * 2008-08-06 2010-02-18 Sharp Corp 位置座標処理装置、及び、位置座標処理方法
JP5228926B2 (ja) * 2009-01-12 2013-07-03 株式会社デンソー 歩行者検出装置
JP5300670B2 (ja) * 2009-09-14 2013-09-25 株式会社東芝 パターン検査装置及びパターンを有する構造体の製造方法
JP5742399B2 (ja) * 2011-04-06 2015-07-01 富士ゼロックス株式会社 画像処理装置及びプログラム
JP2013021215A (ja) * 2011-07-13 2013-01-31 Canon Inc ビーム計測装置、描画装置、および物品の製造方法
JP6606858B2 (ja) * 2015-05-12 2019-11-20 沖電気工業株式会社 物体検出装置および物体検出方法
JP2017215510A (ja) 2016-06-01 2017-12-07 株式会社ジャパンディスプレイ 表示装置
US11176672B1 (en) * 2018-06-28 2021-11-16 Shimadzu Corporation Machine learning method, machine learning device, and machine learning program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062954A (ja) * 2008-09-04 2010-03-18 Japan Science & Technology Agency 対応点推定装置、対応点推定方法及び対応点推定プログラム

Also Published As

Publication number Publication date
JPH10149449A (ja) 1998-06-02

Similar Documents

Publication Publication Date Title
US6453069B1 (en) Method of extracting image from input image using reference image
US10592754B2 (en) Shadow removing method for color image and application
JP3679512B2 (ja) 画像抽出装置および方法
US6389155B2 (en) Image processing apparatus
JP5542889B2 (ja) 画像処理装置
JP4154374B2 (ja) パターンマッチング装置及びそれを用いた走査型電子顕微鏡
US20060017825A1 (en) Method and apparatus for effecting automatic red eye reduction
JP3814353B2 (ja) 画像分割方法および画像分割装置
KR20050022306A (ko) 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
CN111415363A (zh) 一种图像边缘识别方法
CN108038458B (zh) 基于特征摘要图的视频中的户外场景文本自动获取方法
CN113537037A (zh) 路面病害识别方法、系统、电子设备及存储介质
JP3636936B2 (ja) 濃淡画像の2値化方法および濃淡画像の2値化プログラムを記録した記録媒体
CN108647680B (zh) 图像定位框检测方法和装置
JPH11306325A (ja) 対象物検出装置及び対象物検出方法
WO2022056875A1 (zh) 一种铭牌图像的分割方法、装置和计算机可读存储介质
CN112052859B (zh) 一种自由场景下的车牌精准定位方法及装置
JP2981382B2 (ja) パターンマッチング方法
CN109934215B (zh) 一种身份证识别方法
CN111630569B (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
CN112669360A (zh) 一种基于非封闭多维轮廓特征序列的多源图像配准方法
CN117934973B (zh) 智能摄像机图像处理方法、装置、设备及存储介质
Mariani Subpixellic eyes detection
JPH06251147A (ja) 映像特徴処理方法
Long et al. An Efficient Method For Dark License Plate Detection

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051220

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060605

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090609

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100609

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130609

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees