JP5505164B2 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP5505164B2
JP5505164B2 JP2010166195A JP2010166195A JP5505164B2 JP 5505164 B2 JP5505164 B2 JP 5505164B2 JP 2010166195 A JP2010166195 A JP 2010166195A JP 2010166195 A JP2010166195 A JP 2010166195A JP 5505164 B2 JP5505164 B2 JP 5505164B2
Authority
JP
Japan
Prior art keywords
image
distance
input
energy
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010166195A
Other languages
English (en)
Other versions
JP2012027713A (ja
JP2012027713A5 (ja
Inventor
英史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010166195A priority Critical patent/JP5505164B2/ja
Priority to US13/177,809 priority patent/US8594434B2/en
Priority to CN2011102046345A priority patent/CN102346912A/zh
Publication of JP2012027713A publication Critical patent/JP2012027713A/ja
Publication of JP2012027713A5 publication Critical patent/JP2012027713A5/ja
Application granted granted Critical
Publication of JP5505164B2 publication Critical patent/JP5505164B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、オブジェクトを囲むように入力される入力閉曲線の形状に従って距離画像を生成し、エネルギーを算出することにより、画素単位でオブジェクトに属する画素であるか、または、オブジェクトに属する画素以外の画素であるかの属性の割付性能を向上できるようにした画像処理装置および方法、並びにプログラムに関する。
画像処理の分野において、画像をオブジェクト(前景)と背景に分離するセグメンテーション処理は重要な機能の一つとなり多数の研究がなされている。
このセグメンテーション処理によって、画像の一部を選択して特定の処理を施したり、オブジェクトとして切り出して別の画像と合成するなどの処理が実現可能となっている。
このようなオブジェクトと背景という二つの属性(ラベル)を画像の画素ごとに割り当てるセグメンテーション処理の有用な方法にグラブカット法がある(非特許文献1、および特許文献1参照)。
この方法では、まず最初に抽出したいオブジェクトの周りを囲う矩形線、または閉曲線をユーザが指定する。アルゴリズムは初期状態では矩形線の外側を背景、内側をオブジェクトと背景画素が混ざったものとして考える。
オブジェクトおよび背景の二つの色分布モデルによって画素ごとの尤度と画素間の色の差による連続性の二つの情報を使って、セグメンテーション処理を繰り返し行い色分布モデルを更新しながら、オブジェクトを表す画素を決定する。
この画素ごとの尤度と画素間の色差はエネルギーとしてグラフデータとして与えて、これをエネルギー最小化計算することでオブジェクトの画素集合を得ることができる。
この最小化計算の際に使われるエネルギーは画素ごとの尤度と画素間の色差であって、入力した閉曲線は初期状態の前景、または背景という画素の属性分類という用途以外には使われていなかった。
この閉曲線はオブジェクトの外周を囲むように入力されるので、最終的なオブジェクトの形状に近い可能性が高く、重要な情報であり積極的に利用した方がよい。
このような課題を解決する簡単な方法として、入力閉曲線を内側へ所定の幅だけ縮退し、入力閉曲線と縮退した閉曲線の帯領域内にオブジェクトと背景の境界が収まるように工夫する方法が考えられる。
一般に所望の幅だけ縮退する操作をエロージョン(Erosion)と呼び、このような方法を使ってセグメンテーションする方法が提案されている(特許文献2参照)。
US7660463,FOREGROUND EXTRACTION USING ITERATED GRAPH CUTS US7400767,SYSTEM AND METHOD FOR GRAPH CUTS IMAGE SEGMENTATION USING SHAPE PRIOR
GrabCut: interactive foreground extraction using iterated graph cutsCarsten Rother, Vladimir Kolmogorov, Andrew Blake ACM Transactions on Graphics, 23(3), August 2004, pp. 309-314.
しかしながら、この方法では形状や位置に依らず一律に縮退処理が施される。
そのため最終的な境界を帯領域内に収めるためには、入力閉曲線と輪郭形状との距離変動を吸収するのに十分幅を大きくするか、繰り返し処理して輪郭を探索する必要があり、効果的な方法とは言えなかった。
本発明はこのような状況に鑑みてなされたものであり、特に、入力された閉曲線の情報を使って、閉曲線の形状に即した距離画像を算出することで、セグメンテーション処理のエネルギー計算に入力形状の情報を加えて、セグメンテーション結果の精度を向上させるものである。
本発明の一側面の画像処理装置は、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得手段と、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される画素値からなる距離画像を生成する距離画像生成手段と、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出手段と、前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成手段とを含む。
前記距離画像生成手段には、前記入力閉曲線の内部に中間軸を計算し、各画素位置において計算した前記中間軸と前記入力閉曲線までの距離を内分して各画素の距離を求め、前記距離に応じて画素単位で設定される画素値からなる前記距離画像を生成させるようにすることができる。
前記距離画像生成手段には、前記入力閉曲線を内部と外部で2値化した画像のうち、前記入力閉曲線の内部の形状を細線化処理することによって中間軸を計算させるようにすることができる。
前記距離画像生成手段には、前記入力閉曲線の形状が円形になるように上記入力閉曲線内部をモーフィング変形させ、各画素位置が前記モーフィング変形後に移動する位置から変形後の入力閉曲線までの距離に基づいて各画素の距離を求めさせ、前記距離に応じて画素単位で設定される画素値からなる前記距離画像を生成させるようにすることができる。
前記距離画像における各画素の距離は、輝度、RGBの色の差、または尤度の差を含む、前記各画素に関連づけられた特徴量の差分を積分した距離とすることができる。
前記距離画像における各画素の距離は、基準となる位置の画素と前記入力閉曲線の位置の画素との間で設定される経路上の空間的な距離とすることができる。
前記エネルギー算出手段には、前記距離画像の各画素の距離によって各画素の色を重み付けして色分布モデルを計算させ、前記色分布モデルに基づいてエネルギーを算出させるようにすることができる。
前記エネルギー算出手段には、前記各画素の色に応じて計算するエネルギーを前記距離画像における各画素の距離の値に基づいて増減させるようにすることができる。
前記エネルギー算出手段には、前記各画素間の色差に応じて計算するエネルギーを前記距離画像の各画素の距離の値に基づいて増減させるようにすることができる。
前記エネルギー算出手段には、前記距離画像における各画素の距離の勾配方向を計算させ、前記勾配方向と画素間の接続方向の角度差に応じてエネルギーを増減させるようにすることができる。
本発明の一側面の画像処理方法は、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得手段と、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される画素値からなる距離画像を生成する距離画像生成手段と、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出手段と、前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成手段とを含む画像処理装置の画像処理方法は、前記入力閉曲線画像取得手段における、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得ステップと、前記距離画像生成手段における、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される値からなる距離画像を生成する距離画像生成ステップと、前記エネルギー算出手段における、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出ステップと、前記マスク画像生成手段における、前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成ステップとを含む。
本発明の一側面のプログラムは、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得手段と、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される画素値からなる距離画像を生成する距離画像生成手段と、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出手段と、前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成手段とを含む画像処理装置を制御するコンピュータに、前記入力閉曲線画像取得手段における、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得ステップと、前記距離画像生成手段における、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される値からなる距離画像を生成する距離画像生成ステップと、前記エネルギー算出手段における、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出ステップと、前記マスク画像生成手段における、前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成ステップとを含む処理を実行させるプログラム。
本発明の一側面においては、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像が取得され、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される画素値からなる距離画像が生成され、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーが算出され、前記入力画像エネルギーが最小化されるように計算され、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性が割り付けられ、マスク画像が生成される。
本発明の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本発明の一側面によれば、最良のセグメンテーション結果を得ることが可能となる。
本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 図1の画像処理装置による処理を説明する図である。 距離画像生成部の構成例を示す図である。 セグメンテーション処理を説明するフローチャートである。 セグメンテーション処理を説明する図である。 図2の距離画像生成部による距離画像生成処理を説明するフローチャートである。 距離画像生成部のその他の構成例を示す図である。 図7の距離画像生成部による距離画像生成処理を説明するフローチャートである。 図7の距離画像生成部による距離画像生成処理を説明する図である。 図7の距離画像生成部による距離画像生成処理を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
以下、発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
<1.第1の実施の形態>
[画像処理装置の構成例]
図1は、本発明を適用した画像処理装置のハードウェアの一実施の形態の構成例を示している。図1の画像処理装置11は、例えば、図2で示される入力画像P1と、入力画像P1内の前景であるオブジェクト(白鳥の画像)の輪郭に沿って入力されている入力閉曲線L1の画像とから、図2で示されるマスク画像P2を生成する。マスク画像P2は、各画素がオブジェクトの領域(前景領域)、または、オブジェクト以外の領域(背景領域)のいずれに属するのかが属性として割り付けられている。図のマスク画像P2は、オブジェクトの領域に属する画素が白色で示されており、背景の領域に属する画素が黒色で示されている。すなわち、画像処理装置11は、入力画像と、入力画像内のオブジェクトの輪郭に沿って入力された入力閉曲線の画像とから、画素単位でオブジェクト領域とそれ以外の領域のいずれに属するかを示す属性を求め、マスク画像として出力する。このような画像処理装置11によってなされる処理は、一般的にセグメンテーション処理と称されている。
画像処理装置11は、画像取得部21、入力閉曲線画像取得部22、2値画像生成部23、距離画像生成部24、エネルギー算出部25、マスク画像生成部26、マスク画像出力判定部27、マスク画像記憶部28、およびマスク画像出力部29を備えている。
画像取得部21は、RGB(Red Green Blue)からなる入力画像を取得して、2値画像生成部23に供給する。
入力閉曲線画像取得部22は、入力画像内のオブジェクトの輪郭に沿って入力されている入力閉曲線からなる画像を取得する。入力閉曲線は、入力画像を見ながら、例えば、図示せぬ操作部等が操作されて、ユーザにより入力されるものとしてもよいし、または、物体認識技術として提案されている技術を用いることにより、認識された情報に基づいて入力された閉曲線であっても良い。尚、物体を入力画像から認識する技術としては、例えば、「Learning to Detect A Salient Object、Tie Liu,Jian Sun,Nan-Ning Zheng,Xiaoou Tang,Heung-Yeung Shum, Computer Vision and Pattern Recognition, 2007. CVPR '07. IEEE Conference on Publication Date: 17-22 June 2007」に、その手法が提案されている。
2値画像生成部23は、入力閉曲線画像における入力閉曲線を含む入力閉曲線の外側の領域と、入力閉曲線を含まない入力閉曲線の内側の領域とをそれぞれ2値の画素値で表す2値画像を生成し、距離画像生成部24に供給する。
距離画像生成部24は、2値画像生成部23、または、マスク画像出力判定部27のいずれかから供給される2値画像の入力閉曲線内における各画素について、入力閉曲線からの距離に応じた値を求め、この値に比例した画素値からなる距離画像を生成し、エネルギー算出部25に供給する。尚、距離画像生成部24の構成については、図3を参照して詳細を後述するものとする。
エネルギー算出部25は、距離画像に基づいて、画素毎の尤度および画素間の色差から、入力画像のエネルギーを求め、マスク画像生成部26に供給する。尚、画素間の色差については、輝度差、RGBの色の差、または尤度の差を含むものである。
マスク画像生成部26は、入力画像のエネルギーに基づいて、重み付きグラフを構築して最適化した後、最適化結果を用いてマスク画像を生成し、生成したマスク画像をマスク画像出力判定部27に供給する。
マスク画像出力判定部27は、今現在供給されてきたマスク画像をマスク画像記憶部28に記憶させると共に、直前の処理で記憶させたマスク画像と、今現在供給されてきたマスク画像との差分を求め、差分が所定の大きさよりも大きいとき、供給されてきたマスク画像を距離画像生成部24に戻す。一方、マスク画像出力判定部27は、直前の処理で記憶させたマスク画像と、今現在供給されてきたマスク画像との差分が、所定の大きさよりも小さいとき、入力されたマスク画像をマスク画像出力部29に供給し、出力させる。
[距離画像生成部の構成例]
次に、図3を参照して、距離画像生成部24の構成例について説明する。
距離画像生成部24は、中間軸画像生成部51、第1距離画像生成部52、第2距離画像生成部53、正規化距離画像生成部54、および距離画像出力部55を備えている。
中間軸画像生成部51は、2値画像生成部23より供給されてくる2値画像のうち、入力閉曲線内の形状を細線化処理し、中間軸画像を生成して第1距離画像生成部52、および第2距離画像生成部53に供給する。
第1距離画像生成部52は、入力閉曲線からなる境界の画素から順次中間軸画像を構成する画素への最短経路を設定する。そして、第1距離画像生成部52は、その経路上で境界となる画素での距離を0として、中間軸に近付くに連れて、例えば、上下方向に隣接する画素間では1を、斜め方向に隣接する画素間では√2を加算して、中間軸の画素までの最短距離を画素単位で順次求める。さらに、第1距離画像生成部52は、上述の要領で求められた画素単位の距離を画素値とした第1距離画像を生成して正規化距離画像生成部54に供給する。
第2距離画像生成部53は、中間軸を構成する各画素から入力閉曲線からなる境界の画素への最短経路を設定する。そして、第2距離画像生成部53は、その経路上で中間軸を構成する画素での距離を0として、境界となる入力閉曲線に近付くに連れて、例えば、上下方向に隣接する画素間では1を、斜め方向に隣接する画素間では√2を加算して、中間軸の画素までの最短距離を画素単位で順次求める。さらに、第2距離画像生成部53は、上述の要領で求められた画素単位の距離を画素値とした第2距離画像を生成して正規化距離画像生成部54に供給する。
正規化距離画像生成部54は、第1距離画像生成部52より供給されてきた第1距離画像、および第2距離画像生成部53より供給されてきた第2距離画像の結果を内分して、距離を正規化し、正規化距離画像を生成して、距離画像出力部55に供給する。
距離画像出力部55は、正規化距離画像生成部54より供給されてくる正規化距離画像を距離画像生成部24により生成された距離画像として出力する。
[セグメンテーション処理]
次に、図4のフローチャートを参照して、図1の画像処理装置11における画像処理であるセグメンテーション処理について説明する。尚、このセグメンテーション処理においては、図示せぬオブジェクト検索処理により入力画像から検索されたオブジェクトの外周部に入力閉曲線が入力された入力閉曲線画像であるか、または、図示せぬ操作部がユーザにより操作されて、入力画像内のオブジェクトの外周部をなぞるように入力閉曲線が入力されている入力閉曲線画像が、入力画像と共に供給されることが前提とされる。
ステップS11において、画像取得部21は、入力画像を取得すると共に、入力閉曲線画像取得部22は、入力閉曲線画像を取得する。そして、画像取得部21は、取得した入力画像を2値画像生成部23に供給する。また、入力閉曲線画像取得部22は、取得した入力閉曲線画像を2値画像生成部23に供給する。
ステップS12において、2値画像生成部23は、供給されてくる入力画像および入力閉曲線画像に基づいて、オブジェクトを含む入力閉曲線画像内の第1の画素値と、それ以外の第2の画素値からなる2値画像を生成し、距離画像生成部24に供給する。例えば、図5の画像P11で示されるような入力閉曲線画像を考える場合、2値画像生成部23は、画像P12で示されるような2値画像を生成する。ここで、図5の画像P11は、画素値が0乃至255である場合、入力閉曲線L1(図)を画素値0とし、それ以外の画素値が128である画像である。また、2値画像は、入力閉曲線L1を含むその内側の画素の画素値が128であり、それ以外の画素が0である。
ステップS13において、距離画像生成部24は、距離画像生成処理を実行し、2値画像から距離画像を生成し、エネルギー算出部25に供給する。より詳細には、例えば、距離画像生成部24は、2値画像である図5の画像P12を距離画像生成処理により、図5の画像P14で示されるような距離画像を生成する。尚、距離画像生成処理については、詳細を図6のフローチャートを参照して後述する。
ステップS14において、エネルギー算出部25は、距離画像を使って入力画像におけるエネルギーを計算する。ここで、エネルギー算出部25は、以下の式(1)で示されるエネルギーE(X)を算出し、マスク画像生成部26に供給する。尚、この式(1)のエネルギーE(X)は、上述した特許文献1で紹介されているエネルギー計算式を拡張したものである。
E(X) =ΣE_1(xi) +λΣE_2(xi,xj)
・・・(1)
ここで、Xは画素値xの集合を現している。さらに、式(1)におけるE_1(xi),E_2(xi,xj)は、それぞれ以下の式(2),式(3)で示されるように定義される。
E_1(xi)=S(xi)+M(xi)+D(xi)
・・・(2)
E_2(xi,xj)=T(xi,xj)
・・・(3)
さらに、式(2)における、S(xi)は、入力シードの1の画素xiに与えられるエネルギーであり、以下の式(4)のように定義される。
S(xi)=+∞or−∞or0
・・・(4)
すなわち、S(xi)は、入力シードの位置の画素xiに与えられるエネルギーであって、2値画像の画素値0の画素には−∞が、画素値255の画素には+∞が、それ以外の画素には0がそれぞれ付与される。ここで、入力シードとはセグメンテーション処理に与える拘束条件であり、背景かオブジェクトの属性を画素ごとに明示的に指定するものである。例えば、2値画像の画素値0は背景の領域であり、画素値255はオブジェクトの領域であり、それ以外は未決定領域として属性自動計算の計算対象とする。
また、式(2)における、M(xi)は、色分布モデルに基づく画素ごとの尤度のエネルギーであり、以下の式(5)で定義され、範囲が−1.0乃至1.0である。
M(xi)=(Pf(C(xi))−Pb(C(xi)))/(Pf(C(xi))+Pb(C(xi)))×λm
・・・(5)
さらに、D(xi)は、以下の式(6)で定義され、各画素xiの中間軸距離画像における距離の値であり、T(xi,xj)は、以下の式(7)で定義され、隣接する画素(xi,xj)の色差に比例するエネルギーである。
D(xi)=dist(xi)×λd
・・・(6)
T(xi,xj)=exp(−|C(xi)−C(xj)|2)×λt
・・・(7)
ここで、式(5)のPf(C)は、オブジェクトの色分布モデルによって推定される色Cの尤度である。色分布モデルPf(C)は、例えば、ガウス混合モデル(Gaussian Mixture Model)、または、カーネル密度推定(Kernel Density Estimation)を使って計算する。オブジェクト色分布Pf(C)を構築するためにサンプリングする画素は、2値画像の値が0以外のオブジェクト候補画素を用いる。Pb(C)は、背景の色分布モデルによって推定される色Cの尤度であり、オブジェクトのモデルPf(C)と同様にガウス混合モデルまたはカーネル密度推定の方法を利用する。オブジェクト色分布Pb(C)を構築するためにサンプリングする画素は、2値画像の値が0の背景画素を使う。
オブジェクト候補画素は、画素ごとの重みW(xi)を乗じて色分布モデル計算に適用する。例えば、色分布モデルPf(C)がガウス混合モデルであった場合、ガウス混合モデルを定義する平均と分散は、それぞれ重み付きの平均と重み付きの分散となる。画素ごとの重みW(xi)がすべて1であれば全サンプル均等に評価するので、通常の平均と分散になる。
ここで、式(5)におけるPf(xi)は、確率分布モデルは各画素色C(xi)に重みW(xi)を重み付けして得られるものである。この画素ごとの重みW(xi)は、距離画像における各画素の値である距離dist(xi)を使って計算する。例えば、重みW(xi)は、以下の式(8)で示されるように、距離dist(xi)として直接利用しても良いし、dist(xi)閾値処理して与えてもよい。また、閾値処理する場合、例えば、重みW(xi)は距離dist(xi)が閾値Th以上は1、それ以外は0にする。例えば、閾値Thを0.9にすると、中間軸画像の軸付近の画素の重みだけが1となりオブジェクトの色分布モデルを構築するときに背景の画素をサンプリングすることを避けることができる。
W(xi) =dist(xi)
or
W(xi) =1 (dist(xi)≧Th)
0 (dist(xi)<Th)
・・・(8)
尚、式(5)乃至式(7)におけるλm、λd、λtは、それぞれの成分の強弱を調整する混合パラメータであり、範囲は0.0乃至1.0である。
ステップS15において、マスク画像生成部26は、エネルギー算出部25より供給されてくる入力画像のエネルギーE(X)を用いて、重み付きグラフを構築し、最適化計算によりマスク画像を生成してマスク画像出力判定部27に出力する。最適化計算としては、例えば、特許文献1で紹介されているグラフカット法を用いることができる。また、重み付きグラフの構築に当たっては、式(2)で示されるE_1(xi)の項を用いて、グラフのノードを設定し、式(3)で示されるE_2(xi)の項を用いてグラフのエッジを設定する。尚、具体的なグラフ構築方法およびグラフカットによるエネルギー最小化計算の詳細については、特許文献1を参照されたい。
ステップS16において、マスク画像出力判定部27は、供給されてきたマスク画像に基づいて、再度、マスク画像を求める処理を繰り返すか否かを判定する。より詳細には、マスク画像出力判定部27は、供給されてきたマスク画像をマスク画像記憶部28に記憶させると共に、直前に記憶させたマスク画像を読み出し、今現在送られてきたマスク画像と比較して、一致の程度を示す一致度を求めて、所定の閾値よりも低い場合、繰り返すものとみなして、処理は、ステップS17に進む。ここで、一致度とは、例えば、2枚のマスク画像のそれぞれの画素値が一致する画素数の全画素数に対する割合などである。
ステップS17において、マスク画像出力判定部27は、供給されてきたマスク画像を2値画像生成部23より供給されてくる2値画像に代えて、距離画像生成部24に供給する。すなわち、直前に生成されたマスク画像との一致の程度が高いとみなされるまで、ステップS13乃至S17の処理が繰り返される。そして、ステップS16において、一致度が十分に高く、繰り返しが必要ないと判定された場合、処理は、ステップS18に進む。
ステップS18において、マスク画像出力判定部27は、マスク画像生成部26より供給されてきたマスク画像をマスク画像出力部29に供給し、セグメンテーション処理の処理結果として出力させる。
尚、以上においては、直前のマスク画像との比較により、一致の程度を示す一致度が所定の閾値よりも高くなるまで繰り返す例について説明してきたが、繰り返しの判定については、これ以外の手法であってもよく、例えば、所定回数繰り返すようにしてもよいし、また、繰り返さず、処理を1回だけとするようにしてもよい。
[距離画像生成処理]
次に、図6のフローチャートを参照して、図3の距離画像生成部24による距離画像生成処理について説明する。
ステップS21において、距離画像生成部24の中間軸画像生成部51は、入力された2値画像を用いて、入力閉曲線で囲まれる範囲の中心軸を含む中心軸画像を生成し、第1距離画像生成部52、および第2距離画像生成部53に供給する。より詳細には、中間軸画像生成部51は、例えば、図5の画像P12で示されるような2値画像のうち、入力閉曲線で囲まれている画素値が128の領域について、細線化処理を実行し、図5の画像P13で示されるような中間軸からなる画像を生成する。細線化処理の方法としては、例えば、「Fully Parallel Thinning Algorithms Based on Ronse's Sufficient Conditions for Topology Preservation. In Progress in Combinatorial Image Analysis, pages 183-194, 2009. Research Publishing」に提案されている方法を用いるようにしてもよい。この方法においては、2値画像の細線化の対象となっている画素について、その画素の近傍の状態が所定の条件を満たすか否かを判定し、画素を削除した際に位相や形状的な特徴を保つように細線化を進める。図5の画像P12の画像が、細線化処理されると、例えば、入力閉曲線L1で囲まれた領域の形状の特徴を表す細線からなる中間軸画像である画像P13が得られる。中間軸画像である画像P13は、2値画像である画像P12の入力曲線L1で表される形状を複数の折れ線として表現するものである。
ステップS22において、第1距離画像生成部52は、中間軸画像を用いて、入力閉曲線を境界としたとき、境界の各画素から基準となる中間軸を構成する画素までを結ぶ最短となる経路上の隣接画素間の距離を、画素単位で累積的に加算して求める。そして、第1距離画像生成部52は、求められた各画素の距離の値を画素値とする画像を第1距離画像として正規化距離画像生成部54に供給する。
より具体的には、第1距離画像生成部52は、各画素までの距離を、例えば、Fast Marching Methodなどの方法を用いて計算する。加算する距離の値は1画素移動するごとに1加算するといった固定値距離、上下方向については1であり、または斜め方向には、√2といった隣接関係を考慮した隣接距離、または、当該位置の画素と隣接画素の色や輝度差に基づく色差距離といった値を用いるようにしてもよい。
また、詳細な距離の計算方法としては、尤度の差分を積分していったものを距離とするようにしてもよい。さらに、例えば、距離の計算方法については上述した式(5)で示した画素の色に基づく尤度M(xi)を使うことで実現できる。この場合オブジェクトと背景の境界で尤度が大きく変わることが期待されるので、その部分で大きく距離が変化し、オブジェクトと背景の分離が正しく行われやすくなると期待できる。
さらに、また、より正確な方法としては、2値画像生成部23により生成された2値画像における画素値128の各画素において空間的に最短距離にある画素値0の画素を見つけて、ユークリッド距離を逐次計算して距離を与える方法がある。
ステップS23において、第2距離画像生成部53は、中間軸画像を用いて、入力閉曲線を境界としたとき、基準となる中間軸を構成する各画素から境界を構成する各画素までを結ぶ最短となる経路上の隣接画素間の距離を、画素単位で累積的に加算して求める。そして、第2距離画像生成部53は、求められた各画素の距離の値を画素値とする画像を第2距離画像として正規化距離画像生成部54に供給する。すなわち、第2距離画像生成部53は、第1距離画像生成部52と基本的に同様の計算方法で各画素の距離を求めるが、距離の積算における始点と終点となる画素とが入れ替わる。
ステップS24において、正規化距離画像生成部54は、第1距離画像および第2距離画像に基づいて、各画素の距離の情報を正規化して、正規化距離画像を生成して、例えば、図5の画像P14で示されるような距離画像として距離画像出力部55より出力させる。より具体的には、正規化距離画像生成部54は、第1距離画像および第2距離画像の各画素の画素値の情報を用いて、以下の式(9)を計算することにより距離を正規化して正規化距離画像を生成する。
dist(xi)=d_1(xi)/(d_1(xi)+d_2(xi))
・・・(9)
ここでdist(xi)は画素xiにおける中間軸距離で、d_1(xi)は第1距離画像の画素xiの距離を示す画素値であり、d_2(xi)は第2距離画像の画素xiの距離を示す画素値である。
以上の処理により、入力閉曲線の形状を考慮して距離画像を計算することが可能となり、その距離画像に基づいて、エネルギーが求められて、そのエネルギーが最適化された情報に基づいてマスク画像が求められるので、セグメンテーション処理における処理結果であるオブジェクトの形状を、入力閉曲線の形状に近づくように調整することが可能となり、画像内のオブジェクトの情報に加えて、入力閉曲線の形状を考慮してオブジェクトの形状を求めることが可能となる。結果として、セグメンテーション処理による画素毎にオブジェクト(前景)または背景のいずれに属すかを示す属性を正確に割り付けることが可能となる。
ところで、図6の距離画像生成処理において求められた距離画像は、上述した式(7)で示される、T(xi,xj)の平滑化項のエネルギー計算にも適用することができる。すなわち、特許文献1で紹介される方法では、隣接する色の差分のみがエネルギーとして考慮されるが、図6の距離画像生成処理により計算された距離画像を使って距離成分をエネルギーとして反映させることができる。
その第1の方法は、距離画像の距離の値dist(xi)に応じて平滑化項エネルギーを変化させる方法である。すなわち、例えば、以下の式(10)で示される計算によりエネルギーが計算される。
T(xi,xj)=exp(MIN(−|C(xi)−C(xj)|2+α×dist(xi),0.0))×λt
・・・(10)
ここで、MIN(a,b)は、aとbの値のうち小さい方を選択する演算子である。また、αは距離成分dist(xi)の影響度を調整するパラメータである。
式(10)においては距離dist(xi)が大きく中間軸に近いほどエネルギーが大きくなるため、コストが上昇することで、輪郭を形成し難くしている。すなわち、オブジェクトの内部と推定される中間軸付近を切れにくくすることでオブジェクトの真の輪郭が極端に内部に縮退してしまうようなケースを抑制できる。
また、距離成分を平滑化項エネルギー計算に適用する第2の方法としては、距離画像の等高線方向を利用するというものが挙げられる。より具体的には、以下の式(11)で示される計算により、距離画像における距離が等しい画素を結ぶことにより設定される等高線に沿った方向、すなわち、各画素位置において距離dist(xi)が最も変化しない方向を求めてその方向に切れやすいようにエネルギーを設計できる。
T(xi,xj)=exp(−|C(xi)−C(xj)|2×(β×|V(xi,xj)・Δdist(xi)|)+ε)×λt
・・・(11)
ここで、βとεは方向距離成分dist(xi)の影響度を調整するパラメータである。また、V(xi,xj)は隣接する画素xi,xjの空間位置差分から求まる方向を表す単位ベクトルである。Δdist(xi)は距離画像における微分方向を表す単位ベクトルである。これはたとえばSobelフィルタなどで求めることができる。|V(xi,xj)・Δdist(xi)|の内積の絶対値が小さいとき、すなわち、エッジが距離画像の等高線方向を向いているときにエネルギーを小さくすることで輪郭になりやすいように調整できる。これによって、入力閉曲線と同じ輪郭方向を持ったセグメンテーション結果を出力され易くすることができる。
<第2実施例>
[その他の距離画像生成部の構成例]
以上においては、距離画像生成部24において、境界となる入力閉曲線上の画素と、中間軸を構成する画素間の距離を画素単位で求め、これらの距離を画素値とした距離画像に基づいてエネルギーを計算して、最適化処理によりマスク画像を生成する例について説明してきた。しかしながら、中間軸などのような基準となる位置から入力閉曲線上の画素までの距離を定義し、画素単位で距離に応じた画素値を持つ距離画像が求められればよいので、その他の定義で画素単位の距離を定めた距離画像を求めてもよい。例えば、画素単位の距離を定義するその他の手法としては、例えば、入力閉曲線の形状をモーフィングにより特定の位置を中心とした円形などに変形させて、モーフィングに対応した画素位置における中心からの距離を正規化距離とみなして、距離画像を生成するようにしてもよい。
図7は、入力閉曲線の形状を円形にモーフィングすることにより、画素単位で円の中心を基準となる位置として、その基準となる位置からの距離で定義される画素値からなる距離画像を生成するようにした距離画像生成部24の構成例を示している。
図7の距離画像生成部24は、頂点列計算部71、ドロネー三角形化計算部72、追加頂点平均値座標計算部73、円周頂点列計算部74、円周追加頂点位置計算部75、距離計算部76、および距離画像出力部77を備えている。
頂点列計算部71は、入力閉曲線上に頂点となる画素を設定し、設定された画素の情報をドロネー三角形化計算部72に供給する。より詳細には、頂点列計算部71は、入力閉曲線上のいずれかの画素を基点として、隣接する画素に同一の画素値(例えば、図5の画像P11における入力閉曲線L1であれば、画素値0の画素)を順次検索すると共に、所定数毎にほぼ一定間隔で間引きする。
ドロネー三角形化計算部72は、頂点として設定された画素の位置の情報を用いて、入力閉曲線上の頂点列のうち指定した頂点ペアが必ず三角形の辺となるように順次接続することを拘束条件として、ドロネー三角形を順次設定し、その情報を追加頂点平均値座標計算部73、および円周頂点列計算部74に供給する。この際、ドロネー三角形化計算部72は、必要に応じて追加頂点を設定する。
追加頂点平均値座標計算部73は、ドロネー三角形化計算部72より供給されてきた頂点の情報に基づいて、追加した頂点の平均座標位置を、各頂点の位置座標に対して重みを付加して計算し、円周頂点列計算部74、および円周追加頂点位置計算部75に供給する。
円周頂点列計算部74は、ドロネー三角形化計算部72より供給されてくる頂点情報、および、追加頂点の平均座標位置の情報に基づいて、入力閉曲線を円周状にモーフィングした場合の位置を計算して、円周追加頂点位置計算部75、および距離計算部76に供給する。
円周追加頂点位置計算部75は、円周頂点列計算部74より供給されてくる円周頂点列の各座標の情報と、追加頂点平均値座標計算部73より供給されてくる追加頂点平均値座標とに基づいて、各頂点を円周状にモーフィングした際に移動する追加頂点平均値座標に対応する座標を計算し、距離計算部76に供給する。
距離計算部76は、モーフィングした際に移動する入力閉曲線内の各座標の円の中心からの距離を計算し、計算結果を対応するモーフィング前の座標の各画素における入力閉曲線内の画素値とした距離画像を生成して、距離画像出力部77に供給し、出力させる。
[図7の距離画像生成部における距離画像生成処理]
ここで、図8のフローチャートを参照して、図7の距離画像生成部24における距離画像生成処理について説明する。
ステップS31において、頂点列計算部71は、入力閉曲線画像の閉曲線を折れ線で近似した閉曲線頂点列を計算する。より詳細には、頂点列計算部71は、入力閉曲線画像が、例えば、図5の画像P11である場合、画素値が0となる入力閉曲線L1上の画素を抽出し、それらを所定の間隔で間引き、頂点列を設定する。例えば、図9の画像P31で示されるような場合、オブジェクトが実線で描かれた星型の形状であって、点線で示されるように入力閉曲線が設定されたとき、頂点列計算部71は、図9の画像P33で示されるように、黒丸で示される頂点C1を基点として、頂点C1乃至C10を1周するように頂点列として設定する。
ステップS32において、ドロネー三角形化計算部72は、入力閉曲線に基づいて計算された頂点列の情報より、ドロネー三角形分割処理を実行し、ドロネー三角形集合を計算により生成し、追加頂点平均値座標計算部73、および円周頂点列計算部74に供給する。ドロネー三角形とは、構成した三角形の外接円の内側に他の点を含まないように三角形を構成するものである。ドロネー三角形化計算部72は、入力閉曲線上の頂点列の接続を拘束条件としたドロネー三角形アルゴリズムにより、例えば、図9の画像P34で示されるように、ドロネー三角形集合を求める。このとき、ドロネー三角形化計算部72は、図9の画像P34の白丸で示される追加頂点d1のように、拘束付きドロネー三角形アルゴリズムにより、元々設定された頂点列だけではドロネー三角形に分割することができないとき、必要に応じて追加頂点を追加して、拘束条件ドロネー三角形に分割する。
例えば、図9の画像P34の場合、頂点c10,c2,c9からなる三角形、頂点c9,c8,c2からなる三角形、頂点c6,c7,c8からなる三角形、頂点c4,c5,c6からなる三角形、頂点c2,c3,c4からなる三角形、および頂点c1,c2,c10からなる三角形、並びに、追加頂点d1、頂点c2,c8からなる三角形、追加頂点d1、頂点c2,c4からなる三角形、追加頂点d1、頂点c4,c6からなる三角形、および追加頂点d1、頂点c6,c8からなる三角形に分割されている。
ステップS33において、追加頂点平均値座標計算部73は、ステップS32の処理において追加されたドロネー三角形の追加頂点の平均値座標(Mean Value Coordinate)を求め、円周頂点列計算部74、および円周追加頂点位置計算部75に供給する。より詳細には、追加頂点平均値座標計算部73は、入力閉曲線上の頂点列の各位置を重み付け平均した位置として、追加頂点の平均値座標を計算する。このとき、追加頂点の平均値座標は、入力閉曲線上の頂点列の各重みは平均値座標アルゴリズムを使用して計算する。追加頂点平均値座標計算部73は、平均値座標として求めたい頂点vxと基準となる頂点列viの位置関係とから平均値座標を計算する。
より具体的には、追加頂点平均値座標計算部73は、図10で示されるように、追加頂点vxと基準となる頂点viの距離および角度から各頂点viの重みから、以下の式(12)を計算することにより平均値座標を求める。
v_x=Σλi×vi
・・・(12)
ここで、λiは、以下の式(13)で定義され、このうちwiは、以下の式(14)で定義される。
Figure 0005505164
・・・(13)
Figure 0005505164
・・・(14)
αiは、追加頂点vxを頂点とし、基準となる頂点との成す角がである。すなわち、重みwiの総合計は、1となるように設定されており、式(13),式(14)で示されるように、正規化される。
尚、平均値座標の計算方法の詳細については、「FLOATER, M. S., K´OS, G., AND REIMERS, M. 2005. Mean value coordinates in 3d. Comput. Aided Geom. Des. 22, 7, 623.631.」を参照されたい。
ステップS34において、円周頂点列計算部74は、入力閉曲線上の頂点列を円形に変形して円周頂点列を計算し、円周追加頂点位置計算部75、および距離計算部76に供給する。より具体的には、円周頂点列計算部74は、例えば、図9の画像P35で示されるように、半径1.0の円を仮定し、円周上に等間隔に入力閉曲線の頂点列C1’乃至C10’を配置して円周頂点列とする。すなわち、このとき、入力閉曲線の形状が、半径1.0の円形にモーフィングされるため、入力閉曲線内の画像の座標もモーフィングにより移動されることになる。
ステップS35において、円周追加頂点位置計算部75は、円周頂点列計算部74より供給されてくる円周頂点列の座標、および追加頂点平均値座標計算部73により計算された追加頂点の平均値座標を使って、円形にモーフィング後の追加頂点の位置を計算する。ここで、追加頂点の位置は、円形にモーフィングされた円周頂点列に平均値座標の重みを使って重み付き平均として計算する。尚、当然のことながら、モーフィングされても、ドロネー三角形の接続情報はそのまま維持される。ここまでの処理により円形にモーフィングされた円周頂点列、並びにドロネー三角形の追加頂点の位置および平均値座標が得られることになる。
ステップS36において、距離計算部76は、円周頂点列の情報、および円周追加頂点位置の情報に基づいて、円形にモーフィング後の入力閉曲線内の画素の対応する位置を求め、各画素のモーフィング後の距離の情報を画素値とする距離画像を生成して、距離画像出力部77より出力させる。ここで、距離画像の画素値とされる各画素の距離は、この円形の外周を0.0、中心を1.0として定義し、モーフィング前の形状に対応する画素の画素値とする。このような処理により、モーフィング前の画素が、モーフィング後の円形の位置に1対1に対応づけられて、円形内のどの位置に対応するかによって、基準となる中心からの距離が設定され、モーフィング前の画素の画素値とされる。
より詳細には、距離計算部76は、処理対象の画素が、画素g1であるとき、求められたドロネー三角形集合のいずれのドロネー三角形に含まれるかを計算して三角形tを得る。次に、距離計算部76は、三角形tの3つの頂点位置を使って画素位置g1の重心座標を求める。さらに、距離計算部76は、重心座標は位置g1を3つの頂点の重み付き平均で表現するとき、その3つの重みwを求める。そして、距離計算部76は、三角形tのモーフィング後の三角形t’の円形での頂点座標を得て、位置g1の円形での位置g1’を、3つの重みwを使って計算する。最後に、距離計算部76は、モーフィング後である円形での位置g1'の中心からの距離を計算して画素g1における距離dist(g1)として求めることができる。
以上の処理により、入力閉曲線の形状を円形に変換したときの対応する各画素の中心からの距離を画素とした距離画像を求めることが可能となる。
尚、モーフィングにより求められた距離画像を用いたセグメンテーション処理については、図4のフローチャートを参照して説明した処理と同様であるので、その説明は省略すうものとする。
以上のように、オブジェクトを囲むように入力される入力閉曲線の形状に従って、入力閉曲線内における基準となる位置(中間軸または円形にモーフィングした後の円の中心位置)からの距離を画素値とする距離画像を生成し、距離画像に基づいてエネルギーを算出することにより、画素単位でオブジェクトに属する画素であるか、または、オブジェクトに属する画素以外の画素であるかの属性をより適切に割り付けるようにした。結果として、入力画像内におけるオブジェクトの画像としての特徴に加えて、入力閉曲線の形状の情報を考慮したセグメンテーション処理を実現することが可能となり、セグメンテーション処理によるオブジェクトを特定する精度を向上させることが可能となる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図11は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
11 画像処理装置, 21 画像取得部, 22 入力閉曲線画像取得部, 23 2値画像生成部, 24 距離画像生成部, 25 エネルギー算出部, 26 マスク画像生成部, 27 マスク画像出力判定部, 28 マスク画像記憶部, 29 マスク画像出力部, 51 中間軸画像生成部, 52 第1距離画像生成部, 53 第2距離画像生成部, 54 正規化距離画像生成部, 55 距離画像出力部, 71 頂点列計算部, 72 ドロネー三角形化計算部, 73 追加頂点平均値座標計算部, 74 円周頂点列計算部, 75 円周追加頂点位置計算部, 76 距離計算部, 77 距離画像出力部

Claims (12)

  1. 入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得手段と、
    前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される画素値からなる距離画像を生成する距離画像生成手段と、
    前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出手段と、
    前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成手段と
    を含む画像処理装置。
  2. 前記距離画像生成手段は、前記入力閉曲線の内部に中間軸を計算し、各画素位置において計算した前記中間軸と前記入力閉曲線までの距離を内分して各画素の距離を求め、前記距離に応じて画素単位で設定される画素値からなる前記距離画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記距離画像生成手段は、前記入力閉曲線を内部と外部で2値化した画像のうち、前記入力閉曲線の内部の形状を細線化処理することによって中間軸を計算する
    請求項2に記載の画像処理装置。
  4. 前記距離画像生成手段は、前記入力閉曲線の形状が円形になるように上記入力閉曲線内部をモーフィング変形し、各画素位置が前記モーフィング変形後に移動する位置から変形後の入力閉曲線までの距離に基づいて各画素の距離を求め、前記距離に応じて画素単位で設定される画素値からなる前記距離画像を生成する
    請求項1に記載の画像処理装置。
  5. 前記距離画像における各画素の距離は、輝度、RGBの色の差、または尤度の差を含む、前記各画素に関連づけられた特徴量の差分を積分した距離である
    請求項2,4に記載の画像処理装置。
  6. 前記距離画像における各画素の距離は、基準となる位置の画素と前記入力閉曲線の位置の画素との間で設定される経路上の空間的な距離である
    請求項2,4に記載の画像処理装置。
  7. 前記エネルギー算出手段は、前記距離画像の各画素の距離によって各画素の色を重み付けして色分布モデルを計算し、前記色分布モデルに基づいてエネルギーを算出する
    請求項1に記載の画像処理装置。
  8. 前記エネルギー算出手段は、前記各画素の色に応じて計算するエネルギーを前記距離画像における各画素の距離の値に基づいて増減する
    請求項1に記載の画像処理装置。
  9. 前記エネルギー算出手段は、前記各画素間の色差に応じて計算するエネルギーを前記距離画像の各画素の距離の値に基づいて増減する
    請求項1に記載の画像処理装置。
  10. 前記エネルギー算出手段は、前記距離画像における各画素の距離の勾配方向を計算し、前記勾配方向と画素間の接続方向の角度差に応じてエネルギーを増減する
    請求項1に記載の画像処理装置。
  11. 入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得手段と、
    前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される画素値からなる距離画像を生成する距離画像生成手段と、
    前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出手段と、
    前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成手段と
    を含む画像処理装置の画像処理方法は、
    前記入力閉曲線画像取得手段における、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得ステップと、
    前記距離画像生成手段における、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される値からなる距離画像を生成する距離画像生成ステップと、
    前記エネルギー算出手段における、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出ステップと、
    前記マスク画像生成手段における、前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成ステップと
    を含む画像処理方法。
  12. 入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得手段と、
    前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される画素値からなる距離画像を生成する距離画像生成手段と、
    前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出手段と、
    前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成手段と
    を含む画像処理装置を制御するコンピュータに、
    前記入力閉曲線画像取得手段における、入力画像におけるオブジェクトを囲むように入力される入力閉曲線を含む画像を取得する入力閉曲線画像取得ステップと、
    前記距離画像生成手段における、前記入力閉曲線の形状に従って、前記入力閉曲線からの距離に応じて画素単位で設定される値からなる距離画像を生成する距離画像生成ステップと、
    前記エネルギー算出手段における、前記画素単位の距離に基づいて変化する距離エネルギー、または前記距離画像を用いて、前記オブジェクトの領域および前記オブジェクトの領域以外の領域の色分布モデルに基づいた画素単位の尤度に応じて変化する尤度エネルギーと、前記距離画像を用いて隣接する画素間の色差に変化する色差エネルギーとを含む前記入力画像の入力画像エネルギーを算出するエネルギー算出ステップと、
    前記マスク画像生成手段における、前記入力画像エネルギーを最小化するように計算し、最小化された入力画像エネルギーに基づいて、前記入力画像のオブジェクトの領域、および前記オブジェクト領域ではない領域のいずれかの属性を割り付け、マスク画像を生成するマスク画像生成ステップと
    を含む処理を実行させるプログラム。
JP2010166195A 2010-07-23 2010-07-23 画像処理装置および方法、並びにプログラム Expired - Fee Related JP5505164B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010166195A JP5505164B2 (ja) 2010-07-23 2010-07-23 画像処理装置および方法、並びにプログラム
US13/177,809 US8594434B2 (en) 2010-07-23 2011-07-07 Device, method, and computer-readable storage medium for segmentation of an image
CN2011102046345A CN102346912A (zh) 2010-07-23 2011-07-15 图像处理装置、图像处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010166195A JP5505164B2 (ja) 2010-07-23 2010-07-23 画像処理装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2012027713A JP2012027713A (ja) 2012-02-09
JP2012027713A5 JP2012027713A5 (ja) 2013-08-15
JP5505164B2 true JP5505164B2 (ja) 2014-05-28

Family

ID=45493635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010166195A Expired - Fee Related JP5505164B2 (ja) 2010-07-23 2010-07-23 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8594434B2 (ja)
JP (1) JP5505164B2 (ja)
CN (1) CN102346912A (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8989437B2 (en) * 2011-05-16 2015-03-24 Microsoft Corporation Salient object detection by composition
GB201116960D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Monocular camera localisation using prior point clouds
CN103310221B (zh) * 2012-03-16 2016-04-13 富士通株式会社 图像处理装置、图像处理方法以及设备
CN102663748A (zh) * 2012-03-27 2012-09-12 电子科技大学 基于频域的低景深图像分割方法
JP6136130B2 (ja) * 2012-06-29 2017-05-31 カシオ計算機株式会社 画像領域分割装置、方法、およびプログラム
JP5872395B2 (ja) * 2012-06-29 2016-03-01 セコム株式会社 領域分割装置
JP5872401B2 (ja) * 2012-07-10 2016-03-01 セコム株式会社 領域分割装置
CN102930296B (zh) * 2012-11-01 2015-08-26 长沙纳特微视网络科技有限公司 一种图像识别方法及装置
CN103886622B (zh) * 2012-12-21 2017-10-31 腾讯科技(深圳)有限公司 自动图像区域划分的实现方法及实现装置
JP5879291B2 (ja) 2013-03-27 2016-03-08 富士フイルム株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
JP6194185B2 (ja) * 2013-04-17 2017-09-06 株式会社エム・ソフト 画像領域抽出方法および画像領域抽出システム
KR102161052B1 (ko) * 2013-08-27 2020-09-29 삼성전자주식회사 영상에서 객체를 분리하는 방법 및 장치.
US11797601B2 (en) * 2015-08-26 2023-10-24 Incogna Inc. System and method for image processing for identifying trends
JP6626344B2 (ja) * 2015-09-29 2019-12-25 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
KR20180042733A (ko) * 2016-10-18 2018-04-26 삼성전자주식회사 영상 처리 장치 및 방법
JP7138032B2 (ja) * 2018-12-07 2022-09-15 富士通株式会社 画像変換装置、画像変換プログラム、および画像変換方法
JP7392572B2 (ja) * 2020-05-21 2023-12-06 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US20230205820A1 (en) * 2021-12-29 2023-06-29 Autodesk, Inc. Geometry-based design data search tool

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69429743T2 (de) * 1993-06-29 2002-10-02 Koninkl Philips Electronics Nv Verfahren und Gerät zur Bestimmung einer Kontur in einem durch eine Dichteverteilung gekennzeichneten Raum
JP3576759B2 (ja) * 1997-07-29 2004-10-13 シャープ株式会社 画像処理装置
US6111983A (en) * 1997-12-30 2000-08-29 The Trustees Of Columbia University In The City Of New York Determination of image shapes using training and sectoring
US6574353B1 (en) * 2000-02-08 2003-06-03 University Of Washington Video object tracking using a hierarchy of deformable templates
JP4409072B2 (ja) * 2000-09-14 2010-02-03 本田技研工業株式会社 輪郭抽出装置、輪郭抽出方法、及び輪郭抽出プログラムを記録した記録媒体
JP3905388B2 (ja) * 2002-01-11 2007-04-18 独立行政法人科学技術振興機構 画像処理方法および装置
JP4184842B2 (ja) * 2003-03-19 2008-11-19 富士フイルム株式会社 画像判別装置、方法およびプログラム
EP1603076A1 (en) * 2004-05-13 2005-12-07 Aalborg Universitet Computerized cortex boundary extraction from MR images
US7660463B2 (en) * 2004-06-03 2010-02-09 Microsoft Corporation Foreground extraction using iterated graph cuts
US7400767B2 (en) * 2005-07-15 2008-07-15 Siemens Medical Solutions Usa, Inc. System and method for graph cuts image segmentation using a shape prior
US7876937B2 (en) * 2006-09-15 2011-01-25 Carestream Health, Inc. Localization of nodules in a radiographic image

Also Published As

Publication number Publication date
US20120020528A1 (en) 2012-01-26
CN102346912A (zh) 2012-02-08
JP2012027713A (ja) 2012-02-09
US8594434B2 (en) 2013-11-26

Similar Documents

Publication Publication Date Title
JP5505164B2 (ja) 画像処理装置および方法、並びにプログラム
JP5045619B2 (ja) 画像処理装置および方法、並びにプログラム
US9928601B2 (en) Automatic segmentation of hair in images
DK3161787T3 (en) DETECTING EDGE OF A CELL CEREALS USING CAR ANALYSIS
US10102450B2 (en) Superpixel generation with improved spatial coherency
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
US7324104B1 (en) Method of centerline generation in virtual objects
WO2020165557A1 (en) 3d face reconstruction system and method
WO2011013579A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN109961506A (zh) 一种融合改进Census图的局部场景三维重建方法
CN110610505A (zh) 一种融合深度和色彩信息的图像分割方法
JP4568843B2 (ja) 解析曲面セグメンテーション装置、方法、プログラム及び記録媒体
JP2006190307A (ja) 画像におけるオブジェクトをセグメント化する方法及び装置
EP3300025A1 (en) Image processing device and image processing method
KR100813168B1 (ko) 사전 모양 정보를 이용한 디지털 영상에서의 물체를추출하기 위한 방법 및 상기 방법을 수행하는 시스템
CN112200083B (zh) 一种基于多元高斯混合模型的机载多光谱LiDAR数据分割方法
KR102472004B1 (ko) 복수의 센서간 캘리브레이션 방법 및 장치
JP2016009488A (ja) 時間的に整合性のあるスーパーピクセルを生成するための方法および装置
CN109741358B (zh) 基于自适应超图学习的超像素分割方法
CN113436251A (zh) 一种基于改进的yolo6d算法的位姿估计系统及方法
Omidalizarandi et al. Segmentation and classification of point clouds from dense aerial image matching
JP2018206260A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
Ni et al. Applications of 3d-edge detection for als point cloud
CN115239899B (zh) 位姿图生成方法、高精地图生成方法和装置
CN112884884A (zh) 一种候选区域生成方法及系统

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140303

LAPS Cancellation because of no payment of annual fees