JP2006053919A - 画像データ分離システム及びその方法 - Google Patents

画像データ分離システム及びその方法 Download PDF

Info

Publication number
JP2006053919A
JP2006053919A JP2005230120A JP2005230120A JP2006053919A JP 2006053919 A JP2006053919 A JP 2006053919A JP 2005230120 A JP2005230120 A JP 2005230120A JP 2005230120 A JP2005230120 A JP 2005230120A JP 2006053919 A JP2006053919 A JP 2006053919A
Authority
JP
Japan
Prior art keywords
polygon
foreground
image
user
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005230120A
Other languages
English (en)
Inventor
Chi Keung Tang
クゥン タン チー
Heung-Yeung Shum
シュン フゥン−イェン
Jian Sun
スン チャン
Ying Li
リー イン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006053919A publication Critical patent/JP2006053919A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Character Input (AREA)

Abstract

【課題】画像データ分離システム及びその方法を提供すること。
【解決手段】本発明の方法は、第1の指定モードを用いるユーザによって指定されたデータノードの第1の集合を受け取り、第2の指定モードを用いるユーザによって指定されたデータノードの第2の集合を受け取り、データノードの集合体から分離されるデータノードと、第1の集合のデータノード及び第2の集合のデータノードとの間の類似性基準に基づいて、データノードの集合体から分離されるデータノードを自動的に識別する。また、本発明のシステムは、決定された領域を、決定された領域にある画素と、決定された領域に含まれるべき画素に関連付けられた、1つ又は複数の指定されたシード画素の集合との間の類似性基準に基づいて、画像から自動的に区分化する画像処理モジュールを備えている。
【選択図】図1

Description

本発明は、データ処理技術に関し、より詳細には、画像データ分離システム及びその方法に関する。
画像処理の分野では、ユーザが、画像の特定部分をその画像全体から分離しなければならないことがよくある。そうしたユーザは、一般に、どの部分を分離すべきかの視覚的センスを有するが、その情報をコンピュータベースの画像処理ツールに伝えることがまったく苦手である場合がある。画像から特定の画像データを分離する作業は、非常に時間がかかり、かつ、退屈である場合があり、画像や分離する部分が複雑である場合は特にそうである。
「画像切り取り(image cutout)」は、画像内の物体をその背景から抽出する手法である。切り取られたものを別の背景と合成して、新しいシーン(scene)を作成することが可能である。また、デジタル画像処理の登場により、前景と背景とを個々の画素レベルで指定することが可能になった。画像切り取りの作業では、画像のどの部分が「前景(foreground)」(ユーザが切り取りたい部分)であって、どの部分が背景(background)であるかを指定する(specify)ことが必要である。従来のいくつかの方法では、ユーザは、前景の各画素を個別に指定しなければならない。このような画素精度の退屈な作業のおかげで、画像切り取りは、ユーザにとって特にいらいらする仕事になる可能性がある。
それらとは別の2つの方法が発展してきた。それは境界ベース(boundary−base)方法と領域ベース(region−base)方法である。これらの方法はいずれも、コンピュータが検出可能な画像の特徴を取得し、それらを用いて前景指定処理の自動化又は誘導を支援する。境界ベース方法は、ユーザが前景を展開曲線(evolving curve)で囲むことを可能にして前景を切り取る方法である。ユーザが前景の境界をなぞると、システムがその曲線を区分的に最適化する。境界ベース方法の例として、Intelligent Scissor、Image Snapping、Jetstreamなどがある。
この境界ベース方法は、画素の個別選択より簡単であるが、やはりユーザに多大な注意力を求める。たとえば、それらのアルゴリズムによって用いられる特徴と前景画像とが完全に一致することはほとんどない。したがって、ユーザは、その曲線を注意深く制御しなければならない。間違ってしまったら、その曲線を「後退」させて、再度試みなければならない。ユーザはさらに、境界全体を閉じることを求められる。これは、物体が複雑で高解像度の場合には、ある程度の時間を要する可能性がある。目を離さず制御することが必要であり、そのために、ユーザは、全体的な進行状況を把握しにくくなる。境界線を画素精度でドラッグしながら画像をズームインしたりズームアウトしたりするのは困難である。最後に、境界が指定されてしまうと、ほとんどのツールは役に立たなくなる。エラーがあれば、最後に従来の選択ツールを用いてクリーンアップしなければならない。
一方、領域ベース方法は、画素精度の境界線を必要としないが、精度が低くなる傾向がある。従来の領域ベース方法は、前景又は背景に含まれるべき画素から共通の特徴(RGBカラーなど)を有する画素をユーザが選択することを可能にする。それに対して、基礎となるアルゴリズムが、選択された画素と共通の特徴を有する周囲画素をユーザ指定の許容度の範囲で外挿する。このような領域ベース方法の1つの問題は、領域検出アルゴリズムで用いられる特徴が所望の前景又は背景の要素と一致しない場合がよくあることである。多くの場合、集合写真から単一の個人を除去する場合のように、前景と背景とを見分けられる具体的な特徴は、ユーザの支援なしでは存在しない。
また、従来の領域ベース方法では、ある程度の特徴の違いが存在しても、影や低コントラストのエッジのような曖昧な領域では常に精度を調整しなければならない場合が多い。コントラストのそのような精度調整は、きわめて退屈な作業である可能性がある。実際には、ユーザは、満足な結果を得るために、従来の境界ツールと領域ツールと手動選択とを組み合わせて用いなければならない。
したがって、システムが、データのすべてのユニット(unit;最小構成単位)を指定することをユーザに求めずに、精度を犠牲にすることなく、分離するデータをユーザが指定できるようにする必要がある。
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、画像の分離する領域を、その領域内の画素に対応する類似性基準に基づいて自動的に識別するようにした画像データ分離システム及びその方法を提供することにある。
本発明の画像データ分離システムは、決定された領域を、決定された領域にある画素と、決定された領域に含まれるべき画素に関連付けられた、1つ又は複数の指定されたシード画素(seed pixels)の集合との間の類似性を特徴づける類似性基準に基づいて、画像から自動的に区分化する画像処理モジュールを備えている。
以下、図面を参照して本発明の実施形態について説明する。
<例示的システム>
例示的システムは、1つ又は複数のデータのユニット(データノード(data node)という)をデータノードの集合体(collection)から分離するデータ分離モジュールを備えている。本明細書に記載の実施形態では、データノードは、デジタル画像における画素(pixel)を意味している。説明のために、本明細書で図示及び記載する実施態様は、デジタル画像の前景領域(foreground region)にある画素をその画像の背景領域(background region)から分離することを含んでいる。
図1は、デジタル画像において前景領域を背景領域から分離することを含むデータ分離処理のステップの例示的シーケンスを示す図で、デジタル画像102において前景領域を背景領域から分離する例示的な3つのステップ処理100を示している。これらの3つのステップは、マーキングステップ104と、ポリゴン変換/境界編集ステップ106と、抽出ステップ108とを有している。この3つのステップ処理100は、最初に大まかな領域を粗めに指定する処理と、その後に、指定された領域が細かく区切られる粗から密への処理とがある。例示的処理100を示すために、前景領域110は犬を含んでいる。この前景領域110が背景領域112から分離される。
マーキングステップ104では、前景領域110と背景領域112とがユーザによって指定される。ユーザは、前景指定モード(foreground specification mode)で、前景領域110の任意の数の画素をマーキングする。同様にユーザは、背景指定モード(background specification mode)で、背景領域112の任意の数の画素をマーキングする。
本実施形態において、前景指定モードでは、前景領域内の画素をポイントしている間の入力装置の1つのコントロール(マウスの左ボタンなど)をユーザが活性化(activation;実行)することを含み、背景指定モードでは、背景内の画素をポイントしている間の入力装置の別のコントロール(マウスの右ボタンなど)をユーザが活性化することを含んでいる。この実施形態では、前景領域110が前景インジケータ(foreground indicator)114によって第1の色(たとえば、黄色の線)でマーキングされ、背景領域112が背景インジケータ(background indicator)116によって別の色(たとえば、青色の線)でマーキングされる。このマーキングステップ102については、後で例示的ユーザインターフェースに関してさらに詳細に説明する。
前景領域110と背景領域112とが指定された後、前景領域110が自動的に境界マーカで囲まれる。
図2は、マーキングステップ及びポリゴン編集ステップにおけるデジタル画像の一部の例示的拡大図で、拡大画像200の中の例示的境界マーカ202を詳細に示した図である。図2に示すように、例示的境界マーカ202は、「蟻の行進」、すなわち、動いている白黒の破線で構成される。
図1に示すポリゴン変換及び境界編集ステップ106は、前景領域110を、複数の頂点及び線を含むポリゴンに自動的に変換し、ユーザがそのポリゴンを編集できるようにする。本実施形態では、ユーザは、ポリゴンの頂点(polygon vertice)をクリックアンドドラッグして境界マーカ202を調整することにより、境界を編集できる。他の実施形態では、ユーザは、ポリゴンブラシ(後述する)を用いてポリゴンの線を簡単に調整できる。図2は、ポリゴン線208交点にポリゴン頂点206がある他の拡大画像204も示している。
ポリゴン変換及び境界編集ステップ106の後、抽出ステップ108において、前景領域110が背景領域112から分離される。抽出された前景領域110は、背景が異なる他の画像に挿入されることが可能となる。
図3は、類似性解析に基づいて前景シード及び背景シードが指定され、区分化境界が位置決めされる例示的画像データ分離方式を示す図で、デジタル画像において他のノードから分離されるノードを含むノードの例示的グラフ300を示している。この実施形態では、ノードは画素である。グラフ300は、画像内の領域をマーキング及び分離しやすくするグラフカット(graph cut)方式を示すために用いる。グラフ300には、前景領域と背景領域とを指定するために、それぞれ前景マーカ302と背景マーカ304とが配置されている。
ユーザが画像をマーキングすると、それらのマークと交わる画素が、どのマークと交わっているかに応じて集合(set)F又は集合Bに割り当てられる。集合Fは、前景マーカ302と交わる画素(前景シード(foreground seed)306という)を含んでいる。集合Bは、背景マーカ304と交わる画素(背景シード(background seed)308という)を含んでいる。第3の、不定ノード310の集合Uは、マーキングされていない画素を含むものと定義される。
マーキングされていない画素は、集合F及び集合Bにある画素との類似性に基づいて前景領域又は背景領域に割り当てられる。類似性が決定された後、前景の画素と背景の画素との間に区分化境界312がレンダリング(render)される。
本実施形態では、類似性はエネルギー関数で計量される。グラフカットアルゴリズムは、区分化境界を配置するためにエネルギー関数を最小化する。グラフ300は、ステートメントG=(N,A)で特徴づけることができる。ただし、Nはすべてのノードの集合であり、Aは、隣接するノード同士を接続するすべての円弧の集合である。この円弧は、近傍画素間の、複数の(たとえば、4つ又は8つの)接続による隣接関係である。各ノードには、一意のラベルxi(i∈N)が割り当てられる。ただし、xi∈{foreground(=1),background(=0)}である。解X={xi}は、GibbsエネルギーE(X)関数
Figure 2006053919
を最小化することによって得られる。ただし、E1(xi)は尤度(likelihood)エネルギーと呼ばれ、E2(xi,xj)は優先エネルギー(prior energy)と呼ばれ、λは2つの項の作用を均衡させるパラメータである。
E1(xi)は、ラベルxiを有するノードiに関連付けられたコストを表す。E2(xi,xj)は、隣接するノードi及びjのラベルがそれぞれxi及びxjの場合のコストを表す。エネルギー項E1及びE2は、ユーザ入力に基づいて決定される。式(1)においてE(X)を最小化する方法は、当業者には周知である。E(X)を最小化する方法の一例は、最大フローアルゴリズムである。
式(1)では、E1がノードの色の類似性をエンコードし、E1が前景又は背景へのノードの割り当てに用いられる。E1を計算するために、集合F及び集合Bにある色がK−means法によって最初にクラスタ化される。この方法では、前景クラスタ及び背景クラスタの中間の色がそれぞれ
Figure 2006053919
及び
Figure 2006053919
として表される。
K−means法は、64個のクラスタを有するように初期化される。次に、各ノードiについて、ノードの色C(i)から前景クラスタ及び背景クラスタまでの最短距離が計算される。前景クラスタ及び背景クラスタまでの最短距離は、それぞれ式(2a)及び(2b)で計算される。
Figure 2006053919
Figure 2006053919
したがって、E1(xi)は以下のように定義できる。
Figure 2006053919
式(3)では、U=N|{F∪B}が図3の不定領域を表す。式(1)及び(2)は、集合F又は集合Bのノードがユーザ入力と矛盾しないラベルを必ず有するようにする。式(3)の結果として、前景集合Fと類似する色を有するノードは前景に割り当てられ、背景集合Bと類似する色を有するノードは背景に割り当てられる。
エネルギー値E2は、前景領域を囲む境界に沿う勾配に起因するエネルギーを表す。エネルギーE2は、2つのノードi及びjの間の色勾配の関数
2(xi,xj)=|xi−xj|g(Cij) ・・・(4)
として定義できる。ただし、
Figure 2006053919
であり、Cij=||C(i)−C(j)||2は、2つの画素i及びjの赤−緑−青(RGB)色差のL2ノルムである。
値|xi−xj|は、前景領域と背景領域との間の区分化境界に沿う分だけの勾配情報を含んでいる。したがって、E2は、隣接するノードに異なるラベル(すなわち、前景と背景)が割り当てられた場合のペナルティ項と見ることができる。隣接する2つのノードの間の類似性が高いほどE2は大きくなり、したがって、より似ていないノードi及びjが、前景と背景との間に沿って位置する。
エンハンストグラフカットアルゴリズムは、区分化処理の前に画素が分類されて領域化される事前区分化(pre−segmenting)ステップを含んでいる。この実施形態では、ノードは、個々の画素ではなく、画素のグループ又は領域である。分岐点アルゴリズムは、画素の各グループ内の小さな差を保持しながら画素のグループの境界を見つけるために用いることができる。そのような実施形態を図4に示す。エンハンストグラフカットアルゴリズムは、処理しなければならないノードがより少なく、前述の画素単位の方法より素早く完了することが可能である。したがって、エンハンストグラフカットアルゴリズムは、区分化の結果を即座にフィードバックできる。
図4は、画素のグループが、類似性解析で用いられる領域に事前区分化される例示的画像データ分離方式を示す図で、画素の他のグラフ400を示している。画素は、破線で示されたグループ402内にある。画素をどのように分類するかは、事前区分化処理の間に決定される。グラフ400は、ステートメントG=(N,A)で表すことができる。この場合、ノードNは、すべての画素グループ402の集合であり、エッジAは、隣接する画素グループ402を接続するすべての円弧の集合である。
この実施形態では、集合Fは、やはり、前景シード(図示せず)を含むように定義されるが、図3に示した実施形態と異なり、前景シードは、マーキングされている画素のグループ402である。同様に、背景シード(図示せず)の集合Bは、マーキングされた画素グループ402の集合を含んでいる。不定領域Uは、マーキングされていないグループ402を含んでいる。
グループ402の中の類似性は、前述の式(1)などのエネルギー関数を用いて決定することが可能である。尤度エネルギーE1も式(3)と同様であるが、この場合、色C(i)は、画素グループiの中間の色として計算される。説明のために、各グループ402の中間の色を、塗りつぶし円404で表わしている。
式(4)を用いて優先エネルギーE2を計算するために、第1の実施形態がCijを、2つの画素グループiとjとの間の中間色差として定義する。他の実施形態では、Cijは同様に定義されるが、画素グループiとjとの間の共有境界の長さによってさらに重み付けされる。
各グループ402は、画素グループ402に対するエネルギー最小化に基づいて、前景グループ又は背景グループとラベル付けされる。区分化境界406は、隣接する前景グループ402と背景グループ402との間にレンダリングされる。
図4の実施形態に示されるような、事前区分化(たとえば、分岐点区分化)による近似を行うことで、妥当な結果が得られ、図3に示された単一画素の区分化方法に比べて区分化にかかる時間が大幅に短縮される。さらに、分岐点アルゴリズムを適用する前に画像をダウンサンプリング又はフィルタリングすることにより、ノードの数を低減できる。たとえば、ダウンサンプリングによって、画像サイズを1Kb×1Kbまで減らすことができる。他の例として、Gaussianフィルタを用いて画像をフィルタリングできる。
図3又は図4に示した実施形態を用いると、区分化境界が決定された後に、前景領域を追跡する編集可能なポリゴンが自動的に生成される。
図5は、指定された前景シードと背景シードとの間の例示的編集可能ポリゴンを示す図で、前景シード504の集合(集合Fとラベル付けされている)と背景シード506の集合(集合Bとラベル付けされている)との間に編集可能なポリゴン502を含む例示的グラフ500を示している。編集可能なポリゴン502は、ポリゴン線510をつなぐ頂点508をいくつか含んでいる。
また、図5は、不定領域にある画素の集合も示している。不定画素の集合は、集合Uとラベル付けされている。集合Uは、ポリゴン502を広げることによって決定される。集合F及び集合Bは、集合Uのそれぞれ内部境界及び外部境界として定義される。
ポリゴン502は、繰り返しによって構築される。最初に構築されるポリゴンは頂点を1つだけ有し、この頂点が区分化境界上で最大の曲率を有する点になる。区分化境界の周囲でステップを進め、区分化境界上の各点から前のステップのポリゴンまでの距離が計算される。最も遠い点が挿入されて新しいポリゴンが生成される。最大距離が、あらかじめ定義されたしきい値(たとえば、32画素)を下回ったところで繰り返しが終了される。
ポリゴン502が構築された後、各頂点508をユーザが調整できる。たとえば、ユーザは、頂点508を「クリックアンドドラッグ」して、その頂点を別の位置まで移動することができる。ポリゴンの編集中にユーザがマウスボタンを離すと、システムがグラフカット区分化アルゴリズムを再度実行して区分化境界を最適化する。最適化された境界は、ポリゴン頂点508がその境界上にない場合でも、前景の周囲で自動的にスナップされる。
ポリゴンの編集中は、そのポリゴンが硬拘束(hard constraints)を強制されない。しかしながら、区分化アルゴリズムは、最適化された境界を得るために、ポリゴンの位置を軟拘束(soft constraint)として用いながら、E(X)を再度最適化する。尤度エネルギーE1は、前述の色(3)のように定義される。しかしながら、ポリゴンの編集中にE(X)が再コンパイルされた場合は、優先エネルギーE2が、それと異なって、式(5)に示すように定義される。
Figure 2006053919
式(5)に示すように、勾配項(Cij)に加えて、E2は、曖昧かつ低コントラストの勾配境界を扱うために、軟拘束としてのポリゴン位置の関数である。式(5)では、
Figure 2006053919
であり、Dijは、円弧の中心(i,j)からポリゴンまでの距離であり、ηは、2つの項の単位をそろえるための倍率である(標準値は10)。
式(5)では、β∈[0,1]は、D(i,j)の作用を制御するために用いられる。βの標準値は0.5であるが、この値を調整してパフォーマンスを上げることも可能である。β=1とすると、グラフカット区分化の結果が、画像の勾配に関係なくポリゴンにスナップされることに注意されたい。色勾配Cijが小さければ、E2
Figure 2006053919
が支配的になり、結果がポリゴン位置の近くにスナップされやすくなる。ポリゴンを軟拘束すると、区分化境界は、より正確に、低コントラストのエッジにスナップされる。さらに、従来の領域ベースのツールと異なり、ポリゴンを軟拘束すると、前景のエッジが曖昧か、低コントラストか、それ以外で不明確であっても、区分化が正確に行われる。
後述するユーザインターフェースを用いると、ユーザは、ポリゴンの頂点が「硬」拘束であると手動で指定して、グラフカット区分化の結果が確実にこの頂点を通るようにできる。指定された硬拘束の頂点に対しては、不定領域Uは自動的に、その二等分線に沿って2つの部分に分割される。この2つの「分割された」線は、それぞれ、前景シードF504と背景シードB506とに加えられ、それによって、グラフカット区分化の結果がその頂点を通る。これは、その頂点が、指定された位置における前景と背景との間の唯一の接続点だからである。
<例示的ユーザインターフェース>
例示的ユーザインターフェースは、ユーザが、前述したマーキングと、ポリゴン編集と、抽出の各ステップを進めることを可能にする。
図6乃至図8は、そのような例示的ユーザインターフェースの、処理の各ステップにおけるスクリーンショットを示す図である。
図6は、画像内で前景領域と背景領域とを指定できるユーザインターフェースの例示的スクリーンショットを示す図で、ユーザインターフェース600の、マーキングステップにおけるスクリーンショットを示している。最初に、画像602が、処理のためにロードされる。ユーザ対話に先立って、事前処理アルゴリズムが、事前区分化に関して既に説明したように、画像602を事前区分化できる。しかしながら、事前区分化は省略可能であり、必須のステップではない。
選択可能なステップセレクタ604が、処理の各ステップに関連付けられた3つの数字(たとえば、1、2、3)を含んでいる。ユーザがステップセレクタ604のいずれかの番号を選択すると、ユーザインターフェース600が、選択されたステップに対応する画面に進む。この図6では、ステップ1がマーキングステップに対応し、ステップ2が(図7に示した)ポリゴン編集ステップに対応し、ステップ3が(図8に示した)抽出ステップに対応している。ユーザは、ステップセレクタ604を用いて任意のステップから他の任意のステップに移動できる。
図6に示すマーキングステップでは、ユーザは、前景マーキングモードを用いて、前景領域608上に1つ又は複数のマーク606を作成できる。本実施形態では、ユーザは、前景領域608の所望の部分の上で、マウスをドラッグしながら左マウスボタンをクリックできる。他の実施形態では、ユーザは、タッチスクリーン及び/又はペンコンピューティング装置(スタイラスなど)でマーク606を作成できる。
前景マーク606は、前景色(たとえば、黄色)で示される。前景マーク606は、前景領域608を完全に塗りつぶしたり、完全に囲んだりしなくてもよい。ユーザは、前景マーク606を作成することによって、画像のどの部分が前景領域608と類似しているかを粗く指定する。
ユーザはさらに、背景マーキングモードを用いて、背景領域612上に1つ又は複数のマーク610を作成する。本実施形態では、ユーザは、背景領域612の所望の部分の上で、マウスをドラッグしながら右マウスボタンをクリックできる。他の実施形態では、ユーザは、タッチスクリーン及び/又はペンコンピューティング装置(スタイラスなど)でマーク610を作成できる。
背景マーク610は、背景色(たとえば、青色)で示される。背景マーク610は、背景領域612を完全に塗りつぶしたり、前景領域608を完全に囲んだりしなくてもよい。さらに、背景マーク610を前景領域608の境界から比較的離すことができる。ユーザは、画像602のどの部分が背景領域612と類似しているかを粗く指定するだけである。
ユーザが前景マーク606又は背景マークを描画した後にマウスボタンを離すと、グラフカットアルゴリズムがトリガされる。結果として得られる区分化境界614は、前景領域608の周囲にレンダリングされる。次に、ユーザは、画面上の区分化境界614を検査して、さらにマークを描画する必要があるかどうかを決定する。区分化境界614は、ユーザが結果をすぐに見て、必要であればマークを追加することができるように、ほぼ瞬時に生成される。
ユーザは、マークを追加することに加えて、作成済みの任意のマークを、取り消しボタン616又は削除ボタン618を用いて取り消すか、作成し直すことができる。ツールボタン620は、ユーザが構成パラメータを調整することを可能にする。例示的構成パラメータは、3つのステップにそれぞれ対応する3つのグループに編成される。マーキングステップの場合、例示的構成パラメータは速度係数である。速度係数は、事前区分化ステップで事前区分化が可能な最大画像サイズを制御する。入力画像が所与のサイズより大きい場合(たとえば、速度係数の100倍)は、要件を満たすように画像がサイズ変更される。
図7に示すポリゴン編集ステップの場合、例示的パラメータは、最大誤差、拡大尺度、浸食(erosion)尺度の3つである。最大誤差パラメータは、境界からポリゴンへの変換の誤差を制御する。拡大尺度パラメータ及び浸食尺度パラメータは、グラフカット区分化アルゴリズムのバンド幅を制御する。
図8に示す抽出ステップの場合、例示的パラメータは、分散(variance)、浸食尺度、拡大尺度、及びアルファ優先イネーブル(enable alpha prior)の4つである。分散パラメータは、Bayesian Mattingアルゴリズムのノイズに対する感受性を制御する。浸食尺度パラメータ及び拡大尺度パラメータは、境界の周囲の画素のバンドをマッティング抽出のために制御するために用いられる。アルファ優先イネーブルが有効であれば、Bayesian Mattingアルゴリズムの前に、分散アルファを用いて、フェザリングアルファ(feathering alpha)の作用が制御される。
アルファチャネルボタン622(「A」とラベル付けされている)を用いると、画像をRGBではなくアルファチャネルフォーマットで表示できる。アルファチャネル乗数ボタン624(「O」とラベル付けされている)を用いると、前景にアルファチャネルを乗じた画像を表示できる。画像ボタン626(「I」とラベル付けされている)を用いると、アルファチャネル調整をまったく行わないオリジナルのカラー画像が表示される。
トライマップ(trimap)ボタン(「T」で表示)628をトグルすると、後で詳述するトライマップインジケータを非表示にしたり表示したりできる。境界ボタン(「B」で表示)630をトグルすると、区分化境界614を非表示にしたり表示したりできる。ポリゴンボタン(「P」で表示)632をトグルすると、編集可能なポリゴンを非表示にしたり表示したりできる。マーカボタン(「M」で表示)634をトグルすると、前景マーク606及び背景マーク610を非表示にしたり表示したりできる。「on/off」ボタン636は、トライマップインジケータ、区分化境界614、ポリゴン、前景マーカ、及び背景マーカを非表示にしたり表示したりするために用いられる。
ズームコントロール638は、ユーザが画像602をズームインしたりズームアウトしたりすることを可能にする。情報ウィンドウ640は、画像602のどの部分が表示されているかを示し、ユーザは情報ウィンドウ640を用いて、選択した位置で画像をセンタリングできる。情報ウィンドウ640はまた、画像602内の選択された画素のRGB値も示す。
マーキングステップとグラフカットアルゴリズムによって、前景領域608の周囲に精度の高い区分化境界614が生成されるが、この区分化境界614をユーザがさらに改良することも可能である。その場合、ユーザはステップセレクタ604でステップ2を選択して、ポリゴン編集ステップに進む。ステップ2が選択されると、区分化境界614が自動的にポリゴンに変換される。
図7は、指定した前景領域の周囲のポリゴンを編集できるユーザインターフェースの他の例示的スクリーンショットを示す図で、ポリゴン編集ステップで用いられるユーザインターフェース600のスクリーンショットを示している。前景領域608の境界は、編集可能なポリゴン700によって定まる。ポリゴン700は、編集可能な頂点702とポリゴン線704とを含んでいる。ユーザは、頂点の直接編集ならびにポリゴンブラシという2つの方法で、頂点702を編集できる。
頂点の直接編集の場合、ユーザは、ポリゴン頂点ラジオボタン706を選択する。ポリゴン頂点ラジオボタン706が選択されると、ユーザは、マウスや他の入力装置を用いて個々の頂点を(すなわち、一度に1つの頂点を)選択して移動することができる。また、ユーザは、頂点702を追加又は削除することもできる。さらに、頂点の直接編集では、ユーザは、複数の頂点をまとめて処理できる。頂点702はかなり小さい場合があるので、個々の頂点を編集する際には、ズームコントロール638を用いて特定の部分をズームイン(拡大)すると便利である。
ポリゴンブラシの場合、ユーザは、ポリゴンブラシラジオボタン708を選択する。ユーザがポリゴンブラシラジオボタン708を選択すると、ブラシツール(brush tool)710が表示される。ブラシツール710は、ユーザが単一のストロークを描画してポリゴンの区分を置き換えることを可能にする。ポリゴン(たとえば、A)から始まり、そのポリゴンの別の場所(頂点でなくてもよい)(たとえば、B)で終わるブラシストロークをユーザが描画すると、ポリゴン700が2つの部分に分割され、その一方の、ユーザストロークに対する角度差が小さくなる。その、角度差の小さい部分が、ユーザストロークで置き換えられて、新しいポリゴンが生成される。ユーザストロークと、ポリゴンの2つの部分との角度は、頂点AにおけるAからBへの正接方向によって計測される。
図8は、指定した前景領域を画像から抽出するユーザインターフェースの他の例示的スクリーンショットを示す図で、前景抽出ステップで用いられるユーザインターフェース600のスクリーンショットを示している。ユーザは、抽出ボタン800を選択して、区分化された前景領域608を画像から切り取ることができる。前景領域608を抽出すると、背景領域が除去される。抽出された前景領域608は、次に、背景が異なる別の画像に挿入されることが可能である。
図8に示したユーザインターフェース600は、さらに、トライマップブラシセレクタ802を含んでいる。ユーザがトライマップブラシセレクタ802を選択すると、トライマップ(図示せず)がトライマップブラシツール(図示せず)とともに表示される。トライマップは、画像の3つの領域、すなわち、明確な前景領域と、明確な背景領域と、不定領域を示している。ユーザは、このトライマップをさらに改良して、境界の周囲の不定領域(たとえば、変化の激しい領域や動きの早い領域)をより多くカバーすることができる。この方法により、マッティングアルゴリズムは、不定領域の中のわずかな透過性情報や前景色も同様に抽出できる。
図9は、類似性基準に基づいてデータ分離を実行する例示的操作をフローチャートに示す図で、画像データ分離を実施するためにコンピュータが実行できる例示的操作を有するアルゴリズム900を示している。アルゴリズム900が実行される前に、画像がメモリにロードされ、ユーザに対して表示される。
任意選択の事前区分化操作902では、分岐点アルゴリズムなどのアルゴリズムに従って画素を分類して領域化することによって画像を事前区分化する。事前区分化操作902は、区分化処理を迅速化するために、画像のフィルタリング及び/又はダウンサンプリングを含むこともできる。
受け取り操作904では、前景シード及び/又は背景シードを受け取る。本実施態様では、前景シードは、ユーザが左マウスボタンをクリックし、前景シード画素の上でマウスをドラッグすることによって指定され、背景シードは、ユーザが右マウスボタンをクリックし、背景シード画素の上でマウスをドラッグすることによって指定される。前景シードは前景色で表示され、背景シードは別の色で表示される。
決定操作906では、前景又は背景への画素の割り当てに基づいて、画像内の画素の類似性基準を決定する。本実施態様では、画素は、画像内の総エネルギーが最小になるように前景又は背景に割り当てられる。
区分化操作908では、決定操作906での画素割り当てに従って画像を区分化する。前景領域の画素と背景領域の画素との間に区分化境界が自動的に生成される。
生成操作910では、区分化境界に基づいて、編集可能なポリゴンを生成する。編集可能なポリゴンがユーザに対して表示される。ユーザは、前景領域の周囲の境界をさらに改良するために、ポリゴンの頂点を移動できる。ユーザは、頂点を個別に移動したり、一度に複数の頂点を移動したりできる。
受け取り操作912では、ユーザ入力を受け取ってポリゴンを編集し、アルゴリズム900が区分化操作906に戻って、ユーザ編集に基づく画像の再割り当てを行う。区分化操作906の2回目及びその後の繰り返しでは、ポリゴンの頂点を軟拘束又は硬拘束として用いて区分化を実施する。
ユーザが前景領域の周囲のポリゴンの編集を完了した後、抽出操作914により、前景領域が画像から切り取られる。抽出操作914の一実施態様では、切り取った前景を別の背景に合成する前に、コヒーレントマッティング(アルファ優先付きエンハンストBayesianマッティングアルゴリズム(enhanced Bayesian matting algorithm with alpha prior))を用いて、区分化境界の周囲の不透明度を計算する。マッティングに用いる不定領域は、区分化境界を拡大することにより計算される。通常、この拡大は、各側の4画素分の幅である。
<例示的コンピューティング装置>
図10は、本発明におけるデータ分離操作を実行するようにプログラムできる汎用コンピュータを示す図で、例示的な画像データ分離方法及びそのシステムを実装するために用いることのできる例示的コンピューティング装置1000の概略図を示している。コンピューティング装置1000は、1つ又は複数のプロセッサ又は処理ユニット1032と、システムメモリ1034と、システムメモリ1034を含む各種システムコンポーネントをプロセッサ1032と結合するバス1036とを含んでいる。バス1036は、メモリバス又はメモリコントローラ、ペリフェラルバス、アクセレーテッドグラフィックスポート、及び任意の様々なバスアーキテクチャを用いるプロセッサバス又はローカルバスを含む、任意のいくつかの種類のバス構造のうちの1つ又は複数を表す。システムメモリ1034は、読み出し専用メモリ(ROM)1038とランダムアクセスメモリ(RAM)1040とを含む。起動時などにコンピューティング装置1000内で行われる構成要素間の情報転送を支援する基本ルーチンを収容する基本入出力システム(BIOS)1042がROM1038に格納されている。
コンピューティング装置1000は、さらに、ハードディスク(図示せず)の読み出し/書き込みを行うハードディスクドライブ1044を含み、リムーバブル磁気ディスク1048の読み出し/書き込みを行う磁気ディスクドライブ1046と、CD−ROMなどのリムーバブル光ディスク1052やその他の光媒体の読み出し/書き込みを行う光ディスクドライブ1050とを含むことができる。ハードディスクドライブ1044、磁気ディスクドライブ1046、及び光ディスクドライブ1050は、しかるべきインターフェース1054a、1054b、及び1054cによってバス1036に接続されている。
ドライブ及びそれに関連付けられたコンピューティング読み取り可能な媒体は、コンピューティング装置1000用のコンピュータ可読命令、データ構造体、プログラムモジュール、その他のデータの不揮発性記憶を提供する。本明細書に記載の例示的環境はハードディスクを用いているが、リムーバブル磁気ディスク1048及びリムーバブル光ディスク1052、他のタイプのコンピュータ読み取り可能な可読媒体(磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)など)、及び同様の媒体も例示的オペレーティング環境で用いることができる。
オペレーティングシステム1058、1つ又は複数のアプリケーションプログラム1060、他のプログラムモジュール1062、及びプログラムデータ1064を含むいくつかのプログラムモジュールを、ハードディスク1044、磁気ディスク1048、光ディスク1052、ROM1038、又はRAM1040に格納できる。ユーザは、キーボード1066やポインティング装置1068などの入力装置からコンピューティング装置1000にコマンド及び情報を入力できる。他の入力装置(図示せず)として、マイク、ジョイスティック、ゲームパッド、パラボラアンテナ、スキャナ、その他を用いることもできる。これらの入力装置及び他の入力装置は、バス1036と結合されたインターフェース1056を通して処理ユニット1032に接続されている。モニタ1072や他のタイプのディスプレイ装置も、ビデオアダプタ1074などのインターフェースを介してバス1036に接続されている。
一般に、コンピューティング装置1000のデータプロセッサは、コンピュータの各種コンピュータ読み取り可能な記憶媒体に様々なタイミングで格納された命令によってプログラムされる。プログラム及びオペレーティングシステムは、たとえば、フロッピー(登録商標)ディスクやCD−ROMで、あるいは電子的に配布可能であり、コンピューティング装置1000のセカンダリメモリにインストール又はロードされる。プログラムは、実行時には、少なくとも部分的に、コンピューティング装置1000のプライマリ電子メモリにロードされる。
コンピューティング装置1000は、1つ又は複数のリモートコンピュータ(リモートコンピュータ1076など)との論理接続を用いるネットワーク環境で動作可能である。リモートコンピュータ1076として、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイス、又は他の一般的なネットワークノードを用いることができ、リモートコンピュータ1076は、通常、コンピューティング装置1000に関してこれまでに記載した構成要素のほとんど又はすべてを含んでいる。図10に図示された論理接続は、LAN1080とWAN1082とを含んでいる。論理接続は、有線、無線、及び有線と無線との任意の組み合わせが可能である。
WAN1082は、コンピューティング装置1000及びリモートコンピュータ1076との間でのデータのルーティングが可能なネットワーク及びサブネットワークをいくつか含むことができる。WAN1082は、メッセージを適切な宛先ノードに宛てるための任意の数のノード(たとえば、DNSサーバ、ルータなど)を含むことができる。
コンピューティング装置1000は、LANネットワーク環境で用いられる場合には、ネットワークインターフェース又はネットワークアダプタ1084を介してローカルネットワーク1080に接続される。コンピューティング装置1000は、WANネットワーク環境で用いられる場合には、通常、ワイドエリアネットワーク1082(インターネットなど)経由の通信を確立するためのモデム1086又はその他の手段を含んでいる。モデム1086は、内蔵であれ、外付けであれ、シリアルポートインターフェース1056を介してバス1036に接続される。
ネットワーク環境では、コンピューティング装置1000に関して図示されたプログラムモジュール又はその一部を、リモートメモリ記憶装置に格納できる。図示したネットワーク接続は例示的であり、コンピュータ間の通信リンクを確立する他の手段も使用可能である。
コンピューティング装置1000は、サーバアプリケーション専用であるか、他のアプリケーションも実行するサーバコンピュータとして実装することが可能である。あるいは、コンピューティング装置1000は、たとえば、スタンドアロンパーソナルデスクトップ(又はラップトップ)コンピュータ(PC)、ワークステーション、携帯情報端末(PDA)、又は電子器具などを用いて実現することも可能である。
1つ又は複数のコンピュータや他の装置で実行される、プログラムモジュールなどの、コンピュータで実行可能な命令の一般的文脈では、様々なモジュールや手法を本明細書に記載することが可能である。プログラムモジュールとして、特定のタスクを実行したり、特定の抽象データ型を実装したりするルーチン、プログラム、オブジェクト、コンポーネント、データ構造体などが挙げられる。通常、プログラムモジュールの機能性は、必要に応じて、様々な実施形態で結合したり、分散したりできる。
これらのモジュールや手法の実施形態は、何らかの形のコンピュータ読み取り可能な媒体に格納したり、それらの媒体を通じて送信したりできる。コンピュータ読み取り可能な媒体として、コンピュータによるアクセスが可能な任意の市販媒体を用いることができる。たとえば、コンピュータ読み取り可能な媒体は、「コンピュータ記憶媒体」及び「通信媒体」を含むことができ、これらに限定されない。
「コンピュータ記憶媒体」は、コンピュータ可読命令、データ構造体、プログラムモジュール、又は他のデータなどの情報を記憶する任意の方法又は技術において実装される、揮発性及び不揮発性、リムーバブル及び非リムーバブルの媒体を含む。コンピュータ記憶媒体として、RAM、ROM、EEPROM、フラッシュメモリ、又は他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)、又は他の光記憶媒体、磁気カセット、磁気テープ、磁気ディスク記憶装置、又は他の磁気記憶装置、あるいは、所望の情報を格納するために用いることができ、コンピュータによるアクセスが可能な他の任意の媒体が挙げられ、これらに限定されない。
「通信媒体」は、一般に、コンピュータ可読命令、データ構造体、プログラムモジュール、又は他のデータを、搬送波などの変調データ信号や他の伝送メカニズムの形で具体化する。通信媒体には、任意の情報配布媒体も含まれる。「変調データ信号」という用語は、信号の1つ又は複数の特性が、信号内の情報をエンコードするように設定又は変更される信号を意味する。たとえば、通信媒体として、有線ネットワークや直接有線接続などの有線媒体や、音響、RF、赤外線などの無線媒体が挙げられ、これらに限定されない。また、これまで挙げたものの任意の組み合わせも、コンピュータ読み取り可能な媒体の範囲に含まれる。
当業者であれば、本明細書の開示内容から、本明細書で明示的に記載した特定の実施形態だけでなく、他の態様及び実施形態も自明であろう。本明細書及び例示された実施形態は、添付の特許請求項の真正な範囲及び趣旨による例としてのみ見なされるものとする。
デジタル画像において前景領域を背景領域から分離することを含むデータ分離処理のステップの例示的シーケンスを示す図である。 マーキングステップ及びポリゴン編集ステップにおけるデジタル画像の一部の例示的拡大図である。 類似性解析に基づいて前景シード及び背景シードが指定され、区分化境界が位置決めされる例示的画像データ分離方式を示す図である。 画素のグループが、類似性解析で用いられる領域に事前区分化される例示的画像データ分離方式を示す図である。 指定された前景シードと背景シードとの間の例示的編集可能ポリゴンを示す図である。 画像内で前景領域と背景領域とを指定できるユーザインターフェースの例示的スクリーンショットを示す図である。 指定した前景領域の周囲のポリゴンを編集できるユーザインターフェースの他の例示的スクリーンショットを示す図である。 指定した前景領域を画像から抽出するユーザインターフェースの他の例示的スクリーンショットを示す図である。 類似性基準に基づいてデータ分離を実行する例示的操作をフローチャートに示す図である。 データ分離操作を実行するようにプログラムできる汎用コンピュータを示す図である。
符号の説明
1032 処理ユニット
1034 システムメモリ
1036 システムバス
1038 ROM
1040 RAM
1042 BIOS
1054a ハードディスクドライブインターフェース
1054b 磁気ディスクドライブインターフェース
1054c 光ドライブインターフェース
1056 シリアルポートインターフェース
1058 オペレーティングシステム
1060 アプリケーションプログラム
1062 他のプログラムモジュール
1064 プログラムデータ
1066 キーボード
1068 ポインティング装置
1072 モニタ
1074 ビデオアダプタ
1076 リモートコンピュータ
1080 ローカルエリアネットワーク
1082 ワイドエリアネットワーク
1084 ネットワークインターフェース
1086 モデム

Claims (44)

  1. データノードの集合体から該データノードを分離する画像データ分離方法であって、
    第1の指定モードを用いるユーザによって指定された1つ又は複数のデータノードの第1の集合を受け取るステップと、
    第2の指定モードを用いるユーザによって指定された1つ又は複数のデータノードの第2の集合を受け取るステップと、
    前記集合体から分離されたデータノードと、前記第1の集合の1つ又は複数のデータノード及び前記第2の集合の1つ又は複数のデータノードとの間の類似性を特徴づける類似性基準に基づいて、前記分離されたデータノードを自動的に識別するステップと
    を有することを特徴とする画像データ分離方法。
  2. 前記データノードの集合体は、デジタル画像を含んでいることを特徴とする請求項1に記載の画像データ分離方法。
  3. 前記デジタル画像を事前区分化して画素のグループにすることをさらに含んでいることを特徴とする請求項2に記載の画像データ分離方法。
  4. 前記分離されたデータノードの周囲に境界を自動的にレンダリングすることをさらに含んでいることを特徴とする請求項2に記載の画像データ分離方法。
  5. 前記分離されたデータノードの周囲にポリゴンを自動的にレンダリングすることをさらに含んでいることを特徴とする請求項4に記載の画像データ分離方法。
  6. 前記ポリゴンは、編集可能であることを特徴とする請求項5に記載の画像データ分離方法。
  7. 前記ポリゴンの個々の頂点が、編集可能であることを特徴とする請求項5に記載の画像データ分離方法。
  8. 前記ポリゴンは、ブラシツールで編集可能であることを特徴とする請求項5に記載の画像データ分離方法。
  9. 前記第1の集合の1つ又は複数のノードは、前景シードを含んでいることを特徴とする請求項2に記載の画像データ分離方法。
  10. 前記第2の集合の1つ又は複数のノードは、背景シードを含んでいることを特徴とする請求項2に記載の画像データ分離方法。
  11. 前記自動的に識別する操作は、前記デジタル画像内のエネルギーを特徴づけるエネルギー関数を最小化することを含んでいることを特徴とする請求項2に記載の画像データ分離方法。
  12. 前記自動的に識別する操作は、グラフカットアルゴリズムを実行することを含んでいることを特徴とする請求項2に記載の画像データ分離方法。
  13. 前記事前区分化は、分岐点アルゴリズムを実行して前記デジタル画像内の画素を分類することを含んでいることを特徴とする請求項3に記載の画像データ分離方法。
  14. 前記分離されたデータノードの周囲にトライマップをレンダリングすることをさらに含んでいることを特徴とする請求項5に記載の画像データ分離方法。
  15. デジタル画像から前景領域を分離する処理をコンピュータに実行させる、コンピュータで実行可能な命令を格納するコンピュータ読み取り可能な媒体であって、前記処理は、
    1つ又は複数の画素と、1つ又は複数の前景シードの集合及び1つ又は複数の背景シードの集合との類似性を特徴づける類似性基準に基づいて、前記デジタル画像にある前記1つ又は複数の画素を区分化するステップを有することを特徴とするコンピュータ読み取り可能な媒体。
  16. 前記処理は、さらに、
    前景マーキングモードを用いて、前記1つ又は複数の前景シードのマーキングを検出するステップと、
    背景マーキングモードを用いて、前記1つ又は複数の背景シードのマーキングを検出するステップと
    を有することを特徴とする請求項15に記載のコンピュータ読み取り可能な媒体。
  17. 前記前景マーキングモードは、前記1つ又は複数の前景シードが選択されている間に入力装置の第1のコントロールを活性化することを含み、前記背景マーキングモードは、前記1つ又は複数の背景シードが選択されている間に前記入力装置の第2のコントロールを活性化することを含んでいることを特徴とする請求項16に記載のコンピュータ読み取り可能な媒体。
  18. 前記処理は、さらに、前記選択された1つ又は複数の画素の境界を自動的に定めるステップを有することを特徴とする請求項15に記載のコンピュータ読み取り可能な媒体。
  19. 前記処理は、さらに、前記デジタル画像を事前区分化して画素のグループにするステップを有することを特徴とする請求項15に記載のコンピュータ読み取り可能な媒体。
  20. 前記処理は、さらに、前記選択された1つ又は複数の画素の周囲に編集可能なポリゴンを生成するステップを有することを特徴とする請求項18に記載のコンピュータ読み取り可能な媒体。
  21. 前記ポリゴンは、1つ又は複数の軟拘束を用いて定義されることを特徴とする請求項20に記載のコンピュータ読み取り可能な媒体。
  22. 前記ポリゴンは、1つ又は複数の硬拘束を用いて定義されることを特徴とする請求項20に記載のコンピュータ読み取り可能な媒体。
  23. 前記編集可能なポリゴンの少なくとも1つの頂点は、ユーザによる調整が可能であることを特徴とする請求項18に記載のコンピュータ読み取り可能な媒体。
  24. 前記編集可能なポリゴンは、ポリゴンブラシツールにより編集可能であることを特徴とする請求項18に記載のコンピュータ読み取り可能な媒体。
  25. 前記処理は、さらに、前記デジタル画像から前記1つ又は複数の画素を抽出するステップを有することを特徴とする請求項15に記載のコンピュータ読み取り可能な媒体。
  26. 前記処理は、さらに、トライマップを生成するステップを有することを特徴とする請求項18に記載のコンピュータ読み取り可能な媒体。
  27. 前記事前区分化は、分岐点アルゴリズムを実行することを含んでいることを特徴とする請求項19に記載のコンピュータ読み取り可能な媒体。
  28. 前記事前区分化は、さらに、前記デジタル画像をフィルタリングすることを含んでいることを特徴とする請求項27に記載のコンピュータ読み取り可能な媒体。
  29. 前記処理はさらに、
    前記編集可能なポリゴンの頂点の、ユーザによる調整を検知するステップと、
    前記検知に対する応答として、前記事前区分化を再度実行するステップと
    を有することを特徴とする請求項20に記載のコンピュータ読み取り可能な媒体。
  30. デジタル画像内の領域を分離するためのユーザインターフェースであって、
    ユーザが前景マーキングモードを用いて前景領域の一部にマーキングすることと、ユーザが背景マーキングモードを用いて背景領域の一部にマーキングすることとを可能にし、前記前景領域の周囲に境界を自動的にレンダリングするマーキングウィンドウと、
    前記前景領域の周囲に編集可能なポリゴンをレンダリングするポリゴン編集ウィンドウと
    を備えていることを特徴とするユーザインターフェース。
  31. 前記ユーザが、前記デジタル画像から前記前景領域を抽出することを可能にする抽出ウィンドウをさらに備えていることを特徴とする請求項30に記載のユーザインターフェース。
  32. 前記ユーザが、前記マーキングウィンドウ、前記ポリゴン編集ウィンドウ、又は前記抽出ウィンドウをそれ以外の任意のウィンドウから選択することを可能にするステップセレクタをさらに備えていることを特徴とする請求項31に記載のユーザインターフェース。
  33. 前記ユーザが、前景マークと背景マークとを表示するか非表示にすることを可能にするマーク非表示コントロールをさらに備えていることを特徴とする請求項30に記載のユーザインターフェース。
  34. 前記ユーザが、前記編集可能なポリゴンを表示するか非表示にすることを可能にするポリゴン非表示コントロールをさらに備えていることを特徴とする請求項30に記載のユーザインターフェース。
  35. 前記ポリゴン編集ウィンドウは、ユーザが単一ストロークを描画して前記編集可能なポリゴンの区分を置き換えることを可能にするポリゴンブラシツールを備えていることを特徴とする請求項30に記載のユーザインターフェース。
  36. 決定された領域を、該決定された領域にある画素と、該決定された領域に含まれるべき画素に関連付けられた、1つ又は複数の指定されたシード画素の集合との間の類似性を特徴づける類似性基準に基づいて、画像から自動的に区分化する画像処理モジュールを備えていることを特徴とする画像データ分離システム。
  37. 前記画像処理モジュールは、前記画像内のエネルギーが最小になるように、前記画像内の各画素を、前記決定された領域にあるものとして、又は前記決定された領域にないものとしてラベル付けすることを特徴とする請求項36に記載の画像データ分離システム。
  38. 前記画像処理モジュールは、前記決定された領域の周囲に編集可能なポリゴンを自動的に生成することを特徴とする請求項36に記載の画像データ分離システム。
  39. 前記編集可能なポリゴンは、頂点の直接編集モードとポリゴンブラシモードとの少なくとも1つを用いて編集が可能であることを特徴とする請求項38に記載の画像データ分離システム。
  40. 前記画像処理モジュールは、分岐点アルゴリズムを用いて前記画像を事前区分化することを特徴とする請求項36に記載の画像データ分離システム。
  41. 前記画像処理モジュールはさらに、前記決定された領域に含まれない画素に関連付けられた、1つ又は複数の指定されたシード画素の別の集合に基づいて、前記決定された領域を区分化することを特徴とする請求項36に記載の画像データ分離システム。
  42. 前景領域と背景領域とを有するデジタル画像を格納するメモリと、
    前記デジタル画像内の各画素と、前記前景領域を指定する前景シード及び前記背景領域を指定する背景シードとの間の類似性を特徴づける類似性基準に基づいて、前記前景領域を前記背景領域から分離する分離手段と
    を備えていることを特徴とする画像データ分離システム。
  43. 前記分離手段は、前記前景領域の周囲にポリゴンをレンダリングするよう動作するレンダリングモジュールを備え、前記ポリゴンは、1つ又は複数の軟拘束を用いて定義されることを特徴とする請求項42に記載の画像データ分離システム。
  44. 前記分離手段は、前記前景領域の周囲にポリゴンをレンダリングするよう動作するレンダリングモジュールを備え、前記ポリゴンは、1つ又は複数の硬拘束を用いて定義されることを特徴とする請求項42に記載の画像データ分離システム。
JP2005230120A 2004-08-06 2005-08-08 画像データ分離システム及びその方法 Pending JP2006053919A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/912,923 US20060029275A1 (en) 2004-08-06 2004-08-06 Systems and methods for image data separation

Publications (1)

Publication Number Publication Date
JP2006053919A true JP2006053919A (ja) 2006-02-23

Family

ID=35335675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005230120A Pending JP2006053919A (ja) 2004-08-06 2005-08-08 画像データ分離システム及びその方法

Country Status (3)

Country Link
US (1) US20060029275A1 (ja)
EP (1) EP1624413A3 (ja)
JP (1) JP2006053919A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008142542A (ja) * 2006-12-05 2008-06-26 Fujifilm Corp クラスタ変更グラフ・カットを使用する検出の方法および装置
JP2010066803A (ja) * 2008-09-08 2010-03-25 Sony Corp 画像処理装置および方法、並びにプログラム
JP2010237941A (ja) * 2009-03-31 2010-10-21 Kddi Corp マスク画像生成装置、3次元物体モデル情報生成装置及びプログラム
JP2010267006A (ja) * 2009-05-13 2010-11-25 Nippon Telegr & Teleph Corp <Ntt> 動画化方法、動画化装置及び動画化プログラム
WO2011013579A1 (ja) * 2009-07-30 2011-02-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
WO2011061905A1 (ja) * 2009-11-20 2011-05-26 日本電気株式会社 物体領域抽出装置、物体領域抽出方法、及びコンピュータ可読媒体
JP2011138313A (ja) * 2009-12-28 2011-07-14 Casio Computer Co Ltd 画像処理装置及び方法、並びにプログラム
JP2011139288A (ja) * 2009-12-28 2011-07-14 Casio Computer Co Ltd 画像処理装置及び方法、並びにプログラム
JP2012186785A (ja) * 2011-02-15 2012-09-27 Ricoh Co Ltd 印刷用データ作成装置、印刷用データ作成方法、プログラム及び記録媒体
JP2012208913A (ja) * 2011-03-28 2012-10-25 Nec (China) Co Ltd ハイブリッドラベルに基づいてオブジェクトを分割する方法とシステム
JP2013020600A (ja) * 2011-06-17 2013-01-31 Denso Corp 画像処理装置
WO2013088665A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 画像領域抽出装置、画像領域抽出方法、および画像領域抽出プログラム
JP2013206262A (ja) * 2012-03-29 2013-10-07 Kddi Corp 複数の被写体領域を分離する方法およびプログラム
JP2014146300A (ja) * 2013-01-30 2014-08-14 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
WO2014156089A1 (ja) * 2013-03-27 2014-10-02 富士フイルム株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8913830B2 (en) * 2005-01-18 2014-12-16 Siemens Aktiengesellschaft Multilevel image segmentation
US7724256B2 (en) * 2005-03-21 2010-05-25 Siemens Medical Solutions Usa, Inc. Fast graph cuts: a weak shape assumption provides a fast exact method for graph cuts segmentation
US8401264B2 (en) * 2005-12-08 2013-03-19 University Of Washington Solid modeling based on volumetric scans
US7844113B2 (en) * 2006-04-05 2010-11-30 Siemens Medical Solutions Usa, Inc. Region based push-relabel algorithm for efficient computation of maximum flow
US8050498B2 (en) 2006-07-21 2011-11-01 Adobe Systems Incorporated Live coherent image selection to differentiate foreground and background pixels
US8103068B2 (en) * 2006-09-29 2012-01-24 Cornell Research Foundation, Inc. Methods and systems for reconstruction of objects
US8000527B2 (en) * 2007-04-17 2011-08-16 Siemens Aktiengesellschaft Interactive image segmentation by precomputation
US20080281673A1 (en) * 2007-05-07 2008-11-13 Mark Davis System and method for semi-automatic land planning
US8644600B2 (en) 2007-06-05 2014-02-04 Microsoft Corporation Learning object cutout from a single example
US8045800B2 (en) * 2007-06-11 2011-10-25 Microsoft Corporation Active segmentation for groups of images
US8041114B2 (en) * 2007-06-15 2011-10-18 Microsoft Corporation Optimizing pixel labels for computer vision applications
WO2009078957A1 (en) 2007-12-14 2009-06-25 Flashfoto, Inc. Systems and methods for rule-based segmentation for objects with full or partial frontal view in color images
EP2286384B1 (en) * 2008-05-28 2012-06-27 Apple Inc. Defining a border for an image
US8452105B2 (en) * 2008-05-28 2013-05-28 Apple Inc. Selecting a section of interest within an image
US8280171B2 (en) * 2008-05-28 2012-10-02 Apple Inc. Tools for selecting a section of interest within an image
US8548251B2 (en) 2008-05-28 2013-10-01 Apple Inc. Defining a border for an image
US8331685B2 (en) 2008-05-28 2012-12-11 Apple Inc. Defining a border for an image
US20100008576A1 (en) * 2008-07-11 2010-01-14 Robinson Piramuthu System and method for segmentation of an image into tuned multi-scaled regions
US8885977B2 (en) * 2009-04-30 2014-11-11 Apple Inc. Automatically extending a boundary for an image to fully divide the image
US8670615B2 (en) * 2009-09-30 2014-03-11 Flashfoto, Inc. Refinement of segmentation markup
US8970619B2 (en) 2009-11-24 2015-03-03 Microsoft Technology Licensing, Llc Parallelized generation of substantially seamless image mosaics
US8594199B2 (en) * 2010-03-08 2013-11-26 Qualcomm Incorporated Apparatus and method for motion vector filtering based on local image segmentation and lattice maps
US9311567B2 (en) 2010-05-10 2016-04-12 Kuang-chih Lee Manifold learning and matting
US8625888B2 (en) 2010-07-21 2014-01-07 Microsoft Corporation Variable kernel size image matting
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
JP5772446B2 (ja) * 2010-09-29 2015-09-02 株式会社ニコン 画像処理装置及び画像処理プログラム
US20120141045A1 (en) * 2010-12-01 2012-06-07 Sony Corporation Method and apparatus for reducing block artifacts during image processing
US8891864B2 (en) 2011-02-16 2014-11-18 Apple Inc. User-aided image segmentation
US8855411B2 (en) * 2011-05-16 2014-10-07 Microsoft Corporation Opacity measurement using a global pixel set
US8842904B2 (en) 2011-07-21 2014-09-23 Carestream Health, Inc. Method for tooth dissection in CBCT volume
US8849016B2 (en) 2011-07-21 2014-09-30 Carestream Health, Inc. Panoramic image generation from CBCT dental images
US9129363B2 (en) 2011-07-21 2015-09-08 Carestream Health, Inc. Method for teeth segmentation and alignment detection in CBCT volume
US8929635B2 (en) * 2011-07-21 2015-01-06 Carestream Health, Inc. Method and system for tooth segmentation in dental images
DE112011105982T5 (de) * 2011-12-20 2014-09-04 Intel Corporation Verstärkung von gespeicherten Inhalten mit lokalen Sensoren und AR-Kommunikation
US8755580B2 (en) 2012-03-17 2014-06-17 Sony Corporation Flourescent dot counting in digital pathology images
JP6102122B2 (ja) * 2012-08-24 2017-03-29 ソニー株式会社 画像処理装置および方法、並びにプログラム
US10102450B2 (en) * 2013-04-12 2018-10-16 Thomson Licensing Superpixel generation with improved spatial coherency
US20160379402A1 (en) * 2015-06-25 2016-12-29 Northrop Grumman Systems Corporation Apparatus and Method for Rendering a Source Pixel Mesh Image
WO2019047985A1 (zh) 2017-09-11 2019-03-14 Oppo广东移动通信有限公司 图像处理方法和装置、电子装置和计算机可读存储介质
US10964023B1 (en) * 2019-03-26 2021-03-30 Snap Inc. Image segmentation system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528263A (ja) * 1991-07-17 1993-02-05 Photo Composing Mach Mfg Co Ltd カラー画像処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6233575B1 (en) * 1997-06-24 2001-05-15 International Business Machines Corporation Multilevel taxonomy based on features derived from training documents classification using fisher values as discrimination values
US6009442A (en) * 1997-10-08 1999-12-28 Caere Corporation Computer-based document management system
US6592627B1 (en) * 1999-06-10 2003-07-15 International Business Machines Corporation System and method for organizing repositories of semi-structured documents such as email
US6973212B2 (en) * 2000-09-01 2005-12-06 Siemens Corporate Research, Inc. Graph cuts for binary segmentation of n-dimensional images from object and background seeds
US20020060650A1 (en) * 2000-10-25 2002-05-23 Asahi Kogaku Kogyo Kabushiki Kaisha Schematic illustration drawing apparatus and method
US7536048B2 (en) * 2004-01-15 2009-05-19 Xerox Corporation Method and apparatus for automatically determining image foreground color

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528263A (ja) * 1991-07-17 1993-02-05 Photo Composing Mach Mfg Co Ltd カラー画像処理装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008142542A (ja) * 2006-12-05 2008-06-26 Fujifilm Corp クラスタ変更グラフ・カットを使用する検出の方法および装置
US8346013B2 (en) 2008-09-08 2013-01-01 Sony Corporation Image processing apparatus, image processing method, and program
JP2010066803A (ja) * 2008-09-08 2010-03-25 Sony Corp 画像処理装置および方法、並びにプログラム
JP2010237941A (ja) * 2009-03-31 2010-10-21 Kddi Corp マスク画像生成装置、3次元物体モデル情報生成装置及びプログラム
JP2010267006A (ja) * 2009-05-13 2010-11-25 Nippon Telegr & Teleph Corp <Ntt> 動画化方法、動画化装置及び動画化プログラム
WO2011013579A1 (ja) * 2009-07-30 2011-02-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8649599B2 (en) 2009-07-30 2014-02-11 Sony Corporation Image processing apparatus, image processing method, and program
WO2011061905A1 (ja) * 2009-11-20 2011-05-26 日本電気株式会社 物体領域抽出装置、物体領域抽出方法、及びコンピュータ可読媒体
JPWO2011061905A1 (ja) * 2009-11-20 2013-04-04 日本電気株式会社 物体領域抽出装置、物体領域抽出方法、及びプログラム
JP2011139288A (ja) * 2009-12-28 2011-07-14 Casio Computer Co Ltd 画像処理装置及び方法、並びにプログラム
JP2011138313A (ja) * 2009-12-28 2011-07-14 Casio Computer Co Ltd 画像処理装置及び方法、並びにプログラム
JP2012186785A (ja) * 2011-02-15 2012-09-27 Ricoh Co Ltd 印刷用データ作成装置、印刷用データ作成方法、プログラム及び記録媒体
JP2012208913A (ja) * 2011-03-28 2012-10-25 Nec (China) Co Ltd ハイブリッドラベルに基づいてオブジェクトを分割する方法とシステム
JP2013020600A (ja) * 2011-06-17 2013-01-31 Denso Corp 画像処理装置
JP2013125529A (ja) * 2011-12-16 2013-06-24 Panasonic Corp 画像領域抽出装置、画像領域抽出方法、および画像領域抽出プログラム
WO2013088665A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 画像領域抽出装置、画像領域抽出方法、および画像領域抽出プログラム
US9292929B2 (en) 2011-12-16 2016-03-22 Panasonic Intellectual Property Corporation Of America Image region extraction device, image region extraction method, and image region extraction program
JP2013206262A (ja) * 2012-03-29 2013-10-07 Kddi Corp 複数の被写体領域を分離する方法およびプログラム
JP2014146300A (ja) * 2013-01-30 2014-08-14 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
WO2014156089A1 (ja) * 2013-03-27 2014-10-02 富士フイルム株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
JP2014191564A (ja) * 2013-03-27 2014-10-06 Fujifilm Corp 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
US9965698B2 (en) 2013-03-27 2018-05-08 Fujifilm Corporation Image processing apparatus, non-transitory computer-readable recording medium having stored therein image processing program, and operation method of image processing apparatus

Also Published As

Publication number Publication date
EP1624413A2 (en) 2006-02-08
EP1624413A3 (en) 2011-09-07
US20060029275A1 (en) 2006-02-09

Similar Documents

Publication Publication Date Title
JP2006053919A (ja) 画像データ分離システム及びその方法
CN107430771B (zh) 用于图像分段的系统和方法
US20200134834A1 (en) Automatic object replacement in an image
US8655069B2 (en) Updating image segmentation following user input
US20120092357A1 (en) Region-Based Image Manipulation
AU2006252025B2 (en) Recognition of parameterised shapes from document images
AU2006252019B2 (en) Method and Apparatus for Dynamic Connector Analysis
US8542923B2 (en) Live coherent image selection
US8594428B2 (en) Interactive segmentation of images with single scribbles
JP5045619B2 (ja) 画像処理装置および方法、並びにプログラム
JP6435740B2 (ja) データ処理システム、データ処理方法およびデータ処理プログラム
WO2022127454A1 (zh) 抠图模型的训练、抠图方法、装置、设备及存储介质
KR20140124427A (ko) 이미지 처리 장치, 이미지 처리 방법, 및 컴퓨터 판독가능한 기록 매체
Ren et al. Neural volumetric object selection
Price et al. Object-based vectorization for interactive image editing
CN110838105A (zh) 一种业务流程模型图像识别与再构方法
CN113158977B (zh) 改进FANnet生成网络的图像字符编辑方法
JP5539488B2 (ja) 参照背景色に基づく透明化塗りつぶしの判定
US11055526B2 (en) Method, system and apparatus for processing a page of a document
JP2003162718A (ja) 画像処理方法及びプログラム
CN113766147A (zh) 视频中嵌入图像的方法、平面预测模型获取方法和装置
JP2014006871A (ja) 画像領域分割装置、方法、およびプログラム
CN113033656B (zh) 一种基于生成对抗网络的交互式孔探数据扩展方法
Zhao et al. Automatic matting using depth and adaptive trimap
Yang et al. Uncertain Region Identification for Stereoscopic Foreground Cutout

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080805

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090901

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110209