JP5119251B2 - 単一スクリブルによる画像の対話型セグメンテーション - Google Patents

単一スクリブルによる画像の対話型セグメンテーション Download PDF

Info

Publication number
JP5119251B2
JP5119251B2 JP2009521413A JP2009521413A JP5119251B2 JP 5119251 B2 JP5119251 B2 JP 5119251B2 JP 2009521413 A JP2009521413 A JP 2009521413A JP 2009521413 A JP2009521413 A JP 2009521413A JP 5119251 B2 JP5119251 B2 JP 5119251B2
Authority
JP
Japan
Prior art keywords
image
pixels
pixel
scribble
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009521413A
Other languages
English (en)
Other versions
JP2009545052A (ja
Inventor
ナダヴ アハロニ,
アッサフ ゾメット,
ヨアヴ ゴネン,
Original Assignee
ヒューマンアイズ テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒューマンアイズ テクノロジーズ リミテッド filed Critical ヒューマンアイズ テクノロジーズ リミテッド
Publication of JP2009545052A publication Critical patent/JP2009545052A/ja
Application granted granted Critical
Publication of JP5119251B2 publication Critical patent/JP5119251B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

関連出願
本願は、2006年7月25日に出願した仮出願第60/820232号の特典を主張し、その内容を参照によって本書に援用する。
発明の分野
本発明は、グラフィック編集に関する。
従来技術
本発明の背景として関連すると考えられる従来技術の文献を以下に列挙し、それらの内容を参照によって本書に援用する。追加の文献は、上記の米国特許仮出願第号60/820232号に示されており、それらの内容を参照によって本書に援用する。本書における参考文献の認知は、それらが本書に開示する発明の特許性に何らかの点で関係しているという意味を示唆するものではない。各文献は角括弧で囲んだ数字により識別され、したがって明細書全体を通して、従来技術は角括弧で囲んだ数字により参照される。
[1] Rother,C.、Kolmogorov,V.およびBlake,A.GrabCut−Interactive Foreground Extraction using Iterated Graph Cuts,SIGGRAPH,ACM Transactions on Graphics,Aug 2004.
[2] Leo GradyおよびGareth Funka−Lea Multi−Label Image Segmentation for Medical Applications Based on Graph−Theoretic Electrical Potentials,Proceedings of the 8th ECCV04,Workshop on Computer Vision Approaches to Medical Image Analysis and Mathematical Methods in Biomedical Image Analysis,p.230−245,May 15th,2004,Prague,Czech Republic,Springer−Verlag.
[3] A.Levin D.LischinskiおよびY.Weiss Colorization using Optimization.SIGGRAPH,ACM Transactions on Graphics,Aug 2004.
[4] Liron YatzivおよびGuillermo Sapiro Fast Image and Video Colorization using Chrominance Blending,IEEE Transactions on Image Processing,vol.15,no.5,pp.1120−1129,May 2006.
[5] A.Levin D.LischinskiおよびY.Weiss A Closed Form Solution to Natural Image Matting in IEEE Conf.on Computer Vision and Pattern Recognition(CVPR),June 2006,New York
[6] US 2006/0147115 System and method for image segmentation by a weighted multigrid solver
[7] US 2006/0050959 System and method for image segmentation by solving an inhomogenous dirichlet problem
[8] US 2006/0159343 System and method for multi−label image segmentation of digital photographs
[9] US 2006/0039611 Border matting by dynamic programming
[10] US 2004/0008886 Using graph cuts for editing photographs
[11] US 2002/0048401 Graph cuts for binary segmentation of n−dimensional images from object and background seeds
[12] US特許第6,744,923号 System and method for fast approximate energy minimization via graph cuts
[13] Yuri BoykovおよびVladimir Kolmogorov,An Experimental Comparison of Min−Cut/Max−Flow Algorithms for Energy Minimization in Vision in IEEE Transactions on Pattern Analysis and Machine Intelligence(PAMI),September 2004.
発明の背景
画像に対する特性の対話型割当てに関しては、多くの研究が存在する。1つの手法として、最初に画像をセグメント化し、次いで各セグメントの全画素に異なる特性を関連付けることができる。最新技術の対話型セグメンテーション手法に関する包括的な背景については、[1]を参照されたい。1つの特に関連する手法では、ユーザをしてオブジェクトの内部の画素にマーキングせしめることによって、画像/映像をセグメント化し、または画像/映像に特性を割り当てる。以下の手法は、特によく知られた方法に関する。
Magic Wand[1]は、ポイントにマーキングすることによって、ユーザが領域を選択することを可能にする。米国カリフォルニア州フレモント、ArcSoft社のArcSoft PhotoStudio(登録商標)のような、この技術を使用するグラフィックスプログラムでは、マジックワンドを使用してポイントを選択すると、画像の他の非連続領域が選択されることが分かっている。これは望ましくない。
スクリブル(scribble)に基づく他の公知の手法は、同じ問題を生じる傾向がある。例えば図1は、カラー化、すなわちグレースケール画像への色の指定に基づく、[3]に記載するようなスクリブルをベースとする選択を用いて、一部分だけを選択するように要求される画像のスクリーンショットである。カラー画像でより明瞭に見える通り、単一のピンクのスクリブルは、画像全体にピンクの色相を割り当てる。しかし、実際には、花のような画像の一部分だけを、割り当てられたピンク色に塗るように要求されることがより一般的である。[3]に記載された方法は、ユーザが1組のスクリブルを維持し、かつ時々スクリブルまたはその一部分を削除するように要求されるので、ユーザの経験が限定される。
Bayes マッティング、Knockout 2[1]および他のマルチスクリブル手法[2〜11]は、ユーザに複数のスクリブルを記させることによって、画像をセグメント化し、または特性を割り当てる。これらの方法により有用な結果をもたらすためには、ユーザが、少なくとも2つの異なる特性をもたらす複数のスクリブル(「シード」とも言う)を記さなければならない。例えば[2、5]に教示される画像マッティングまたはセグメンテーションにおいて、ユーザは全てのセグメントに対してスクリブルを提供しなければならない。例えば[3、4]に教示されるカラー化では、ユーザは複数の色に対してスクリブルを提供しなければならない。これらの方法の作業の流れは、ユーザが各繰返し時にスクリブルを追加または除去することによって複数のスクリブルを徐々に構築することを可能にする。さらに詳しくは、これらの手法はユーザには漸増的に見えるかもしれないが、実際には、スクリブルの全体を提供する集約情報を用いて、色の割当てを算出する。換言すると、ユーザの観点からは、システムに提供される入力は複数のスクリブルの集約セットである。したがって、たとえスクリブルセットが漸増的に構築される場合でも、かつたとえユーザが各繰返し時に単一のスクリブルを追加する場合でも、これらの方法は全て、各繰返しで複数のスクリブルの総和全体を使用する。したがって、ユーザは、これらの方法を制御するために、複数のスクリブルの全セットを知る必要がある。新しいスクリブルが最終結果にどのように影響を及ぼすかをユーザがよりよく判断することができるように、各繰返しの結果が、後続繰返しの始点として役立つようにすると好ましいことは明らかである。
本発明の1態様では、画像に属性を割り当てるための、コンピュータ実現方法であって、
画像の画素のそれぞれの属性を定義する最適関数を決定するように、標的属性を現在の繰返しに対して定義する、複数の画素にわたる単一のマーク領域を含む画像の画素を処理するステップと、
最適関数に従って画像の画素にそれぞれの属性を割り当てるステップと、
前記画素の属性を表示するステップと、
を含む方法を提供する。
本発明の変形例では、画像または映像空間時間容積の映像シーケンスに特性を割り当てるための方法であって、
コンピュータ選択ツールを用いて、順次繰返し中に、複数の画素にわたる画像または映像空間時間容積のそれぞれの単一領域に対し、前記領域の画素に少なくとも1つの特性が割り当てられるように、マーキングするステップと、
マーク領域の画素の特性を前提とし、かつ前の繰返し時の計算結果を前提として、各繰返し時に画像または映像の画素のそれぞれの特性を算出するステップと、
算出された特性の少なくとも1つをハイライトするように画像を表示するステップと、
を含む方法を提供する。
本発明の別の態様では、特性を画像または映像シーケンスに割り当てるためのシステムであって、
順次繰返し中に複数の画素にわたる画像または映像空間時間容積のそれぞれの単一領域に対し、前記領域の画素に特性が割り当てられるように、マーキングを行なうマーキングツールと、
マーク領域の特性および追加入力制約に応答して、各繰返し時に画像または映像の画素のそれぞれの特性を算出するための計算ユニットと、
計算ユニットに結合され、画像または映像を表示するための表示ユニットと、
を備えたシステムを提供する。
画素に適用される場合の用語「属性」は、色、彩度、色相などのような画素の特性を指す。用語「属性」および「特性」は、互換的に使用される。属性のタイプは用途に依存する。例えば、レイヤ分離またはセグメンテーションでは、属性は特定のセグメント/レイヤへの画素の割当とすることができる。カラー化では、属性は画素の色とすることができる。マッティングでは、属性は、マットレイヤの各々に割り当てられる各画素の相対部分とすることができる。色補正では、属性は各画素の色値に適用される特定の色変換とすることができる。動き割当てでは、特性は各画素に関連付けられる幾何学的変換とすることができる。深度割当てでは、特性は各画素に関連付けられる表面パッチの深度または法線ベクトルなどとすることができる。
したがって、本発明は、単一のマーク領域のみを使用して、画像、1組の画像、または映像における画素に対し属性を対話方式で割り当てるための方法を提供する。本発明は、画像の一部分、映像の一部分、または画像の組の一部分に適用することができる。本発明に係る方法により、ユーザは,我々が「スクリブル」と呼ぶコンピュータ実現ツール(例えばブラシ)を用いて,領域にマーキングを行なう。これらのスクリブルは、マーキングされた画素に何らかの単数または複数の特性を関連付けるために使用される。
さらに詳しくは、これまで提案された上述の方法とは対照的に、本発明の実施形態では、ツールは複数のセグメントへのセグメンテーションを可能にする。しかし、本発明はセグメンテーションより一般的であり、画像を離散的セグメントの組に明示的にセグメント化することなく、ユーザが連続特性を割り当てることを可能にする。さらに、かつ再びこれまで提案された方法とは対照的に、本発明に係る方法は、前回に算出した結果を追加入力として使用して、各繰返し時に単一スクリブルを使用することができる。ユーザは複数のスクリブルを提供し、あるいは漸増的に構築される1組のスクリブルを維持する必要が無い。
一部の実施形態では、半自動レイヤ選択ツールが設けられる。例えば「現在の」レイヤの概念を使用することができ、それによって新しくマーキングされたスクリブルが「現在の」レイヤに関連付けられる。レイヤが選択されないことも可能であり、その場合、次二マーキングされたスクリブルは新しいレイヤに関連付けられる。
本発明に係るこの方法は非常に直感的であり、使い易い。「関連」属性を選択するための高度なアルゴリズムと組み合わせることもできる。その結果、ユーザは高品質のマッティング、カラー化、深度割当て等を容易に実行することができる。
本発明を理解するため、かつそれをいかに実施することができるかを示すために、次に幾つかの実施形態を、単なる非限定的実施例として、添付の図面に関連して説明する。
選択された領域に属性を割り当てるための従来技術のグラフィックスツールの結果を示すスクリーンダンプである。 選択された領域の画素に属性を割り当てるための本発明の実施形態に係る方法によって実行される主要な操作を示す流れ図である。 選択された領域の画素に属性を割り当てるための本発明の実施形態に係る方法によって実行される主要な操作を示す流れ図である。 属性を割り当てるための本発明に係る処理前の従来の画像を示すスクリーンダンプである。 単一スクリブルを用いて選択された図2に示す画像の領域を示すスクリーンダンプである。 図3で選択された領域を画定する算出された境界を示すスクリーンダンプである。 異なる領域を選択するための第2スクリブルの追加を示すスクリーンダンプである。 図6で選択された領域を画定する算出された境界を示すスクリーンダンプである。 算出された領域に適用される誤り訂正の結果を示すスクリーンダンプである。 誤りを訂正するための編集オプションを示す一連のスクリーンダンプである。 マーク領域に適用された本発明の実施形態に係るマッティングの結果を示すスクリーンダンプである。 マーク領域に適用された本発明の実施形態に係るマッティングの結果を示すスクリーンダンプである。 算出された領域に適用された誤り訂正の結果を示すスクリーンダンプである。 算出された領域に適用された誤り訂正の結果を示すスクリーンダンプである。 選択された領域の画素に属性を割り当てるための本発明の実施形態に係るシステムの機能性を示すブロック図である。 本発明の異なる態様に係る2D画像の画素に対応付けられる深度情報を示す絵画的表現である。 2D画像に深度を加えるために使用される平面深度ツールに関する絵画的表現である。
図2aは、図3ないし5の処理の様々な段階で示される、画像10の選択された領域の画素に属性を割り当てるための本発明の実施形態に係る方法によって実行される、主要な操作を示す流れ図である。提示された作業の流れを説明するために、画像セグメンテーションの特定の例(例えばレイヤへのセグメンテーション)に焦点を合わせる。ユーザは、単一のスクリブルを所望の領域に適用することによって、画像の領域を手動で選択する。ユーザによってマーキングされた画素は、適切な有意水準内で共通の画素属性が、マーキングされた画素に属するとみなされる領域、またはマーキングされた画素がこの属性を持つことを余儀なくされる領域を画定する。本発明の他の適用例、例えばセグメンテーションに関係しない適用例では、ユーザは、類似属性を有する画素にマーキングする必要があるかもしれない。したがって、スクリブルは標的属性を定義する単一のマーク領域を画定する。本発明の広い態様では、図3に示す画像の画素は、マーク領域の全ての画素が定義された標的属性を持つことを余儀なくする一方で、画像の画素のそれぞれの属性を定義する最適関数を決定するように処理される。このようにして決定されたそれぞれの属性は、最適関数に従って画像の画素に割り当てられ、画素の属性が表示される。
図2bは、画像または映像空間時間容積の映像シーケンスに特性を割り当てるための上述した方法の変形例を示す流れ図である。順次繰返し中に画像または映像空間時間容積のそれぞれの単一領域に対し、マーク領域の画素に少なくとも1つの特性が割り当てられるようにマーキングするために、ポインタのようなコンピュータ選択ツールが使用される。各繰返し時に、マーク領域の特性が与えられ、前の繰返し時の算出結果が与えられて、画像または映像の画素のそれぞれの特性が算出される。算出された特性の少なくとも1つをハイライトするように、画像が表示される。
さらに図3ないし5に関連して、図3は、湖12と芝生13を含む沿岸領域と森14とを含む基本的に3つの別個の領域を有する背景に対する、前景の少女11の原画像10のマークを付加する前の状態を示す。当初、いずれかのセグメントに属する画素は存在しない。
図4は、湖12の領域のみに制限される単一の第1スクリブル15が付加された、第1回の繰返しを示す。図5は、画像がセクション1およびセクション2と識別される2つのセグメント化されたレイヤに分割された、第1スクリブル後の結果を示す。画像のその後にマーキングされた領域を、特定のレイヤに関連付けることを可能にするために、画像の全てのレイヤが、ディスプレイの脇に示されるユーザ選択可能リスト16に列挙され、レイヤにはユーザが、例えば「背景」および「前景」のように、命名することができる。その後選択された領域は、リスト16でハイライトされたレイヤに関連付けることができ、デフォルトとして第1レイヤがハイライトされる。スクリブル領域および関連画素は新しいレイヤを作成するために使用されるか、あるいは既存のレイヤの1つに追加される。画素が追加されるレイヤは、既存のレイヤのリストからユーザによって選択され、現在選択されているレイヤが無い場合には、新しいレイヤに追加される。セクション1は、湖の境界内に制限されるマーク領域を含み、セクション2は、少女および沿岸領域をはじめとする画像の残部を含む。したがってレイヤは、複数の連結成分を含むことができることが注目される。画像または映像のセグメントへの分割は、例えば[11]に記載される通り標準的手順である。1つのセグメントは、スクリブル(またはその一部分)およびそれに関連する全ての画素を含み、もう1つのセグメントは、残りの画素を含む。本発明は各繰返し時に単一スクリブルをマーキングすることに限定されないことに留意されたい。ユーザは、同一レイヤに属するかもしれず属さないかもしれない、複数のスクリブルをマーキングすることができる。複数のスクリブルをマーキングする場合、ソフトウェアは、マーキングされたスクリブルに対する画素の関係に従って、画像を2つ以上のレイヤに分割する。したがって、本発明に係る方法は単一スクリブルにより機能することができるが、単一スクリブルに限定されない。さらに、複数のスクリブルが使用される場合でも、前の計算結果が現在マーキングされているスクリブルと共に入力として使用されるが、上述の通り、これまで提案されてきた方法は、全ての繰返しでマーキングされたスクリブルの集約セットを使用し、前の計算結果を無視する。
図6は、芝生と湖との間の境界を交差する第2スクリブル20が追加された、第2回の繰返しを示す。図7は第2スクリブル後の結果を示し、セクション1として識別される第1レイヤは延長され、湖の境界内に制限されたマーク領域の一部を含み、セクション2は、少女および沿岸領域をはじめとする画像の残部を含む。アルゴリズムは背景の一部を割り当てただけであるので、この繰返しの結果がまだ完全な最終結果ではないことは理解されるであろう。湖および芝生を同一セグメントに割り当てる、所望の結果を達成するためには、ユーザとのさらなる対話が必要である。2回の繰返しでは最終結果を達成するのに充分でないという意味で、これは対話型セグメンテーションアルゴリズムにかなり典型的である。結果はまた、底部のスライダによって決定される感度尺度にも依存する。
図8は、計算された領域に適用された誤り訂正の結果を表わすスクリーンダンプを示す。ユーザはピンクのスクリブルを花の上に描くことによって操作を開始する。ユーザが誤って、またはおそらく意図的に、花の外にスクリブルをマーキングする。ここで、ユーザは誤った領域に緑のスクリブルを引くことによって、これを克服しようとする。これは、[3]のようなこれまで提案された方法では、緑色のスクリブルがピンクのスクリブルに上書きされるが、ピンクのスクリブルの一部が残り、花の外側の領域の一部がピンクのまま残るので、うまく機能しない。これまで提案されたツールによりこれを修正する従来の方法は、ピンクのスクリブルのレイヤに戻り、ピンクのスクリブルを花から消去し、レイヤを再び計算する。誤ったスクリブルを消去する必要があるということから、古いスクリブルを全部表示し、かつ「消去」ツールを提供するための他の方法が必要になる。古いスクリブルを表示し、それらの一部を消去しなければならないということは、全てのユーザにとって直感的ではないないかもしれないことが明らかになっている。
対照的に、本発明に係る方法について、誤りを訂正するための編集オプションを表示する一連のスクリーンダンプを示す図9を参照しながら、今度は画像セグメンテーションの文脈で実証する。ユーザは背景にスクリブルをマーキングするが、偶発的に前景にマーキングする。本発明を使用して、ユーザは、図9に示すように前景のスクリブルにマーキングすることによって、これを修正する。左上の写真で、ユーザは少女を指定するスクリブルをマーキングするが、偶発的に芝生にもマーキングする。その結果、算出されたレイヤは、右上に示す通り、少女の画素のみならず、芝生の画素をも含む。この誤りを訂正するために、ユーザは単に、右下に示すように(ソフトウェアアプリケーションウィンドウの右上のレイヤリストに「セクション2」と定義された)芝生レイヤを選択した後、芝生領域にスクリブルするだけでよい。その結果、右下の写真に示す通り、芝生画素は全部、それらの正しいレイヤに再割当てされる。これは、ユーザが前にマーキングしたスクリブルを削除する必要のある、[3]のようなこれまで提案された方法とは対照的である。
実現
ここで、本発明を実現する1つの方法を提案する。GUIモジュールは、ユーザに前の繰返しの結果を提示し、各々その特性に関連付けられた1つまたはそれ以上のスクリブルをユーザにマーキングさせる。例えば、画像セグメンテーションでは、スクリブルはセグメントインデックスに関連付けられる。さらに、いわゆる感度尺度を定義することができる。直感的に、この尺度は、特性がスクリブルから伝搬していく画素の数で測定される距離に影響する。ボトルの例では、一方の極端では、スクリブル自体のみがオレンジ色になるが、反対側の極端では、画像全体がオレンジ色になり、他の感度値の場合、ボトルの一部分が着色されるか、ボトル自体だけが着色されるか、あるいはボトルを越えて着色され、全てが感度尺度に依存する。したがって、直感的に、感度因子は「オレンジ色」が伝搬する距離を決定する。感度尺度は様々な手段により、例えばGUIのスライダを用いて決定することができる。
ソフトウェアのアルゴリズムモジュールは、マーキングされたスクリブル(単数または複数)、ソース画像/映像、および前の繰返しの結果(またはこれが最初の繰返しであるという標識)、ならびにおそらく感度尺度のような追加パラメータを入力として受け取る。
アルゴリズムモジュールの詳細な実現例を提示する前に、代替的実現を使用することができること、およびこの実現は、提示する発明を効率的に実現することができるようにするために提示するものであることを、強調しておきたい。
提案する実現は次の2段階を含む。
A.マーキングされた単数または複数のスクリブルの近傍の「塗りつぶし領域」を算出する。以下で、「塗りつぶし領域」の意味、およびそれがいかに算出されるかをさらに説明する。
B.特性割当てアルゴリズムを「塗りつぶし領域」に適用する。
特定のアルゴリズムの詳細を論じる前に、特性割当てアルゴリズムは、赤目に関連付けられる画像の領域を識別し、次いでマーク領域に黒色属性を割り当てることによって、赤目効果を映像および画像から除去するために使用することができることを記載しておきたい。
段階Aは、例えば単数または複数のスクリブルから測地的距離マップのような距離マップを算出し、所与の閾値より小さい全ての距離が塗りつぶし領域内とみなされるように、距離を2値化することによって、実現することができる。閾値は、例えばGUIのスライダを用いて決定することのできる、上述した感度尺度によって決定することができる。1組のスクリブルからの測地的距離マップ算出の詳細な実現は、文献[3]に見ることができる。塗りつぶしは2値化による測地的距離マップに限定されないことを記載しておきたい。例えば塗りつぶしは、スクリブルの領域内の画素の色分布、またはスクリブルの領域内の画素関数の分布の表現に基づいて、定義することができる。さらに詳しくは、塗りつぶしは、距離マップ算出で画素の色差を用いる代わりに、スクリブル領域内の画素差の分布で充分に頻繁に見ることのできる最近接色差を画素の色差から引いたものを使用するように、距離マップを再定義することによって実現することができる。代替的に、距離マップ算出で画素色差を使用する代わりに、スクリブル領域内の画素差の分布に画素色差頻度の関数を使用することが可能である(例えば、fが色差分布における頻度である場合、log(f+1)を使用する)。
なお、本発明は、スクリブルマーキングの前、後、または途中に、感度尺度を変更することが可能である。換言すると、ユーザは、例えば最初にスクリブルをマーキングし、次いでユーザが結果に満足するまで、(例えばスライダを動かすことによって)感度尺度を変更することができる。代替的に、ユーザはスクリブルを引く間に感度尺度を操作することができる。例えばソフトウェアは、マーキングされたスクリブルの特性に応じて、例えばその総面積によって、感度尺度を決定するかもしれない。
段階Bについては、2つの実現を提案する。1つは画像/映像に離散的特性を割り当てる場合であり、1つは連続的特性を割り当てる場合である。
段階Bの実現:離散的特性の場合
有向グラフG=(V,E)を定義する。グラフVにおけるノードの集合は、3つの部分集合の和集合であるV=VUVUVである。Vはスクリブルでマーキングされた画素の集合であり、Vはスクリブルでマーキングされない塗りつぶし領域内部の画素の集合であり、Vは塗りつぶし領域の境界上および塗りつぶし領域でない画素の集合である。
グラフにおけるエッジEの集合は、画像/映像で隣接している、V×Vからの画素の全ての対を含む。画像/映像における近傍とは、多くの方法で定義することができる。例えば8近傍では、画素が全ての座標で最大限1だけ異なる場合に、隣接画素と定義する。実際にはVから2つの頂点を含む対をEに含める必要はない。さらに、各画素に対し1組の離散値の1つを定義するラベル付け関数L(p)を定義する(画像セグメンテーションでは、L(p)はセグメントインデックスを表わす)。
グラフは、ソフトウェアで多くの方法で表わすことができる。グラフ表現およびグラフ全体の最適化の例は、文献[12]に見ることができる。
上記グラフおよびラベル付けに対してコスト関数を定義し、その最適値を求める。単一スクリブルがマーキングされるだけの場合、または全てのスクリブルが同一特性に関連付けられる場合、下に示すように、近似式を最小カット最大フロー問題として定式化することができ、それに対して多くの最適化解が存在する[13]。
異なる特性に関連付けられる複数のスクリブルがマーキングされる場合、解は、[1]で同様のタスクに行なわれたように、マルチラベルオプティマイザ、例えば繰返しグラフカット[12]を用いて達成することができる。
マルチラベルオプティマイザによる解
一般的な場合、解は[1]で同様のタスクに行なわれたように、マルチラベルオプティマイザ、例えば繰返しグラフカット([12]参照)を用いて達成することができる。解は次のコスト関数を最適化することによって見出される。
ここで、Lは画像/映像画素のその特性へのラベル付けである。
関数f、f、fは、用途によって異なる。例えば画像セグメンテーションでは、fは、2つの画素L(p1)、L(p2)のラベル付けが異なる場合には、弱い逆単調(weakly inverse monotonic)の方向微分(directional derivative)、それ以外では零と定義することができる。我々の実現では、例えば、Lノルム下で、画素p1、p2の色差のスケーリングされた負の指数を採用した。
ここでkは、実験的に例えば1/255に設定するこのできるスケーリングパラメータである。
は、全ての画素の全てのラベルに0を設定することができるが、画素を特定の特性に関連付けることを選好する何らかの事前の想定を表現するために、異なる値に設定することができる。
は一般的に、スクリブルの制約を表わす。IL(p)を次のように定義しよう。pがVにある場合には、IL(p)はスクリブルに関連付けられるラベルである。pがVにある場合には、IL(p)は、前の繰返しにおけるpのラベル(またはこれが最初の繰返しである場合は、新しいラベル)である。次いで、fは次のように定義される。
ここで、∞はコンピュータ実現において非常に大きい数字を表わす。直感的に、これはスクリブルが解に対し強い制約を課すことを意味する。代替的に、無限大に相当する数字を、異なる画素に対して異なることのできるより小さい数字に置き換えることによって、より弱い制約を使用することができる。
最適化のための解が見つかると、現在の繰返しの結果を算出することができる。これは、前の繰返しの結果に最適化解からの塗りつぶし領域の画素のラベル付けをコピーする(または、最初の繰返し時には、最適化解を最初の繰返し結果として設定する)ことによって行なわれる。
最小カットによる解
現在の繰返しで単一スクリブルがマーキングされる場合、またはマーキングされた全てのスクリブルが同一特性を有する場合、2つのラベルを持つコスト関数を定義することができる。そのようなコスト関数は、下で示すように、最小カット最大フロー[6]を用いて最小化することができる。最小カット最適化では、2つのノードS、Tを追加し、最適化はグラフの頂点を、Sに接続された組およびTに接続された組の2組に分割する。基本的概念は、Sに接続されていることが明らかになる頂点には、スクリブルのラベルが割り当てられる一方、残りの頂点は前の繰返しからのそれらの割当てが維持される(または該方法が最初の繰返し内にある場合、新しい値が割り当てられる)というものである。簡潔にするために、Vを2組に分割する。V3Aは前の繰返しの結果で単数または複数のスクリブルに関連付けられた特性を有するV内の頂点の集合であり、V3B=V\V3Aである。
集合E内のエッジC(p1,p2)の容量は、C(p1,p2)=fN((p1,p2,L)と設定される。TをVの画素に接続する全てのエッジの容量は0に設定され、同様にVの画素をSに接続する全てのエッジの容量は0に設定される。
SをVまたはV3Aの画素pに接続するエッジの容量C(S,p)は、∞になるように設定される。
またはV3Bの画素pをTに接続するエッジの容量C(p,T)は、∞になるように設定される。
頂点をTにまたはSから接続する全ての他のエッジは、容量0を有する。
ここで、∞はコンピュータ実現において非常に大きい数字を表わす。直感的に、これはスクリブルが解に対し強い制約を課すことを意味する。代替的に、∞数字をより小さい数字に置き換えることによって、より弱い制約を使用することができる。
別の実現では、画素をスクリブル特性に関連付けることを選好する何らかの事前の想定を表現するために、Vにおける頂点をSから接続するエッジの容量は、正の値を持つように設定することができる。同様に、画素をスクリブル特性に関連付けることを選好する何らかの事前の想定を表現するために、Vにおける頂点をTに接続するエッジの容量は、正の値を持つように設定することができる。
ここで、最小カット問題の解(またはマルチラベルオプティマイザ)を使用して、画像セグメンテーションを設定する。最小カット最適化によってSに接続されることが明らかになる全ての画素には、スクリブル特性が割り当てられる。他の画素には、前の繰返しの結果得たラベルが割り当てられる(または、最初の繰返し時には、新しいラベルが割り当てられる)。
段階Bの実現:連続的特性
[4、5]でカラー化およびマッティングタスクに適用されるような連続的事例について1つの実現を提示する。これらの文献は、1組の1次方程式を解くことによって、連続関数に対してコスト関数を最小化する最適化技術を使用している。マッティングおよびカラー化以外の用途は、最小化されるコスト関数を単に変更することによって、この手法で実現することができることに留意されたい。段階Bの我々の実現は、1つの工夫を除くと、上記文献と同一である。上記文献では、全ての強い制約が、ユーザによってマーキングされるスクリブルによって定義される。我々の実現では、ユーザによってマーキングされたスクリブルを1組の制約として使用し、Vの各画素に対して追加の制約を生成する。換言すると、我々の解は簡約化(reduction)によって達成することができる。[4]、[5]の方法を実現し、前の繰返しのラベル付けによりVの各画素にスクリブルを追加する。この方式は、[11]に記載されているバイナリ画像セグメンテーションのような離散した2ラベルのタスクを、連続的画像マッティングに一般化するのに有用である。
本発明の操作をより明確にするために、ここで、セグメンテーション(レイヤ化)の場合のプロセスを説明することによって、実施例を提示する。これに続いて、連続的特性を割り当てるカラー化の文脈内の異なる実施例を提示する。
したがって、ユーザが、ボトルによって定義される輪郭内の画像オブジェクトを選択したい場合を仮定する。ユーザは、ボトルの内側にスクリブルをマーキングすることによって開始する。ユーザにとって起きているように見えるものは、画像が2つの領域に分割され、あたかもスクリブルが拡張したかのように見えることである。この拡張は、全ての方向に対称的ではなく、むしろ、画像変動性が強い方向に停止するかのように見える。例えばボトルの色の変化が非常に小さく、かつボトルエッジが強い場合には、スクリブルはボトルエッジまで拡張する。他方、ボトルがテクスチャのある外観を有する場合、スクリブルは関心領域の一部分だけを含むように拡張する(図3に示した少女の写真の芝生の場合のように)。ユーザには、拡張の程度を制御するスライダ(感度セレクタを構成する)が提供される。
この段階の結果は、画像が2つのレイヤにセグメント化することである。
我々の実現の水面下で起きることは、次の2段階のプロセスである。
A.画像を3つの領域、すなわち1)スクリブル、2)拡張スクリブルから原スクリブルを差し引いた部分、3)画像の残部に分割する、「スクリブル拡張」のためのアルゴリズムを適用する。
B.2つのセグメント間の上記領域2)内の最も顕著な境界を見出すアルゴリズムを適用する。これは数学的に、不明領域内の画素へのセグメント値の割当てを探索し、この割当てが最も顕著な境界を誘発するようにすることと同等である。
後続の繰返し中に、各スクリブルは、既存のレイヤの1つまたは新しいレイヤのいずれかに関連付けられ、我々はそれをレイヤLで表わす。ユーザは、既存のセグメントの部分を「侵食」するように見えるスクリブルをマーキングして、レイヤLを大きくする。
我々の実現の水面下で起きることは、領域3)が前の繰返しからの元のラベル付けを維持することを除き、上述したものと同様である。最も顕著な境界を見出す際に(上記段階B)、前の繰返しのセグメンテーション結果はレイヤLと他のレイヤとの間の境界が存在する場所に影響を及ぼすので、アルゴリズムは該セグメンテーション結果も考慮に入れることに留意されたい。
カラー化において、プロセスは同様であるが、ここでは各画素に連続色相値を割り当てる。これは一般的に、スクリブル領域自体を除き、画像に割り当てられた色の大部分がスクリブルの色と同じにならないことを意味する。最初の繰返しにおいて、ユーザがボトルにオレンジ色のスクリブルをマーキングした場合、ボトルはいっそうオレンジ色になり、画像の他の部分は灰色がかったままであるが、ボトル全体が全て厳密に同一色相にはならないことが分かるであろう(ボトル領域の内側のテクスチャに比較して、ボトル境界がいかに強いかに依存する)。
図10および11は、ボトルに対してではなく、単一スクリブルがマーキングされた鳥に対して、上述の通りマーク領域に適用された、本発明の実施形態に係るカラー化の結果を示すスクリーンダンプである。スクリブルは、グレースケールでそれをより見易くする明るい領域によって表わされる。図11は割り当て結果の可視化を示し、そこで各画素に、その色相がどれだけ強くオレンジ色になるかを示す0から1の間の連続体の数字が割り当てられる。
ここでの実現は、段階Bが変更されることを除き、上記と同様とすることができる。最も顕著な境界を探す代わりに、色相の変化が原入力画像におけるエッジ/勾配に対応するように、不明領域(領域2)の全ての画素に対する色相の割当てを探索するアルゴリズムを使用する。これは、エッジが不鮮明のぼやけた画像では、色相遷移が漸進的になることを意味する。
追加のツール:領域への特性の再割当て
画像に特性を再割当てするための別の組のツールを提案する。本発明で提示するような対話型特性割当てアプリケーションで作業をしていると仮定しよう。提案するツールは、ユーザが領域にマーキングし、したがってこの領域のみの特性割当てを再計算するように要求することを可能にする。我々が複数のツールと呼んでいるのは、これらのツールが幾つかの態様を変化させることができるためである。
(i)このツールで使用されるアルゴリズムは、アプリケーションの前の繰返しで使用されたアルゴリズムと異なるかもしれず、異ならないかもしれない。
(ii)この領域を再計算するときに、マーク領域の境界は考慮されるかもしれず、されないかもしれない。
(iii)ツールは、例えばユーザにスクリブルをマーク領域内に引かせることによって、さらに制約を追加するオプションを含むかもしれず、含まないかもしれない。
図12および13は、画像セグメンテーションの文脈における本発明のそのような実施形態に係る再割当てツールの作用を示す画像である。図12は、上述した対話型画像セグメンテーションアプリケーションにおける前の繰返しのセグメンテーション結果を示す。さらなる実施形態では、ユーザが領域にマーキングを行ない、マーク領域に特性を再割当てするように要求することを可能にするツールを提案する。実施例では、これは、関心領域の周りに境界曲線を引くことによって、画像を再セグメント化するために行なわれる。
図13は再計算の結果を示す。この特定の実施例では、前の繰返しのセグメンテーション結果がマーク領域の境界に対して制約として使用され、前節で段階Bに記載したアルゴリズムを使用して連続セグメンテーションを割り当て、次いでそれらを0.5で2値化することによって、マーク領域のセグメンテーションが再計算された。前の繰返しでは、セグメンテーションアルゴリズムは離散的特性を想定していた。
ツールの1つの実現は、上記の「実現」の節で記載した段階Bの実現を使用することによって簡単になる。段階Bは、前記の節で、「特性割当てアルゴリズムを『塗りつぶし領域』に適用すること」と定義された。提案する再割当てツールでは、代わりに、ユーザによってマーキングされた領域に特性割当てアルゴリズムを適用する。
上記態様(ii)についてさらに説明するために、離散的特性に対して段階Bを使用することを考える。この実現では、上記態様(ii)は、頂点Vに対する近傍制約fを含めることができることを意味する。そのような場合、我々は確かに境界を考慮に入れる。代替的に、制約を含めないことを選択することができ、その場合には境界を考慮に入れない。
図14は、属性を画像に割り当てるための本発明の実施形態に係るシステム30の機能を示すブロック図である。システム30は、メモリ32に格納された画像の画素を処理し、かつかつ画像の画素のそれぞれの属性を定義する最適な関数を決定するように、現在の繰返しの標的属性を画定する単一のマーク領域を含めるためのプロセッサ31を備える。これは、マーク領域の画素が前記標的属性を持つように制約しながら行なわれる。マーキングツール33は、現在の繰返しに対して画像をマーキングするために使用されるが、事前にマーキングされた画像をシステム30への入力として使用することもできる。属性割当てユニット34は、最適関数に従って、それぞれの属性を画像の画素に割り当てるためにプロセッサ31に結合される。特性がスクリブルから伝搬する距離の感度を調整するために、感度セレクタ35をプロセッサ31に結合することができる。プロセッサ31に結合されたディスプレイユニット36は、格納された画像と共に画素の属性を表示する。
本発明に係る方法は一般的に反復プロセスとして実行され、各順次繰返しで前の繰返しの結果である制約が適用されるので、順次繰返しは所望の結果に収束する。最も一般的には、順次繰返しは、発明の方法に従って動作するように適応されたアプリケーションプログラムによって実行される。しかし、そのようなアプリケーションプログラムは、異なるプログラムの出力または前に生成された同一プログラムの出力さえも、入力として受け取るように適応させることができる。
深度ツール
本発明のこの態様は、2D画像または画像の一部を、画像+深度マップとして表わされる3Dモデルに変換するための完全な作業の流れを含む。提示する基本的な作業の流れは、初期3Dモデルと、ユーザが所望の透視図から3Dモデルを見ることを可能にする標準3D GUIとを、ユーザに提供する。次いで、豊富なツールの集合を用いて、ユーザは、画像に深度値を割り当てることによって、3Dモデルを形成することができる。
提案する発明を理解する鍵は、図15に示すように、データ表現およびレンダリングにある。画像の画素の深度値は、我々が「カノニックパースペクティブ(canonic perspective))」と呼ぶものに関連して表わされる。直感的に、カノニックパースペクティブは、2D画像を取り込む元になるビューイングパースペクティブを模しており、撮影用カメラの位置、向き、および他の特性、例えば視界およびズームを含む。実際には、平面に画像テクスチャを配置することによって仮想世界を構築し(それをテクスチャ平面と呼ぶ;例えば平面Z=0)、画像のフルテクスチャを正確に取り込むようにカノニックパースペクティブを配置する。例えば、テクスチャ平面からのカノニックパースペクティブの任意の距離を決定し、フル画像テクスチャを正確に取り込むように、カノニックパースペクティブの視界を設定することができる(高校の三角法を用いて容易に計算することのできる詳細は省く)。
便宜上、Z軸がカノニックパースペクティブの光軸となり、世界のX、Y軸の方向が取り込まれる画像のX、Y軸の方向となり、かつ原点がカノニックパースペクティブのピンホールとなるように、世界座標を設定する。この表現において、3D点の深度値は単にこの点のZ座標であり、世界座標系のZ軸は、テクスチャ座標系の原点で画像テクスチャ平面と交差する。
便宜上、我々はこの座標系を選択するが、本発明は代替座標で実現することができることに留意されたい。例えば、他の座標系を使用する場合、座標系の変化を考慮する追加的変換を含めることができる。
我々が提案するツールは、画像の画素に関連付けられる深度値の組を編集する。この組の値を深度マップと呼ぶことにする。次いで、3Dモデルを2Dにするか、あるいは他の方法で使用することが必要になった場合いつでも、これは、修正透視画法(Corrected−perspective−representation=CPR)と呼ぶ新しい表現法で行なうことができる。CPRは、レンダリングの一部として明示的にまたは黙示的に形成することができる。CPR表現は次のように形成される。すなわち、図15に示すように、(X,Y)を画像テクスチャ座標とし、Zをその関連深度値とし、dを画像テクスチャ平面の深度とする。対応するCPR点は(X/d*Z,Y/d*Z,Z)によって与えられる。
深度編集ツール
平面深度ツール
このツールは、ユーザが画像テクスチャの特定領域に平面幾何学を割り当てることを可能にする。ユーザが3Dモデルの任意の位置に配置することのできる2つの制御点がユーザに提供される。3D GUIにおける現在のビューイングパースペクティブを前提として、該方法は、各制御点のビューイング光線を現在の3Dモデルと交差させる。この交差は、各制御点に対し、テクスチャ座標(X,Y)および深度マップ値Zを定義する。
ここで、ユーザは制御点をドラッグして、対話的にモデルに対するこれの作用を見ることができる。スクリーン上のドラッグは、「ドラッグ面」と呼ぶものを用いて3D制御点のドラッグに変換される。ドラッグ面を前提として、例えばマウスで制御点を移動させることによって、該方法は、マウス位置のビューイング光線をドラッグ面と交差させることによって、スクリーン上のマウスの位置をドラッグ面上の位置と関連付ける。ドラッグ面は、該方法によって、3D GUIにおける現在の視認方向と直交する平面、またはそれに近接する何らかの平面となり、いずれの場合も制御点がこの平面に入射するように、自動的に設定することができる。1つの実現では、ドラッグ面は、現在の視認方向と直交する平面に最も近い、{XY,XZ,YZ}の1つとなるように選択される。
制御点をドラッグすると、例えばX軸またはY軸の方向にドラッグすることにより、その関連テクスチャ座標(X,Y)、または深度マップ値(Z軸上でドラッグすることにより)のいずれかを変化させることができる。
ここで、2つの制御点の位置が付与されると、ツールは深度マップ上の2つの制御点間に勾配を描くことによって、深度マップを更新する。深度マップの値は、以下の方法で決定される。
(X1,Y1)、(X2,Y2)を2つの制御点のテクスチャ座標とし、かつZ1、Z2を2つの制御点の深度値とする。
次のように定義する。
点(X,Y)が与えられるとその深度Zは、次の関数(または同様のもの):
によって、または単に、次式:
によって決定することができる。
図16a、16b、および16cは、平面深度ツールの絵画的表現である。図16aは、カノニックパースペクティブからの画像テクスチャの図である。画像テクスチャは2つの領域にセグメント化されており、平面深度ツールは標識セグメントに適用される。着色レンディションでは、標識が選択されたことを示すために、それが青色になることが分かる。図16bは、異なるパースペクティブからの3Dモデルのツールを適用する前の図であり、図16cはツールを適用した直後の同じ図を示す。
本発明に係るシステムは、適切にプログラムされたコンピュータとすることができることも理解されるであろう。同様に本発明は、本発明の方法を実行するためにコンピュータによって可読であるコンピュータプログラムを企図する。本発明はさらに、本発明の方法を実行するために機械によって実行可能な命令のプログラムを具体的に具現する機械可読メモリを企図する。

Claims (21)

  1. 画像に属性を割り当てるための、コンピュータ実現方法であって、
    セグメント化されていない画像を表示するステップと、
    セグメント化されていない画像の領域の複数の画素を、領域に対して少なくとも1つの標的属性を現在の繰返しに対して定義する単一のマーク領域として、複数の画素を覆う単一のスクリブルによってユーザがマーキングするステップと、
    領域の画素の少なくとも1つのそれぞれの属性を定義する最適関数を、標的属性に従って決定するステップと、
    最適関数に従って領域の画素に少なくとも1つのそれぞれの属性を割り当てるステップと、
    記少なくとも1つのそれぞれの属性に従ってセグメント化されていない画像をセグメント化するステップと、
    を含む方法。
  2. マーク領域によって影響される領域の大きさを決定するために、感度尺度を入力するステップをさらに含む、請求項1に記載の方法。
  3. マーク領域の画素が前記標的属性を持つことを余儀なくするステップをさらに含む、請求項1〜2のいずれかに記載の方法。
  4. セグメント化されていない画像の画素に追加入力制約を適用するステップをさらに含む、請求項1〜3のいずれかに記載の方法。
  5. 追加入力制約は、セグメント化されていない画像の画素に対する属性の所与の割当てである、請求項4に記載の方法。
  6. 所与の割当ては、前の繰返しの結果である、請求項5に記載の方法。
  7. 所与の割当ては、境界制約として使用される、請求項5または6に記載の方法。
  8. 画像または映像空間時間容積の映像シーケンスに特性を割り当てるための方法であって、
    映像空間時間容積の映像シーケンスのセグメント化されていないフレームを表示するステップと、
    セグメント化されていないフレームの領域のそれぞれの単一領域の画素に少なくとも1つの特性が割り当てられるように、前記単一領域を、複数の画素を覆う単一のスクリブルによってマーキングするために、ユーザが順次繰返し中にコンピュータ選択ツールを用いてマーキングするステップと、
    マーク領域の画素の特性を前提とし、かつ前の繰返し時の計算結果を前提として、各繰返し時に映シーケンスの画素のそれぞれの特性を算出するステップと、
    算出された特性の少なくとも1つをハイライトするように映像シーケンスを表示するステップと、
    を含む方法。
  9. 特性を算出するステップは、マーク領域に対して割り当てられた特性および前の繰返しにおいて算出された非マーク領域の画素の特性の一部を維持する、請求項8に記載の方法。
  10. 算出された特性が、映像シーケンスのフレームを複数の領域にセグメント化するために使用され、各々の割り当てられた特性がそれぞれ、複数のセグメントのうちの1つに対する各フレーム画素の分類であるか、または複数のセグメントのうちの1つに対する各映像フレームでの各フレーム画素の分類である、請求項9に記載の方法。
  11. 算出された特性が、画像または映像をマッティングするために使用され、各画素について割り当てられた特性が、複数のレイヤの各々にそれが属する部分である、請求項1〜10のいずれかに記載の方法。
  12. 算出された特性が、画像または映像シーケンスに色を増やすために、画像または映像シーケンスの色を変えるために、または赤目効果を映像および画像から除去するために使用される、請求項1〜11のいずれかに記載の方法。
  13. プログラムがコンピュータで実行されるときに請求項1〜12のいずれかに記載の方法を実行するためのコンピュータプログラムコード手段を含む、コンピュータプログラム。
  14. コンピュータ可読媒体で具体化される、請求項13に記載のコンピュータプログラム。
  15. 特性を画像または映像シーケンスに割り当てるためのシステム(30)であって、
    ユーザが、複数の画素にわたる映像空間時間容積のセグメント化されていない映像シーケンスまたはセグメント化されていない画像の領域のそれぞれの単一領域の画素に特性が割り当てられるように、前記単一領域を単一のスクリブルによって順次繰返し中にマーキングすることを可能にするマーキングツール(33)と、
    マーク領域の特性および追加入力制約に応答して、各繰返し時にセグメント化されていない画像またはセグメント化されていない映像の画素のそれぞれの特性を算出し、それぞれの特性に従ってセグメント化されていない映像シーケンスのセグメント化されていないフレームまたはセグメント化されていない画像をセグメント化するための計算ユニット(31)と、
    計算ユニットに結合され、セグメント化されていない画像または映像シーケンスを表示するための表示ユニット(36)と、
    を備えたシステム。
  16. 追加入力制約は、画像の画素に対する属性の所与の割当てである、請求項15に記載のシステム。
  17. 所与の割当ては、前の繰返しの結果である、請求項16に記載のシステム。
  18. 所与の割当ては、境界制約として使用される、請求項16に記載のシステム。
  19. 前記追加入力は、外部コンピュータプログラムからの出力として派生する、請求項15に記載のシステム。
  20. 計算ユニットは、マーク領域に対して割り当てられた特性が維持され、かつ前の繰返しにおいて算出された非マーク領域の画素の特性の一部を維持するように、前記特性を計算するように適応される、請求項15に記載のシステム。
  21. 計算ユニットに結合され、特性が前記領域に対して作成されたマーキングから伝搬する距離の感度を調整するための感度セレクタ(35)をさらに備える、請求項15〜20のいずれかに記載のシステム。
JP2009521413A 2006-07-25 2007-07-25 単一スクリブルによる画像の対話型セグメンテーション Expired - Fee Related JP5119251B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US82023206P 2006-07-25 2006-07-25
US60/820,232 2006-07-25
PCT/IL2007/000922 WO2008012808A2 (en) 2006-07-25 2007-07-25 Interactive segmentation of images with single scribbles

Publications (2)

Publication Number Publication Date
JP2009545052A JP2009545052A (ja) 2009-12-17
JP5119251B2 true JP5119251B2 (ja) 2013-01-16

Family

ID=38981878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009521413A Expired - Fee Related JP5119251B2 (ja) 2006-07-25 2007-07-25 単一スクリブルによる画像の対話型セグメンテーション

Country Status (5)

Country Link
US (1) US8594428B2 (ja)
EP (1) EP2052361A2 (ja)
JP (1) JP5119251B2 (ja)
CA (1) CA2658727C (ja)
WO (1) WO2008012808A2 (ja)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2658727C (en) * 2006-07-25 2017-10-24 Humaneyes Technologies Ltd. Interactive segmentation of images with single scribbles
US8437570B2 (en) 2008-05-23 2013-05-07 Microsoft Corporation Geodesic image and video processing
US8209597B2 (en) * 2009-03-23 2012-06-26 Cognitive Electronics, Inc. System and method for achieving improved accuracy from efficient computer architectures
US8351654B2 (en) 2009-04-28 2013-01-08 Microsoft Corporation Image processing using geodesic forests
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8655069B2 (en) * 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8565536B2 (en) 2010-04-01 2013-10-22 Microsoft Corporation Material recognition from an image
US20130272587A1 (en) * 2010-08-25 2013-10-17 Siemens Corporation System and method for interactive segmentation on mobile devices in a cloud computing environment
EP2538372A1 (en) * 2011-06-23 2012-12-26 Alcatel Lucent Dynamic gesture recognition process and authoring system
US9129363B2 (en) 2011-07-21 2015-09-08 Carestream Health, Inc. Method for teeth segmentation and alignment detection in CBCT volume
US8929635B2 (en) * 2011-07-21 2015-01-06 Carestream Health, Inc. Method and system for tooth segmentation in dental images
US8849016B2 (en) 2011-07-21 2014-09-30 Carestream Health, Inc. Panoramic image generation from CBCT dental images
US8842904B2 (en) 2011-07-21 2014-09-23 Carestream Health, Inc. Method for tooth dissection in CBCT volume
US8605973B2 (en) * 2012-03-17 2013-12-10 Sony Corporation Graph cuts-based interactive segmentation of teeth in 3-D CT volumetric data
JP2013196308A (ja) * 2012-03-19 2013-09-30 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体
WO2013144418A1 (en) * 2012-03-29 2013-10-03 Nokia Corporation Image segmentation
JP5897445B2 (ja) * 2012-09-28 2016-03-30 富士フイルム株式会社 分類装置、分類プログラムおよび分類装置の動作方法
KR101370718B1 (ko) * 2012-10-26 2014-03-06 한국과학기술원 파노라마 이미지를 이용한 2d에서 3d로의 변환 방법 및 장치
WO2014080861A1 (ja) * 2012-11-22 2014-05-30 国立大学法人東京大学 動画編集方法及び装置
US8953228B1 (en) * 2013-01-07 2015-02-10 Evernote Corporation Automatic assignment of note attributes using partial image recognition results
US9595135B2 (en) * 2013-03-05 2017-03-14 Autodesk, Inc. Technique for mapping a texture onto a three-dimensional model
US9965887B2 (en) 2013-03-05 2018-05-08 Autodesk, Inc. Technique for mapping a texture onto a three-dimensional model
US9338440B2 (en) 2013-06-17 2016-05-10 Microsoft Technology Licensing, Llc User interface for three-dimensional modeling
WO2015009830A1 (en) * 2013-07-16 2015-01-22 Children's National Medical Center Three dimensional printed replicas of patient's anatomy for medical applications
US9383259B2 (en) 2013-08-29 2016-07-05 Nokia Technologies Oy Method, apparatus and computer program product for sensing of visible spectrum and near infrared spectrum
JP6364958B2 (ja) * 2014-05-26 2018-08-01 富士ゼロックス株式会社 画像処理装置、画像形成装置及びプログラム
KR101546635B1 (ko) 2014-11-28 2015-08-21 연세대학교 산학협력단 영상 편집 방법 및 장치
CN104504745B (zh) * 2015-01-16 2018-05-25 成都品果科技有限公司 一种基于图像分割和抠图的证件照生成方法
US9569697B1 (en) 2015-02-19 2017-02-14 Google Inc. Object oriented image editing
FR3034225B1 (fr) * 2015-03-27 2018-05-04 Invidam Procede interactif d'extraction pour le traitement de videos sur appareil electronique portable
JP5858188B1 (ja) * 2015-06-15 2016-02-10 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CA2958003C (en) 2016-02-19 2022-04-05 Paul Stanley Addison System and methods for video-based monitoring of vital signs
US10375306B2 (en) 2017-07-13 2019-08-06 Zillow Group, Inc. Capture and use of building interior data from mobile devices
US10530997B2 (en) 2017-07-13 2020-01-07 Zillow Group, Inc. Connecting and using building interior data acquired from mobile devices
WO2019094893A1 (en) 2017-11-13 2019-05-16 Covidien Lp Systems and methods for video-based monitoring of a patient
AU2018400475B2 (en) 2018-01-08 2024-03-07 Covidien Lp Systems and methods for video-based non-contact tidal volume monitoring
US10643386B2 (en) 2018-04-11 2020-05-05 Zillow Group, Inc. Presenting image transition sequences between viewing locations
EP3806727A1 (en) 2018-06-15 2021-04-21 Covidien LP Systems and methods for video-based patient monitoring during surgery
CN112584753A (zh) 2018-08-09 2021-03-30 柯惠有限合伙公司 基于视频的患者监测系统以及用于检测和监测呼吸的相关方法
US10809066B2 (en) 2018-10-11 2020-10-20 Zillow Group, Inc. Automated mapping information generation from inter-connected images
CA3058602C (en) 2018-10-11 2023-01-24 Zillow Group, Inc. Automated mapping information generation from inter-connected images
US10708507B1 (en) 2018-10-11 2020-07-07 Zillow Group, Inc. Automated control of image acquisition via use of acquisition device sensors
US11617520B2 (en) 2018-12-14 2023-04-04 Covidien Lp Depth sensing visualization modes for non-contact monitoring
US11315275B2 (en) 2019-01-28 2022-04-26 Covidien Lp Edge handling methods for associated depth sensing camera devices, systems, and methods
US11243656B2 (en) 2019-08-28 2022-02-08 Zillow, Inc. Automated tools for generating mapping information for buildings
US11164368B2 (en) 2019-10-07 2021-11-02 Zillow, Inc. Providing simulated lighting information for three-dimensional building models
US11164361B2 (en) 2019-10-28 2021-11-02 Zillow, Inc. Generating floor maps for buildings from automated analysis of visual data of the buildings' interiors
US11676344B2 (en) 2019-11-12 2023-06-13 MFTB Holdco, Inc. Presenting building information using building models
US10825247B1 (en) 2019-11-12 2020-11-03 Zillow Group, Inc. Presenting integrated building information using three-dimensional building models
US11484208B2 (en) 2020-01-31 2022-11-01 Covidien Lp Attached sensor activation of additionally-streamed physiological parameters from non-contact monitoring systems and associated devices, systems, and methods
JP7392572B2 (ja) * 2020-05-21 2023-12-06 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US11405549B2 (en) 2020-06-05 2022-08-02 Zillow, Inc. Automated generation on mobile devices of panorama images for building locations and subsequent use
US11514674B2 (en) 2020-09-04 2022-11-29 Zillow, Inc. Automated analysis of image contents to determine the acquisition location of the image
US11592969B2 (en) 2020-10-13 2023-02-28 MFTB Holdco, Inc. Automated tools for generating building mapping information
US11481925B1 (en) 2020-11-23 2022-10-25 Zillow, Inc. Automated determination of image acquisition locations in building interiors using determined room shapes
US11252329B1 (en) 2021-01-08 2022-02-15 Zillow, Inc. Automated determination of image acquisition locations in building interiors using multiple data capture devices
CA3142154A1 (en) 2021-01-08 2022-07-08 Zillow, Inc. Automated determination of image acquisition locations in building interiors using multiple data capture devices
US11836973B2 (en) 2021-02-25 2023-12-05 MFTB Holdco, Inc. Automated direction of capturing in-room information for use in usability assessment of buildings
US11790648B2 (en) 2021-02-25 2023-10-17 MFTB Holdco, Inc. Automated usability assessment of buildings using visual data of captured in-room images
US11501492B1 (en) 2021-07-27 2022-11-15 Zillow, Inc. Automated room shape determination using visual data of multiple captured in-room images
US11842464B2 (en) 2021-09-22 2023-12-12 MFTB Holdco, Inc. Automated exchange and use of attribute information between building images of multiple types
US11830135B1 (en) 2022-07-13 2023-11-28 MFTB Holdco, Inc. Automated building identification using floor plans and acquired building images

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5202828A (en) * 1991-05-15 1993-04-13 Apple Computer, Inc. User interface system having programmable user interface elements
US5898434A (en) * 1991-05-15 1999-04-27 Apple Computer, Inc. User interface system having programmable user interface elements
JP4372494B2 (ja) * 2003-08-28 2009-11-25 大日本印刷株式会社 画像処理装置、画像処理方法、プログラム、記録媒体
US20070165966A1 (en) * 2005-07-15 2007-07-19 Yissum Research Development Co. Closed form method and system for matting a foreground object in an image having a background
CA2658727C (en) 2006-07-25 2017-10-24 Humaneyes Technologies Ltd. Interactive segmentation of images with single scribbles
KR101669618B1 (ko) * 2010-01-15 2016-10-26 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법

Also Published As

Publication number Publication date
US20090304280A1 (en) 2009-12-10
JP2009545052A (ja) 2009-12-17
CA2658727C (en) 2017-10-24
WO2008012808A3 (en) 2008-08-21
WO2008012808A2 (en) 2008-01-31
US8594428B2 (en) 2013-11-26
CA2658727A1 (en) 2008-01-31
EP2052361A2 (en) 2009-04-29

Similar Documents

Publication Publication Date Title
JP5119251B2 (ja) 単一スクリブルによる画像の対話型セグメンテーション
EP1372109B1 (en) Method and system for enhancing portrait images
US7199793B2 (en) Image-based modeling and photo editing
US11468614B2 (en) Presenting multiple image segmentations
Van Den Hengel et al. Videotrace: rapid interactive scene modelling from video
US6987520B2 (en) Image region filling by exemplar-based inpainting
US8665258B2 (en) Generating a depth map based on a single image
US20060177133A1 (en) Systems and methods for segmentation of volumetric objects by contour definition using a 2D interface integrated within a 3D virtual environment ("integrated contour editor")
US7593020B2 (en) Image editing using image-wide matting
WO2009065021A1 (en) A segmentation-based image processing system
US20140210944A1 (en) Method and apparatus for converting 2d video to 3d video
JP2014044461A (ja) 画像処理装置および方法、並びにプログラム
Ramanarayanan et al. Constrained texture synthesis via energy minimization
Sormann et al. Graph cut based multiple view segmentation for 3d reconstruction
Liu et al. Fog effect for photography using stereo vision
Froumentin et al. A Vector‐based Representation for Image Warping
JPH11510351A (ja) オブジェクト追跡の装置および方法
KR20050056175A (ko) 재귀적 제어선 정합을 이용한 반자동 필드 기반 영상 변형방법
Tasli et al. Interactive 2d 3d image conversion method for mobile devices
IL196699A (en) An interactive photo sharing system with discrete scribbles
US20240161406A1 (en) Modifying two-dimensional images utilizing iterative three-dimensional meshes of the two-dimensional images
US20240161320A1 (en) Generating adaptive three-dimensional meshes of two-dimensional images
US20240161366A1 (en) Modifying two-dimensional images utilizing three-dimensional meshes of the two-dimensional images
US20240161405A1 (en) Modifying two-dimensional images utilizing segmented three-dimensional object meshes of the two-dimensional images
Tate et al. Seg3d basic functionality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120904

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120904

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121022

R150 Certificate of patent or registration of utility model

Ref document number: 5119251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees