JP4892558B2 - 画像の融合 - Google Patents

画像の融合 Download PDF

Info

Publication number
JP4892558B2
JP4892558B2 JP2008524173A JP2008524173A JP4892558B2 JP 4892558 B2 JP4892558 B2 JP 4892558B2 JP 2008524173 A JP2008524173 A JP 2008524173A JP 2008524173 A JP2008524173 A JP 2008524173A JP 4892558 B2 JP4892558 B2 JP 4892558B2
Authority
JP
Japan
Prior art keywords
image
boundary
source
constituent
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008524173A
Other languages
English (en)
Other versions
JP2009503696A (ja
Inventor
ローター カーステン
コルモゴロフ ウラジミール
ブレイク アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2009503696A publication Critical patent/JP2009503696A/ja
Application granted granted Critical
Publication of JP4892558B2 publication Critical patent/JP4892558B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Display Devices Of Pinball Game Machines (AREA)

Description

本発明は、一般的には、画像の編集に関し、より詳細には、画像を融合することに関する。
マイクロソフト社のDigital Image Suite(登録商標)、Adobe Photoshop(登録商標)、Illustrator(登録商標)などの画像処理ツールは、知られており、そのようなツールの需要は、国内市場および専門的な市場の双方で増加している。そのようなツールを用いて実行される1つの共通のタスクは、ある画像の一部分を、別の画像に、または同じ画像の他の場所にペーストすることである。このタイプのオペレーションは、デジタル写真などのデジタル画像を補正し、修復し、修正するのに有用であり、同様に写真の合成(photo-montage)を作成するのに有用である。しかしながら、編集された範囲と元の画像の残りとの間に、典型的にシーム(seam)が生じるという事実を含む、いくつかの問題が起こる。画像融合(image blending)は、それゆえ、そのようなシームの出現を最小限にするために必要である。さらに、画像処理ツールを操作するためにユーザが必要とするアクションを簡単にすることが、すばやく効果的に操作するツールを提供することと同様に、要求される。
以下の提示は、読み手に基本的な理解を提供するための本開示の簡単な概要である。この概要は、本開示についての広範な概観ではなく、本発明の主要で/重大な要素を識別するものでもなく、本発明の範囲を線引きするものでもない。その唯一の目的は、後に提示する詳細な説明に対する前置きとして、本明細書に開示されるいくつかの概念を提示することである。
これまでは、ポワソン融合(Poisson blending)が、オブジェクトをターゲットの背景に複製し、ソース画像のペアとともに融合することを含む、画像融合に用いられてきた。このようなポワソン融合は、多くの状況において、よく機能する。しかしながら、この方法は、常に実行可能であるが、しばしば変色が発生することがわかった。我々は、オブジェクトおよび背景の色の維持を犠牲にして、ソース画像の勾配(gradient)がしつこく維持されすぎると、これらの変色が生じることに気づいた。場合によっては、オブジェクトの輪郭は、不鮮明になるか、またはぼやけたものになる。
我々は、これらの問題を対処するため、色調維持条件(color preservation term)および脆弱性の対応(fragility measure)を発展させる。これにより、なめらかな合成物を取得し、作成物(artifact)の変色を減少させるように、ユーザがさらに制御できるようになる。
付随する特徴の多くが添付する図面と関連して考慮される以下の詳細な説明を参照することによってより理解されるようになるように、付随する特徴の多くも容易に認識されるであろう。
本説明は、添付の図面を踏まえて、以下の詳細な説明を読むことにより、より理解されるであろう。
同じ参照番号は、添付の図面の同じ部分を指すのに用いられる。
添付の図面に関連して提供される以下の詳細な説明は、本例の説明として意図するものであり、本例を構成し、利用する形式のみを表すことを意図するものではない。説明は、例示の機能、および、例示を構成し操作するための段階の手順を示す。しかしながら、同一または同等の機能および手順は、別の例示によっても達成することができる。
マイクロソフト社の先願の2003年4月16日の米国特許出願第10/417,937号の米国特許出願公開第2004/0165788A1号明細書においては、本明細書でポワソン融合と呼ぶ(および、ポワソン編集(Poisson editing)とも呼ぶ)画像融合の方法を説明する。このようなポワソン融合は、多くの状況において、よく機能する。この方法は、常に実行可能であるが、変色の可能性があることがわかった。我々は、オブジェクトおよび背景の色を維持することを犠牲にして、ソース画像の勾配がしつこく維持されすぎると、これらの変色が生じることに気づいた。別の問題は、多くの状況においてオブジェクトの輪郭が、不鮮明になるか、またはぼやけたものになることである。本発明は、ポワソン融合技術を拡張し、構築することによって、これらの問題の対処を追求する。さらに、合成画像内の画像の部分間をつなぐ境界に沿う生成物のシームを除去、または最小にすることを追求する。
ポワソン編集は、上述した先願の米国特許出願の明細書、およびPerez他による著作の2003年のACM Trans.のvolume22、issue3の313〜318ページの「Poisson image editing」の双方で説明されている。これについては、ここでも説明する。
ポワソン編集は、境界Sのターゲット画像IT(r)をマッチさせる1を前提に、ソースの勾配∇ISに最も近くなるように構成画像の勾配∇uをマッチさせる、構成画像u(r), r∈ Sにわたる最適化として簡単に表現される。これは、
という最小化関数として書かれ、uは連続的であるという条件、および
u(r) = IT(r) for r on ∂S
という境界条件を前提とする。
再構成画像uが、膜(membrane)をソース画像IS上に伸ばすことによって生成されるが境界∂S上のターゲット画像と一致するようにもされるように、条件とマッチする勾配は、物理的な「膜」と近似する。最小化は、「ポワソン」融合の条件を発生させるディリクレ(Dirichlet)条件を前提とし、ポワソン方程式(Poisson equation)∇2u = ∇2ISを与える様々な計算法によって正確に解決することができる。
ポワソン融合は、しばしば効果的であるが、失敗する事情があることに気づいた。例えば、ターゲット画像上に複製されるべきオブジェクトを備える図3aのソース画像を考えていただきたい。ソース画像は、暗い背景31を背景にして立っている人物30の肖像を備える。複製されるべきソース画像の領域を示すため、ライン32は、人物を概略的に囲むように描かれている。「複製する」という用語は、オブジェクトまたはオブジェクトの一部をソース画像から目的画像にペーストすることが求められる状況を指すのに用いられる。例えば、画像処理アプリケーション内の描画ツール(drawing tool)または投げ縄ツール(lassoing tool)を用いるユーザによって、ライン32は、挿入される。あるソース画像の暗い背景が複製されるべき領域に含まれるように、ラインは、描かれる。ユーザまたは自動分割アルゴリズムを用いることによる骨の折れる作業なしに、この背景を含むのを避けることは、非常に困難なことである。しかしながら、そのような分割アルゴリズムは複雑であり、時間の浪費であり、未熟なユーザが使用するには難しいことである。
図3bは、上述した先願で教示した先行技術のポワソン編集方法を用いて、ソース画像(図3a)内の選択領域を、ターゲット画像に複製する結果を示す。ターゲット画像は、ソース画像内(図3a)の背景よりもかなり明るくなっており、複製したソースの要素(material)が、変色しているか、または不適切に明るくなっているのが見受けられる。さらに、構成画像内におけるオブジェクトの輪郭または端(edge)が不鮮明であるという問題がある。
図1は、画像融合用の装置の高レベルなダイアグラム図である。装置は、1つまたは複数の入力画像を受け取るための入力10、および、融合した画像を出力するための出力15を備える。装置は、入力画像(または、少なくとも入力画像の一部)を結合して合成画像を作成するようにアレンジされた画像コンバイナ11を備える。プロセッサ12は、自動的に、合成画像内の境界を判定するか、または受け取ったユーザ入力14をこの境界を識別するのを助けるために用いる。境界とは、あるソース画像から形成される合成画像内の領域と、別のソース画像から形成される合成画像内の領域の間である。画像プロセッサ13はまた、本明細書で説明した修正されたポワソン編集方法にしたがって、合成画像を修正するようにアレンジされ、提供される。プロセッサ12、画像コンバイナ11、および画像プロセッサ13を、単一のコンピューティング環境において、別々のエンティティとすることができるか、または結合することができる。
図2は、図1の装置を用いて構成画像を形成するために、第一の画像と第二の画像を融合する方法の高レベルなフローダイアグラム図である。方法は、以下のステップを備える。
・構成画像を形成するために、第一の画像の少なくとも一部と、第二の画像の少なくとも一部を結合するステップ(図2のボックス20を参照されたい)
・第一の画像から形成された構成画像内の領域と、第二の画像から形成された構成画像内の領域との間である、構成画像内の境界を識別するステップ(図2のボックス21を参照されたい)
・第一および第二の画像のいずれかの少なくとも一部の勾配に基づいて、構成画像を修正するステップであって(図2のボックス22を参照されたい)、その修正は、色調維持条件と、第一および第二の画像の少なくとも1つにおけるコントラストの程度の表示(indication)1つまたは複数に基づいても実行されるステップ。
変色の問題を対処するため、ここでより詳細に説明するように、色調維持条件を発展させた。さらに、オブジェクトの輪郭の不鮮明さを減少させるため、第一および第二の画像の少なくとも1つにおけるコントラストの程度の表示の用途を発展させた。
それゆえ、色調維持条件を含むように、上述した純粋なポワソン編集に用いた関数E(u)を修正した。関数E(u)は、以下となる。
この関数は、上述の境界条件を前提として、連続のu(r), r∈ Sに関して最小化される。色調維持条件の効果は、複製した要素がソースの色調を保持する傾向を取り入れることであり、この傾向は、ソースの勾配と一致することとの優先性と競合する。
重みづけパラメータは、上述の方程式にλとして取り入れられる。これは、ソースの色調を維持する傾向とソースの勾配と一致する傾向とのトレードオフを制御する。実際には、この重みづけのパラメータの有用な数値は、典型的には、約5ピクセルと200ピクセルの間に及ぶ。
図3cは、図3aおよび図3bと同じソース画像および同じターゲット画像に対するポワソン編集方法を修正するために、色調維持条件を用いる結果を示す。現在維持されるべき傾向にあるオブジェクトの色調において、著しい改善がある。この方法は、十分に実行可能であり、多くの状況において有利であるが、いくつかの状況においては、背景の変色が残りうることがわかった。例えば、図3cを参照されたい。新しいターゲット背景にはコントラストの変化が必要なのにも関わらず、関数E(u)の勾配条件(gradient term)は、ソース画像と同程度のコントラストを維持するようにオブジェクトの輪郭の周りに作用するので、背景の変色が生じることを特定した。本発明の別の実施態様においては、この問題を、ソース画像におけるコントラストの度合の程度を用いることによって対処する。
コストEに「脆弱性(fragility)」の条件を取り入れ、オブジェクトの輪郭に対する勾配の制約(gradient constraint)を無効にする。この条件は、ソース画像内にハイコントラストがある場合、膜の張力を減少させるものとしてみなすことができる。これは、暗黙的なまたは「ソフトな」端の検出としての役割を果たす。関数E(u)は、ここで、修正された勾配条件を有する。
脆弱性wSは、
であり、
である。
境界条件は、上記通りの前提とするここで、〈...〉は、定義域Sにわたる平均値を意味し、ここで、εは、小さな定数であり、その値は、決定的ではないが、典型的にはε= 0.02の場合、しばしば端を過度にはっきりさせすぎることを防ぐ。この方法は、どこに非常に高レベルな勾配‖∇IS‖があっても、wS(...)が1から低値(low value)まで減少するという効果を有する。これは、ポワソン編集の傾向を無効にし、オブジェクトの輪郭に対してさえも画像の勾配を維持する傾向がある。この方法においては、オブジェクトの境界での画像のコントラストは、新しいターゲットに適切に順応するように促される。
ポワソン編集と比較すると、前景と背景の双方の色調は、図3dに表すように、より正確に再現される傾向があり、図3dは、図3bおよび図3cと同じソース画像とターゲット画像に対し、すぐ上で言及した関数を用いる画像融合の結果を示す。別の有利な点は、パラメータλを用いることによって、ターゲットの背景を、複製したエリアに拡散することを可能にする程度を制御することができることである。ユーザが、パラメータの正確な値を特定することができるか、または、使用されたパラメータの現在の値を増加または減少させるために例えばスライディング入力制御を用いることができるように、このパラメータをユーザ入力にリンクさせることができる。この方法において、ユーザは、試行錯誤し、色の滑らかさと正確さの間における好適な主観的バランスを見つけることができる。以下でより詳細に説明するように、λのユーザ適応は、リアルタイムでなされうる。
図3に関して上述した例においては、人物の画像は、ターゲット画像の背景に複製される。本発明はまた、合成画像を形成するのに2つ以上の画像が用いられる画像融合を包含する。例えば、図6は、本発明の実施態様を用いて、6つのソース画像から形成される合成画像を示す。
画像をつなぐことは、ほとんどのシームレスにできる方法ではあらかじめ類似しているソース画像のペアを融合することを目標とする。例えば、写真の合成、画像のタペストリ、または合成画像の任意の適したタイプの形成のためである。これは、Kwatra他による著作の2003年のACM Trans.のvolume22、issue3の227〜286ページの「Graph cut textures; image and video synthesis using graph cuts」で説明されているように、つなぎの境界に沿った不適当な関数を最小にすることによって、的確に達成することができる。しかしながら、多くの状況においては、一般的に全く異なる2つの画像であって、境界にぴったり沿うものを利用できない2つの画像を、融合することがまだ要求される。Kwatra(上述の)によって提示されたようなグラフカットの方法は、このタイプの状況を取り扱わない。このようなケースにおいて、知られているアプローチは、見る者にとってあまり見えないハイコントラストの境界の近くにシームを配置することである。つまり、このケースにおいて、境界を識別するステップ(図2のボックス21を参照されたい)は、境界を、できればハイコントラストの境界の近くに配置するステップを備える。これは、ユーザ入力を通じて、または計算によって、達成することができる。例えば、この問題に関して修正された関数は、上述のKwatraによる文書の中で教示されている。この問題に関して修正された関数は、シームをハイコントラストの境界の近くに導く傾向のある、勾配の大きさの依存性(gradient-magnitude dependency)を取り入れる。しかしながら、このアプローチの短所は、一般に、シームが完全にはハイコントラストのラインに従うことができず、残った長さの一部が目立って見えることである。我々は、この問題に気づき、これを対処するための方法を特定した。ソース画像内のコントラストの程度の表示に基づいて構成画像を修正するために関数E(u)に取り入れる条件は、ハイコントラストのラインに沿う融合を抑制することを可能にする。つまり、我々の融合プロセスは、特定のプロパティに適用するように融合することを可能にし、目立つシーム部分を生じ、ハイコントラストのラインに沿うことを抑制する。しかしながら、色調維持条件の使用は、この方法にとって必須ではない、つまり、色調維持条件は、シームまたは境界に沿った他の位置で融合が生じることを可能にするが、ハイコントラストのラインに沿った融合を抑制するために必要ではない。
図4は、合成画像を形成するために一緒に融合されるべき2つの部分的に重なり合うソース画像の領域S0およびS1を示す。問題は、ソース画像の定義域において対称であるので、上述した融合方法は、ここでは、「双方で(bilaterally)」適用される。つまり、画像を複製するケースにおいては、(必要な場合には、画像の他の部分を修正することも可能であるが)合成画像の複製された部分のみが、融合プロセスの最中に修正される必要がある。しかしながら、図4などの画像融合のケースにおいては、各ソース画像からの合成画像の部分が修正される。「双方で」という用語は、ここでは、この特徴を示すために用いられる。境界またはシーム40は、図4の重なり合う領域に示され、ソース領域のサブドメインは、示されているようにS' 0およびS' 1である。境界またはシームは、ユーザ入力または自動計算などによる任意の適した手法で識別される。自動計算が用いられるケースでは、ソース画像内のオブジェクトの端または輪郭を識別し、できるだけオブジェクトの端または輪郭と近くなるように境界を配置するために、任意の適したアルゴリズムを用いることができる。
一実施態様においては、プリセグメンテーションの境界は、可能な限り、1つまたは他のソース画像内のオブジェクトの輪郭に従って、判定される。定義域S0およびS1において部分的に重なり合った画像がI0(r)およびI1(r)とすると、融合した画像のペアに対するターゲットの定義域はT= S0∪S1である。相互に排他的(S'0 ∩ S1=φ)で包括的(T= S'0 ∪ S'1)である、その方法を適用する第一のソース領域S'0 ⊂ S0およびS'1⊂ S1が、定義される。S'0およびS'1の通常の境界は、例えば、任意の適したコントラスト依存の関数を最小にすることによって、構成される。これは、例えば、上述のグラフカット方法を用いて算出することができる。例えば、図5cは、典型的な結果を示す。図5aは、第一のソース画像を示し、図5bは第二のソース画像を示す。図5cは、これらの2つのソース画像を、上述したようにグラフカット方法によって融合する結果を示す。顕著な不一致のシームが合成画像に現れているため、結果は乏しいものである。「双方の(bilateral)」ポワソン融合が、2つのソース画像間で重なり合う領域に適用されると、図5dで表すように、変色およびオブジェクトの輪郭の不鮮明化が生じる。
以下に示す関数E(u)の「双方の」形式を用いることによって、これらの問題を対処する。
重みwS0およびwS1は、前述の通りであるが、ここでは、これらの個々の画像の定義域において定義される。方法は、uに関して最小化E(u)を備え、これは、u(r), r∈ Tの連続および以下の境界条件を前提とする。
u(r) = I0(r) , r∈ T\S1 および u(r) = I1(r) , r∈ T\S0
図5eに表すように、前景および背景の色調が、正確に維持される結果となる。
関数E(u)の詳細は、上記の連続定義域内で与えられたが、明確にするために、この関数の最小化は、任意の適した公知の方法を用いて、別々のピクセル配列にわたって数値的に実行することができることに留意されたい。例えば、勾配の有限差分近似は、以下に示すように、一方向および双方向の方法の別々の形式となる。
ここで、p∈Ωは、Eに対する定義域内のピクセルのインデックスであり、Nは、Ω内のピクセルの隣接したペアのセットである。一方向のケースにおいては、νpは、単にIS およびνpq= νpqのピクセルである。双方向のケースにおいては、νpが、I0またはI1のピクセルに対応するものとなるように、定義域は、S0∪S1として分割され、ピクセルは、定義域S0またはS1内に位置する。同様に、勾配は、I0またはI1で算出され、唯一の問題は、どのようにνpqおよびwpqを定義し、どこでpqがセグメンテーションの境界にまたがるかということである。これらのケースにおいては、両方の画像にわたるコントラスト| Ip-Iq |を評価し、νpqおよびwpqを定義するため、よりハイコントラストの画像を用いる。最終的に、各upに関してすぐ上の方程式を解くことによって、疎行列(sparse)である最適条件のための連立一次方程式のシステムが得られる。
典型的に数秒間に約30,000を超えるピクセル群を実行するスパースガウシアン消去法(MATLABのmldivide)によって、解を得る。さらに効果的なマルチグリッドのため、当技術分野で公知であるように、SOR(successive over-relaxation)を用いることができる。留意すべきことは、SORでは、勾配パラメータの値λ = λ0用の方法を算出すると同様の(実際はわずかに少ない)計算コストの間に、0 ≦ λ ≦ λ0の範囲全体について解を得ることができることである。これは、SORプロセスのように、λを徐々にインクリメントすることによって、達成される。これは、ユーザがリアルタイムに、λに対してグラフィカルユーザインターフェーススライダを操作できるようにするので、重要なことである。
本明細書においては、「コンピュータ」という用語は、構造を稼動させることができる処理能力を有する任意のデバイスを指すのに用いる。そのような処理能力は、多くの異なるデバイスに組み込まれ、それゆえ「コンピュータ」という用語は、PC、サーバ、携帯電話、PDA(personal digital assistants)、および多くの他のデバイスを含むことを、当業者は理解されたい。
本例は、本明細書で画像融合システムを実装するように説明され、表されているが、説明したシステムは、例示として提供するものであり、限定ではない。本例は、様々な異なるタイプの画像処理システムにおけるアプリケーションに適することを、当業者は認識されたい。
プログラム構造を格納するために利用される記憶デバイスは、ネットワークを越えて分散できることを、当業者は理解されたい。例えば、リモートコンピュータは、ソフトウェアとして説明した例示のプロセスを格納することができる。ローカルコンピュータまたはターミナルコンピュータは、リモートコンピュータにアクセスすることができ、プログラムを実行するソフトウェアの一部または全部をダウンロードすることができる。代わりに、ローカルコンピュータは、必要とされるソフトウェアのピースをダウンロードすることができるか、または、いくつかのソフトウェア構造をローカル・ターミナルコンピュータで実行し、いくつかのソフトウェア構造をリモートコンピュータ(または、コンピュータネットワーク)で実行することができる。当業者に周知な従来技術を全て利用することによって、またはDSP、プログラマブル論理アレイなどの専用サーキットによってソフトウェア構造の一部を実行することができることも、当業者は理解されたい。
本明細書で説明した方法は、記憶媒体において機械読取可能な形式のソフトウェアによって行うことができる。これにより、ソフトウェアを価値の高いものとすることができ、別々に取引可能な商品とすることができることが認識される。「ダンプ」または標準のハードウェアを実行または制御するソフトウェアを包含し、所望の機能を実行する(および、標準のハードウェアと結合する前であっても、ソフトウェアが本質的に画像ブレンダの機能を定義し、それゆえ画像ブレンダと称することができる)傾向がある。同様の理由で、ハードウェアの構成は、所望の機能を実行するために、シリコンチップを設計するか汎用プログラマブルチップを構成するのに用いられるので、HDL(hardware description language)ソフトウェアなどのハードウェアの構成を「説明」または定義するソフトウェアを包含する傾向もある。
本明細書で与えられた任意の範囲またはデバイスの値は、当業者が認識しているように、求めている効果を失うことなく拡張または変更することができる。
上述の好適な実施態様の説明は、単なる例示として与えたものであり、当業者は様々に変更することができることを理解されたい。上の詳術、例、およびデータは、構造の完全な説明、および本発明の例示的実施態様の用途を提供する。特定の観点、または1つまたは複数の個々の実施態様に関連して、本発明の様々な実施態様を上で説明したが、当業者は、開示した実施態様を本発明の精神および範囲から逸脱することなく、様々に変更することができるであろう。
画像融合システムの高レベルなダイアグラム図である。 画像融合する場合の方法の高レベルなフローダイアグラム図である。 複製するためのオブジェクトのソース画像を示す図である。 図3aのオブジェクトを、先行技術の融合方法を用いて、ターゲットの背景に複製する結果を示す図である。 図3aのオブジェクトを、色調維持条件を取り入れた融合方法を用いて、図3bと同じターゲットの背景に複製する結果を示す図である。 図3aのオブジェクトを、図3cの色調維持条件、およびソース画像のコントラストの程度の対応の両方を取り入れた融合方法を用いて、図3bと同じターゲットの背景に複製する結果を示す図である。 ともに融合されるべき2つのソース画像の領域を示す図である。 第一のソース画像を示す図である。 第二のソース画像を示す図である。 図5aおよび図5bの第一および第二のソース画像から形成された構成画像であって、プリセグメンテーションアルゴリズムを用いて処理された構成画像を示す図である。 図5cの画像に対する双方の勾配融合プロセスの結果を示す図である。 図5cの画像に対する改良した画像融合プロセスの結果を示す図である。 本発明の方法を用いて、6つのソース画像を融合することによって形成される合成画像を示す図である。

Claims (15)

  1. 構成画像を形成するために、第一の画像と第二の画像を融合する方法であって、前記方法は、
    (i)前記構成画像を形成するために、前記第一の画像の少なくとも一部と、前記第二の画像の少なくとも一部を結合するステップと、
    (ii)前記第一の画像から形成された前記構成画像内の領域と、前記第二の画像から形成された前記構成画像内の領域の間である、前記構成画像内の境界を識別するステップと、
    (iii)前記第一および前記第二の画像のいずれかの少なくとも一部の勾配に基づいて前記構成画像を修正するステップとを有し、
    前記修正は、実質的にuが前記構成画像を表し、ISがソース画像を表し、λが重みづけパラメータである境界条件を前提とする汎関数
    の最小化に相当することを特徴とする方法。
  2. 前記第一の画像の少なくとも一部は、前記構成画像を形成するために前記第二の画像に複製され、前記構成画像を修正するステップは、前記第一の画像から複製された前記構成画像の一部のみを修正することを特徴とする請求項1に記載の方法。
  3. 前記第一の画像はソース画像であり、前記第二の画像はソース画像であり、これらのソース画像は合成画像を形成するためにともに融合されるべきものであることを特徴とする請求項1に記載の方法。
  4. 前記重みづけパラメータに関する値を特定するユーザ入力を受け取るステップをさらに有することを特徴とする請求項に記載の方法。
  5. 前記重みづけパラメータに関する値の順序付きシーケンスを特定するユーザ入力を受け取るステップをさらに有することを特徴とする請求項に記載の方法。
  6. 前記ユーザ入力は、スライディンググラフィカル入力ツールを備えるグラフィカルユーザインターフェースを介して受け取られることを特徴とする請求項に記載の方法。
  7. 前記ソース画像内のコントラストの程度の表示は、使用時に端の欠落を検出する役目を果たし、前記修正が、前記構成画像内の端の欠落を維持するように構成されることを特徴とする請求項1〜6の何れか1項に記載の方法。
  8. 前記境界は、ユーザ入力の結果として識別されることを特徴とする請求項1〜7の何れか1項に記載の方法。
  9. 前記境界は、自動分割計算の結果として識別されることを特徴とする請求項1〜7の何れか1項に記載の方法。
  10. 前記自動分割計算は、グラフカット方法を含むことを特徴とする請求項に記載の方法。
  11. 前記ソース画像は、部分的に重なり合うように構成され、前記境界は、これらの画像の間で前記重なり合う領域内にあることを特徴とする請求項3に記載の方法。
  12. 前記最小化は、勾配の有限差分近似に基づいて数値的方法を用いて実行されることを特徴とする請求項に記載の方法。
  13. コンピュータに、請求項1〜12の何れか1項に記載のステップを実行させるためのプログラム
  14. 第一の画像と第二の画像を融合して構成画像を形成するための装置であって、前記装置は、
    (i)前記第一の画像の少なくとも一部と、前記第二の画像の少なくとも一部を結合して前記構成画像を形成するように構成された画像コンバイナと、
    (ii)前記第一の画像から形成された前記構成画像内の領域と、前記第二の画像から形成された前記構成画像内の領域との間である、前記構成画像内の境界を識別するように構成されたプロセッサと、
    (iii)前記第一および前記第二の画像のいずれかの少なくとも一部の勾配に基づいて前記構成画像を修正するように構成された画像プロセッサとを備え
    前記画像プロセッサは、実質的にuが前記構成画像を表し、ISがソース画像を表し、λが重みづけパラメータである境界条件を前提とする汎関数
    の最小化と同等の手法で前記構成画像を修正するよう構成されたことを特徴とする装置。
  15. 前記プロセッサは、前記境界を識別するユーザ入力を受け取るように構成されたことを特徴とする請求項14に記載の装置。
JP2008524173A 2005-07-28 2006-07-28 画像の融合 Expired - Fee Related JP4892558B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP05254745.2 2005-07-28
EP05254745A EP1748389A1 (en) 2005-07-28 2005-07-28 Image blending
PCT/US2006/029326 WO2007016301A2 (en) 2005-07-28 2006-07-28 Image blending

Publications (2)

Publication Number Publication Date
JP2009503696A JP2009503696A (ja) 2009-01-29
JP4892558B2 true JP4892558B2 (ja) 2012-03-07

Family

ID=35355826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008524173A Expired - Fee Related JP4892558B2 (ja) 2005-07-28 2006-07-28 画像の融合

Country Status (14)

Country Link
US (1) US8019177B2 (ja)
EP (1) EP1748389A1 (ja)
JP (1) JP4892558B2 (ja)
KR (1) KR20080038308A (ja)
CN (1) CN101228535B (ja)
AU (1) AU2006275735A1 (ja)
BR (1) BRPI0613877A2 (ja)
CA (1) CA2615298A1 (ja)
IL (1) IL188704A0 (ja)
MX (1) MX2008001154A (ja)
NO (1) NO20080297L (ja)
RU (1) RU2424569C2 (ja)
WO (1) WO2007016301A2 (ja)
ZA (1) ZA200800836B (ja)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1826724B8 (en) 2006-02-28 2015-06-03 Microsoft Technology Licensing, LLC Object-level image editing using tiles of image data
EP1826723B1 (en) 2006-02-28 2015-03-25 Microsoft Corporation Object-level image editing
US8351713B2 (en) * 2007-02-20 2013-01-08 Microsoft Corporation Drag-and-drop pasting for seamless image composition
US8275215B2 (en) * 2007-05-08 2012-09-25 Arcsoft (Shanghai) Technology Company, Ltd Merging images
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
US8380010B2 (en) * 2007-11-30 2013-02-19 Mitsubishi Electric Research Laboratories, Inc. Content aware resizing of images and videos
US8189959B2 (en) 2008-04-17 2012-05-29 Microsoft Corporation Image blending using multi-splines
CN101631189B (zh) * 2008-07-15 2012-08-29 鸿富锦精密工业(深圳)有限公司 图像合成系统及方法
US8705867B2 (en) * 2008-12-11 2014-04-22 Imax Corporation Devices and methods for processing images using scale space
JP5183453B2 (ja) * 2008-12-17 2013-04-17 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8780135B2 (en) * 2009-02-26 2014-07-15 Adobe Systems Incorporated System and method for reducing the appearance of residuals in gradient-based image compositing
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
RU2541887C2 (ru) * 2009-04-02 2015-02-20 Конинклейке Филипс Электроникс Н.В. Автоматизированное оконтуривание анатомии для планирования терапии с управлением по изображениям
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US8786666B2 (en) * 2010-04-27 2014-07-22 Lifesize Communications, Inc. Providing separate video and presentation streams to a recording server
US8515137B2 (en) 2010-05-03 2013-08-20 Microsoft Corporation Generating a combined image from multiple images
CN101882212B (zh) * 2010-06-01 2012-12-12 福建新大陆电脑股份有限公司 一种条码图像的获取方法
US9047653B2 (en) 2010-08-24 2015-06-02 Hewlett-Packard Development Company, L.P. Stitched digital images
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
WO2012170954A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
KR101778353B1 (ko) 2011-06-10 2017-09-13 플리어 시스템즈, 인크. 적외선 이미징 장치용 불균일성 교정 기술
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9626778B2 (en) 2012-06-01 2017-04-18 The Johns Hopkins University Information propagation in prior-image-based reconstruction
US8897562B2 (en) * 2012-06-29 2014-11-25 Adobe Systems Incorporated Adaptive trimap propagation for video matting
US8792718B2 (en) 2012-06-29 2014-07-29 Adobe Systems Incorporated Temporal matte filter for video matting
GB201212521D0 (en) * 2012-07-13 2012-08-29 Wapple Net Ltd Drawing package
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
DE102012213981A1 (de) 2012-08-07 2014-02-13 General Electric Co. Verfahren und Vorrichtung zur Anzeige von radiologischen Bildern
KR20140031613A (ko) 2012-09-05 2014-03-13 삼성전자주식회사 영상 처리 장치 및 방법
CN102903093A (zh) * 2012-09-28 2013-01-30 中国航天科工集团第三研究院第八三五八研究所 一种基于链码掩模的泊松图像融合方法
US9633460B2 (en) 2013-03-15 2017-04-25 Cyberlink Corp. Systems and methods for seamless patch matching
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
CN104717574B (zh) * 2015-03-17 2017-11-24 华中科技大学 一种视频摘要中事件与背景的融合方法
US9536335B2 (en) * 2015-03-19 2017-01-03 Sony Corporation Using frequency decomposition for better color consistency in a synthesized region
CN104933676B (zh) * 2015-07-14 2019-01-08 厦门美图之家科技有限公司 一种保留边缘的图像模糊处理方法、系统及拍摄终端
CN106651749B (zh) * 2015-11-02 2019-12-13 福建天晴数码有限公司 基于线性方程的图形融合方法及系统
CN105608716B (zh) * 2015-12-21 2020-12-18 联想(北京)有限公司 一种信息处理方法及电子设备
CN107767411A (zh) * 2017-11-24 2018-03-06 河南理工大学 一种基于样图的纹理合成方法
CN115118948B (zh) * 2022-06-20 2024-04-05 北京华录新媒信息技术有限公司 一种全景视频中无规则遮挡的修复方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348839A (ja) * 1993-06-02 1994-12-22 Kawasaki Steel Corp 画像情報統合化方法および装置
JP2001157109A (ja) * 1999-11-24 2001-06-08 Nikon Corp 電子カメラおよび画像データ処理用記録媒体
WO2004077347A2 (en) * 2003-02-25 2004-09-10 Microsoft Corporation Image blending by guided interpolation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870103A (en) * 1996-09-25 1999-02-09 Eastman Kodak Company Method for creating realistic-looking composite images
US6912293B1 (en) * 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
US7292255B2 (en) * 2000-05-31 2007-11-06 Canon Kabushiki Kaisha Image data acquisition optimisation
CN1251145C (zh) * 2003-11-27 2006-04-12 上海交通大学 综合边缘和纹理信息的金字塔图像融合方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348839A (ja) * 1993-06-02 1994-12-22 Kawasaki Steel Corp 画像情報統合化方法および装置
JP2001157109A (ja) * 1999-11-24 2001-06-08 Nikon Corp 電子カメラおよび画像データ処理用記録媒体
WO2004077347A2 (en) * 2003-02-25 2004-09-10 Microsoft Corporation Image blending by guided interpolation
JP2006518891A (ja) * 2003-02-25 2006-08-17 マイクロソフト コーポレーション 誘導補間による画像合成

Also Published As

Publication number Publication date
IL188704A0 (en) 2008-08-07
CA2615298A1 (en) 2007-02-08
BRPI0613877A2 (pt) 2011-02-15
MX2008001154A (es) 2008-03-13
US8019177B2 (en) 2011-09-13
NO20080297L (no) 2008-02-21
WO2007016301A3 (en) 2007-11-29
EP1748389A1 (en) 2007-01-31
RU2008102965A (ru) 2009-07-27
CN101228535A (zh) 2008-07-23
KR20080038308A (ko) 2008-05-06
JP2009503696A (ja) 2009-01-29
CN101228535B (zh) 2011-03-09
AU2006275735A1 (en) 2007-02-08
RU2424569C2 (ru) 2011-07-20
ZA200800836B (en) 2009-04-29
WO2007016301A2 (en) 2007-02-08
US20090129700A1 (en) 2009-05-21

Similar Documents

Publication Publication Date Title
JP4892558B2 (ja) 画像の融合
US10388045B2 (en) Generating a triangle mesh for an image represented by curves
US11790581B2 (en) Transferring hairstyles between portrait images utilizing deep latent representations
US7653261B2 (en) Image tapestry
US7751640B2 (en) Image processing method, image processing apparatus, and computer-readable recording medium storing image processing program
US8270764B1 (en) Replacing pixels within a boundary area of a base image to generate a composite image
US20040164996A1 (en) Image region filling by exemplar-based inpainting
US11216998B2 (en) Jointly editing related objects in a digital image
CN109688285B (zh) 重组和修复撕裂的图像碎片
BRPI1100230A2 (pt) dispositivo e mÉtodo de processamento de imagem, programa executÁvel por um computador, e , dispositivo de processamento de imagem
US11393077B2 (en) Correcting dust and scratch artifacts in digital images
US20220392025A1 (en) Restoring degraded digital images through a deep learning framework
US20110097011A1 (en) Multi-resolution image editing
CN110276818B (zh) 用于自动合成内容感知填充的交互式系统
US11069034B2 (en) Method and system to enhance quality of digital images
JP4057102B2 (ja) デジタル画像の連接型レンダリング方法
Bergman et al. Comprehensive solutions for automatic removal of dust and scratches from images
JP2000004350A (ja) 情報埋込み方法及び装置
Truong et al. Inpainting GAN-based image blending with adaptive binary line mask
German et al. Improving scans of black and white photographs by recovering the print maker's artistic intent
CN115578478A (zh) 基于图像的换装方法、装置、计算机设备和存储介质
Shet et al. Object Removal and Region Filling Based on Exemplar-based Method
JP2001061055A (ja) 情報埋込み方法及び装置
Mathew et al. Region Filling and Object Removal in Images using Criminisi Algorithm
Thanh Trung et al. A Hierarchical Approach for High-Quality and Fast Image Completion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090625

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090813

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350