JPWO2009142333A1 - 画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体 - Google Patents

画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体 Download PDF

Info

Publication number
JPWO2009142333A1
JPWO2009142333A1 JP2010513086A JP2010513086A JPWO2009142333A1 JP WO2009142333 A1 JPWO2009142333 A1 JP WO2009142333A1 JP 2010513086 A JP2010513086 A JP 2010513086A JP 2010513086 A JP2010513086 A JP 2010513086A JP WO2009142333 A1 JPWO2009142333 A1 JP WO2009142333A1
Authority
JP
Japan
Prior art keywords
pixel
image
structural feature
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010513086A
Other languages
English (en)
Inventor
茂樹 嵯峨山
茂樹 嵯峨山
小野 順貴
順貴 小野
浩 郭
浩 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Publication of JPWO2009142333A1 publication Critical patent/JPWO2009142333A1/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

本発明の画像処理方法は、特定画像領域における未知の画像情報を、前記特定画像領域の周辺領域の既知の画像情報に基づいて算出する画像処理方法である。まず、特定画像領域の輪郭部分に含まれる注目未知画素を中心とする所定の画素数を有する第1構造特徴パッチを定義し、第1構造特徴パッチに含まれる既知画素の画素値の配置と類似した画素値の配置を有し、同じ画素数を持つ第2構造特徴パッチを、特定画像領域の前記周辺領域の既知領域において検索する。第1構造特徴パッチの前記注目未知画素の値を、前記第2構造特徴パッチで対応する配置にある画素の画素値で決定する。このように輪郭部分において注目未知画素の画素値を決定することにより、特定画像領域の外縁の画素から内側に向かって画素値を決定していくことを特徴とする。

Description

本発明は、画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体に関する。
従来から、イメージインペインティング(Image inpainting)という技術が知られている。非特許文献1乃至3に開示されているように、Bertalmioらが開発したBSCBインペインティングアルゴリズムが、2000年〜2001年に発表されてから、イメージインペインティングは、大きな注目を集め、多くのイメージインペインティングメソッドが新たに開発されてきた。それらのイメージインペインティングアルゴリズムは、図17に示すように、大きく2つのグループ(1701、1702)に分類することができる。第1のグループ1701は、小さな或いは細長いギャップを埋めるための「補完方法(interpolation method)」であり、第2のグループ1702は、大きな欠損領域を埋めるための「テクスチャ合成方法(texture synthesis method)」である。
また、従来の多くのイメージインペインティングメソッドは、第1のグループ1701に属している。BSBCモデルでは、画像の平滑度情報がラプラシアン画像によって推定され、アイソフォト(等しい明度を持つ線又は表面、図18の1801)方向に沿って、欠損領域(1802)に対し、伝搬する(1803)。非特許文献4に記載された全変動(TV:Total Variational)モデル及び非特許文献5に記載された曲率駆動拡散(CDD:Curvature−Driven Diffusion)モデルは、異方性拡散方程式に加えてオイラー・ラグランジュ方程式を用いることによってアイソフォトの方向を維持させる。これら全ての方法は、基本的に、アイソフォトの方向を維持しようとする様々なヒューリスティックス(思考モデル)に従って、欠損領域内への色の伝搬を示す偏微分方程式(PDE:Partial Differential Equation)を解くものである。
Bertalmio M,Sapiro G,Caselles V,Ballester C,"Image inpainting",Proc.of the ACM SIGGRAPH 2000,New Orleans,2000,pp.417−424 Bertalmio M,Bertozzi AL,Sapiro G.Navier−Stokes,"fluid dynamics,and image and video inpainting",Proc.Of the IEEE Int’1 Conf.on Computer Vision and Pattern Recognition,Volume I.Hawaii,2001,pp.355−362 C.Ballester,M.Bertalmio,V.Caselles,G.Sapiro,J.Verdera,"Filling−In by Joint Interpolation of Vector Fields and Gray Levels",IEEE Transactions on Signal Processing,10(8),2001,pp.1200−1211 T.Chan,J.Shen,"Mathematical Models for Local Deterministic Inpaintings",Technical Report CAM 00−11,Image Processing Research Group,UCLA,2000 T.Chan,J.Shen,"Non−Texture Inpainting by Curvature Driven Diffusions(CDD)",Technical Report CAM 00−35,Image Processing Research Group,UCLA,2000 Alexandru Telea,"An Image Inpainting Technique Based on the Fast Marching Method",Journal of Graphics Tools,9(1),2004,pp.25−36 A.A.Efros,T.K.Leung,"Texture Synthesis by Nonparametric Sampling",In IEEE International Conf.on Computer Vision,volume 2,1999,1033−1038 L.−Y.Wei,M.Levoy,"Fast Texture Synthesis Using Tree−Structured Vector Quantization",Computer Graphics(SIGGRAPH 2000 Conf.Proc.),2000,pp.479−488 Peng Tang,"Application of Non−parametric Texture Synthesis to Image Inpainting",M.S.,Computer Science,University of New Mexico,2004 Antonio Criminisi,Patrick Perez,Kentaro Toyama,"Object Removal by Exemplar−based Inpainting(PDF)Jun",WI Proc.IEEE Computer Vision and Pattern Recognition,2003(2),pp.721−728 Hitoshi Yamauchi,Jorg Haber,Hans−Peter Seidel,"Image Restoration using Multiresolution Texture Synthesis and Image Inpainting",Proc.Computer Graphics International(CGI)2003,pp.120−125 H.Grossauer,"A Combined PDE and Texture Synthesis Approach to Inpainting",European Conference on Computer Vision,LNCS 3022,2004,pp.214−224
上述の非特許文献1乃至5に登場するPDEベースのアルゴリズムの複雑さを抜きにすれば、その主な問題は、アイソフォトの推定及びその情報の伝搬が、両方とも数値の拡散の影響を受けてしまう点にある。解くべきPDEを安定化させる拡散であれば好ましいが、修復しようとする領域が「ボケ」てしまうことは避けられない(図19)。非特許文献6にて論じられたFMM(Fast Marching Method)モデルは、非特許文献1及び2のBSBCモデルと同様に、画像の階調変化に従って画像平滑度を伝搬する。しかしながら、この画像平滑度は、修復すべき画素に近接した既知の画像における加重平均値に基づいて導かれるので、この方法も、やはり「ボケ」を発生させてしまう。細く長い欠損領域の修正においては目立たないかもしれない(図19の1901)が、大きく太い欠損領域の修正においては、そのような「ボケ」は許容できない(図19の1902)。
これに対し、従来から、様々な研究者が、大きく太い欠損領域を埋める方法として、テクスチャ合成インペインティングについて研究を行なってきた(非特許文献7乃至10)。テクスチャ合成は、「ピュアな」テクスチャ、つまり、モデレートな確率変動を有する2次元テクスチャパターンの繰り返し、を用いて大きな画像領域を埋めるのに適している。異なる領域がそのようなテクスチャを有すると、常に、近似した(同一性の高い)ものとして認識される。多くのリアル画像及び合成画像においては、欠損領域は、リニアなストラクチャーと混合テクスチャ(多くのリアル画像及び合成画像において空間的に相互作用する複数のテクスチャ)から構成される。従来のテクスチャ合成技術の中には、事例ベース(exemplar−based)技術のように、ソースから色値をサンプリングしてコピーすることにより、安価かつ効果的に新しいテクスチャを生成する技術もあるが、このようなテクスチャ合成技術では、上述のような領域を埋めることは困難であり、混合テクスチャに対してなすすべがない。一方、非特許文献11、12に示すように、近年では補完法(interpolation)とテクスチャ合成とを組み合わせた方法も提案されてきているが、(データ値の)補完には時間がかかるため、処理スピードが非常に遅くなる。
このように、従来は、イメージインペインティングよって、大きな欠損領域を修復することは困難であった。具体的には、以下の2つの主な懸念事項が存在していた。つまり、(1)既知のパッチのテクスチャ特徴情報及び構造特徴情報を欠損領域に伝搬しつつアイソフォトの連続性を維持するにはどうすればよいのか、そして、(2)短時間に効果的にアルゴリズムを実行するにはどうすればよいのか、である。
本発明は、上記従来技術を踏まえ、イメージインペインティング技術を用いつつ、高速且つ効果的に画像を処理し、高品質の画像処理結果を得る。
本発明は、特定画像領域における未知の画像情報を、前記特定画像領域の周辺領域の既知の画像情報に基づいて算出する画像処理方法である。その特徴は、前記特定画像領域の輪郭部分に含まれる注目未知画素を中心とする所定の画素数を有する第1構造特徴パッチを定義し、前記第1構造特徴パッチに含まれる既知画素の画素値の配置と類似した画素値の配置を有し、同じ画素数を持つ第2構造特徴パッチを、前記特定画像領域の前記周辺領域の既知領域において検索する検索ステップと、前記第1構造特徴パッチに含まれる前記注目未知画素の画素値を、第2構造特徴パッチにおいて対応する配置にある画素の画素値で決定する画素値決定ステップと、を前記輪郭部分に含まれる別の前記注目未知画素に対して繰り返すことにより、前記輪郭部分から前記特定画像領域の内側に向かって画素値を決定していくことである。
発明の効果
本発明は、イメージインペインティング技術を用いつつ、高速且つ効果的に画像を処理することができ、高品質の画像処理結果を得ることができる。
本発明の実施形態に係る画像処理の一例を示す図である。 本発明の実施形態に係る画像処理の基礎理論を説明するための図である。 本発明の実施形態に係る処理対象画素を示す図である。 本発明の実施形態に係る画像処理方法に用いられる構造特徴とテクスチャ特徴を例示する図である。 本発明の実施形態に係る画像処理方法における、構造特徴の伝搬を示す図である。 本発明の実施形態に係る画像処理方法による、エラー蓄積回避の様子を示す図である。 本発明の実施形態に係る画像処理方法による、エラー蓄積回避の方法を示す図である。 本発明の実施形態に係る画像処理方法による、様々な画像処理結果の例を示す図である。 本発明の実施形態に係る画像処理方法による、画像処理結果の一例を示す図である。 本発明の実施形態に係る画像処理方法による画像処理結果と、過去の画像処理方法による画像処理結果の比較例を示す図である。 本発明の実施形態に係る画像処理方法を実現するシステムの一例を示す図である。 本発明の実施形態に係る画像処理方法を実現するアプリケーションのユーザインタフェースの一例を示す図である。 本発明の実施形態に係る画像処理方法を実現するアプリケーションの処理の流れを説明するフローチャートである。 本発明の実施形態に係る画像処理方法を実現するアプリケーションの実行結果例を示す図である。 本発明の実施形態に係る画像処理方法を実現するアプリケーションの実行結果例を示す図である。 本発明の実施形態に係る画像処理方法を実現するアプリケーションのユーザインタフェースの他の例を示す図である。 イメージインペインティング技術について説明する図である。 アイソフォトの連続性の維持について説明する図である。 従来の画像処理結果を示す図である。
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
1. 概要
本発明の実施形態としての画像処理方法は、画像において特定画像領域を、その周辺領域の既知の画像情報を用いて埋め、完全かつ自然に見える画像を生成するものである。以下の説明では、「欠損領域」や「未知の画像領域」という表現が用いられているが、これは「損傷を受けた画像領域」や「情報のない画像領域」を示すのだけではなく、周辺領域の画像情報を用いて埋めようとするあらゆる領域を意味し、本発明でいう「特定画像領域」である。つまり、処理前から何ら情報が欠落していない領域であっても、ユーザによって作為的に特定された処理対象領域は「欠損領域」(「特定画像領域」)の概念に含まれるものとする。
イメージインペインティングは、画像において欠損領域を修復し、修復後の画像が、完全かつ自然に見えるようにするための1つの手段であり、本実施形態に係る画像処理方法では、新しいイメージインペインティングアルゴリズムを提案し利用する。本実施形態で提案する新しい画像処理アルゴリズムによれば、モルフォロジー収縮演算及びストラクチャー特性の複製によって、特定画像領域の処理を行なう。構造特徴及びテクスチャ特徴マッチングアルゴリズムに基づく方法によれば、周辺領域のパッチのテクスチャ特徴情報と構造特徴情報の両方を、特定画像領域に伝搬(propagate)させることによって、アイソフォト(isophote)の連続性を維持することができる。結果として、完全かつ自然に見え、ぼやけていない画像を出力することが可能となる。モルフォロジー収縮によって領域を埋める方法によれば、各インペインティングステップにおいて、1画素のみならず複数の画素をまとめて処理することができるので、従来の多くのテクスチャ合成インペインティングアルゴリズムよりも高速に処理を行なうことができる。イメージインペインティングを適用できる技術範囲は広く、例えば、スキャンした画像データ上の傷やゴミを取り除くことによる劣化した画像の再構築にも利用できるし、デジタル画像から文字やロゴの除去するために利用することもできる。更には、芸術的効果の創作などの様々な目的にも利用可能である。
2. モルフォロジー収縮処理に基づくイメージインペインティング
2.1 モルフォロジー収縮処理
モルフォロジー収縮演算とは、非線形フィルタの一種(モルフォロジーフィルタ)を用いた演算である。モルフォロジー演算とは、「構造要素(structural element)」と呼ばれる図形要素(エッジ、輪郭など)を利用して、画像データに拡張(Dilation)、収縮(Erosion)を施すことをいう。構造要素とは、複数の位置ベクトルの集合を画素に置き換えたものである。つまり、拡張(Dilation)及び収縮(Erosion)の2種類の処理が、基本的なモルフォロジーカル動作である。「拡張」は、画像中のオブジェクトの境界部分に画素を追加する処理であり、「収縮」は、その境界部分から画素を取り除く処理である。特定の領域が、小さくなるべき領域として認識される場合、「収縮」をイメージインペインティングに用いる。
モルフォロジー収縮処理は、下の式のように定義される。
上記数式1において、Aは入力二値画像であり、Bは構造要素であって、数式1は、二値画像Aが構造要素Bによって収縮されることを示している。構造要素(B)xは、画素xを中心とする構造要素Bを示す。拡張及び収縮処理において重要なのは、入力画像を処理するために用いられる構造要素である。構造要素は、0と1のみからなり任意の構成及びサイズを持つマトリクスである。構造要素のサイズは、通常、処理すべき画像のサイズよりもずっと小さい。「オリジン(origin)」と呼ばれる構造要素の中心画素は、注目未知画素、つまり処理すべき画素である。
2.2 領域充填アルゴリズム
図2を用いて、2値画像のイメージインペインティング収縮処理について説明する。ここでは、構造要素の領域を表す画素が1(理論値)で定義されている。図2において、構造要素101は、オリジン102を中心とする3×3画素のマトリクスであり、構造要素101に含まれる全ての画素の値は1となっている。これにより図2では、1画素幅の帯状部分のみが、収縮処理の各ループにおいて収縮される模式を示している。
この処理の主な利点は、(特定画像領域、欠損領域等の)未知の画像領域をモルフォロジー収縮処理で用いる構造要素の領域とし、既知の画像領域から切り離し、次に修復すべき画素を示すナローバンド(細い帯状領域)を確実に維持できることにある。一方、グレースケール画像又はカラー画像においても、隣接画素の情報に基づいて未知の画素のグレー情報又はカラー情報を復元可能な場合には、やはり、欠損領域等のイメージインペインティング処理を、収縮処理を利用して実行することができる。このような領域を埋める処理を、図1に示す。図1において、欠損領域202を含む入力画像201に対し、1つの収縮ループにおいて、構造要素204における構造特徴及びテクスチャ特徴を修復する(203)。これの収縮ループを繰り返して、欠損領域202を完全に埋めた後、出力する(205)。
簡単に言えば、欠損領域202を修復するために、1つの構造要素204を繰り返し適用し、結果として、処理対象の境界部分δΩtの不明瞭な(discrete)画素を全て収縮させ、修復する。δΩtは、時間t(t=0,1,…,T,…)のタイミングでの境界部分を示し、δΩ0は初期境界部分である。そして、全体領域が修復されるまで、領域Ωの内側に向かって境界部分は移動していく。
ここで、インペインティングアルゴリズムの1ループについて説明する。時間tにおいて、欠損領域Ωと既知の画像領域との間の境界部分301(δΩt)を抽出し、図3に示すように、「KNOWN(既知)」302、「EDGE(境界)」303、「UNKNOWN(未知)」304という、3つのフラグで、画素をマークする。ここで、「KNOWN」302は、境界部分δΩtの外側、つまり既知の画像領域の画素を示し、「UNKNOWN」304は、境界部分301の内側、つまり修復すべき領域の画素を示し、「EDGE」303は、「KNOWN」302と「UNKNOWN」304との間の画素であって、欠損領域Ωに属する画素を示す。
構造要素は、処理対象となる境界部分のそれぞれの画素を全て収縮(erode)するために繰り返し適用される。この収縮処理の各ステップでは、構造要素によってカバーされた画素が、後述する構造特徴及びテクスチャ特徴マッチング処理を経て修復される。修復された全ての画素は、「KNOWN」のフラグでマークされる。「EDGE」のフラグでマークされた画素が無くなるまでこの処理は繰り返し行なわれる。
1つの収縮ループが終了すると、1つのレイヤーの画素が修復される。そして、「UNKNOWN」のフラグでマークされた画素が無くなるまで、このループ処理は繰り返される。
各領域充填ループの各収縮ステップでは、修復すべき次の画素或いは次のパッチは、構造要素によってカバーされた範囲として明確に特定される。その範囲の画素が充填され、その範囲の構造特徴及びテクスチャ特徴が修復されるまで、グレースケール画像又はカラー画像のインペインティング処理は完了しない。
2.3 各収縮ステップにおける構造特徴及びテクスチャ特徴の修復
ほぼ全てのPDEベースのインペインティング方法は、ボケを回避することはできず、ボケが目立たない長くて細い欠損領域についてのみ効果的であるということがよく知られている。一方、大きく太い欠損領域については、ボケは許容されない。ボケることなく構造特徴及びテクスチャ特徴が修復された場合のみ、完全かつ自然に見える画像を実現することができる。本発明では、グレースケール又はカラー画像において、どの種の構造特徴及びテクスチャ特徴について図4にその定義が示されている。処理対象画像401の部分拡大画像402において、テクスチャ特徴404は、類似或いはほぼ同一に認識される領域であって、その領域中の各画素は少しの隣接画素群にしか関連しないような、異なる領域のグレー画素値又はカラー画素値を示す。構造特徴403は、異なるテクスチャ領域の境となる輪郭線であり、各画素は、その輪郭線に沿った複数の画素と強く関連している。
また、本発明では、既知の画像(画素)情報を三次元のデータであらわすことができる。X及びYの値はその既知の画像の各々画素の平面座標の値であり、Zはその画素の色材等を表す値(その値は予め個別で決めておくことができる)である。したがって、多くの画素で構成した既知の画像のデータは、そこにある各々の画素の三次元のデータで集まりである。その三次元データでは、連続性の持つ三次元の面(曲面)を表すデータに置き換えることができる。その連続性のある三次元の曲面において、前記特定画像領域(修復すべき欠損領域)が生じると、そこだけは前記連続性を失うことになる。そこで、特定画像領域にある画素の構造特徴及びテクスチャ特徴のマッチングは、既知の画像の画素データと連続性を有する画素データを特定画像領域の未知画素のデータとして算出することで行う。
よって、本発明は、特定画像領域にある画素の構造特徴及びテクスチャ特徴のマッチングは当該構造特徴及びテクスチャ特徴を個別に取り出して別々で行うのではなく、後述する、所定の画素数を有する構造特徴パッチにより一体的に行っている。また、本発明では、既知の画像の画素データからアイソフォトの方向を維持した、前記特定画像領域の画素データを算出することができる。
次に、図5を用いて、構造特徴及びテクスチャ特徴マッチングアルゴリズムについて説明する。このアルゴリズムは、大きく太い欠損領域についても、細長い欠損領域についても、いくつかの構造特徴(直線的な輪郭線や小さな曲率を有するカーブといった普通の構造)を、ボケを発生させることなく修復できる。
欠損領域512を含む処理対象画像501の一部502を拡大した場合、前記注目未知画素506を中心とする構造特徴パッチ507(第1構造特徴パッチ)内のグレー画素値(又はカラー画素値)510と同じ或いは類似の画素値を有する構造特徴パッチ(ここでは7×7画素領域)511(第2構造特徴パッチ)を、サーチ範囲503(特定画像領域の周辺領域の既知領域)の内部において左から右へ、上から下へ向かって検索する。ここで、本発明において、前記注目未知画素506を一画素とすることが好ましい。
2つのパッチの類似性は、そこに含まれる全ての既知画素のSSD(Sum of Squared Difference:輝度差の二乗和)の最小値を用いて測定される。検索範囲において、既知画素505を中心とする構造特徴パッチ511が最大の類似性(最小SSD)を有することが分かれば、構造要素507に含まれる未知画素群508の画素値は、構造特徴パッチ511の構造要素504の範囲に含まれる既知画素群509の画素値によって置き換えられる。このようにして、インペインティング処理の1ステップが完了する。この方法によれば、インペインティング処理の1ステップで複数画素(図5の例では6画素)を処理することができ、処理を高速化できる。また、既知領域の構造特徴及びテクスチャ特徴が欠損領域内に伝搬し、同時にナローバンドが維持される。
このように、本実施形態に係る画像処理方法は、図20のように、特定画像領域(欠損領域)における未知の画像情報を該特定画像領域の周辺領域の既知の画像情報に基づいて算出する画像処理方法である。まず、前記特定画像領域の輪郭部分に含まれる注目未知画素を特定(2001)し、前記注目未知画素を中心とする所定の画素数を有する第1構造特徴パッチを定義(2002)する。そして、前記第1構造特徴パッチに含まれる既知画素の画素値の配置と類似した画素値の配置を有し、同じ画素数を持つ第2構造特徴パッチを、前記特定画像領域の周辺領域の既知領域において検索(2003)する。次いで前記第1構造特徴パッチに含まれる前記注目未知画素の周囲にある未知画素群の画素値を、第2構造特徴パッチにおいて対応する配置にある画素の画素値で決定(2004)する。最後に、前記特定画像領域に注目未知画素が含まれているか否かと判断(2005)する。存在するなら、前記輪郭部分に含まれる別の前記注目未知画素に対して2001、2002、2003及び2004のステップを繰り返すことにより、前記輪郭部分から前記特定画像領域の内側に向かって画素値を決定していく。存在しないなら、画像処理を終了する。
また、本実施形態によれば、特定画像領域の構造特徴及びテクスチャ特徴を個別に識別しない。前記第1構造特徴パッチの未知画素の値を第2構造特徴パッチにおいて対応する配置の画素の値を置き換える(複製する)ことによって、特定画像領域の構造特徴及びテクスチャ特徴のマッチングを一緒に行うことができる。さらに、第1構造特徴パッチの画素数をたとえば、5×5、7×7等とすることで、前記モルフォロジー収縮演算は1画素ずつではなく、5×5又は7×7画素を単位として前記特定画像領域の輪郭に沿って収縮していき、特定画像領域の未知画素の処理の高速化を可能にすることができる。本発明では、第1構造特徴パッチ(第2構造特徴パッチ)の画素数をたとえば、5×5、7×7または9×9等とすることが好ましい。
また、本実施形態でいう、「置き換える」とは、第2構造特徴パッチにおいて対応する配置の画素の値を完全に第1構造特徴パッチの未知画素の値として複製する場合以外に、適宜に加工(エラー修正等)を加えて算出することもできる。
2.4 改良点の詳細
2.4.1 エラー蓄積回避方法
本方法では、境界部分に沿ったインペインティングの1ループの後で、欠損領域と既知領域との間の境界部分に沿った新しいナローバンドが前のナローバンドに基づいて形成される。この場合、例えば、図6のように、欠損領域604を有するリアル画像(又は合成画像)601に対し、インペインティング処理を施した結果、画像602に示すようにエラー蓄積現象605が起こりうることが分かる。すなわち、なんらかの理由で以前のナローバンドにおける情報に誤りがあった場合、次々と新しいナローバンドにその誤りが伝搬する可能性がある。
この問題を解決するため、各収縮ステップにおける構造特徴及びテクスチャ特徴の修復処理を改良する。すなわち、サーチ範囲の中心を、始めからずっとオリジナルの境界線に合わせる。そして、オリジナル画像からの情報しか信頼性がないという事実に基づき、オリジナル画像の内部にあるサーチ範囲の一部のみが用いられる。この処理は、図7に示されており、次の2つのステップを含む。まず、サーチ範囲703の中心画素704を、処理しようとする未知画素に最も近いオリジナルの境界線上で検索する。そして、そのサーチ範囲703を、その中心画素704に基づいて決定する。この時、オリジナルの境界部分705と処理進行後の境界部分706の間にある、既に修復された領域(オリジナルの欠損領域)をサーチ範囲から排除する。つまり、インペインティング処理が進んで、輪郭部分が内側に移動しても、修復領域をサーチ範囲に加えず、例えばサーチ範囲703内の斜線部分のみから類似した構造特徴パッチを探し続ける。言い換えれば、処理対象となる注目未知画素がオリジナルの欠損領域の内側になっても、第2構造特徴パッチを検索する周辺領域の範囲には、オリジナルの欠損領域を含めない。この方法により、エラー蓄積現象を避けることができる(図6の画像603)。
2.4.2 インペインティング処理の高速化方法
図2に示された2値画像の収縮処理では、各収縮ステップにおいて、一層の画素のみが収縮される。しかし、ここには、少なくとも以下の2つの問題(1)、(2)がある。隣接画素間の相互関係を無視すること、及び、収縮ループの各ステップにおいて、1つの画素のみを修復することは、(1)最適解とは言えず、完全に分析されきれていない情報を含み、(2)修復スピードを低速化してしまう。
そこで、図1や図5に示したように各収縮ステップにおいて構造特徴及びテクスチャ特徴の修復処理を行なえば、各インペインティングステップにおいて、1画素のみならず複数画素を修復できるので、従来のテクスチャ合成インペインティングアルゴリズムに比べて処理は高速になり、同時に、情報の信頼性を示すナローバンドも維持される。具体的には、前記のように、本発明では、第1構造特徴パッチ(第2構造特徴パッチ)の画素数をたとえば、5×5、7×7または9×9等とすることができる。
3. 実験結果
本アルゴリズムは、図8に示すように様々な画像の修復に適用される。画像中、塗りつぶされた領域が欠損領域である。800×600画素のカラー画像の18%の画素を修復しようとする場合、クロックが1.2GHzのコンピュータによって本実施形態で説明してきたアルゴリズムに基づくプログラム(C++(登録商標)で書かれたもの)を実行すると、5分で修復できる。一方同様の画像に対して同様のコンピュータでJavaで書かれた同様のプログラムを実行すると、約20秒で修復できる。
図8の例1、例2の結果を見れば、本インペインティングメソッドが、大きく太い欠損領域においてテクスチャ特徴と構造特徴をボケ為しに修復できることが分かる。図8の例3、例4では、本方法を、様々な形状の欠損領域に対して実行している。図9には、画像を加工する例を示している。図10には、欠損領域1004を有する画像1001に対する処理について、他の方法との比較例を示している。これによれば、本方法の結果1003が、従前の方法の結果1002に比べて高品質であることがわかる。
これらの例を見れば、本方法が、テクスチャ特徴情報と構造特徴情報の両方を、既知領域から欠損領域へ受け渡すことにより、アイソフォトの連続性を維持することができ、完全且つ自然な、ボケの無い画像を出力できることが分かる。
4.結論
インペインティング処理とは、画像の欠損領域を修復する一つの手段である。過去の文献に開示された大部分のインペインティングアルゴリズムは、理解及び実行するには複雑すぎた。本インペインティングアルゴリズムは、モルフォロジー収縮処理及び構造特徴のマッチング処理に基づいて欠損領域を充填する新しいアルゴリズムである。言い換えれば、モルフォロジー収縮処理と、構造特徴及びテクスチャ特徴のマッチング処理と組み合わせることにより、特定画像領域における未知の画像情報を、該特定画像領域の周辺領域の既知の画像情報に基づいて算出する。簡単に言えば、本画像処理方法は、以下の特徴を有する。
(1)画像処理方法は、構造特徴及びテクスチャ特徴のマッチングアルゴリズムに基づき、大きく太い欠損領域又は細長い欠損領域の両方について、いくつかの構造特徴(輪郭線又は小さな曲率を持つカーブなど)をぼけさせることなく修復する。
(2)モルフォロジー収縮処理に基づく画像処理方法により、各インペインティングステップにおいて、単一の画素ではなく複数画素を修復する。これにより、従来の多くのテクスチャ合成インペインティングアルゴリズムに比べて、高速に処理を行なうことが可能である。
これにより、パッチのテクスチャ特徴情報及び構造特徴情報を欠損領域に伝搬しつつアイソフォトの連続性を維持し、かつ、短時間に効果的にアルゴリズムを実行する。
5. 画像処理システム
5.1 ハードウェア構成
図11に、上述してきた画像処理方法を実現する画像処理システム1100を示す。CPU1101は画像処理システム全体を制御する中央処理ユニットである。ROM1102は、CPU1101によってブートされる基本プログラムを格納したリードオンリーメモリである。RAM1103は、HD1104に格納されたプログラムやデータを展開するための記憶領域を有するランダムアクセスメモリである。HD1104は、ハードディスクであり、本実施形態の画像処理システムにおいては、OS(オペレーションシステム)1105や、画像データ1106の他に、上述した画像処理方法を実行するプログラムとして、インペインティングアプリケーション1107を備えている。
インペインティングアプリケーション1107は、図のように、パラメータ設定モジュール1107aと、画像処理領域設定モジュール1107bと、画像処理モジュール1107cと、画像描画モジュール1107dとを備える。このうち、パラメータ設定モジュール1107aは、ユーザの操作に応じて各種のパラメータを設定する。また、画像処理領域設定モジュール1107bは、処理対象となる画像において、ユーザの操作に応じて或いは自動的に画像処理領域(いわゆる欠損領域)を設定する。更に、画像処理モジュール1107cは、設定された画像処理領域に対して、周辺画像領域のデータを用いてインペインティング処理を行なう。そして、画像描画モジュール1107dは、各種の指示やタイミングに応じて、OS1105の機能を利用して様々な画像を描画する。
本画像処理システム1100は更に、外部の画像入力装置1110から画像データを入力したり、ディスプレイ1111に画像データを出力したり、マウスやキーボードなどの入力装置1112から情報を入力したりするための、インタフェースである入出力部(I/O)1108を備えている。
5.2 ユーザインターフェース
CPU1101がOS1105及び本実施形態に係るインペインティングアプリケーション1107を実行した場合に、ディスプレイ1111に表示されるユーザインタフェースの一例を図12に示す。図12のユーザインタフェース1200において、最上部には、「File」、「Inpainting」、「Extras」、「Help」の4種類のコマンドを選択できるコマンドライン1201が設けられている。そして上から2段目には、「Open」、「Save」、「Save As」、「Zoom−」、「(Zoom)Reset」、「Zoom+」、「Brush」、「Shape」、「Area」、「By Color」、「By Area」、「Undo」、「Redo」、「Inpainting」、「Pause」、「Stop」といったコマンドを選択できるアイコンライン1202が設けられ、各アイコンが状況に応じて選択可能となっている。アイコン「Brush」、「Shape」、「Area」、「By Color」、「By Area」は、それぞれ、表示された画像に対して、画像処理を行なう領域(いわゆる欠損領域)を設定するためのコマンドに対応する。例えば、「Brush」は、ペンによって欠損領域を描くコマンドであり、「Shape」は、図形によって欠損領域を描くコマンドであり、「Area」は、ドラッグして囲むことにより欠損領域を描くコマンドである。更に、「By Color」は、開かれた画像データ中において共通の色値(又は色値範囲)を有する画素を一度に欠損領域として選択するコマンドである。「By Area」は、選択された画素と共通の色値(又は色値範囲)を有する画素であって、選択された画素と連続するものを欠損領域として選択するコマンドである。
アイコンライン1202の下方には、画像表示エリア1203が設けられ、Fileメニューを選択して表示されるOpenコマンドの選択、或いはOpenアイコンのクリックによって開かれた画像データ又は動画データを表示する。画像表示エリア1203には、複数の画像データを仮想的に重ねて表示することができるようになっており、上方に表示されたタブにより、一旦開かれた複数の画像データの中から、表示される画像データを切り替えることができる。
画像表示エリア1203の、右側には、各種パラメータを設定するためのダイアログがならんでいる。まず、アイコンライン1202の「Brush」を選択した場合の線の太さを設定するダイアログ1204、アイコンライン1202の「Brush」を選択した場合の線の端部形状(スクエアかラウンドか)を設定するダイアログ1205が表示される。またその下方には、アイコンライン1202の「By Color」や「By Area」を選択した場合に用いられる色値範囲を決定する許容差ダイアログ1206が表示されている。
更に下方には、アイコンライン1202において、「Shape」アイコンを選択した場合に描かれる図形(四角形、円形、多角形)を選択するダイアログ1207が表示される。
さらに、動画データを開いた場合に、マスク(欠損領域)をコピーする対象となるフレームを設定するダイアログ1208が設けられている。これにより、動画データの複数のフレームにおいて同じマスクを用いてインペインティング処理を行なうことが可能となる。
5.3 処理の流れ
上述のインペインティングアプリケーション1107を起動後の通常の処理の流れについて、図13のフローチャートを用いて説明する。
まず、ステップS1301において、OS1105及びインペインティングアプリケーション1107を実行中のCPU1101は、図12における「Open」アイコンの選択及び開くべき画像データの特定操作に応じて、HD1204から処理対象画像データを読み込む。
次に、ステップS1302において、CPU1101は、OS1105及びインペインティングアプリケーション1107の機能を協働させて、読み込まれた処理対象画像を、ユーザインタフェース1200の画像表示エリア1203に描画する。
次に、ステップS1303において、ユーザからの各種パラメータ設定、コマンド又はアイコンの選択、及び、画像表示エリア1203に表示された画像上におけるカーソルの操作に応じて、描画画像に対する処理対象領域(欠損領域)を決定する。
更に、ステップS1304において、ユーザによる「Inpainting」アイコンの選択などに応じて、処理対象領域に対してインペインティング処理を施す。そして、ステップS1305において、処理中及び処理後の画像を描画する。
次に、ステップS1306においては、ユーザによる指示に応じて、インペインティング処理前の状態に戻すか、保存するか、或いは追加的にインペインティング処理を行なうか等を選択する。これらの選択肢は一例に過ぎず、更に、処理対象領域が無い状態に戻すなど、他の処理を選択することもできる。
ステップS1306において、「Undo」アイコンが選択されれば、ステップS1304に戻り、インペインティング処理前の画像を表示する。ステップS1306において、「Brush」、「Shape」、「Area」、「By Color」又は「By Area」アイコンが選択されると、それぞれ、インペインティング処理後の画像に対して、更に追加的にインペインティング処理を行なうべく、ステップS1303に戻る。
ステップS1306において、「Save」アイコンや「Save as」アイコンが選択されれば、ステップS1307に進み、インペインティング処理後の画像を上書き或いは新たに保存する。保存後、再度処理を行なう場合には、ステップS1308からステップS1303に戻ることもできるが、処理を終了する指示を受け付けた場合には、アプリケーションを終了する。
5.4 処理例
図11乃至図13を用いて説明したインペインティングアプリケーションの実行例を図14に示す。図14に示されているように、インペインティング処理前の画像1401においては、子供の顔についたひっかき傷と鼻水が写ってしまっている。これに対し、「Brush」アイコンを選択後、画像1402に示すように、マウスなどでひっかき傷部分と鼻水部分とをドラッグしてなぞり、更に「Inpainting」をクリックすれば、トータル10秒ほどで画像1403が生成される。すなわち、非常に簡便且つ高速に画像の修正/加工を行なうことができる。
5.5 画像比較
更に、図12のコマンドライン1201に含まれる「Extras」を選択した場合、画像比較コマンドが更に表示される。この画像比較コマンドが選択されると、CPU1101は、インペインティング処理前後の2つの画像を1枚の画像に含めて描画し、図15に示すように画像比較ウィンドウ1501をディスプレイ1111に表示する。画像比較ウィンドウ1501において、1502は、インペインティング処理前の画像を示し、1503は、インペインティング処理後の画像を示す。更に、インペインティング処理による変化率が、1504に示されている。
以上の画像比較処理により、ユーザは、インペインティング処理による画像処理を効果的に確認することができる。
5.6 ユーザインタフェースの他の例
本実施形態に係るインペインティングアプリケーション1107によるユーザインタフェースの他の例を図16に示す。図16のユーザインタフェース1600は、図12のユーザインタフェース1200に加えて、処理の進捗を表示するパーセンテージバー1601と、スピードと画質とをどのようなバランスで達成したいかを設定するスピード−クオリティバー1602とを備えている。スピードを重視したい場合には、▽のマークを図中左側に移動させ、画質を重視したい場合には、▽のマークを図中右側に移動させればよい。そして、この▽の位置に応じて、図5のサーチ範囲503や、構造特徴パッチ507、511、構造要素504の大きさを決定すればよい。
(他の実施形態)
本発明の他の実施形態として、上述の実施形態の機能を実現するソフトウェアのプログラムが挙げられる。直接或いは遠隔から供給されたそのプログラムを、システム或いは装置のコンピュータが読み出して実行しても、同様の結果が得られるからである。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない、また、例えば、フロッピー(登録商標)ディスク、ハートディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などの記録媒体に記憶されたプログラムも本発明の範疇に含まれる。更に、インターネットのサイトからダウンロードされたプログラム又はサーバコンピュータにおいてダウンロード可能に記憶されたプログラムやファイルも本発明の範疇に含まれる。
さらに、一般的なコンピュータに含まれるオペレーションシステムやハードウェアが提供する機能と協働することで、上記実施形態に示した機能を実現するプログラムも本発明の範疇に含まれるものとする。
[産業上の利用可能性]
画像処理装置及び画像処理アプリケーション、例えば、画像の加工を目的とするもの、画像の修復を目的とするもの、画像の合成を目的とするものなどに利用可能である。具体的には、人物が含まれた画像から人物を消す処理、更にその人物を他のキャラクタ−画像で置き換える処理、人物画像と背景画像との合成処理(境界部分を自然に見せる)などに利用でき、非常に高速に高品質の結果を得ることができる。

Claims (12)

  1. 特定画像領域における未知の画像情報を、前記特定画像領域の周辺領域の既知の画像情報に基づいて算出する画像処理方法であって、
    前記特定画像領域の輪郭部分に含まれる注目未知画素を中心とする所定の画素数を有する第1構造特徴パッチを定義し、前記第1構造特徴パッチに含まれる既知画素の画素値の配置と類似した画素値の配置を有し、同じ画素数を持つ第2構造特徴パッチを、前記特定画像領域の前記周辺領域の既知領域において検索する検索ステップと、
    前記第1構造特徴パッチに含まれる前記注目未知画素の画素値を、第2構造特徴パッチにおいて対応する配置にある画素の画素値で決定する画素値決定ステップと、
    を前記輪郭部分に含まれる別の前記注目未知画素に対して繰り返すことにより、前記輪郭部分から前記特定画像領域の内側に向かって画素値を決定していくことを特徴とする画像処理方法。
  2. 前記画素値決定ステップでは、前記第1構造特徴パッチに含まれる前記注目未知画素の周囲にある未知画素の画素値を、前記第2構造特徴パッチで対応する配置にある画素の画素値によって置き換えることを特徴とする請求項1に記載の画像処理方法。
  3. 前記検索ステップでは、輝度差の二乗和の最小値を用いて、前記第1構造特徴パッチと類似する前記第2構造特徴パッチを検索することを特徴とする請求項1に記載の画像処理方法。
  4. 前記注目未知画素が前記特定画像領域の内側に移動しても、前記第2構造特徴パッチを検索する周辺領域として、前記特定画像領域を含めないことを特徴とする請求項1に記載の画像処理方法。
  5. モルフォロジー収縮処理と、構造特徴及びテクスチャ特徴のマッチング処理とを組み合わせたインペインティングアルゴリズムにより、特定画像領域における未知の画像情報を、前記特定画像領域の周辺領域の既知の画像情報に基づいて算出することを特徴とする画像処理方法。
  6. 特定画像領域における未知の画像情報を、前記特定画像領域の周辺領域の既知の画像情報に基づいて算出する画像処理装置であって、
    前記特定画像領域の輪郭部分に含まれる注目未知画素を中心とする所定の画素数を有する第1構造特徴パッチを定義し、前記第1構造特徴パッチに含まれる既知画素の画素値の配置と類似した画素値の配置を有し、同じ画素数を持つ第2構造特徴パッチを、前記特定画像領域の前記周辺領域の既知領域において検索する検索手段と、
    前記第1構造特徴パッチに含まれる前記注目未知画素の画素値を、前記第2構造特徴パッチで対応する配置にある画素の画素値で決定する画素値決定手段と、
    による、検索処理及び画素値決定処理を前記輪郭部分に含まれる別の前記注目未知画素に対して繰り返すことにより、前記輪郭部分から前記特定画像領域の内側に向かって画素値を決定していくことを特徴とする画像処理装置。
  7. 前記画素値決定手段では、前記第1構造特徴パッチに含まれる前記注目未知画素の周囲にある未知画素の画素値を、前記第2構造特徴パッチで対応する配置にある画素の画素値によって置き換えることを特徴とする請求項6に記載の画像処理装置。
  8. 前記検索手段では、輝度差の二乗和の最小値を用いて、前記第1構造特徴パッチと類似する前記第2構造特徴パッチを検索することを特徴とする請求項6に記載の画像処理装置。
  9. 前記注目未知画素が前記特定画像領域の内側に移動しても、前記第2構造特徴パッチを検索する周辺領域として、前記特定画像領域を含めないことを特徴とする請求項6に記載の画像処理装置。
  10. モルフォロジー収縮処理と、構造特徴及びテクスチャ特徴のマッチング処理とを組み合わせたインペインティングアルゴリズムにより、特定画像領域における未知の画像情報を、前記特定画像領域の周辺領域の既知の画像情報に基づいて算出することを特徴とする画像処理装置。
  11. コンピュータによって実行されることにより、
    請求項1乃至5の何れか1項に記載の画像処理方法を実現する画像処理プログラム。
  12. 請求項11に記載の画像処理プログラムを格納したことを特徴とするコンピュータ読取可能な記憶媒体。
JP2010513086A 2008-05-22 2009-05-22 画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体 Pending JPWO2009142333A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US5541008P 2008-05-22 2008-05-22
US61/055,410 2008-05-22
PCT/JP2009/059824 WO2009142333A1 (ja) 2008-05-22 2009-05-22 画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体

Publications (1)

Publication Number Publication Date
JPWO2009142333A1 true JPWO2009142333A1 (ja) 2011-09-29

Family

ID=41340256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010513086A Pending JPWO2009142333A1 (ja) 2008-05-22 2009-05-22 画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体

Country Status (2)

Country Link
JP (1) JPWO2009142333A1 (ja)
WO (1) WO2009142333A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170838A (ja) * 2010-01-20 2011-09-01 Sanyo Electric Co Ltd 画像処理装置及び電子機器
WO2011089996A1 (ja) * 2010-01-20 2011-07-28 三洋電機株式会社 画像処理装置及び電子機器
JP5706740B2 (ja) * 2011-04-06 2015-04-22 日本放送協会 画像修正装置およびそのプログラム
JP5996315B2 (ja) * 2012-07-24 2016-09-21 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2014155913A1 (ja) * 2013-03-25 2014-10-02 パナソニック株式会社 画像補間装置、画像処理装置および画像補間方法
JP5834253B2 (ja) 2013-03-27 2015-12-16 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP5849206B2 (ja) 2013-03-27 2016-01-27 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP5899475B2 (ja) 2013-04-05 2016-04-06 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6434209B2 (ja) 2013-12-20 2018-12-05 株式会社リコー 画像生成装置、画像生成方法、およびプログラム
JP6132824B2 (ja) * 2014-09-30 2017-05-24 株式会社Screenホールディングス 画像処理方法、制御プログラム、記録媒体および画像処理装置
JP2019020877A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 画像領域生成装置、その方法、及びプログラム
CN111612715B (zh) * 2020-05-20 2022-09-23 北京字节跳动网络技术有限公司 图像修复方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103304A (ja) * 1999-07-29 2001-04-13 Fuji Photo Film Co Ltd 特定被写体抽出方法および装置
JP2004054347A (ja) * 2002-07-16 2004-02-19 Fujitsu Ltd 画像処理方法、画像処理プログラムおよび画像処理装置
JP2006279442A (ja) * 2005-03-29 2006-10-12 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2008300990A (ja) * 2007-05-29 2008-12-11 Nagasaki Univ 画像修復方法及び画像修復装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001103304A (ja) * 1999-07-29 2001-04-13 Fuji Photo Film Co Ltd 特定被写体抽出方法および装置
JP2004054347A (ja) * 2002-07-16 2004-02-19 Fujitsu Ltd 画像処理方法、画像処理プログラムおよび画像処理装置
JP2006279442A (ja) * 2005-03-29 2006-10-12 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2008300990A (ja) * 2007-05-29 2008-12-11 Nagasaki Univ 画像修復方法及び画像修復装置

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CSNB200300025001; 間瀬 茂: '空間統計学の応用' データサイエンス・シリーズ▲7▼ 空間データモデリング 初版 第1版, 20010525, p.128-134, 共立出版株式会社 南條 光章 *
CSNG200700621016; 今村 弘樹: '欠損画素の近傍領域と局所領域の類似性に基づく欠損画像復元手法' 映像情報メディア学会誌 第61巻 第4号, 20070401, p.526-532, (社)映像情報メディア学会 *
CSNG200700929004; 大嶋 千紘: 'デジタル夜景画像における暈領域に対する画像修復' 知能と情報 第19巻 第5号, 20071015, p.499-513, 日本知能情報ファジィ学会 *
CSNJ200910002056; 野田 雅文: '車載カメラ映像中におけるフロントガラス上の遮蔽領域復元に関する検討' FIT2007 第6回情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラ , 20070822, p.135-137, 社団法人情報処理学会 社団法人電子情報通信学会 *
JPN6013023979; Criminisi, A.: 'Object removal by exemplar-based inpainting' IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2003. Proceedings. Vol.2, 20030620, II-721 - II-728 *
JPN6013023982; 大嶋 千紘: 'デジタル夜景画像における暈領域に対する画像修復' 知能と情報 第19巻 第5号, 20071015, p.499-513, 日本知能情報ファジィ学会 *
JPN6013023983; 間瀬 茂: '空間統計学の応用' データサイエンス・シリーズ▲7▼ 空間データモデリング 初版 第1版, 20010525, p.128-134, 共立出版株式会社 南條 光章 *
JPN6013023985; 今村 弘樹: '欠損画素の近傍領域と局所領域の類似性に基づく欠損画像復元手法' 映像情報メディア学会誌 第61巻 第4号, 20070401, p.526-532, (社)映像情報メディア学会 *
JPN6013023987; 野田 雅文: '車載カメラ映像中におけるフロントガラス上の遮蔽領域復元に関する検討' FIT2007 第6回情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラ , 20070822, p.135-137, 社団法人情報処理学会 社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
WO2009142333A1 (ja) 2009-11-26

Similar Documents

Publication Publication Date Title
JPWO2009142333A1 (ja) 画像処理方法、画像処理装置及び画像処理プログラム並びに記憶媒体
Barnes et al. PatchMatch: A randomized correspondence algorithm for structural image editing
Shen et al. Gradient based image completion by solving the Poisson equation
Daisy et al. A smarter exemplar-based inpainting algorithm using local and global heuristics for more geometric coherence
Ting et al. Image inpainting by global structure and texture propagation
CN109118556A (zh) 一种实现ui界面动画过渡效果的方法、系统及存储介质
Mahajan et al. Image in painting techniques: A survey
CN114782645A (zh) 虚拟数字人制作方法、相关设备及可读存储介质
Dang et al. Multi-resolution patch and window-based priority for digital image inpainting problem
US11200645B2 (en) Previewing a content-aware fill
Bendels et al. Detail-Preserving Surface Inpainting.
KR20120118462A (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
Shen et al. Gradient based image completion by solving poisson equation
US10586311B2 (en) Patch validity test
Sarpate et al. Image inpainting on satellite image using texture synthesis & region filling algorithm
Hettinga et al. Adaptive image vectorisation and brushing using mesh colours
US20040085314A1 (en) Method for rendering outlines of 3D objects
Alotaibi et al. Image completion by structure reconstruction and texture synthesis
CN113362262A (zh) 图像融合预处理的方法、装置、设备、存储介质
Purkait et al. A patch-based constrained inpainting for damaged mural images
Patil et al. Image inpainting based on image mapping and object removal using semi-automatic method
Zhang et al. Superpixel-based image inpainting with simple user guidance
Hao et al. Interactive image completion with perspective constraint
RU2813485C1 (ru) Способ создания анимируемого аватара человека в полный рост из одного изображения человека, вычислительное устройство и машиночитаемый носитель для его реализации
Padmavathi et al. Comparative analysis of structure and texture based image inpainting techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131025