JP4796072B2 - 画像セグメンテーションに基づく画像レンダリング - Google Patents

画像セグメンテーションに基づく画像レンダリング Download PDF

Info

Publication number
JP4796072B2
JP4796072B2 JP2007540788A JP2007540788A JP4796072B2 JP 4796072 B2 JP4796072 B2 JP 4796072B2 JP 2007540788 A JP2007540788 A JP 2007540788A JP 2007540788 A JP2007540788 A JP 2007540788A JP 4796072 B2 JP4796072 B2 JP 4796072B2
Authority
JP
Japan
Prior art keywords
displacement
displacement field
image
edge region
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007540788A
Other languages
English (en)
Other versions
JP2008521081A (ja
Inventor
エー エルンスト,ファビアン
レーデルト,ペーテル−アンドレ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2008521081A publication Critical patent/JP2008521081A/ja
Application granted granted Critical
Publication of JP4796072B2 publication Critical patent/JP4796072B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Generation (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Picture Signal Circuits (AREA)

Description

本発明は概括的に、画像セグメントの境界によって導入される画像内の少なくとも一つのエッジを決定することをもつ、画像セグメンテーションに基づいてレンダリングされた画像を提供するための方法およびシステムに関する。
たとえば、シフトベースのレンダリングは、圧縮用途のほか、2.5次元(2.5-D)画像データのような「画像+奥行き」データをマルチビュー・ディスプレイ上にレンダリングすることにおいて使用される。シフトベースのレンダリングは、既存の画像に基づいて新しい画像を生成しなければならないときに適用できる。たとえば、視点がわずかに変わるときまたは見る時刻がわずかにあとになるときである。たとえば画像を圧縮するために動き推定が使われるときは画像セグメンテーションも適用される。画像がセグメンテーションされ、セグメントがシフトされると、穴埋め(hole filling)およびエッジのぼけを扱う必要がある。シフトベースのレンダリングのためには、もとの画像データが利用可能である。さらに、変位場または等価な奥行きマップが与えられる。変位場または奥行きマップは各ピクセルについて、該ピクセルがどこまでシフトされなければならないかを決定する。しかしながら、ピクセルをシフトさせるとき、たいていの場合は全部が同じ値だけシフトされるのではないので、穴埋めの問題が生じる。さらに、エッジのぼけのため、セグメント境界は必ずしもピクセルレベルで決定できない。
典型的には、変位場は、画像内のすべてのピクセルについて同じではない。変位場におけるこの違いのため、二つのピクセルが出力画像の同じ位置にシフトされたところでは二重占有を生じ、出力画像においてある位置にピクセルが割り当てられないところでは穴が生じる。二重占有は比較的簡単に解決できるが、穴埋めはその穴のために使える新しいデータを計算することを必要とする。
R. P. Berrety and F. E. Ernst, “High-quality images from 2.5D video”, Proceedings Eurographics Conference, Granada, Spain, 2003から、新しい画像データを計算するために、2.5D画像データ内などの隠れた層情報を使うことを許容する方法が知られている。
画像セグメンテーションは、動き場の変化は典型的にはオブジェクト境界で起こり、オブジェクト境界は典型的にはたとえば色の境界と一致するという事実に基づいていることができる。一つの可能な画像セグメンテーション方法は、同様な色をもつピクセルをグループ化することができる。画像セグメンテーションのためのある可能な解決策が図1に示されている。図1内の実線はセグメント境界2を表し、点を打った領域は画像セグメント4である。画像セグメンテーションはよく知られており、いくつかの方法が利用可能である。たとえば、一つの可能なセグメンテーション方法はF. Ernst, P. Wilinski and K. van Overveld, “Dense structure-from-motion: an approach based on segment matching”, Proc. European Conference on Computer Vision 2002, Springer Lecture Notes on Computer Science vol. 2531, Copenhagen, pages II-217-22-231から知られている。
諸セグメントのピクセルを異なる仕方でシフトさせることは、穴埋めの問題につながる。セグメント境界は典型的には色の不連続性のような不連続性のところで生じる。よって、変動、たとえば色の変動の多い領域では穴埋めのための補間手順を実行する必要がある。さらに、補間はしばしば境界の一方の側から実行される必要があるので、穴埋めアルゴリズムは画像中で何が前景で何が背景かを知っていることが要求される。さらに、オブジェクト間の境界は、撮像(acquisition)システムに起因して複数ピクセルにわたってぼやける。ぼけは、よく定義されておらず鮮明でない、さえないエッジを生じる。レンダリング手順におけるこのぼけの扱いが不十分だと、ゴーストエッジを生じることがある。
これまでのところ、従来技術は変動の大きな画像境界、たとえば色の境界と一致するオブジェクト境界における穴埋めの問題を有している。さらに、オブジェクト境界におけるぼけも扱う必要がある。
これらの問題を克服するセグメント・シフトのための方法を提供することが本発明の一つの目的である。あるさらなる目的は、オブジェクト境界の奥行き順序を知らなくても良好な結果を与えるセグメント・シフトのための方法を提供することである。さらに、本発明のあるさらなる目的は、オブジェクト境界におけるぼけの量を推定する必要のないセグメント・シフトのための方法を提供することである。
これらのことを含むさまざまな目的は、画像セグメントの境界によって導入される画像内の少なくとも一つのエッジを決定する段階と、該エッジのまわりのエッジ領域を決定する段階と、前記セグメントについての第一の変位場を決定する段階と、前記エッジ領域についての第二の変位場を決定する段階と、前記第一および第二の変位場をマージして、前記セグメントについては前記第一の変位場の変位をもち、前記エッジ領域の少なくとも一部については前記第二の変位場の変位をもつような第三の変位場にして、前記エッジ領域が別個の変位をもつ別個のオブジェクトとして扱われるようにする段階と、前記画像ピクセルを前記第三の変位場に従ってシフトさせる段階とをもつ、画像セグメンテーションに基づいてレンダリングされた画像を提供するための方法によって解決される。
本発明の方法は、穴を変動がより少ない領域に変位させることによって、簡単な穴埋め手順を許容する。さらに、本発明の方法は、エッジのぼけをもつ領域がセグメントとは独立にシフトされるので、ぼけの効果を自動的に解決する。奥行き順序情報もエッジのぼけについての情報も必要とされない。残る穴は、エッジの内部ではなく、オブジェクトの内部に位置されることができる。よって、穴埋めが補間によってより簡単に解決できる。エッジ領域というものを考慮に入れることによって、ぼけたエッジを扱うことができるのである。
画像セグメンテーションは、同様のルミナンスまたは同様の色または他の任意の類似性といった同様なパラメータをもつピクセルをグループ化してセグメントにすることができる。二つの隣り合うセグメントを与えられれば、それらのセグメントの間にエッジ領域が定義できる。エッジ領域は、前記二つのセグメントの境界からある距離、たとえば5ピクセル未満にある全ピクセルからなるように定義されることができる。
変位場の推定は、いかなる既知の動き推定法によって行うこともできる。動き推定法は典型的にはいくつかの候補動き(変位)ベクトルを試み、最良一致を生じる一つを選択する。本発明の方法は、セグメンテーションによって定義される各セグメントのついての動きベクトルのほかエッジ領域の動きベクトルをも見出すことを提供し、少なくとも二つの異なる変位場を提供する。該エッジ領域の動きベクトルは、もとのセグメントの一つの動きベクトルと同じであってもよいし、同じでなくてもよい。
本発明の方法によれば、二つのセグメントおよびエッジ領域は三つの独立のオブジェクトとして扱われる。よって、一つだけの穴ではなく、第一のセグメントとエッジ領域との間およびエッジ領域と第二のセグメントとの間の二つの穴ができる。これら二つの穴のそれぞれは、単一の穴より小さいことがあり、よって補間がより簡単になる。エッジのぼけがあたかも一個のオブジェクトであるかのようにエッジ領域内で変位されるので、ぼけ解除(deblurring)/再ぼかし(reblurring)やぼけの量の推定を行う必要はない。セグメントおよびエッジ領域の間の前記二つの穴は、セグメントの均一部分内にあり、よって埋めるのも容易である。
既知のセグメント拡張とは対照的に、本発明の方法は、エッジがオブジェクトの一方と同じ変位をもつことは要求しない。よって、本発明の方法は変位場の推定誤差に対してより堅牢となる。奥行き順序は要求されない。しかしながら、エッジの動きベクトルは奥行き順序についての手がかりを与えることができる。
本発明の方法は、3Dディスプレイのために好適なデータをレンダリングするのに適用可能である。さらに、シフトベースのレンダリングに依存するビデオ圧縮方法は、本発明の方法により、より堅牢になりうる。
請求項2および3に基づく穴埋めが提供される。この穴埋めはエッジ領域の各側においての接するピクセルのピクセル値に依存することができる。穴埋めは、エッジに直接属さない領域内で実行できる。単に境界におけるセグメントのピクセル値を穴まで外挿することによって、穴を埋めることができる。
請求項4に基づいて、画像セグメント間の境界によってエッジが決定できる。
請求項5に基づく諸実施形態は、各エッジに、ある閾値ピクセル数より当該エッジに近いすべてのピクセルを割り当てることによってエッジ領域を決定することを提供する。エッジ領域の決定は、エッジの両側の十分な広がりが与えられるように、あるいはエッジ領域が当該エッジの両側に垂直に十分広く広がるようになされることも可能である。
エッジのぼけをエッジ領域内にもつために、請求項5または6の特徴が提供される。境界のまわりの領域を考慮に入れることが、ぼけたエッジを扱うために本質的となりうる。これまでのところ、エッジおよびそのぼけは別個のオブジェクトとして扱われて、そのようにシフトされる。
第一および第二の変位場を決定するために、請求項7または8に基づいて2.5-D奥行き情報を使うことができる。この情報は、第一の変位場を、そして可能性としては第二の変位場をも生成するために使用できる。さらに、画像セグメンテーションは画像そのものの代わりに奥行き情報についてなされることもできる。このようにして、変位場が、動き推定によって計算するのとは対照的に、外部ソースから計算できる。画像および奥行きを含む所与の2.5Dストリームについて、変位は奥行きから導出でき、画像セグメンテーションは奥行きに基づくことも、画像に基づくこともできる。
第一および第二の変位場の変位を決定するための動き推定が請求項9に基づいて与えられる。
エッジ領域とセグメントとの間の、それぞれ単一の穴よりも小さい複数の穴を与えるために、請求項11に基づく方法が提供される。第二の変位場がもつことのできる変位値は、前記セグメントのうち一方の変位値と前記セグメントのうち他方の変位値の間である。変位はx変位とy変位をもつ2Dの量である。
ピクセルのシフトは、エッジ領域のピクセルの少なくとも一部については第二の変位場からの変位を、他のすべてのピクセルについては第一の変位場からの変位を取ることによって実行できる。
動き推定は、セグメントおよびエッジ領域に対して直接的に実行されることができ、したがって第三の変位場が請求項13に従って直接的に計算できる。
主要セグメントの第一の諸ピクセルがシフトされ、その後エッジ領域のピクセルがシフトされる場合、隠蔽領域は、請求項14に基づいて十分に対処されることができる。
これらのことを含むさまざまな利点は他の従属請求項からも帰結することができる。
本発明のもう一つの側面は、画像セグメントの境界によって導入される画像内のエッジを決定し、該エッジのまわりのエッジ領域を決定し、前記セグメントについての第一の変位場を決定し、前記エッジ領域についての第二の変位場を決定する決定手段と、前記第一および第二の変位場をマージして、前記セグメントについては前記第一の変位場の変位をもち、前記エッジ領域については前記第二の変位場の変位をもつような第三の変位場にして、前記エッジ領域が別個の変位をもつ別個のオブジェクトとして扱われるようにするマージ手段と、前記画像ピクセルを前記第三の変位場に従ってシフトさせるシフト手段とを有する、画像セグメンテーションに基づいてレンダリングされた画像を提供するよう構成されたシステムである。
本発明のさらなる側面は、プロセッサをして、画像セグメントの境界によって導入される画像内のエッジを決定し、該エッジのまわりのエッジ領域を決定し、前記セグメントについての第一の変位場を決定し、前記エッジ領域についての第二の変位場を決定し、前記第一および第二の変位場をマージして、前記セグメントについては前記第一の変位場の変位をもち、前記エッジ領域の少なくとも一部については前記第二の変位場の変位をもつような第三の変位場にして、前記エッジ領域が別個の変位をもつ別個のオブジェクトとして扱われるようにし、前記画像ピクセルを前記第三の変位場に従ってシフトさせることを行わしめるよう動作可能な、画像セグメンテーションに基づいてレンダリングされた画像を提供するためのコンピュータプログラムおよびコンピュータプログラムプロダクトである。
これらのことを含む本発明のさまざまな側面は、以下の図面を参照することから明らかとなり、明快にされるであろう。
図面を通じて、同じ参照符号は同様の要素を指す。本発明の方法は特に、たとえば圧縮アルゴリズムにおいて、あるいは「画像+奥行き」データのマルチビュー・ディスプレイへのレンダリングにおいて使用される、シフトベースのレンダリングに関する。本発明の方法は特に、画像セグメンテーションに基づいて画像をレンダリングするための自動手法を提供する。
図1は、境界2によって決定されるセグメント4を有する画像を示している。境界2はエッジであり、これは画像の不連続性、たとえば色変動の不連続性あるいは利用可能であれば2.5-D画像の所与の変位または不均衡データの変位場における不連続性から決定できる。ルミナンス、コントラスト、明るさ、クロミナンスまたは他の任意の値などにおける他の不連続性も可能である。
図2aは、画像を横切る断面の概略図を示している。横軸は走査線の座標として解釈でき、縦軸は各走査線上での画像のルミナンスの値として解釈できる。図2に描かれるように、走査線はルミナンスの値に不連続性を有しており、画像は、エッジ2によって分割される左セグメント4aおよび右セグメント4bにセグメンテーションできる。エッジ2はぼけていることもある。
動きベクトル(図示せず)によってセグメントをシフトさせることを提供するため、セグメント4a、4bはエッジ2で二つの別個のセグメントに切断されることができる。エッジ2はセグメント4aと4bの間の境界によって決定される。
図2bには、線形補間穴埋め方式が示されている。エッジ2から始まって、左セグメント4aは左にシフトされ、右セグメント4bは右にシフトされる。穴埋め物8は、エッジ2における左セグメント4aの値および右セグメント4bの値の間の線形補間である。この補間は、真ん中に一定値をもつエッジのある画像を生じる。これは視覚的には、ずっとぼけが大きいエッジおよび望まれないアーチファクトを生じることがある。
図2cは、右セグメント4bから穴へルミナンス値をコピーすることを提供する穴埋め方式を示している。これはゴーストエッジを与える。見て取れるように、右セグメント4bのルミナンス値が穴にコピーされ、穴埋め物8を与えている。これも視覚的なアーチファクトにつながることがある。
図3aは、WO02/51124で記載される主題に基づく穴埋め方式を概略的に示している。この手法はまず、右セグメント4bを変位ベクトルによってシフトさせることを提供する。まず、セグメント4aおよび4bがぼけ解除されて、ステップ状のエッジ2を与える。次いでセグメント4bが図3bに描かれるように変位ベクトルによってシフトされる。
最後に、図3cに示されるように、エッジ2は再ぼかしされ、再ぼかしされた穴埋め物8が適用される。この再ぼかしは推定されたぼけ半径を使って行われる。しかしながら、ぼけ半径の推定は込み入っており、誤った結果につながりうる。さらに、再ぼかしを正しく行うためにはオブジェクトの奥行き順序がどうであるかを知ることが要求される。
図4aは、本発明のある実施形態に基づく画像セグメンテーションを描いている。エッジ2のまわりで、エッジ領域12が決定される。これはエッジ2のまわりのぼかされた領域を含む。エッジ領域12のほか、セグメント4aおよび4bが決定される。エッジ領域12は、別個の変位をもつ別個のオブジェクトと考えられる。
図4bでは、シフト後の画像が示されている。見て取れるように、セグメント4aは第一の変位ベクトルに基づいて左にシフトされる。エッジ領域12は第一の変位ベクトルより小さい第二の変位ベクトルに基づいて左にシフトされ、セグメント4bは第三の変位ベクトルに基づいて右にシフトされる。エッジ領域12をセグメント4aおよび4bと独立してシフトさせることによって、二つの別個の穴が与えられ、それらは穴埋め物14a、14bで埋めることができる。エッジのぼけそのものがシフトされるので、ぼけは自動的に解像され、奥行き順序情報は必要とされない。二つの穴はセグメント4a、4bの均一な部分にあり、よって埋めるのも簡単である。さらに、各穴は図2および図3に基づく方法での単一の穴より小さいことができる。これは補間をより簡単にする。エッジ領域は、セグメント4a、4bの一方と同じ変位ベクトルによって変位されるのではないので、提案される方法は変位場の推定誤差に対してより堅牢である。
図5aは、画像のクローズアップを示している。ここで、二つのセグメント4a、4bがエッジ2によって隔てられている。さらに、それぞれのセグメント4a、4bについての変位ベクトル10aおよび10bが図5aに示されている。
図5bでは、エッジのぼけを考慮に入れて、エッジ2がエッジ領域12によって囲まれているところが示されている。エッジ領域12は、エッジのぼけがこの領域内となるように選ばれる。図5bにはさらに、図5aと同様の変位ベクトル10aおよび10bならびにエッジ領域12の変位を示すさらなる変位ベクトル10cが示されている。これらの変位ベクトル10は変位場内で表現されることができ、当該画像内の各領域について特定の変位を示している。
図5cは、本発明の方法に基づいてシフトしたあとの画像を示している。セグメント4aは変位ベクトル10aに基づいて左にシフトされる。エッジ領域12は変位ベクトル10cに基づいて右にシフトされ、セグメント4bは変位ベクトル10bに基づいて右にシフトされる。これら三つの異なる変位ベクトル10は、セグメント4aとエッジ領域12の間ならびにセグメント4bとエッジ領域12との間で穴ができるように、エッジ領域12をシフトさせることにつながる。これらの穴は穴埋め物14a、14bで埋めることができる。
本発明の方法は、画像をセグメンテーションおよびレンダリングし、結果として得られる穴を簡単に埋めることを、ぼけ解除や再ぼかしの必要なしに許容する。さらに、穴埋めに起因する誤差が最小化される。
セグメンテーションされた画像を示す図である。 画像セグメンテーションについての穴埋め方式を示す図である。 画像セグメンテーションについての穴埋め方式を示す図である。 画像セグメンテーションについての穴埋め方式を示す図である。 ぼけ解除による穴埋めを示す図である。 ぼけ解除による穴埋めを示す図である。 ぼけ解除による穴埋めを示す図である。 本発明の方法に基づく画像セグメンテーションおよびシフトを示す図である。 本発明の方法に基づく画像セグメンテーションおよびシフトを示す図である。 本発明の方法に基づく、セグメンテーションおよびシフトされるエッジ領域のクローズアップである。 本発明の方法に基づく、セグメンテーションおよびシフトされるエッジ領域のクローズアップである。 本発明の方法に基づく、セグメンテーションおよびシフトされるエッジ領域のクローズアップである。

Claims (16)

  1. 画像セグメンテーションに基づいてレンダリングされた画像を提供する方法であって:
    ・画像セグメントの境界によって導入される画像内のエッジを決定する段階と、
    ・該エッジのまわりのエッジ領域を決定する段階と、
    前記セグメントについての変位値を含む前記セグメントについての第一の変位場を決定する段階と、
    前記エッジ領域が別個のオブジェクトとして扱われるよう、前記エッジ領域についての変位値を含む前記エッジ領域についての第二の変位場を決定する段階と、
    ・前記第一の変位場および前記第二の変位場に基づいて第三の変位場を決定する段階であって、前記第三の変位場は:
    記セグメントについては前記第一の変位場に対応する変位をもち、
    前記エッジ領域については前記第二の変位場に対応する変位をもつ段階と、
    ・前記画像のピクセルを前記第三の変位場に従ってシフトさせる段階、
    とをもつ、方法。
  2. ピクセルをシフトさせたあとの穴をピクセル値で埋める段階をもつ、請求項1記載の方法。
  3. 穴埋めのための前記ピクセル値を、前記セグメントの少なくとも一つからの、前記穴に接するピクセルのピクセル値から、あるいは前記エッジ領域からの、前記穴に接するピクセルのピクセル値から計算する段階をもつ、請求項2記載の方法。
  4. 前記エッジを、画像セグメント間の境界を検出することによって決定する段階をもつ、請求項1ないし3のうちいずれか一項記載の方法。
  5. 前記エッジ領域を、各エッジに、ある閾値ピクセル数より該エッジに近いすべてのピクセルを割り当てることによって決定する段階をもつ、請求項1ないし4のうちいずれか一項記載の方法。
  6. 前記エッジ領域を、エッジのぼけがそのエッジ領域内になるように決定する段階をもつ、請求項1ないし5のうちいずれか一項記載の方法。
  7. シフトベースのレンダリングのためにもとの画像情報およびもとの奥行き情報をもつ2.5次元画像信号を提供する段階をもつ、請求項1ないし6のうちいずれか一項記載の方法。
  8. 前記第一の変位場および/または前記第二の変位場を決定するために前記2.5次元画像の奥行き情報における不連続性を検出する段階をもつ、請求項7記載の方法。
  9. 前記第一の変位場および/または前記第二の変位場を、前記セグメントおよび/または前記エッジ領域の動き推定から決定する段階をもつ、請求項1ないし8のうちいずれか一項記載の方法。
  10. 前記第二の変位場を、エッジ領域内のピクセルだけが関連する変位をもつように決定する段階をもつ、請求項1ないし9のうちいずれか一項記載の方法。
  11. 前記第二の変位場を、該第二の変位場内の変位が、前記二つの対応するセグメントの変位値どうしの間になるように決定する段階をもつ、請求項1ないし10のうちいずれか一項記載の方法。
  12. 前記第三の変位場を、前記エッジ領域のピクセルの少なくとも一部については前記第二の変位場からの変位を、他のすべてのピクセルについては前記第一の変位場からの変位を取ることによって決定する段階をもつ、請求項1ないし11のうちいずれか一項記載の方法。
  13. 前記第三の変位場を、前記セグメントおよびエッジ領域の動き推定によって直接的に決定する段階をもつ、請求項1ないし12のうちいずれか一項記載の方法。
  14. 前記ピクセルを前記第三の変位場に従ってシフトさせるのが、前記セグメントが先にシフトされるように行われる、請求項1ないし13のうちいずれか一項記載の方法。
  15. 画像セグメンテーションに基づいてレンダリングされた画像を提供するよう構成されたシステムであって:
    ・画像セグメントの境界によって導入される画像内のエッジを決定し、
    該エッジのまわりのエッジ領域を決定し、
    ・前記セグメントについての変位値を含む前記セグメントについての第一の変位場を決定し、
    ・前記エッジ領域が別個のオブジェクトとして扱われるよう、前記エッジ領域についての変位値を含む前記エッジ領域についての第二の変位場を決定する
    よう構成された決定手段と、
    ・前記第一の変位場および前記第二の変位場に基づいて第三の変位場を決定するよう構成された決定手段であって、前記第三の変位場は:
    前記セグメントについては前記第一の変位場に対応する変位をもち、
    前記エッジ領域については前記第二の変位場に対応する変位をもつ
    決定手段と、
    ・前記画像ピクセルを前記第三の変位場に従ってシフトさせるよう構成されたシフト手段、
    とを有する、システム。
  16. プロセッサをして:
    ・画像セグメントの境界によって導入される画像内のエッジを決定し、
    ・該エッジのまわりのエッジ領域を決定し、
    前記セグメントについての変位値を含む前記セグメントについての第一の変位場を決定し、
    前記エッジ領域が別個のオブジェクトとして扱われるよう、前記エッジ領域についての変位値を含む前記エッジ領域についての第二の変位場を決定し、
    ・前記第一の変位場および前記第二の変位場に基づいて第三の変位場を決定し、ここで、前記第三の変位場は:
    前記セグメントについては前記第一の変位場に対応する変位をもち、
    前記エッジ領域については前記第二の変位場に対応する変位をもち、
    ・前記画像ピクセルを前記第三の変位場に従ってシフトさせる、
    ことを行わしめるよう動作可能な、画像セグメンテーションに基づいてレンダリングされた画像を提供するためのコンピュータプログラム。
JP2007540788A 2004-11-16 2005-11-08 画像セグメンテーションに基づく画像レンダリング Expired - Fee Related JP4796072B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP04105793.6 2004-11-16
EP04105793 2004-11-16
PCT/IB2005/053665 WO2006054200A1 (en) 2004-11-16 2005-11-08 Rendering images based on image segmentation

Publications (2)

Publication Number Publication Date
JP2008521081A JP2008521081A (ja) 2008-06-19
JP4796072B2 true JP4796072B2 (ja) 2011-10-19

Family

ID=35614669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007540788A Expired - Fee Related JP4796072B2 (ja) 2004-11-16 2005-11-08 画像セグメンテーションに基づく画像レンダリング

Country Status (9)

Country Link
US (1) US7840070B2 (ja)
EP (1) EP1815441B1 (ja)
JP (1) JP4796072B2 (ja)
KR (1) KR20070086283A (ja)
CN (1) CN101061519B (ja)
AT (1) ATE395670T1 (ja)
DE (1) DE602005006836D1 (ja)
ES (1) ES2307210T3 (ja)
WO (1) WO2006054200A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100067818A1 (en) * 2008-09-15 2010-03-18 Sony Corporation, A Japanese Corporation System and method for high quality image and video upscaling
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
EP2709070A4 (en) 2011-05-12 2014-12-17 Panasonic Corp IMAGE GENERATING DEVICE AND IMAGE GENERATING METHOD
US8842909B2 (en) * 2011-06-30 2014-09-23 Qualcomm Incorporated Efficient blending methods for AR applications
JP5429336B2 (ja) * 2011-09-16 2014-02-26 株式会社リコー 画像処理装置、画像処理方法およびプログラム
TWI585715B (zh) 2015-12-23 2017-06-01 粉迷科技股份有限公司 融入背景圖形的電腦圖案邊緣處理方法與電腦裝置
GB2548558A (en) * 2016-03-17 2017-09-27 Nokia Technologies Oy Method and apparatus for processing video information
CN109064473B (zh) * 2018-07-26 2022-03-29 华南理工大学 一种2.5d超声宽景图像分割方法
CN112313472B (zh) * 2018-10-29 2023-12-26 松下知识产权经营株式会社 信息提示方法、信息提示装置、以及信息提示系统
WO2021092600A2 (en) * 2020-12-14 2021-05-14 Innopeak Technology, Inc. Pose-over-parts network for multi-person pose estimation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195113A (ja) * 1997-12-26 1999-07-21 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2002140695A (ja) * 2000-11-01 2002-05-17 Omron Corp 検査方法およびその装置
WO2002051124A2 (en) * 2000-12-19 2002-06-27 Pulsent Corporation Deblurring and re-blurring image segments
US6487313B1 (en) * 1998-08-21 2002-11-26 Koninklijke Philips Electronics N.V. Problem area location in an image signal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
CN1524249A (zh) * 2000-09-14 2004-08-25 用于自动进行二维和三维转换的方法
US6965379B2 (en) * 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
US7689021B2 (en) * 2005-08-30 2010-03-30 University Of Maryland, Baltimore Segmentation of regions in measurements of a body based on a deformable model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195113A (ja) * 1997-12-26 1999-07-21 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
US6487313B1 (en) * 1998-08-21 2002-11-26 Koninklijke Philips Electronics N.V. Problem area location in an image signal
JP2002140695A (ja) * 2000-11-01 2002-05-17 Omron Corp 検査方法およびその装置
WO2002051124A2 (en) * 2000-12-19 2002-06-27 Pulsent Corporation Deblurring and re-blurring image segments

Also Published As

Publication number Publication date
ATE395670T1 (de) 2008-05-15
ES2307210T3 (es) 2008-11-16
CN101061519A (zh) 2007-10-24
CN101061519B (zh) 2011-05-18
JP2008521081A (ja) 2008-06-19
KR20070086283A (ko) 2007-08-27
EP1815441B1 (en) 2008-05-14
US20080187222A1 (en) 2008-08-07
WO2006054200A1 (en) 2006-05-26
US7840070B2 (en) 2010-11-23
DE602005006836D1 (de) 2008-06-26
EP1815441A1 (en) 2007-08-08

Similar Documents

Publication Publication Date Title
JP4796072B2 (ja) 画像セグメンテーションに基づく画像レンダリング
US8817069B2 (en) Method and a device for filling occluded areas of a depth or disparity map estimated from at least two images
EP1991958B1 (en) Directional hole filling in images
US9445071B2 (en) Method and apparatus generating multi-view images for three-dimensional display
Zinger et al. Free-viewpoint depth image based rendering
US9153032B2 (en) Conversion method and apparatus with depth map generation
US7224355B2 (en) Method for post-processing a 3D digital video signal
EP3311361B1 (en) Method and apparatus for determining a depth map for an image
JP2006012166A (ja) カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス
US20100289815A1 (en) Method and image-processing device for hole filling
Zhu et al. An improved depth image based virtual view synthesis method for interactive 3D video
Xu et al. Depth map misalignment correction and dilation for DIBR view synthesis
TW201710998A (zh) 用於判定影像之深度圖之方法與裝置
EP1570429A2 (en) Method and apparatus for removing false edges from a segmented image
Liu et al. Arbitrary view generation based on DIBR
Liu et al. Hole-filling based on disparity map and inpainting for depth-image-based rendering
KR20140051035A (ko) 영상 부호화 방법 및 장치
Zhao et al. Virtual view synthesis and artifact reduction techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110728

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees