JP2005151568A - 中間映像合成のための時間的平滑化装置及び方法 - Google Patents

中間映像合成のための時間的平滑化装置及び方法 Download PDF

Info

Publication number
JP2005151568A
JP2005151568A JP2004329286A JP2004329286A JP2005151568A JP 2005151568 A JP2005151568 A JP 2005151568A JP 2004329286 A JP2004329286 A JP 2004329286A JP 2004329286 A JP2004329286 A JP 2004329286A JP 2005151568 A JP2005151568 A JP 2005151568A
Authority
JP
Japan
Prior art keywords
temporal smoothing
past
coefficient
disparity vector
smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004329286A
Other languages
English (en)
Inventor
Jun-Ho Sung
▲じゅん▼ 豪 成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2005151568A publication Critical patent/JP2005151568A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 映像の状態によって適応的に時間的平滑化を適用することによって、映像品質の低下なしに中間映像のフリッカ現象を除去しうる中間映像合成のための適応的時間的平滑化装置及び方法を提供する。
【解決手段】 過去及び現在映像を受信して、所定サイズのブロック別に過去及び現在ディスパリティーベクトルを生成するディスパリティーベクトル推定器と、過去及び現在映像と過去及び現在ディスパリティーベクトルとを受信して、時間的平滑化ディスパリティーベクトルを生成する時間的平滑化部とを含み、時間的平滑化部は、過去及び現在映像のMADに基づいてフレーム毎に異なる時間的平滑化ディスパリティーベクトルを生成する。
【選択図】 図3

Description

本発明は中間映像合成のための時間的平滑化装置及び方法に係り、特に中間映像合成において過去映像と現在映像の反映程度を映像の類型によって適応的に調整可能な時間的平滑化装置及び方法に関する。
TVなど映像ディスプレイシステムは、より豊かな現実感を与える方向に進歩しており、これにより3次元映像媒体を必要とし、それに相応する映像処理部を必要とする。3次元ディスプレイ装置は、光学的接近及び映像処理的接近の2つの分野に大別でき、特に3次元映像処理分野は映像信号の圧縮、復元、伝送、そして合成などに主眼点をおいて発展しつつある。現在、最も単純な3次元情報端末機であるステレオ(2視点)方式がゲーム産業や医療産業などに適用されており、日本ではそれを用いた3次元放送を実現している状況である。
図1は、3次元映像処理の概要図である。3次元映像処理は物体を多視点で撮像してあらかじめ決定された映像イメージフォーマットで構成及び圧縮する段階、圧縮された映像を伝送されて圧縮解除して各視点の映像から中間映像を合成する段階、合成された中間映像と伝送された各視点の映像とをディスプレイ装置で処理できる形に変換するインターフェース段階、各視点の映像を組合わせてディスプレイすることによって視聴者に最終的に3次元映像を提供する段階よりなる。
多視点3次元映像ディスプレイ装置は、数多くの視点で獲得された映像を必要とするが、帯域の制限によって限定された視点で獲得された映像だけが伝送される。このような制限のために、視聴者は特定の位置に目の位置を固定しなければならない視聴上の不便さを感じることになる。このような不便さを減少させるために、複数視点のカメラで獲得された映像から中間視点の映像を合成する中間映像合成技術が使われる。このような中間映像合成技術は、非特許文献1及び非特許文献2に詳細に記述されている。
このような中間映像合成技術を用いて中間映像を合成する時、ノイズや微細な振れによるフレーム間時差推定の差が発生しうる。このような時差推定の差は合成された中間映像に存在する物体の境界で多発し、これはユーザにフリッカ現象として見られる。このようなフリッカ現象を除去するために時間的平滑化技術が用いられる。
図2は、従来の時間的平滑化技術の構成を示す図である。
中間映像は左側映像及び右側映像の2映像から生成される。左側ディスパリティーベクトル推定器210は過去時間T−1での左側映像LIT−1211及び現在時間Tでの左側映像LI212から各時間に該当する左側ディスパリティーベクトル221、222を生成する。ディスパリティーベクトルは基準映像を基準に対象映像内の特定ブロックが動いた変位を示す値である。したがって左側ディスパリティーベクトルは右側映像を基準に左側映像内の既定のサイズのブロックが移動した変位を示す。
左側時間的平滑化部220は生成された過去及び現在の左側ディスパリティーベクトル221、222から平滑化ディスパリティーベクトル231を生成する。平滑化ディスパリティーベクトルは過去のディスパリティーベクトルに現在のディスパリティーベクトルを合わせた値であって、右側映像を基準に左側映像の特定ブロックが動いた変位の累積値を示す。DV密化部(disparity vector densifier)230は特定ブロックを基準に生成されたディスパリティーベクトルを画素別にスケーリングすることによって画素ディスフェリーティーベクトル232を生成する。
右側ディスパリティーベクトル生成過程も左側での過程と同一である。右側ディスパリティーベクトル推定器215、右側時間的平滑化部225及び右側ディスパリティーベクトル密化部235を通じて左側映像を基準とする右側映像の画素ディスパリティーベクトル237が生成される。
ディスパリティーベクトルマッッピング部240は左側及び右側画素ディスパリティーベクトル232、237からマッピングディスパリティーベクトル241を生成する。マッピングディスパリティーベクトル241は中間映像を合成するために使われる最終ディスパリティーベクトルである。ディスパリティーベクトルマッッピング部240は、まず左側及び右側画素ディスパリティーベクトルの一致如何を検査した後、一致したディスパリティーベクトルだけを基準に再スケーリングすることによって中間映像ディスパリティーベクトル241を生成する。中間視点再構成器(Intermediate View Reconstruction;IVR)250は中間映像ディスパリティーベクトル241、左側及び右側映像212、216から中間映像251を生成する。
しかし、従来の時間的平滑化技術は映像の種類に関係なく、時間的平滑化動作が画一的になされるために問題が発生する。例えば、動映像の状態が静的である時は、または動映像に存在する静的な物体に対しては平滑化が円滑になされるが、動映像の状態が動的な場合に時間的平滑化はむしろどんでもない中間映像を合成する結果を招く。
"An Object−based System for Stereoscopic Viewpoint Synthesis" by J_R. Ohm, IEEE Trans. Circuit and System for Video Tech. Vol.7, No.5, pp. 801 − 811 October 1997 "Robust Quadtree−based Disparity Estimation for the Reconstruction of Intermediate Stereoscopic Images" by A. Mancini, SanJose, USA SPIE, January 1998.
したがって、本発明は前述した問題点を解決するために案出されたものであって、映像の状態によって適応的に時間的平滑化を適用することによって映像品質の低下無しに中間映像のフリッカ現象を除去した中間映像合成方法及び装置を提供するところにその目的がある。
前述した課題を解決するための本発明に係る時間的平滑化装置は、過去及び現在映像を受信して所定サイズのブロック別に過去及び現在ディスパリティーベクトルを生成するディスパリティーベクトル推定器と、前記過去及び現在映像と前記過去及び現在ディスパリティーベクトルを受信して時間的平滑化ディスパリティーベクトルを生成する時間的平滑化部を含み、前記時間的平滑化部は前記過去及び現在映像の平均絶対値差(mean absolute difference;MAD)に基づいてフレーム毎に異なる時間的平滑化ディスパリティーベクトルを生成することを特徴とする。
この際、前記時間的平滑化部は、前記過去及び現在映像のMADに基づいて時間的平滑化係数Cを生成する相関器と、前記過去及び現在ディスパリティーベクトルを受信して時間的平滑化ディスパリティーベクトルを生成する平滑化ディスパリティーベクトル生成器とを含み、前記平滑化ディスパリティーベクトル生成器は前記時間的平滑化係数に基づいて前記過去及び現在ディスパリティーベクトルの寄与程度を調整することを特徴とする。
また、前記相関器は、前記過去及び現在映像を受信し、所定サイズのブロック単位でブロックマッチングを行った後、マッチングされるブロックのレベル値のMADを生成するMAD生成器と、前記生成されたMADによって時間的平滑化係数をマッチングさせた係数決定関数を用いて時間的平滑化係数を検出する時間的平滑化係数検出器を含むことを特徴とする。
また本発明は、中間映像合成装置で、左側(または右側の)映像ソースから抽出された過去及び現在映像から左側(または右側の)過去及び現在ディスパリティーベクトルを生成する左側(または右側)ディスパリティーベクトル推定器と、前記左側(または右側の)過去及び現在映像と、左側(または右側の)過去及び現在ディスパリティーベクトルを受信して左側(または右側)平滑化ディスパリティーベクトルを生成する左側(または右側)時間的平滑化部と、前記左側(または右側)平滑化ディスパリティーベクトルを画素別にスケーリングすることによって左側(または右側)画素平滑化ディスパリティーベクトルを生成する左側(または右側)ディスパリティーベクトル密化部と、前記左側及び右側画素ディスパリティーベクトルを受信して前記左側及び右側画素ディスパリティーベクトルの一致如何を検査し、一致していない画素ディスパリティーベクトルは除去した後、一致している画素ディスパリティーベクトルを基準にスケーリングすることによって最終ディスパリティーベクトルを生成するディスパリティーベクトルマッピング部と、前記左側及び右側現在映像に前記最終ディスパリティーベクトルを適用することによって中間映像を生成する中間映像再構成部とを含む。
また本発明は、中間映像合成のための時間的平滑化方法であって、過去及び現在映像を受信して所定サイズのブロック別に過去及び現在ディスパリティーベクトルを生成するディスパリティーベクトル推定段階と、前記過去及び現在映像と前記過去及び現在ディスパリティーベクトルとを受信して、時間的平滑化ディスパリティーベクトルを生成する時間的平滑化段階とを含み、前記時間的平滑化段階は、前記過去及び現在映像のMADに基づいてフレーム毎に相異なる時間的平滑化ディスパリティーベクトルを生成する段階を含むことを特徴とする。
また本発明は、中間映像合成方法であって、左側(または右側の)映像ソースから抽出された過去及び現在映像から左側(または右側の)過去及び現在ディスパリティーベクトルを生成する左側(または右側)ディスパリティーベクトル推定段階と、前記左側(または右側の)過去及び現在映像と、左側(または右側の)過去及び現在ディスパリティーベクトルとを受信して左側(または右側)平滑化ディスパリティーベクトルを生成する左側(または右側)時間的平滑化段階と、前記左側(または右側)平滑化ディスパリティーベクトルを画素別にスケーリングすることによって、左側(または右側)画素平滑化ディスパリティーベクトルを生成する左側(または右側)ディスパリティーベクトル密化段階と、前記左側及び右側画素ディスパリティーベクトルを受信して前記左側及び右側画素ディスパリティーベクトルの一致如何を検査し、一致していない画素ディスパリティーベクトルは除去した後、一致している画素ディスパリティーベクトルを基準にスケーリングすることによって最終ディスパリティーベクトルを生成するディスパリティーベクトルマッピング段階と、前記左側及び右側現在映像に前記最終ディスパリティーベクトルを適用することによって中間映像を生成する中間映像再構成段階とを含むことを特徴とする。
本発明に係る時間的平滑化装置及び方法によれば、映像の状態によって適応的に時間的平滑化を適用することによって、映像品質の低下なしに中間映像のフリッカ現象を除去しうる。
以下、添付された図面を参照して本発明に係る望ましい一実施例を詳細に説明する。
図3は、本発明に係る平滑化ディスパリティーベクトルを生成する過程を示すブロック図である。本発明に係る時間的平滑化部300は、平滑化ディスパリティーベクトル生成器310及び相関器320を含む。
図4は、ディスパリティーベクトルの概念を示す図である。
ディスパリティーベクトル推定器210は過去映像211及び現在映像212から現在及び過去ディスパリティーベクトル221、222を生成する。現在ディスパリティーベクトル221は現在右側(または左側)映像を基準に現在左側(または右側)映像の該当ブロックが変位された距離を示す。
図4において、物体Q及びPは2台のカメラから撮像される。この際、2台のカメラの位置の差のために視角差θ、θが発生する。このような視角差θ、θはそれぞれのカメラが撮影した映像で‘変位’として現れる。図4において、左側映像は左側カメラが撮像した画面を示し、右側映像は右側カメラが撮像した画面を示す。左側映像における物体Q、Pは画面の右側に片寄っているが、右側映像における物体Q、Pは画面の左側に片寄っていることが分かる。ディスパリティーベクトルは次の式(1)のように定義される。
= │dpr − dpl
= │dqr − dql│ (1)
ここで、d、dは物体P、Qのディスパリティーベクトル、dpr、dqrは右側映像の基準面から物体の距離、dpl、dqlは左側映像の基準面からの物体の距離を示す。図4における基準面として各映像の右側境界面が使われた。
ディスパリティーベクトルを生成するために、左側(右側)映像で特定領域が右側(左側)映像の何処に位置しているかを発見する過程が必要である。すなわち、同じレベル値を有する特定領域が左側映像と右側映像の何処に位置するかを発見せねばならない。ディスパリティーベクトル生成は、ブロックマッチング段階とディスパリティーベクトル演算段階とに分けられる。ここで、特定領域は‘ブロック’と定義され、既定の画素数を有する。望ましい実施例で、このブロックは16×16の画素数を有する。
図5は、本発明の一実施例に係るディスパリティーベクトル推定方法として、クワッドツリー基盤の方法(Quadtree−based method)を示す図である。クワッドツリー基盤の方法において、前述したブロックは階層的に定義される。このようなクワッドツリー基盤方法は、D.J.Vaisey及びA..Gershoにより1987年に発行された“variable block−size Image coding,canada&USA”,G.J.Sullivan及びR.L.Bakerにより1990年に発行された“Efficient Quadtree coding of images and video,UCLA,USA”及びA.Mancini及びK.Konradにより1998年に発行された“Robust Quadtree−based Disparity Estimation for Reconstruction of Intermediate Stereoscopic Images,INRS Telecomm,canada”に詳細に記述されている。
クワッドツリー基盤方法で、1つの画面は巨大マクロブロック(large macro block;LMB)に分割され、LMBは再び4つの中間サブブロック(medium sub−block;MSB)に分割され、MSBは再び4つの微小サブブロック(small sub−block;SSB)に分割される。
一般的に、SSBは4×4の画素を有するので、MSBは8×8の画素を有し、巨大サブブロックは16×16の画素を有する。1次的にブロックマッチングはLMB単位で行われる。その後、もし、該当LMB内のサブブロックの平均絶対差値に大差があれば、LMBを4つに分割した領域のMSB単位でブロックマッチングが行われる。この際、同じMSBが発見されれば、ブロックマッチングは終了し、もしMSB内のサブブロックの平均絶対差値に大差があれば、再びSSB単位でブロックマッチングを行う。このような階層的ブロックマッチングは演算量の大きな増加なしに精密なレベルまでのブロックマッチングを行ってより精密な合成映像を得られる長所を有する。
本発明の特徴によって、生成されたディスパリティーベクトルは相関器320に入力されて適応的時間的平滑化動作に用いられる。
相関器320は過去左側映像211及び現在左側映像212を比較し、該当映像が変化の多い動的動映像であるか、フィールド間変化の少ない静的動映像であるかを区分する。相関器320はMAD生成器330及び時間的平滑化係数検出器340を含む。
MAD生成器330は過去左側映像211及び現在左側映像212間にブロックマッチングを行った後、マッチングされるブロックのレベル値のMAD値を抽出する。ブロックマッチングの実行単位はハードウェアの要求条件によって変わり、望ましくは16×16画素を有するブロック別に行われる。MAD値が大きいほど動的動映像である。ブロックマッチングの単位が16×16画素のRGB色構造の場合MAD値は式(2)により生成される。

ここで、R(T)、G(T)、B(T)は現在映像のk番目の画素に対するR、G、Bのそれぞれのレベル値、R(T−1)、G(T−1)、B(T−1)は過去映像のk番目の画素に対するR、G、Bのそれぞれのレベル値、MAD(R)、MAD(G)、MAD(B)はR、G、B各々に対するMAD値であり、MAD(T)は該当ブロックの全体MAD値である。
また、もし色構造が4:2:2のYUVであれば、MAD値は式(3)のように定義されうる。

ここで、Y(T)、U(T)、V(T)は現在映像のk番目の画素に対するY、U、Vのそれぞれのレベル値、Y(T−1)、U(T−1)、V(T−1)は過去映像のk番目の画素に対するY、U、Vのそれぞれのレベル値、MAD(Y)、MAD(U)、MAD(V)はY、U、V各々に対するMAD値であり、MAD(T)は該当ブロックの全体MAD値である。
図6は、時間的平滑化係数の生成原理を示す図である。
時間的平滑化係数検出器340は、MAD生成器330からMAD値を受信して、該当フレームの時間的平滑化係数C 341を生成する。時間的平滑化係数341は、過去映像と現在映像との比較によりフレーム毎に決定される特定値である。本発明の思想によって、時間的平滑化係数が大きければ動的動映像であり、時間的平滑化係数が小さければ静的動映像である。
図6において、Elow及びEhighは各々該当フレームの最小及び最大MAD値を示す。したがって、使われたレベル値の範囲が256であれば、最大MAD値は255以下であり、最小MAD値は0以上の値を有する。
max及びCminは最大及び最小時間的平滑化係数を示す。最大時間的平滑化係数は、該当フレームが最小MAD値を有する時の時間的平滑化係数である。これは、ユーザにより設定されてフレームの映像の種類によって異なって設定されうる。Cmax値を1に近く設定するほど、中間映像の生成に過去映像を反映する比率が高まるので、画面の静的指向が近いほど1に近い値を有する。
生成されたMAD値331が0ないしElowの範囲にあれば、時間的平滑化係数C 341はCmax値に固定される。また、生成されたMAD値331がEhigh以上の範囲にあれば、時間的平滑化係数C 341はCmin値に固定される。生成されたMAD値331がElowないしEhighの範囲にある場合、時間的平滑化係数341は平滑化係数決定関数f(E)により決まる。これを式で表現すると、式(4)のように表現される。
C=Cmax,E<Elowである場合
C=f(E),Elow<=E<=Ehighである場合 (4)
C=Cmin,E>Ehighである場合
平滑化係数決定関数f(E)はMAD値と時間的平滑化係数とが反比例関係を有する任意の関数のうち選択されうる。これは静的動映像であるほど、時間的平滑化係数を大値として選択するためである。平滑化係数決定関数f(E)は1次関数、2次関数または最大及び最小値で非線形的に飽和値を有する非線形関数などが可能である。図6の実施例で、平滑化係数決定関数f(E)は一次関数が使われた。
図7は、本発明の他の実施例に係る平滑化係数決定関数を示す図である。図7の実施例において、平滑化係数決定関数はその出力値が量子化された値を有する関数である。MAD値がE1ないしE2値を有せば、平滑化係数CはC1値を有し、E2ないしE3値を有せば、平滑化係数CはC2値を有し,...,かかる方式のマッピングが続く。このような平滑化係数決定関数を使用すれば、乗算無しにマッピングテーブルで具現できるので、ハードウェアー的具現が容易である。
平滑化ディスパリティーベクトル生成器310は時間的平滑化係数341、過去ディスパリティーベクトル221及び現在ディスパリティーベクトル222を受信して平滑化ディスパリティーベクトル311を生成する。本発明の一実施例によって平滑化ディスパリティーベクトルは式(5)により生成される。
DVsmoothed = C×DVprevious + (1−C)×DVpresent (5)
ここで、DVsmoothedは平滑化ディスパリティーベクトル、DVprevious及びDVpresentは過去及び現在ディスパリティーベクトル、Cは時間的平滑化係数を示す。
式(5)によって、時間的平滑化係数が高いほど平滑化ディスパリティーベクトルは過去ディスパリティーベクトルの値が多く反映される。したがって平滑化ディスパリティーベクトルを用いて合成された中間映像は、時間的平滑化係数が高いほど過去映像がさらに多く反映される。時間的平滑化係数は各フレーム毎に生成されるので、フレーム毎に平滑化ディスパリティーベクトルは他の値を有することになり、その結果、生成された中間映像は各フレーム毎に過去映像または現在映像を反映した比率が異なる。したがって、適応的中間映像合成が可能である。
図3ないし図7では、左側映像についてだけ平滑化ディスパリティーベクトル生成方法が説明されたが、右側映像についても同じ方法で平滑化ディスパリティーベクトルが生成される。
DV密化部230、235、DVマッピング部240及び中間映像再構成部250での動作は図2での動作と同一である。
DV密化部230、235は、各々平滑化ディスパリティーベクトル231、236を受信して画素ディスパリティーベクトル232、237を生成する。時間的平滑化部で生成された平滑化ディスパリティーベクトル231、236は、最小4×4画素を有するブロック(SSB)に対して計算されたディスパリティーベクトルである。したがって、中間映像合成のためには画素別にレベル値を決定するために、ディスパリティーベクトルを各画素単位で密化させる必要がある。密化動作はまず、ブロックSSB、MSB、LSBで生成されたディスパリティーベクトルを両末端値と定義し、両末端値間に必要な画素数ほど新しい値を与えるスケーリング方法により行われる。この際、新たな値は一般的に線形的な平均値である。
DVマッピング部240は左側及び右側画素ディスパリティーベクトル232、237を受信して最終ディスパリティーベクトル241を生成する。DVマッピング部240は、まず左側及び右側画素ディスパリティーベクトル232、237の一致如何を検査し、一致するディスパリティーベクトルだけ残し、一致していないディスパリティーベクトルは除去する。次いで、残されたディスパリティーベクトルを両末端値としてスケーリングする。したがって、一致するディスパリティーベクトルを基準に新しいディスパリティーベクトル241が画素毎に生成される。
中間映像再構成部250は、最終ディスパリティーベクトル241、左側映像212及び右側映像216を受信して中間映像251を生成する。中間映像再構成動作には中間視点再構成方法(Intermediate View Reconstruction:IVR)が用いられる。
図8は、中間視点再構成方法の概念を説明する図である。図8において、左側映像LI及び右側映像RIは物体A1、A2、A3を視覚left、rightで撮像した場合、生成された映像を示す。左側映像LIは4つの下部領域L1、L2、L3、L5で構成される。領域L1、L5は背景領域であり、領域L2は物体A2を左側視点で撮像した領域、領域L3は物体A1を左側視点で撮像した領域である。物体A3は左側視点で見られないために左側映像LIには現れない。右側映像RIは4つの下部領域R1、R3、R4、R5で構成される。領域R1、R5は背景領域であり、領域R3は物体A1を右側視点で撮像した領域、領域R4は物体A3を右側視点で撮像した領域である。物体A2は右側視点で見られないために右側映像RIには現れない。
図8において矢印は、ディスパリティーベクトルを示す。ディスパリティーベクトルは各領域に属する画素が移動した距離及び方向を示すので、このような情報から中間映像のどの位置に如何なるレベル値を有する画素が対応するかについての情報を得られる。例えば、領域L1は領域R1に対応するので、中間映像の領域M1は領域L1、R1及び領域L1、R1領域に含まれた画素の最終ディスパリティーベクトル241から中間映像の領域M1を生成しうる。同様に、L3、L5はR3、R5に対応するので、これに該当する中間映像の領域M3、M5はこれと同じ方法で生成される。
左側映像LIは物体A3についての情報を有していないために、物体A3に該当する中間映像の領域M4は右側映像の領域R4及び領域R4の最終ディスパリティーベクトルだけを用いて生成される。同様に、右側映像RIは物体A2についての情報を有していないために、物体A2に該当する中間映像の領域M2は左側映像の領域L2及び領域L2の最終ディスパリティーベクトルだけを用いて生成される。
図9は、中間映像の画素のレベル値を決定する方法を示す図である。図8で画素の対応する位置が決定されれば、その位置にいかなるレベル値を有する中間映像を生成するかが決定されねばならない。本発明の一実施例で、レベル値の決定は以下の式(6)を通じて決定される。
MI[x+ α×d(x,y), y] = (1−α)×LI[x,y] + α×RI[x+d(x,y), y] (6)
ここで、LI、RI、MIは各々左側映像、右側映像及び中間映像の該当画素でのレベル値であり、d(x,y)は該当画素のディスパリティーベクトルから抽出されたx方向の変位を示し、αは中間映像合成係数を示す。図9で左右方向だけの移動があったので、x方向への変位だけが考慮され、数式は左側映像の座標を基準として生成した。
中間映像合成係数αは中間映像の合成において左側映像及び右側映像のレベル値を反映する比率を示す。αは0ないし1の範囲を有する。もし、α=0.5であれば、左側映像の該当画素のレベル値と右側映像の該当画素のレベル値の平均値が中間映像の該当画素のレベル値になる。もし、α<0.5であれば、中間映像の該当画素のレベル値生成に左側映像の該当画素のレベル値がさらに多く反映され、α>0.5の場合にはその反対である。
中間映像合成係数αは生成される中間映像の数を決定する。もし、生成しようとする中間映像の数が1つ以上であれば、多様なα値を有する中間映像を複数個生成する。すなわち、1つ以上の中間映像を生成するためには、中間視点再構成部250でα値だけ変更して中間映像を反復生成すればよく、それ以前の動作は反復する必要がない。
図10は、本発明の他の実施例に係る中間映像合成方法を示す図である。
本発明の一実施例に係る中間映像合成装置は、前処理部400を追加的に含む。前処理部400は左側または右側映像処理過程のうち何れか一方にのみ位置する。図10の実施例で、前処理部400は右側映像処理部に位置した。前処理部400はDV推定器215の前段に位置する。
ステレオカメラのCCD及び光学的特性の差によって発生する左右映像信号の輝度及び色相の差はディスパリティー推定の歪曲を発生させる。このような歪曲を除去するために何れか一側の映像を基準に他側映像の輝度または色相信号を補正する必要がある。
このような補正のために、前処理部400は、現在右側及び左側映像LI、RIを受信して補正された右側映像RI’を生成する。このような補正は、映像の輝度及び色相信号に対して利得及びオフセットを調整することによって行われる。ここで、利得及びオフセットとは、映像の特定ラインのレベル値分布を示す特性グラフから抽出される。利得及びオフセット調整は以下式(7)で表現される。
RI’ = G × RI + F (7)
ここで、G、Fは左側映像を基準にした右側映像の利得及びオフセット補正値である。
本発明の他の実施例に係る中間映像合成装置は、空間的平滑化及び営外補正部410を追加的に含む。空間的平滑化及び営外補正部410は、時間的平滑化部310、315とDV密化部230、235間に位置する。
空間的平滑化は、特定ブロックに対して生成された平滑化ディスパリティーベクトル231、236が周辺の他のブロックのディスパリティーベクトルに比べて過度に高いか、低い場合に、これを平均値の適切な値に変換する。空間的平滑化は一般的にメディアンフィルター等を通じて行われる。営外補正は、既定の範囲の数値を外れる値は除去するフィルタリングを通じて映像マッチングで発生する誤ったディスパリティーベクトルを除去する。このような空間的平滑化及び営外補正は当業者に広く知られている。
以上、本発明に対してその望ましい実施例を中心に説明した。本発明が属する技術分野で当業者ならば、本発明が本発明の本質的な特性から外れない範囲で変形された形に具現できることを理解しうる。したがって、開示された実施例は、限定的な観点でなく説明的な観点で考慮されねばならない。本発明の範囲は前述した説明でなく特許請求の範囲に現れており、それと同等な範囲内にあるあらゆる違いは本発明に含まれたものと解釈されるべきである。
本発明は3次元映像を生成するのに用いられる時間的平滑化装置及び方法に係る技術分野に適用可能である。
3次元映像処理の概要図である。 従来の時間的平滑化技術の構成を示す図である。 本発明に係る平滑化ディスパリティーベクトルを生成する過程を示すブロック図である。 ディスパリティーベクトルの概念を示す図である。 本発明の一実施例に係るディスパリティーベクトル推定方法を示す図である。 時間的平滑化係数の生成原理を示す図である。 本発明の他の実施例に係る平滑化係数決定関数を示す図である。 中間視点再構成方法の概念を説明する図である。 中間映像の画素のレベル値を決定する方法を示す図である。 本発明の他の実施例に係る中間映像合成方法を示す図である。
符号の説明
210 左側ディスパリティーベクトル推定器
300 時間的平滑化部
310 平滑化ディスパリティーベクトル生成器
320 相関器
330 MAD生成器
340 時間的平滑化係数検出器

Claims (34)

  1. 中間映像合成のための時間的平滑化装置において、
    過去及び現在映像を受信して、所定サイズのブロック別に過去及び現在ディスパリティーベクトルを生成するディスパリティーベクトル推定器と、
    前記過去及び現在映像と前記過去及び現在ディスパリティーベクトルとを受信して時間的平滑化ディスパリティーベクトルを生成する時間的平滑化部とを含み、
    前記時間的平滑化部は、前記過去及び現在映像の平均絶対値差に基づいてフレーム毎に相異なる時間的平滑化ディスパリティーベクトルを生成することを特徴とする時間的平滑化装置。
  2. 前記時間的平滑化部は、
    前記過去及び現在映像の平均絶対値差に基づいて、時間的平滑化係数Cを生成する相関器と、
    前記過去及び現在ディスパリティーベクトルを受信して、時間的平滑化ディスパリティーベクトルを生成する平滑化ディスパリティーベクトル生成器とを含み、
    前記平滑化ディスパリティーベクトル生成器は、前記時間的平滑化係数に基づいて前記過去及び現在ディスパリティーベクトルの寄与程度を調整することを特徴とする請求項1に記載の時間的平滑化装置。
  3. 前記相関器は、
    前記過去及び現在映像を受信し、所定サイズのブロック単位でブロックマッチングを行った後、マッチングされるブロックのレベル値の平均絶対値差を生成する平均絶対値差生成器と、
    前記生成された平均絶対値差によって時間的平滑化係数をマッチングさせる係数決定関数を用いて時間的平滑化係数を検出する時間的平滑化係数検出器とを含むことを特徴とする請求項2に記載の時間的平滑化装置。
  4. 前記過去及び現在映像はRGB色構造を有し、
    前記平均絶対値差生成器は、現在映像のk番目の画素に対するR、G、Bのそれぞれのレベル値R(T)、G(T)、B(T)と、過去映像のk番目の画素に対するR、G、Bのそれぞれのレベル値R(T−1)、G(T−1)、B(T−1)との差の平均値に基づいて平均絶対値差を生成することを特徴とする請求項3に記載の時間的平滑化装置。
  5. 前記過去及び現在映像は4:2:2のYUV色構造を有し、前記平均絶対値生成器は、現在映像のk番目の画素に対するY、U、Vのそれぞれのレベル値Y(T)、U(T)、V(T)と、過去映像のk番目の画素に対するY、U、Vのそれぞれのレベル値との差の平均値に基づいて平均絶対値差を生成することを特徴とする請求項3に記載の時間的平滑化装置。
  6. 前記係数決定関数は、前記平均絶対値差と前記時間的平滑化係数とが反比例関係を有することを特徴とする請求項3に記載の時間的平滑化装置。
  7. 前記係数決定関数は前記平均絶対値差が臨界範囲を有し、前記臨界範囲より大きい範囲での前記時間的平滑化係数は一定の値を有することを特徴とする請求項6に記載の時間的平滑化装置。
  8. 前記係数決定関数は1次関数であることを特徴とする請求項7に記載の時間的平滑化装置。
  9. 前記係数決定関数は2次関数であることを特徴とする請求項7に記載の時間的平滑化装置。
  10. 前記係数決定関数は、臨界範囲以上の平均絶対値差で飽和曲線を有する非線形関数であることを特徴とする請求項7に記載の時間的平滑化装置。
  11. 前記係数決定関数は、前記平均絶対値差と前記時間的平滑化係数とは量子化された関係を有することを特徴とする請求項7に記載の時間的平滑化装置。
  12. 前記平滑化ディスパリティーベクトル生成器は、前記時間的平滑化係数が大きいほど前記過去ディスパリティーベクトルの寄与程度が大きくなるように前記平滑化ディスパリティーベクトルを生成することを特徴とする請求項3に記載の時間的平滑化装置。
  13. 前記平滑化ディスパリティーベクトル生成器は、次の式、
    DVsmoothed = C×DVprevious + (1−C)×DVpresent
    によって平滑化ディスパリティーベクトルを生成し、
    ここで、DVsmoothedは平滑化ディスパリティーベクトル、DVprevious及びDVpresentは過去及び現在ディスパリティーベクトル、Cは時間的平滑化係数を示す請求項12に記載の時間的平滑化装置。
  14. 中間映像合成装置において、
    左側及び右側の映像ソースから抽出された過去及び現在映像から左側及び右側の過去及び現在ディスパリティーベクトルを生成する左側及び右側ディスパリティーベクトル推定器と、
    前記左側及び右側の過去及び現在映像と、左側及び右側の過去及び現在ディスパリティーベクトルとを受信して、左側及び右側平滑化ディスパリティーベクトルを生成する左側及び右側時間的平滑化部と、
    前記左側及び右側平滑化ディスパリティーベクトルを画素別にスケーリングすることによって、左側及び右側画素平滑化ディスパリティーベクトルを生成する左側及び右側ディスパリティーベクトル密化部と、
    前記左側及び右側画素ディスパリティーベクトルを受信して、前記左側及び右側画素ディスパリティーベクトルの一致如何を検査し、一致していない画素ディスパリティーベクトルは除去した後、一致する画素ディスパリティーベクトルを基準にスケーリングすることによって、最終ディスパリティーベクトルを生成するディスパリティーベクトルマッピング部と、
    前記左側及び右側現在映像に前記最終ディスパリティーベクトルを適用することによって中間映像を生成する中間映像再構成部とを含むことを特徴とする時間的平滑化装置。
  15. 前記時間的平滑化部は、
    前記過去及び現在映像の平均絶対値差(MAD)に基づいて、フレーム毎に異なる時間的平滑化ディスパリティーベクトルを生成することを特徴とする請求項14に記載の時間的平滑化装置。
  16. 前記時間的平滑化部は、
    前記過去及び現在映像の平均絶対値差に基づいて時間的平滑化係数Cを生成する相関器と、
    前記過去及び現在ディスパリティーベクトルを受信して時間的平滑化ディスパリティーベクトルを生成する平滑化ディスパリティーベクトル生成器とを含み、
    前記平滑化ディスパリティーベクトルは前記時間的平滑化係数に基づいて前記過去及び現在ディスパリティーベクトルの寄与程度を調整することを特徴とする請求項15に記載の時間的平滑化装置。
  17. 前記相関器は、
    前記過去及び現在映像を受信し、所定サイズのブロック単位でブロックマッチングを行った後、マッチングされるブロックのレベル値の平均絶対値差を生成する平均絶対値差生成器と、
    前記生成された平均絶対値差によって、時間的平滑化係数をマッチングさせる係数決定関数を用いて、時間的平滑化係数を検出する時間的平滑化係数検出器とを含むことを特徴とする請求項16に記載の時間的平滑化装置。
  18. 前記係数決定関数は前記平均絶対値差が臨界範囲を有し、前記臨界範囲より大きい範囲での前記時間的平滑化係数は一定の値を有することを特徴とする請求項17に記載の時間的平滑化装置。
  19. 前記平滑化ディスパリティーベクトル生成器は、次の式、
    DVsmoothed = C×DVprevious + (1−C)×DVpresent
    によって平滑化ディスパリティーベクトルを生成し、
    ここで、DVsmoothedは平滑化ディスパリティーベクトル、DVprevious及びDVpresentは過去及び現在ディスパリティーベクトル、Cは時間的平滑化係数を示す請求項16に記載の時間的平滑化装置。
  20. 前記左側及び右側現在映像を受信して前記左側または右側現在映像のうち何れか一方を基準に他方の映像のレベル値を補正することによって補正された左側または右側現在映像を生成する前処理部をさらに含むことを特徴とする請求項17に記載の時間的平滑化装置。
  21. 前記前処理部は、
    前記他方の映像のレベル値に対して利得及びオフセット値を調整することによって補正された左側または右側現在映像を生成することを特徴とする請求項18に記載の時間的平滑化装置。
  22. 前記時間的平滑化部から前記平滑化ディスパリティーベクトルを受信して空間平滑化及び営外補正を行う空間的平滑化及び営外補正部をさらに含むことを特徴とする請求項17に記載の時間的平滑化装置。
  23. 前記空間的平滑化はメディアンフィルターにより行われることを特徴とする請求項22に記載の時間的平滑化装置。
  24. 前記中間映像再構成部は、中間視点再構成方法(IVR)を行うことによって、前記中間映像を生成することを特徴とする請求項17に記載の時間的平滑化装置。
  25. 中間映像合成のための時間的平滑化方法において、
    過去及び現在映像を受信して、所定サイズのブロック別に過去及び現在ディスパリティーベクトルを生成するディスパリティーベクトル推定段階と、
    前記過去及び現在映像と前記過去及び現在ディスパリティーベクトルとを受信して時間的平滑化ディスパリティーベクトルを生成する時間的平滑化段階とを含み、
    前記時間的平滑化段階は、前記過去及び現在映像の平均絶対値差に基づいてフレーム毎に相異なる時間的平滑化ディスパリティーベクトルを生成する段階を含むことを特徴とする時間的平滑化方法。
  26. 前記時間的平滑化段階は、
    前記過去及び現在映像の平均絶対値差に基づいて時間的平滑化係数Cを生成する相関段階と、
    前記過去及び現在ディスパリティーベクトルを受信して時間的平滑化ディスパリティーベクトルを生成する平滑化ディスパリティーベクトル生成段階とを含み、
    前記平滑化ディスパリティーベクトル生成段階は前記時間的平滑化係数に基づいて前記過去及び現在ディスパリティーベクトルの寄与程度を調整する段階を含むことを特徴とする請求項25に記載の時間的平滑化方法。
  27. 前記相関段階は、
    前記過去及び現在映像を受信し、所定サイズのブロック単位でブロックマッチングを行ってマッチングされるブロックのレベル値の平均絶対値差を生成する平均絶対値差生成段階と、
    前記生成された平均絶対値差によって時間的平滑化係数をマッチングさせる係数決定関数を用いて時間的平滑化係数を検出する時間的平滑化係数検出段階とを含むことを特徴とする請求項26に記載の方法。
  28. 前記係数決定関数は、前記平均絶対値差と前記時間的平滑化係数とが反比例関係を有することを特徴とする請求項25に記載の時間的平滑化方法。
  29. 前記係数決定関数は前記平均絶対値差が臨界範囲を有し、前記臨界範囲より大きい範囲での前記時間的平滑化係数は一定の値を有することを特徴とする請求項28に記載の時間的平滑化方法。
  30. 前記係数決定関数は1次関数であることを特徴とする請求項29に記載の時間的平滑化方法。
  31. 前記係数決定関数は臨界範囲以上の平均絶対値差で飽和曲線を有する非線形関数であることを特徴とする請求項29に記載の時間的平滑化方法。
  32. 前記係数決定関数において前記平均絶対値差及び前記時間的平滑化係数は量子化された関係を有することを特徴とする請求項29に記載の時間的平滑化方法。
  33. 前記平滑化ディスパリティーベクトル生成段階は、前記時間的平滑化係数が大きいほど前記過去ディスパリティーベクトルの寄与程度が大きいように前記平滑化ディスパリティーベクトルを生成する段階を含むことを特徴とする請求項27に記載の時間的平滑化方法。
  34. 前記平滑化ディスパリティーベクトル生成段階は、次の式、
    DVsmoothed = C×DVprevious + (1−C)×DVpresent
    によって平滑化ディスパリティーベクトルを生成する段階を含み、
    ここで、DVsmoothedは平滑化ディスパリティーベクトル、DVprevious及びDVpresentは過去及び現在ディスパリティーベクトル、Cは時間的平滑化係数を示す請求項33に記載の時間的平滑化方法。
JP2004329286A 2003-11-13 2004-11-12 中間映像合成のための時間的平滑化装置及び方法 Pending JP2005151568A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0080097A KR100524077B1 (ko) 2003-11-13 2003-11-13 중간 영상 합성을 위한 시간적 평활화 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2005151568A true JP2005151568A (ja) 2005-06-09

Family

ID=34567711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004329286A Pending JP2005151568A (ja) 2003-11-13 2004-11-12 中間映像合成のための時間的平滑化装置及び方法

Country Status (4)

Country Link
US (1) US9159136B2 (ja)
JP (1) JP2005151568A (ja)
KR (1) KR100524077B1 (ja)
CN (1) CN100450193C (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101184252B (zh) * 2006-11-14 2012-08-29 三星电子株式会社 用于调节三维图像中的视差的方法及其三维成像设备
JP2014507906A (ja) * 2011-02-23 2014-03-27 モビクリップ 立体シーンにおける焦点面の位置を管理するためのデバイスおよび方法
JP2015507883A (ja) * 2012-01-06 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 深度を用いた3dビデオコーディングにおける多仮説視差ベクトル構成

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
KR101227601B1 (ko) * 2005-09-22 2013-01-29 삼성전자주식회사 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치
KR101276720B1 (ko) 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR100737808B1 (ko) * 2005-10-07 2007-07-10 전자부품연구원 2차원 구조의 다시점 영상 압축 방법
KR101185870B1 (ko) * 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
JP4453647B2 (ja) * 2005-10-28 2010-04-21 セイコーエプソン株式会社 動画像表示装置および動画像表示方法
WO2007110000A1 (en) * 2006-03-29 2007-10-04 Huawei Technologies Co., Ltd. A method and device of obtaining disparity vector and its multi-view encoding-decoding
JP4605400B2 (ja) * 2006-12-01 2011-01-05 富士フイルム株式会社 画像出力システム、画像生成装置および画像生成方法
WO2009023091A2 (en) * 2007-08-15 2009-02-19 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
US8326081B1 (en) * 2009-05-18 2012-12-04 The United States Of America As Represented By The Secretary Of The Navy Correlation image detector
KR101763686B1 (ko) * 2010-11-15 2017-08-01 삼성전자 주식회사 입체 영상 처리 장치 및 그 처리 방법
WO2012108088A1 (ja) * 2011-02-10 2012-08-16 日本電気株式会社 相違領域検出システム及び相違領域検出方法
WO2012139108A1 (en) 2011-04-08 2012-10-11 Dolby Laboratories Licensing Corporation Method and apparatus for flicker reduction and contrast enhancement in 3d displays
JP2013145173A (ja) * 2012-01-13 2013-07-25 Furuno Electric Co Ltd レーダ装置、レーダ画像データ処理プログラム、及びレーダ画像データ処理方法
US9641821B2 (en) * 2012-09-24 2017-05-02 Panasonic Intellectual Property Management Co., Ltd. Image signal processing device and image signal processing method
KR101918030B1 (ko) * 2012-12-20 2018-11-14 삼성전자주식회사 하이브리드 멀티-뷰 랜더링 방법 및 장치
US9451165B2 (en) * 2013-02-14 2016-09-20 Hitachi Kokusai Electric Inc. Image processing apparatus
JP2014206893A (ja) * 2013-04-15 2014-10-30 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
US20140309992A1 (en) * 2013-04-16 2014-10-16 University Of Rochester Method for detecting, identifying, and enhancing formant frequencies in voiced speech
CN103593155B (zh) * 2013-11-06 2016-09-07 华为终端有限公司 显示帧生成方法和终端设备
JP6561512B2 (ja) * 2014-03-27 2019-08-21 株式会社リコー 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
US9613294B2 (en) * 2015-03-19 2017-04-04 Intel Corporation Control of computer vision pre-processing based on image matching using structural similarity
CN109120379A (zh) * 2018-08-30 2019-01-01 武汉虹信通信技术有限责任公司 一种适用于无线通信系统多场景的自适应调制编码方法
GB202005538D0 (en) * 2020-04-16 2020-06-03 Five Ai Ltd Stereo depth estimation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59182688A (ja) * 1983-03-31 1984-10-17 Toshiba Corp ステレオ視処理装置
US5652616A (en) * 1996-08-06 1997-07-29 General Instrument Corporation Of Delaware Optimal disparity estimation for stereoscopic video coding
KR100224752B1 (ko) * 1997-06-11 1999-10-15 윤종용 표적 추적 방법 및 장치
JP4056154B2 (ja) * 1997-12-30 2008-03-05 三星電子株式会社 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
CN1204757C (zh) * 2003-04-22 2005-06-01 上海大学 一种立体视频流编码/解码器及其立体视频编解码系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101184252B (zh) * 2006-11-14 2012-08-29 三星电子株式会社 用于调节三维图像中的视差的方法及其三维成像设备
JP2014507906A (ja) * 2011-02-23 2014-03-27 モビクリップ 立体シーンにおける焦点面の位置を管理するためのデバイスおよび方法
JP2015507883A (ja) * 2012-01-06 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 深度を用いた3dビデオコーディングにおける多仮説視差ベクトル構成

Also Published As

Publication number Publication date
CN1638491A (zh) 2005-07-13
KR20050046108A (ko) 2005-05-18
CN100450193C (zh) 2009-01-07
US9159136B2 (en) 2015-10-13
US20050105610A1 (en) 2005-05-19
KR100524077B1 (ko) 2005-10-26

Similar Documents

Publication Publication Date Title
KR100524077B1 (ko) 중간 영상 합성을 위한 시간적 평활화 장치 및 방법
JP5351038B2 (ja) 画像データ及び深度データの組合せを処理する画像処理システム
KR101498535B1 (ko) 스테레오스코픽 및 멀티-뷰 이미지들의 송신, 프로세싱 및 렌더링을 위한 시스템 및 방법
US9094660B2 (en) Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video
JP6027034B2 (ja) 立体映像エラー改善方法及び装置
US8384763B2 (en) Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
US8045792B2 (en) Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images
US9525858B2 (en) Depth or disparity map upscaling
JP2013527646A5 (ja)
US5696551A (en) Three-dimension picture coding system
JP2020506484A (ja) 画像特性マップを処理するための方法及び装置
JP2012249038A (ja) 画像信号処理装置、画像信号処理方法
US20060104535A1 (en) Method and apparatus for removing false edges from a segmented image
US20040165765A1 (en) Method and an appraratus to divide image blocks
De Silva et al. A depth map post-processing framework for 3D-TV systems based on compression artifact analysis
Pająk et al. Perceptual depth compression for stereo applications
JPH11252585A (ja) 視差量推定装置
Kim et al. Synthesis of a high-resolution 3D stereoscopic image pair from a high-resolution monoscopic image and a low-resolution depth map
Ideses et al. 3D from compressed 2D video
KR101619327B1 (ko) 적응적 결합 양측 깊이 맵 업샘플링
Stankiewicz et al. Estimation of temporally-consistent depth maps from video with reduced noise
KR101609394B1 (ko) 입체 영상 인코딩 장치 및 방법
Jäger et al. Median trilateral loop filter for depth map video coding
De Silva et al. A depth map post-processing technique for 3D-TV systems based on compression artifact analysis
Xu et al. Watershed based depth map misalignment correction and foreground biased dilation for DIBR view synthesis