JP2013527646A - 立体映像エラー改善方法及び装置 - Google Patents

立体映像エラー改善方法及び装置 Download PDF

Info

Publication number
JP2013527646A
JP2013527646A JP2013501200A JP2013501200A JP2013527646A JP 2013527646 A JP2013527646 A JP 2013527646A JP 2013501200 A JP2013501200 A JP 2013501200A JP 2013501200 A JP2013501200 A JP 2013501200A JP 2013527646 A JP2013527646 A JP 2013527646A
Authority
JP
Japan
Prior art keywords
error
depth map
map information
video data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013501200A
Other languages
English (en)
Other versions
JP2013527646A5 (ja
JP5750505B2 (ja
Inventor
シク ウー、ダエ
キ ジェオン、ブヤン
ラン キム、ア
ウー リー、ホン
ダエ キム、ジョン
スク チュン、ウォン
Original Assignee
エスケー プラネット カンパニー、リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エスケー プラネット カンパニー、リミテッド filed Critical エスケー プラネット カンパニー、リミテッド
Publication of JP2013527646A publication Critical patent/JP2013527646A/ja
Publication of JP2013527646A5 publication Critical patent/JP2013527646A5/ja
Application granted granted Critical
Publication of JP5750505B2 publication Critical patent/JP5750505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/77
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、立体映像エラー改善方法及び装置に関する。本発明の一実施形態は、入力された映像データに対するデプスマップ情報(Depth Map)を利用して空間ヒストグラム(Histogram)情報を生成する空間ヒストグラム生成部と、前記入力された映像データに対する2D映像データを利用してピーク(Peak)周波数を生成するピーク周波数生成部と、前記空間ヒストグラムと前記ピーク周波数に基づいて前記入力された映像データの各々のフレーム(Frame)に対するエラーを判別するオブジェクト分析部と、前記フレームに対する前記エラーが判別されると、前記エラーが改善されるように前記デプスマップ情報を修正するデプスマップエラー修正部と、前記修正されたデプスマップ情報を利用して立体映像である左側視野用イメージ及び右側視野用イメージを生成するレンダリング(Rendering)処理部と、を含むことを特徴とする立体映像エラー改善装置を提供する。本発明の一実施形態によれば、入力された2D映像コンテンツにデプスマップ情報を適用した立体映像コンテンツで提供する過程でデプスマップ情報のエラーにより立体感の低下が発生しないようにデプスマップ情報のエラーを判別してデプスマップ情報のエラーを改善することができる効果がある。

Description

本発明は、立体映像エラー改善方法及び装置に関し、より詳しくは、入力された2D映像コンテンツにデプスマップ情報を適用した立体映像コンテンツを提供する過程でデプスマップ情報のエラーにより立体感の低下が発生しないようにデプスマップ情報のエラーを判別した後改善するようにする立体映像エラー改善方法及び装置に関する。
デジタル技術が高度で発展し、放送と通信の融合により放送媒体が多様化されることに従って、デジタル技術の特性を利用した放送関連付加サービスが新たに登場している。現在、TVのような映像サービスの発展方向は高画質と大画面に行っているが、現在までは2D映像コンテンツのみを提供するから現在の映像コンテンツを通じて視聴者は立体感を感じることができない。
これによって、漸進的に立体映像の必要性が高まっているが、今までは立体映像のコンテンツが極めて不足な実情である。立体映像処理技術は、次世代情報通信サービス分野の核心技術として、情報産業社会への発達と連れて技術開発競争が激烈な最先端技術である。このような立体映像処理技術は、マルチメディア応用において高品質の映像サービスを提供するために必須的な要素であり、今日には情報通信分野だけではなく、放送、医療、教育、軍事、ゲーム及び仮想現実などその応用分野が非常に多様化されている。
したがって、2D映像コンテンツを立体映像コンテンツで提供する技術が必要な実情である。しかし、現在の技術では2D映像コンテンツを立体映像コンテンツで提供する過程のうちエラーが発生する問題点がある。
したがって、本発明は上述したような従来技術の問題点を解決するためになされたもので、その目的は、立体映像コンテンツを出力する過程において、デプスマップ情報のエラーにより立体感の低下が発生しないようにする立体映像エラー改善方法及び装置を提供することにある。
前記目的を達成するための本発明の一実施形態は、入力された映像データに対するデプスマップ情報(Depth Map)を利用して空間ヒストグラム(Histogram)情報を生成する空間ヒストグラム生成部と、前記入力された映像データに対する2D映像データを利用してピーク(Peak)周波数を生成するピーク周波数生成部と、前記空間ヒストグラムと前記ピーク周波数に基づいて前記入力された映像データの各々のフレーム(Frame)に対するエラーを判別するオブジェクト(Object)分析部と、前記フレームに対する前記エラーが判別されると、前記エラーが改善されるように前記デプスマップ情報を修正するデプスマップエラー修正部と、前記修正されたデプスマップ情報を利用して立体映像を構成するために左側視野用イメージ及び右側視野用イメージを生成するレンダリング(Rendering)処理部と、を含むことを特徴とする立体映像エラー改善装置を提供する。
また、本発明の他の目的によれば、入力された映像データに対するデプスマップ情報(Depth Map)を利用して空間ヒストグラム(Histogram) 情報を生成する空間ヒストグラム生成段階と、前記入力された映像データに対する2D映像データを利用してピーク(Peak)周波数を生成するピーク周波数生成段階と、前記空間ヒストグラムと前記ピーク周波数に基づいて前記入力された映像データの各々のフレーム(Frame)に対するエラーを判別するオブジェクト分析段階と、前記フレームに対する前記エラーが判別されると、前記エラーが改善されるように前記デプスマップ情報を修正するデプスマップデラー修正段階と、前記修正されたデプスマップ情報を利用して立体映像を構成するために左側視野用イメージ及び右側視野用イメージを生成するレンダリング処理段階と、を含むことを特徴とする立体映像エラー改善方法を提供する。
また、本発明の他の目的によれば、入力された2D映像データにデプスマップ情報を適用して立体映像を提供する過程で前記デプスマップ情報に対するエラーを判別する方法であって、前記2D映像データの各々のフレーム内に前記デプスマップ情報によって区分されるオブジェクト別に生成された空間ヒストグラム情報の標準偏差値を脱した一部値を確認する段階と、前記一部値が第1の臨界値を基準として前記第1の臨界値の垂直(Y)軸の+方向または−方向に超過する場合、前記一部値に該当する領域をエラー予想領域に分類するエラー予想領域分類段階と、前記エラー予想領域に対するピーク周波数が第2の臨界値を+方向または−方向に超過する場合、前記第1の臨界値を超過した方向結果と前記第2の臨界値を超過した方向結果が一致するか否かを確認する方向結果一致可否確認段階と、前記方向結果一致可否確認段階の確認結果、方向結果が一致しない場合、前記エラー予想領域の前記デプスマップ情報に前記エラーがあることで判別するエラー判別段階と、を含むことを特徴とする立体映像間違い改善方法を提供する。
また、本発明の他の目的によれば、入力された2D映像データにデプスマップ情報を適用して立体映像を提供する過程でエラーが判別された前記デプスマップ情報を改善する方法であって、前記デプスマップ情報に前記エラーがあることで判別されたエラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値を確認する段階と、前記一部値が第1の臨界値を基準として前記第1の臨界値の垂直(Y)軸の+方向と−方向の中でどの方向に超過したかを確認する方向確認段階と、前記方向確認段階の確認結果、前記一部値が前記第1の臨界値を超過した方向に基づいて前記一部値を前記空間ヒストグラムの標準偏差値で増加または減少させるエラー改善段階と、を含むことを特徴とする立体映像エラー改善方法を提供する。
また、本発明の他の目的によれば、入力された2D映像データにデプスマップ情報を適用して立体映像を提供する過程で前記デプスマップ情報に対するエラーを判別し改善する方法であって、前記2D映像データの各々のフレーム内に前記デプスマップ情報によって区分されるオブジェクト別に生成された空間ヒストグラム情報の標準偏差値を脱した一部値を確認する段階と、前記一部値が第1の臨界値を超過する場合、前記一部値に該当する領域をエラー予想領域に分類するエラー予想領域分類段階と、前記エラー予想領域に対するピーク周波数が第2の臨界値を超過する場合、前記第1の臨界値と前記第2の臨界値を+方向または−方向に超過した方向結果が一致するか否かを確認する方向結果確認段階と、前記方向結果確認段階の確認結果、方向結果が一致しない場合、前記エラー予想領域の前記デプスマップ情報に前記エラーがあることで判別するエラー判別段階と、前記一部値が前記第1の臨界値を超過した方向結果に基づいて前記一部値を前記空間ヒストグラムの標準偏差値で増加または減少させるエラー改善段階と、を含むことを特徴とする立体映像エラー改善方法を提供する。
上述のように、本発明によれば、入力された2D映像コンテンツにデプスマップ情報を適用した立体映像コンテンツで提供する過程において、デプスマップ情報のエラーにより立体感が低下が発生しないように、デプスマップ情報のエラーを判別してデプスマップ情報のエラーを改善することができる効果がある。
また、本発明の一実施形態によれば、2D映像データとともに受信された別途のデプスマップ情報または2D映像データから推定されたデプスマップ情報に対するエラーを全て判別し改善することができる効果がある。すなわち、立体映像の出力時のエラーを改善することで、視聴者がより改善された立体感を感じるようにする効果がある。
図1は、本発明の一実施形態による立体映像エラー改善装置を概略的に示したブロック構成図である。 図2は、本発明の一実施形態による立体映像エラー改善方法を説明するためのフローチャートである。 図3は、本発明の一実施形態による空間ヒストグラムに対する例示図である。 図4は、本発明の一実施形態による入力される2D映像データに対する例示図である。 図5は、本発明の一実施形態による特定フレームの正常的なデプスマップ情報に対する例示図である。 図6は、本発明の一実施形態による特定フレームのエラー予想領域を示した例示図である。 図7は、本発明の一実施形態による特定オブジェクトのエラー予想領域を示した例示図である。 図8は、本発明の一実施形態によるFFT(Fast Fourier Transform)適用によるピーク周波数に対する例示図である。
以下、本発明の一部実施例を例示的な図面を通じて詳細に説明する。各図面の構成要素に参照符号を付与することにおいて、同一構成要素に対しては他の図面上に表示されてもできるだけ同一符号を付与する。また、本発明の説明において、関連された公知構成または機能に対する具体的な説明が本発明の要旨を不明にする恐れがあると判断される場合にはその詳細な説明は省略する。
また、本発明の構成要素の説明において、第1、第2、A、B、(a)、(b)などの用語を使うことができる。このような用語は、その構成要素を他の構成要素と区別するためもので、その用語により該当構成要素の本質や順番または手順などが限定されるものではない。ある構成要素が他の構成要素に『連結』、『結合』または『接続』されると記載した場合、その構成要素はその他の構成要素に直接的に連結されるか、または接続されることができ、各構成要素の間にまた他の構成要素が『連結』、『結合』または『接続』されることもできると理解しなければならない。
図1は、本発明の一実施形態による立体映像エラー改善装置を概略的に示したブロック構成図である。
本発明の一実施形態による立体映像エラー改善装置100は、映像受信部112と、デプスマップ推定部114と、デプスマップ受信部120と、空間ヒストグラム生成部122と、2D映像受信部130と、ピーク周波数生成部132と、オブジェクト分析部140と、デプスマップエラー修正部150と、レンダリング(Rendering)処理部160と、を含む。本発明の一実施形態では、立体映像エラー改善装置100が、映像受信部112、デプスマップ推定部114、デプスマップ受信部120、空間ヒストグラム生成部122、2D映像受信部130、ピーク周波数生成部132、オブジェクト分析部140、デプスマップエラー修正部150及びレンダリング処理部160のみを含むことで記載しているが、これは本発明の一実施形態の技術思想を例示的に説明したことに過ぎないで、本発明の一実施形態が属する技術分野において通常の知識を有した者であれば、本発明の一実施形態の本質的な特性から脱しない範囲で立体映像エラー改善装置100に含まれる構成要素に対して多様に修正及び変形して適用可能である。
本発明の一実施形態による立体映像エラー改善装置100は、入力された映像データを立体映像データに変換し、入力された映像データを立体映像データに変換する過程のうちエラーを判別して改善する装置を意味する。すなわち、立体映像エラー改善装置100は、放送局のような映像コンテンツ提供社から2D映像データの入力を受けてこれをディスプレーする前に立体映像に変換することができる装置を意味する。一方、立体映像エラー改善装置100は、放送局のような映像コンテンツ提供社から2D映像データと別に提供されるデプスマップ(Depth Map)情報を受けることができる。立体映像エラー改善装置100は、映像コンテンツ提供社から提供を受けるか推定したデプスマップ情報のエラーを判別し改善することができる。ここで、立体映像エラー改善装置100は、TV、モニターのようなディスプレー装置に搭載される形態で具現するか、セットトップボックス(Set−Top Box)のように別途の装置で具現されてディスプレー装置と連動する形態で具現することができる。したがって、本発明では、立体映像エラー改善装置100が、入力された映像データを立体映像である左側視野用イメージと右側視野用イメージに変換することまでに記述し、以後ディスプレー装置で立体映像をステレオスコピック(Stereoscopic)方式またはオートステレオスコピック(Auto−Stereoscopic)方式でディスプレーすることに対しては特別に言及しない。
本発明で記載した立体映像は、大きく二つの観点で定義することができる。1.立体映像は、映像にデプスマップ情報を適用させて映像の一部が画面から突き出される感じをユーザが感じることができる映像である。2.立体映像は、ユーザに多様な視点を提供してそれからユーザが映像からリアリティーを感じることができる映像である。すなわち、本発明に記載された立体映像は、視聴者が視聴覚的立体感を感じられるようにすることで動感及びリアリティーを提供する映像を意味する。このような立体映像は、獲得方式、デプスインプレッション(Depth Impression)、ディスプレー方式などによって両眼式、多眼式、IP(Integral Photography)、多視点(オムニ(Omni)、パノラマ)、ホログラムなどに分類することができる。また、このような立体映像を表現する方法では、大きく映像基盤表現法(Image−Based Representation)とメッシュ基盤表現法(Mesh−Based Representation)がある。
このような立体映像を表現するためには、人間の目のように左側と右側で撮影した二つの映像を必要とする。すなわち、左側で撮影した映像は左側目に、右側で撮影した映像は右側目に見えることで、視聴者は立体感を感じるようになる。このように立体映像を撮影するための放送カメラは、二つのカメラが付いている形態であるか二つのレンズが具備されている形態である。立体映像は、左側映像と右側映像を必要とするので、一般的な放送に比べて映像データのサイズが二倍になり、これを放送信号で送り出す場合、二倍の周波数バンド幅(Bandwidth)を占めるようになる。
勿論、「Side by Side」方式のように左側と右側映像を各々半分に減らした後に合成して一般的な放送信号のデータサイズで送り出すことはできるが、根本的にデータの量を水平方向に圧縮させたものであるのでデータの損失が発生する。一般的な映像データと同じ量を維持しながら立体映像データを伝送するためには、一般的な映像に該当する2D映像データと立体映像データに対する情報を有しているデプスマップ情報を伝送する方式がある。デプスマップ情報の量は、普通2D映像データに比べて約10%程度のデータ量に該当するので、全体的に10%程度の情報のみ追加されると立体映像を具現することができる。また、これを受信する受信部である立体映像エラー改善装置100で2D映像データを立体映像データに変換することができる場合、一般映像データと同一な情報量を必要とするので、追加的なデータの受信なしに立体映像の具現が可能である。
立体映像を視聴するための信号方式は、左側と右側映像データを全て伝達するか、左側と右側映像データを水平方向に圧縮して伝送するか、2D映像データとデプスマップ情報を一緒に伝送するか、受信部である立体映像エラー改善装置100で2D映像データを立体映像データに変換する場合である。一方、左側と右側映像データを全て伝達するか、左側と右側映像データを水平方向に収縮して伝送する方式で映像コンテンツ提供社で映像データを送り出す場合には、立体映像データを送り出すから立体映像の立体感に対する修正が不可能である。しかし、2D映像データとデプスマップ情報を一緒に伝送するか、受信部である立体映像エラー改善装置100で2D映像データを立体映像データに変換する場合、立体映像エラー改善装置100でデプスマップ情報を制御することができるので、立体映像の立体感を修正することができる。これによって、本発明の一実施形態による立体映像エラー改善装置100は、立体感を表現することができるデプスマップ情報のエラーを判別して一層改善された立体映像を視聴者に提供することができる。
このような立体感は、視聴する視聴者の年齢や基準などによって多くの差がある主観的な判断に該当するが、立体感を感じる差は次のような客観的な項目により決定できる。一つの映像内でデプスマップ情報の差が大きいオブジェクトが同時に存在するか、左側映像と右側映像が人間の目で見る角度と多くの差があるか、自然的に存在する立体感とこれを映像で表現した立体映像を見る時に感じる立体感が特定オブジェクトや特定領域で異なると感じるか、立体感を強調するために意図的に立体感を強く表現した場合である。
上述のように、一つのフレーム(Frame)内でデプスマップ情報の差が大きいオブジェクトが同時に存在するか、左側映像と右側映像が人間の目が見る角度と多くの差がある場合は、立体カメラで撮影する時に主に発生する問題として、撮影する撮影者の技術に既存する。一方、自然的に存在する立体感とこれを映像で表現した立体映像を見る時に感じる立体感が特定オブジェクトや特定領域で異なると感じるか、立体感を強調するために意図的に立体感を強くした場合には、該当映像を受信する受信部である立体映像エラー改善装置100でデプスマップ情報のエラーを判別しこれを改善することで、ある程度緩和させることができる。特に、受信部である立体映像エラー改善装置100で、2D映像データでデプスマップ情報を推定した後、これを立体映像である左側視野用イメージ及び右側視野用イメージに変換する場合は、「映像の認識、分析、オブジェクト分離、オブジェクトの先後判断」などの過程を経るため立体映像変換過程でエラーが発生するようになり、これによって、デプスマップ情報にエラーが含まれる。このようなエラーにより立体映像を視聴する視聴者は目まいを感じるようになる。すなわち、立体映像エラー改善装置100が映像コンテンツ提供社から別途のデプスマップ情報の提供を受けるか2D映像データからデプスマップ情報を推定した場合、デプスマップ情報でエラーを判別することができる。例えば、近距離に位置したオブジェクトが遠距離に位置したオブジェクトより一層遠く表現される場合、これを原本形態で復元することは不可能であるが、立体映像エラー改善装置100を通じてデプスマップ情報に含まれたエラーを判別し改善することはできる。
また、立体映像を表現する方式でDIBR(Depth Image−Based Rendering)方式がある。DIBRは、関連されたピクセルごとに深さや差角などの情報を有した参照映像を利用して他の視点でのフレームを新たに作り出す方式である。このようなDIBRは、3Dモデルの表現しにくくて複雑な形象を容易にレンダリングするだけではなく、一般的な映像フィルタリングのような信号処理方法の適用を可能とし、高品質の立体映像を生成することができる。このようなDIBRは、デプスカメラ及びマルチビューカメラを通じて獲得されるデプス映像とテクスチャ映像を利用する。
また、デプス映像は、3D空間上に位置するオブジェクトとそのオブジェクトを撮影するカメラとの間の距離を黒白の単位で示す映像である。このようなデプス映像は、デプスマップ情報とカメラパラメータを通じて3D復元技術または3Dワーピング(Warping)技術に利用される。また、デプス映像は、自由視点TVと3DTVに応用される。自由視点TVは、決まった一つの視点でのみ映像を鑑賞しないでユーザの選択によって任意の視点で映像を視聴することができるようにするTVである。3DTVは、既存2DTVにデプス映像を加えた映像を具現する。このような自由視点TVと3DTVでの柔らかい視点転換のためには、中間映像を生成する必要があり、そのためには正確なデプスマップ情報を推定しなければならない。一方、本発明でデプスマップ情報を推定する方法に対しては、デプスマップ推定部114を通じて詳しく説明する。
映像受信部112は、入力された映像データに対するデプスマップ情報が別に入力されるか否かを確認し、確認結果に基づいてデプスマップ情報が別に入力される場合、デプスマップ情報をデプスマップ受信部120に伝送する。
デプスマップ推定部114は、入力された映像データに対するデプスマップ情報が別に入力されない場合、入力された映像データの各々のフレーム別にデプスマップ情報を堆定し、推定されたデプスマップ情報をデプスマップ受信部120に伝送する。すなわち、デプスマップ推定部114は、入力された映像データの各々のフレーム内に存在する各々のピクセル(Pixel)別にデプスマップ情報を推定する。ここで、各々のピクセルは、R、G、Bサブピクセルを含む。また、入力された映像データは、2D映像データである。一方、デプスマップ推定部114がデプスマップ情報を推定するための一般的な方式では、ステレオマッチング(Stereo Matching)アルゴリズムを利用することができる。ステレオマッチングアルゴリズムは、変異値を求めるために周辺映像で水平方向にのみ探索を行い、並列カメラ構成から得た映像または修正(Rectification)過程を経た映像のみを入力する方式である。本発明に記載されたデプスマップ情報は、デプスインプレッションを示す情報を意味し、Z−バッファー(Buffer)とも称する。
また、デプスマップ推定部114は、各々のフレームを分析して画面の傾き、オブジェクトの影、画面焦点及びオブジェクトパターンの中で少なくとも一つ以上の情報を利用してデプスマップ情報を推定する。例えば、デプスマップ推定部114は、フレーム内の傾きを利用する方式で、フレーム内の画面の下段に位置するオブジェクトが近くて上段に位置するイメージは遠くあると判断してデプスマップ情報を推定することができる。また、デプスマップ推定部114は、オブジェクトの影を利用する方式で、フレーム内のオブジェクトの暗い部分は遠くあり、明るい部分は近くにあると判断してデプスマップ情報を推定することができる。すなわち、影は常にオブジェクトより後にある原理を利用した方式である。また、デプスマップ推定部114は、画面焦点を利用する方式で、鮮やかな物体は前にあり、鮮明ではない物体は後にあると判断してデプスマップ情報を推定することができる。また、デプスマップ推定部114は、オブジェクトパターン(Pattern)を利用する方式で、同一類型のパターンが連続されて出る場合、パターンの大きさが大きいものが小さいものより前にあると判断してデプスマップ情報を推定することができる。
デプスマップ受信部120は、映像受信部112またはデプスマップ推定部114から入力された映像データに対するデプスマップ情報を受信する。すなわち、デプスマップ受信部120は、映像コンテンツ提供社から映像データと別途のデプスマップ情報とを受信した場合、映像受信部112を通じて映像データを除外して別に受信されたデプスマップ情報を受信し、映像コンテンツ提供社から別途のデプスマップ情報の提供を受けなくて映像データのみを受信した場合には、デプスマップ推定部114を通じて入力された映像データから推定されたデプスマップ情報を受信する。
空間ヒストグラム生成部122は、入力された映像データに対するデプスマップ情報を利用して空間ヒストグラム(Histogram)情報を生成する。空間ヒストグラム生成部122は、入力された映像データの各々のフレーム内にデプスマップ情報によって区分されるオブジェクト別にデプスマップ情報を水平(X)軸と垂直(Y)軸でヒストグラム化した空間ヒストグラム情報を生成する。空間ヒストグラム生成部122は、各々のオブジェクト別にデプスマップ情報をヒストグラム化した空間ヒストグラムテーブルを生成する。すなわち、本発明に記載された空間ヒストグラム情報とは、デプスマップ情報によって区分されるオブジェクトを水平(X)軸と垂直(Y)軸でヒストグラム化した情報を意味する。
2D映像受信部130は、映像受信部112またはデプスマップ推定部114から入力された映像データに対する2D映像データを受信する。すなわち、2D映像受信部130は、映像コンテンツ提供社から映像データと別途のデプスマップ情報を受信した場合、映像受信部112を通じてデプスマップ情報を除外した映像データである2D映像データを受信し、映像コンテンツ提供社から別途のデプスマップ情報の提供を受けなくて映像データのみを受信した場合には、デプスマップ推定部114を通じて映像データである2D映像データのみを受信する。
ピーク周波数生成部132は、入力された映像データに対する2D映像データを利用してピーク周波数を生成する。ピーク周波数生成部132は、入力された映像データの各々のフレームを既設定されたマクロブロック(Macro Block)単位でスキャン(Scan)して複数個の領域に区分し、区分された領域別に各々の領域に存在するピクセル値を利用してピーク周波数を算出する。ピーク周波数生成部132は、ピーク周波数を算出するために、FFT(Fast Fourier Transform)を利用して高周波成分と低周波成分に各フレームの周波数成分を区分し、高周波成分の係数に該当する割合をピーク周波数で決定する。ピーク周波数生成部132は、各々の領域別に算出したピーク周波数をピーク周波数テーブルで生成する。本発明に記載されたマクロブロックは、8×8、16×16、32×32、8×16、16×8、16×32、32×16などの多様なサイズで適用でき、該当フレーム内のオブジェクトによって多様なサイズで適用することができる。また、マクロブロックは、サブブロックを含む形態でフレームをスキャンすることができる。
オブジェクト分析部140は、空間ヒストグラム生成部122から受信された空間ヒストグラムとピーク周波数生成部132から受信されたピーク周波数とに基づいて入力された映像データの各々のフレームに対するエラーを判別する。オブジェクト分析部140は、オブジェクトに含まれた空間ヒストグラム情報が第1の臨界値(Threshold)を超過する場合、オブジェクトの該当領域をエラー予想領域410に分類する。また、オブジェクト分析部140は、オブジェクトに含まれた空間ヒストグラム情報の標準偏差値を脱した一部値が第1の臨界値を基準として第1の臨界値の垂直(Y)軸の+方向または−方向に超過する場合、一部値に該当する領域をエラー予想領域410に分類する。また、オブジェクト分析部140は、入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個に区分された領域の中でエラー予想領域410に該当する領域を選別し、選別された領域のピーク周波数が第2の臨界値を超過する場合、エラー予想領域410のデプスマップ情報にエラーあることで確定してエラー予想領域410をエラー確定領域で認識する。また、オブジェクト分析部140は、エラー予想領域410に該当するピーク周波数が第2の臨界値を+方向または−方向に超過し、第1の臨界値を超過した+または−方向結果と第2の臨界値を超過した+または−方向結果とが一致しない場合、エラー予想領域410のデプスマップ情報にエラーがあることで確定してエラー予想領域410をエラー確定領域で認識する。
デプスマップエラー修正部150は、フレームに対するエラーが判別されると、エラーが改善されるようにデプスマップ情報を修正する。また、デプスマップエラー修正部150は、エラー確定領域のデプスマップ情報に対するエラーを修正する。例えば、デプスマップエラー修正部150は、フレーム全体のデプスマップ情報に対するエラーが改善されるように具現することができ、オブジェクト分析部140を通じてエラー確定領域が認識される場合、エラー確定領域のデプスマップ情報を改善するように具現することができる。また、デプスマップエラー修正部150は、エラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値が、第1の臨界値を基準として第1の臨界値の垂直(Y)軸の+方向に超過した場合、第1の臨界値+方向に超過した一部値を空間ヒストグラムの標準偏差値で減少させる機能を実行する。また、デプスマップエラー修正部150は、エラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値が、第1の臨界値を基準として第1の臨界値の垂直(Y)軸の−方向に超過した場合、第1の臨界値を−方向に超過した一部値を空間ヒストグラムの標準偏差値で増加させる機能を実行する。
図1に示した立体映像エラー改善装置100に対する他の実施形態について説明すると、空間ヒストグラム生成部122は、デフォルト(Default)で一つのフレームに対して全体的な空間ヒストグラム情報を生成し、生成された空間ヒストグラムが特定面積以上の場合、空間ヒストグラムテーブルを形成する。この時、形成された各空間ヒストグラムテーブルの要素を一つのオブジェクトに分離することができる。この時、オブジェクト分析部140は、ピーク周波数生成部132を通じて分離された各々のオブジェクトに対する2D映像データの該当領域でピーク周波数分析を通じて該当オブジェクトのピーク周波数を求める。すなわち、オブジェクト分析部140は、空間ヒストグラム生成部122とピーク周波数生成部132を通じて各オブジェクトに対する空間ヒストグラム情報とピーク周波数を有するようになる。この時、オブジェクト分析部140が獲得した空間ヒストグラムテーブルとピーク周波数テーブルは、表1のようである。
また、オブジェクト分析部140は、空間ヒストグラム生成部122とピーク周波数生成部132を通じて獲得した空間ヒストグラムテーブルとピーク周波数テーブルの変数を利用して、各オブジェクトに対して表2の条件に満足するオブジェクトを区別することができ、これを「Cプログラム」で表現すれば、表2のようである。
すなわち、表2のように、+方向(近距離)に大きい空間ヒストグラム情報を有したオブジェクトが存在すると予想され、ピーク周波数成分値が小さければ、結果的に該当オブジェクトは近距離に存在しないオブジェクトである可能性が大きさのため、立体映像エラー改善装置100のデプスマップエラー修正部150は、該当デプスマップ情報にエラーがあると判断して該当領域のデプスマップ情報を減少させる。一方、−方向(遠距離)に大きい空間ヒストグラム情報を有するオブジェクトが存在すると予想され、ピーク周波数成分値が大きければ、結果的に該当オブジェクトは遠距離存在しないオブジェクトである可能性が大きいため、立体映像エラー改善装置100のデプスマップエラー修正部150は、該当デプスマップ情報にエラーがあると判断して該当領域のデプスマップ情報を増加させる。すなわち、このような変数によって該当オブジェクトのデプスマップ情報を制御する。勿論、上述のような例示がすべての条件を満足することはないが、発生されたエラーの中で約80%程度だけ改善したら平均的な映像で多くのエラー改善が行われる。
レンダリング処理部160は、修正されたデプスマップ情報を利用して立体映像である左側視野用イメージ及び右側視野用イメージを生成する。すなわち、レンダリング処理部160は、2D映像データに修正されたデプスマップ情報を適用して立体映像である左側視野用イメージ及び右側視野用イメージを生成する。
図2は、本発明の一実施形態による立体映像エラー改善方法を説明するためのフローチャートである。
立体映像エラー改善装置100は、映像コンテンツ提供社から映像データを受信する(ステップS210)。すなわち、立体映像エラー改善装置100の映像受信部112は、入力された映像データに対するデプスマップ情報が別に入力されるか否かを確認し、確認結果に基づいてデプスマップ情報が別に入力される場合、デプスマップ情報をデプスマップ受信部120に伝送する。一方、立体映像エラー改善装置100のデプスマップ推定部114は、入力された映像データに対するデプスマップ情報が別に入力されない場合、入力された映像データの各々のフレーム別にデプスマップ情報を堆定し、推定されたデプスマップ情報をデプスマップ受信部120に伝送する。ここで、デプスマップ推定部114は、各々のフレームを分析して画面の傾き、オブジェクトの影、画面焦点及びオブジェクトパターンの中で少なくとも一つ以上の情報を利用してデプスマップ情報を推定する。
立体映像エラー改善装置100のデプスマップ受信部120は、映像受信部112またはデプスマップ推定部114から入力された映像データに対するデプスマップ情報を受信する(ステップS212)。すなわち、立体映像エラー改善装置100のデプスマップ受信部120は、映像コンテンツ提供社から映像データと別途のデプスマップ情報を受信した場合、映像受信部112を通じて映像データを除外して別に受信されたデプスマップ情報を受信し、映像コンテンツ提供社から別途のデプスマップ情報の提供を受けないで映像データのみを受信した場合には、デプスマップ推定部114を通じて入力された映像データから推定されたデプスマップ情報を受信する。
立体映像エラー改善装置100の空間ヒストグラム生成部122は、入力された映像データに対するデプスマップ情報を利用して空間ヒストグラム情報を生成する(ステップS220)。立体映像エラー改善装置100の空間ヒストグラム生成部122は、入力された映像データの各々のフレーム内にデプスマップ情報によって区分されるオブジェクト別にデプスマップ情報を水平(X)軸と垂直(Y)軸にヒストグラム化した空間ヒストグラム情報を生成する。立体映像エラー改善装置100の空間ヒストグラム生成部122は、各々のオブジェクト別にデプスマップ情報をヒストグラム化した空間ヒストグラムテーブルを生成する(ステップS222)。
立体映像エラー改善装置100の2D映像受信部130は、映像受信部112またはデプスマップ推定部114から入力された映像データに対する2D映像データを受信する(ステップS230)。すなわち、立体映像エラー改善装置100の2D映像受信部130は、映像コンテンツ提供社から映像データと別途のデプスマップ情報を受信した場合、映像受信部112を通じてデプスマップ情報を除外した映像データである2D映像データを受信し、映像コンテンツ提供社から別途のデプスマップ情報の提供を受けないで映像データのみを受信した場合には、デプスマップ推定部114を通じて映像データである2D映像データのみを受信する。
立体映像エラー改善装置100のピーク周波数生成部132は、入力された映像データに対する2D映像データを利用してピーク周波数を生成する(ステップS232)。すなわち、立体映像エラー改善装置100のピーク周波数生成部132は、入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個の領域に区分し、区分された領域別に各々の領域に存在するピクセル値を利用してピーク周波数を算出する。ピーク周波数生成部132は、ピーク周波数を算出するためにFFTを利用して高周波成分と低周波成分に各フレームの周波数成分を区分し、高周波成分の係数に該当する割合をピーク周波数で決定する。ピーク周波数生成部132は、各々の領域別に算出したピーク周波数をピーク周波数テーブルで生成する(ステップS234)。
立体映像エラー改善装置100のオブジェクト分析部140は、入力された映像データに含まれたフレーム全体に対して空間ヒストグラム情報及びピーク周波数を生成したか否かを確認する(ステップS240)。ステップS240の確認結果、入力された映像データに含まれたフレーム全体に対して空間ヒストグラム情報及びピーク周波数を生成した場合、立体映像エラー改善装置100のオブジェクト分析部140はデプスマップ情報によって区分されるオブジェクトに含まれた空間ヒストグラム情報が第1の臨界値を超過するか否かを確認する(ステップS250)。一方、ステップS240の確認結果、入力された映像データに含まれたフレーム全体に対して空間ヒストグラム情報及びピーク周波数を生成しなかった場合、立体映像エラー改善装置100は、ステップS220乃至ステップS234を再実行する。
ステップS250の確認結果、デプスマップ情報によって区分されるオブジェクトに含まれた空間ヒストグラム情報が第1の臨界値を超過する場合、立体映像エラー改善装置100のオブジェクト分析部140は、オブジェクトの該当領域である第1の臨界値の超過領域をエラー予想領域410に分類する(ステップS252)。すなわち、立体映像エラー改善装置100のオブジェクト分析部140は、オブジェクトに含まれた空間ヒストグラム情報の標準偏差値を脱した一部値が第1の臨界値を基準として第1の臨界値の垂直(Y)軸の+方向または−方向に超過する場合、一部値に該当する領域をエラー予想領域410に分類する。
立体映像エラー改善装置100のオブジェクト分析部140は、入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個に区分された領域の中でエラー予想領域410に該当する領域を選別する(ステップS254)。立体映像エラー改善装置100のオブジェクト分析部140は、ステップS254を通じて選別された領域のピーク周波数が第2の臨界値を超過するか否かを確認する(ステップS256)。
ステップS256の確認結果、選別された領域のピーク周波数が第2の臨界値を超過する場合、立体映像エラー改善装置100のオブジェクト分析部140は、エラー予想領域410のデプスマップ情報にエラーがあることで確定してエラー予想領域410をエラー確定領域で認識する(ステップS258)。すなわち、立体映像エラー改善装置100のオブジェクト分析部140は、エラー予想領域410に該当するピーク周波数が第2の臨界値を+方向または−方向に超過し、第1の臨界値を超過した+または−方向結果と第2の臨界値を超過した+または−方向結果が一致しない場合、エラー予想領域410のデプスマップ情報にエラーがあることで確定してエラー予想領域410をエラー確定領域で認識する。
立体映像エラー改善装置100のデプスマップエラー修正部150は、エラー確定領域のデプスマップ情報に対するエラーを修正する(ステップS260)。すなわち、立体映像エラー改善装置100のデプスマップエラー修正部150は、エラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値が第1の臨界値を基準として第1の臨界値の垂直(Y)軸の+方向に超過した場合、第1の臨界値を+方向に超過した一部値を空間ヒストグラムの標準偏差値で減少させる。一方、立体映像エラー改善装置100のデプスマップエラー修正部150は、エラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値が第1の臨界値を基準として第1の臨界値の垂直(Y)軸の−方向に超過した場合、第1の臨界値を−方向に超過した一部値を空間ヒストグラムの標準偏差値で増加させる。
立体映像エラー改善装置100のデプスマップエラー修正部150は、全てのエラー確定領域のデプスマップ情報に対するエラーが修正されたか否かを確認する(ステップS270)。ステップS270の確認結果、立体映像エラー改善装置100のデプスマップエラー修正部150で全てのエラー確定領域のデプスマップ情報に対するエラーが修正された場合、立体映像エラー改善装置100のレンダリング処理部160は、修正されたデプスマップ情報を利用して立体映像である左側視野用イメージ及び右側視野用イメージを生成する(ステップS280)。すなわち、レンダリング処理部160は、2D映像データに修正されたデプスマップ情報を適用して立体映像である左側視野用イメージ及び右側視野用イメージを生成する。
図2では、ステップS210乃至ステップS280を順次に行うことで記載しているが、これは本発明の一実施形態の技術思想を例示的に説明したことに過ぎないで、本発明の一実施形態が属する技術分野において通常の知識を有した者であれば、本発明の一実施形態の本質的な特性から脱しない範囲で図2に記載された手順を変更するかステップS210乃至ステップS280のうち一つ以上のステップを並列的に行うことで多様に修正及び変形して適用することが可能であるため、図2は、時系列的な手順に限定されるものではない。
上述のように、図2に記載された本発明の一実施形態による立体映像エラー改善方法は、プログラムで具現してコンピュータで読める記録媒体に記録することができる。本発明の一実施形態による立体映像エラー改善方法を具現するためのプログラムが記録されコンピュータが読める記録媒体は、コンピュータシステムにより読み出されるデータが保存されるすべての種類の記録装置を含む。このようなコンピュータが読める記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、キャリアウエーブ(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、コンピュータが読める記録媒体は、ネットワークで連結されたコンピュータシステムに分散されて、分散方式でコンピュータが読めるコードが保存され実行されてもよい。また、本発明の一実施形態を具現するための機能的な(Functional)プログラム、コード及びコードセグメントは、本発明の一実施形態が属する技術分野のプログラマーにより容易に推論できる。
図3は、本発明の一実施形態による空間ヒストグラムに対する例示図である。
一般的な映像データを分析するときにはほとんど発生しないデプスマップ情報の特性があり、統計的にこのような特性は、映像分析によるエラー発生可能性が一番高い。デプスマップ情報は、一般的に自然状態では非常に小さい形態のオブジェクトが周辺領域と別に遠距離に位置するか近距離に位置する場合がほとんどない。また、デプスマップ情報は、空間周波数特性が低くて映像解像度の1/2程度の低い空間周波数特性があり、単一チャンネル、すなわち、黒白映像で距離の程度を表示する。これによって、映像コンテンツ提供社でデプスマップ情報を別に伝送する場合は、圧縮を考慮すれば、2D映像データの10%程度の情報量程度に該当する。上述のように、一般的なデプスマップの特徴を前提条件で考慮してエラーに該当する領域を探索することができる。
図3の(A)及び(B)に示したように、水平(X)軸は画面の2D空間を水平空間で切断した断面であり、垂直(Y)軸は値が大きいほど近距離に位置したオブジェクトに対するデプスマップ情報を示す。立体映像エラー改善装置100のオブジェクト分析部140は、空間ヒストグラム生成部122から受信された空間ヒストグラムとピーク周波数生成部132から受信されたピーク周波数に基づいて入力された映像データの各々のフレームに対するエラーを判別する。図3の(A)と(B)に示したように、立体映像エラー改善装置100のオブジェクト分析部140は、オブジェクトに含まれた空間ヒストグラム情報が第1の臨界値(中間点線)を超過する場合、オブジェクトの該当領域をエラー予想領域410に分類する。
より具体的に説明すれば、図3の(A)に示した左側グラフは、中央点線を第1の臨界値で仮定すれば、第1の臨界値を基準として+方向に第1の臨界値を超過する領域のデプスマップ情報値が広く広がっている。反対に、図3の(A)に示した右側グラフは、中央点線を第1の臨界値で仮定すれば、第1の臨界値を基準として−方向に第1の臨界値を超過する領域のデプスマップ情報値が広く広がっている。一方、図3の(B)に示した左側グラフは、中央点線を第1の臨界値で仮定すれば、第1の臨界値を基準として+方向に第1の臨界値を超過する領域のデプスマップ情報値が狭く集まっている。反対に、図3の(B)に示した右側グラフは、中央点線を第1の臨界値で仮定すれば、第1の臨界値を基準として−方向に第1の臨界値を超過する領域のデプスマップ情報値が狭く集まっている。
すなわち、図3の(A)に示したグラフの値をy1/x1で仮定し、図3の(B)に示したグラフの値をy2/x2で仮定すれば、図3の(B)に示したグラフの値であるy2/x2が図3の(A)に示したグラフの値であるy1/x1より非常に大きい値になる。それを空間的に表現すれば、第1の臨界値を基準として第1の臨界値を+方向または−方向に超過する領域を一つのオブジェクトに分離し、このように分離された領域に対して領域の面積(Xに該当)と該当面積でデプスマップ値の標準偏差値(Yに該当)を求めて各オブジェクト別に空間ヒストグラム情報テーブルを形成することができる。
図4は、本発明の一実施形態による入力される2D映像データに対する例示図である。図4に示したように、2D映像受信部130を通じて映像受信部112またはデプスマップ推定部114から入力された映像データに対する2D映像データを受信する。すなわち、2D映像受信部130は、映像コンテンツ提供社から映像データと別途のデプスマップ情報を受信した場合、映像受信部112を通じてデプスマップ情報を除外した映像データである2D映像データを受信し、映像コンテンツ提供社から別途のデプスマップ情報の提供を受けないで映像データのみを受信した場合には、デプスマップ推定部114を通じて映像データである2D映像データのみを受信する。一方、図4に示した2D映像データは、カラー(Color)映像データであることが好ましいが、必ずこれに限定されるものではない。
図5は、本発明の一実施形態による特定フレームの正常的なデプスマップ情報に対する例示図である。すなわち、図4に示した映像データにデプスマップ情報を適用した場合、図5のようになる。すなわち、立体映像エラー改善装置100の空間ヒストグラム生成部122は、入力された映像データの各々のフレーム内にデプスマップ情報によって区分されるオブジェクト別にデプスマップ情報を水平(X)軸と垂直(Y)軸でヒストグラム化した空間ヒストグラム情報を生成する。
図6は、本発明の一実施形態による特定フレームのエラー予想領域を示した例示図である。図6に示したように、立体映像エラー改善装置100のオブジェクト分析部140は、空間ヒストグラム生成部122から受信された空間ヒストグラムとピーク周波数生成部132から受信されたピーク周波数に基づいて入力された映像データの各々のフレームに対するエラーを判別する。オブジェクト分析部140は、オブジェクトに含まれた空間ヒストグラム情報が第1の臨界値を超過する場合、図6に示したように、オブジェクトの該当領域をエラー予想領域410に分類する。すなわち、図6に示したように、前方ペンギンの帽子わく部分(−方向)と後方ペンギンの顔部分(+方向)、または背景の一部分を人間の視覚で判断すれば、明白なエラーに該当する。このようなエラーは、空間ヒストグラム情報を分析することで抽出が可能である。それは、前方の柱やペンギンの体は相対的に広い空間にわたって近く存在するので空間ヒストグラム情報が小さくて、図6のエラー予想領域410のエラーは非常に大きい空間ヒストグラム情報を有するからである。
図7は、本発明の一実施形態による特定オブジェクトのエラー予想領域を示した例示図である。図6に示したように、エラー予想領域410が分類されると、オブジェクト分析部140は、オブジェクトに含まれた空間ヒストグラム情報の標準偏差値を脱した一部値が、第1の臨界値を基準として第1の臨界値の垂直(Y)軸の+方向または−方向に超過する場合、一部値に該当する領域をエラー予想領域410に分類する。また、オブジェクト分析部140は、入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個に区分された領域のうちエラー予想領域410に該当する領域を選別し、選別された領域のピーク周波数が第2の臨界値を超過する場合、エラー予想領域410のデプスマップ情報にエラーがあることで確定してエラー予想領域410をエラー確定領域で認識する。また、オブジェクト分析部140は、エラー予想領域410に該当するピーク周波数が、第2の臨界値を+方向または−方向に超過し、第1の臨界値を超過した+または−方向結果と第2の臨界値を超過した+または−方向結果が一致しない場合、エラー予想領域410のデプスマップ情報にエラーがあることで確定してエラー予想領域410をエラー確定領域で認識する。
図7に示したように、ペンギン顔部分のエラー予想領域410をエラー確定領域で認識すると、立体映像エラー改善装置100のデプスマップエラー修正部150は、エラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値が第1の臨界値を基準として第1の臨界値の垂直(Y)軸の+方向に超過した場合、第1の臨界値を+方向に超過した一部値を空間ヒストグラムの標準偏差値で減少させる機能を実行する。また、デプスマップエラー修正部150は、エラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値が第1の臨界値を基準として第1の臨界値の垂直(Y)軸の−方向に超過した場合、第1の臨界値を−方向に超過した一部値を空間ヒストグラムの標準偏差値で増加させる。
図8は、本発明の一実施形態によるFFT適用によるピーク周波数に対する例示図である。図8は、図7に示したペンギン顔部分のエラー予想領域410に対してピーク周波数を求める例示図である。立体映像エラー改善装置100のピーク周波数生成部132が入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個の領域に区分し、図8の(A)のように区分された領域別に各々の領域に存在するピクセル値を算出する。
立体映像エラー改善装置100のピーク周波数生成部132は、ピーク周波数を算出するために、図8の(A)にFFTを適用して図8の(B)のように高周波成分と低周波成分に各フレームの周波数成分を区分し、高周波成分の係数に該当する割合をピーク周波数で決定する。また、立体映像エラー改善装置100のピーク周波数生成部132は、各々の領域別に算出したピーク周波数をピーク周波数テーブルで生成することができる。ここで、マクロブロックは、8×8、16×16、32×32、8×16、16×8、16×32、32×16などの多様なサイズで適用することができ、該当フレーム内のオブジェクトによって多様なサイズで適用することができ、マクロブロックは、サブブロックを含む形態でフレームをスキャンすることができる。
図8の(B)に示したように、8×8のブロック内で左上側に該当する領域は、低周波成分の領域を意味し、右下側の領域に移動するほど高周波成分の領域に該当するので、図8の(B)のように選択された領域の比重の和をピーク周波数成分で定義することができる。ここで、ピーク周波数値が大きいということは、鮮やかな部分を意味することで、相対的に映像の特性上オブジェクトが近距離にあることを意味し、前の空間ヒストグラム情報で大きい値を有するオブジェクトが実際近距離にあるオブジェクトであるか否かを評価する基準になる。また、図7のように、エラー予想領域410は、任意の形態であるから、入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個の領域に区分し、区分された領域に対するピーク周波数値を求めた後に各領域の平均ピーク周波数値の平均を該当オブジェクトの代表値で選定する。
一方、図8の(A)にFFTを適用するため、数学式1及び数学式2を利用することができる。

ここで、数学式1及び数学式2は、時間関数f(n)と周波数関数F(x)の変換関係を示しており、数学式1及び数学式2は、1次元であるが、映像のような2次元の場合は、空間上の映像とその映像の空間周波数成分との間の変換関係を表現することができる。一方、数学式1と数学式2は、FFTの一般的な例を示した式として、高周波成分を算出するため、数学式1と数学式2に含まれた定数に必要な値を適用することができる。例えば、f(n)を空間上のピクセル座標係f(m、n)で表示し、ピクセルの位置を(m、n)とすれば、F(x、y)は空間上の周波数成分になる。
以上、本発明の一実施形態を構成するすべての構成要素が一つに結合されるか結合され動作することで説明したが、本発明は、必ずこのような実施形態に限定されるものではない。すなわち、本発明の目的範囲内であれば、そのすべての構成要素は一つ以上で選択的に結合して動作してもよい。また、そのすべての構成要素を各々一つの独立的なハードウェアで具現することができるが、各構成要素のその一部または全部を選択的に組み合わせて一つまたは複数個のハードウェアで組み合わされた一部または全部の機能を実行するプログラムモジュールを有するコンピュータプログラムとして具現してもよい。そのコンピュータプログラムを構成するコード及びコードセグメントは、本発明の技術分野の当業者により容易に推論される。このようなコンピュータプログラムは、コンピュータが読める保存媒体(Computer Readable Media)に保存されてコンピュータにより読み出されて実行されることで、本発明の実施形態を具現することができる。コンピュータプログラムの保存媒体としては、磁気記録媒体、光記録媒体、キャリアウエーブ媒体などが含まれる。
また、以上で記載した『含む』、『構成する』または『有する』などの用語は、特別に反対される記載がない限り、該当構成要素を内在可能なことを意味するもので、他の構成要素を除外するのもではなく、他の構成要素をさらに含むことができると解釈される。技術的や科学的な用語を含んだ全ての用語は、特定しない限り、本発明が属する技術分野で通常の知識を有した者が一般的に理解できるものと同等の意味を有する。一般的に使用される辞典に定義されている用語は、関連技術の文脈上の意味と一致する意味を有するものと解釈し、本出願において明白に定義しない限り、理想的や過度に形式的な意味に解釈されない。
以上の説明は、本発明の技術思想を例示的に説明したことに過ぎず、本発明が属する技術の分野における通常の知識を有する者であれば、本発明の技術的思想を逸脱しない範囲内で、様々な置換、変形及び変更が可能であるので、上述した実施例及び添付された図面に限定されるものではない。本発明の保護範囲は、下記請求範囲により解釈され、それと同等な範囲内にある全ての技術思想は、本発明の権利範囲に含まれることで解釈される。
以上のように、本発明は、立体映像コンテンツを出力する過程でデプスマップ情報のエラーにより立体感の低下が発生しないようにする多様な分野に適用され、デプスマップ情報のエラーを判別してデプスマップ情報のエラーを改善することができる効果を発生する有用な発明である。
クロスレファレンス
本特許出願は、2010年06月08日付で大韓民国に出願した特許出願番号第10−2010−0053971号に対してアメリカ特許法第119(a)条(35 U.S.C§119(a)によって優先権を主張し、その全ての内容は参考文献として本特許出願に併合される。さらに、本特許出願は、アメリカ以外の国家に対しても上記と同一な理由で優先権を出張し、その全ての参考文献として本特許文献に併合される。
100 立体映像改善装置
112 映像受信部
120 デプスマップ推定部
122 空間ヒストグラム生成部
130 2D映像受信部
132 ピーク周波数生成部
140 オブジェクト分析部
150 デプスマップエラー修正部
160 レンダリング処理部

Claims (24)

  1. 入力された映像データに対するデプスマップ情報(Depth Map)を利用して空間ヒストグラム(Histogram)情報を生成する空間ヒストグラム生成部と、
    前記入力された映像データに対する2D映像データを利用してピーク(Peak)周波数を生成するピーク周波数生成部と、
    前記空間ヒストグラムと前記ピーク周波数に基づいて前記入力された映像データの各々のフレーム(Frame)に対するエラーを判別するオブジェクト(Object)分析部と、
    前記フレームに対する前記エラーが判別されると、前記エラーが改善されるように前記デプスマップ情報を修正するデプスマップエラー修正部と、
    前記修正されたデプスマップ情報を利用して立体映像を構成するために左側視野用イメージ及び右側視野用イメージを生成するレンダリング(Rendering)処理部と、を含むこと
    を特徴とする立体映像エラー改善装置。
  2. 前記空間ヒストグラム生成部は、前記入力された映像データの各々のフレーム内に前記デプスマップ情報によって区分されるオブジェクト別にデプスマップ情報を水平(X)軸と垂直(Y)軸でヒストグラム化した前記空間ヒストグラム情報を生成すること
    を特徴とする請求項1に記載の立体映像エラー改善装置。
  3. 前記空間ヒストグラム生成部は、前記各々のオブジェクト別にデプスマップ情報をヒストグラム化した空間ヒストグラムテーブルを生成すること
    を特徴とする請求項2に記載の立体映像エラー改善装置。
  4. 前記ピーク周波数生成部は、前記入力された映像データの各々のフレームを既設定されたマクロブロック(Macro Block)単位でスキャン(Scan)して複数個の領域に区分し、前記区分された領域別に各々の領域に存在するピクセル値を利用して前記ピーク周波数を算出すること
    を特徴とする請求項1に記載の立体映像エラー改善装置。
  5. 前記ピーク周波数生成部は、前記ピーク周波数を算出するためにFFT(Fast Fourier Transform)を利用して高周波成分と低周波成分に各フレームの周波数成分を区分し、前記高周波成分の係数に該当する割合を前記ピーク周波数で決定すること
    を特徴とする請求項4に記載の立体映像エラー改善装置。
  6. 前記ピーク周波数生成部は、前記各々の領域別に算出した前記ピーク周波数をピーク周波数テーブルで生成すること
    を特徴とする請求項5に記載の立体映像エラー改善装置。
  7. 前記オブジェクト分析部は、前記オブジェクトに含まれた空間ヒストグラム情報が第1の臨界値を超過する場合、前記オブジェクトの該当領域をエラー予想領域に分類すること
    を特徴とする請求項2に記載の立体映像エラー改善装置。
  8. 前記オブジェクト分析部は、前記オブジェクトに含まれた空間ヒストグラム情報の標準偏差値を脱した一部値が前記第1の臨界値を基準として前記第1の臨界値の垂直(Y)軸の+方向または−方向に超過する場合、前記一部値に該当する領域を前記エラー予想領域に分類すること
    を特徴とする請求項7に記載の立体映像エラー改善装置。
  9. 前記オブジェクト分析部は、前記入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個に区分された領域の中で前記エラー予想領域に該当する領域を選別し、前記選別された領域の前記ピーク周波数が第2の臨界値を超過する場合、前記エラー予想領域のデプスプマップ情報にエラーがあることで確定して前記エラー予想領域をエラー確定領域で認識すること
    を特徴とする請求項7に記載の立体映像エラー改善装置。
  10. 前記オブジェクト分析部は、前記エラー予想領域に該当する前記ピーク周波数が前記第2の臨界値を+方向または−方向に超過し、前記第1の臨界値を超過した+または−方向結果と前記第2の臨界値を超過した+または−方向結果が一致しない場合、前記エラー予想領域のデプスマップ情報に前記エラーがあることで確定して前記エラー予想領域を前記エラー確定領域で認識すること
    を特徴とする請求項9に記載の立体映像エラー改善装置。
  11. 前記デプスマップエラー修正部は、前記エラー確定領域のデプスマップ情報に対するエラーを修正すること
    を特徴とする請求項9に記載の立体映像エラー改善装置。
  12. 前記デプスマップエラー修正部は、前記エラー確定領域に対する前記空間ヒストグラム情報の標準偏差値を脱した一部値が前記第1の臨界値を基準として前記第1の臨界値の垂直(Y)軸の+方向に超過した場合、前記第1の臨界値を+方向に超過した一部値を前記空間ヒストグラムの標準偏差値で減少させること
    を特徴とする請求項9に記載の立体映像エラー改善装置。
  13. 前記デプスマップエラー修正部は、前記エラー確定領域に対する前記空間ヒストグラム情報の標準偏差値を脱した一部値が前記第1の臨界値を基準として前記第1の臨界値の垂直(Y)軸の−方向に超過した場合、前記第1の臨界値を−方向に超過した一部値を前記空間ヒストグラムの標準偏差値で増加させること
    を特徴とする請求項9に記載の立体映像エラー改善装置。
  14. 前記入力された映像データに対する前記デプスマップ情報を受信するデプスマップ受信部と、
    前記入力された映像データに対する前記2D映像データを受信する2D映像受信部と、をさらに含むこと
    を特徴とする請求項1に記載の立体映像エラー改善装置。
  15. 前記入力された映像データに対する前記デプスマップ情報が別に入力されるか否かを確認し、確認結果に基づいて前記デプスマップ情報が別に入力される場合、前記デプスマップ情報を前記デプスマップ受信部に伝送する映像受信部と、
    前記確認結果に基づいて前記デプスマップ情報が別に入力されない場合、前記入力された映像データの各々のフレーム別に前記デプスマップ情報を推定し、前記推定されたデプスマップ情報を前記デプスマップ受信部に伝送するデプスマップ推定部と、をさらに含むこと
    を特徴とする請求項14に記載の立体映像エラー改善装置。
  16. 前記デプスマップ推定部は、前記各々のフレームを分析して画面の傾き、オブジェクトの影、画面焦点及びオブジェクトパターンの中で少なくとも一つ以上の情報を利用して前記デプスマップ情報を推定すること
    を特徴とする請求項15に記載の立体映像エラー改善装置。
  17. 入力された映像データに対するデプスマップ情報を利用して空間ヒストグラム情報を生成する空間ヒストグラム生成ステップと、
    前記入力された映像データに対する2D映像データを利用してピーク周波数を生成するピーク周波数生成ステップと、
    前記空間ヒストグラムと前記ピーク周波数に基づいて前記入力された映像データの各々のフレームに対するエラーを判別するオブジェクト分析ステップと、
    前記フレームに対する前記エラーが判別されると、前記エラーが改善されるように前記デプスマップ情報を修正するデプスマップエラー修正ステップと、
    前記修正されたデプスマップ情報を利用して立体映像を構成するために左側視野用イメージ及び右側視野用イメージを生成するレンダリング処理ステップと、を含むこと
    を特徴とする立体映像エラー改善方法。
  18. 前記空間ヒストグラム生成ステップは、前記入力された映像データの各々のフレーム内に前記デプスマップ情報によって区分されるオブジェクト別にデプスマップ情報を水平(X)軸と垂直(Y)軸でヒストグラム化した前記空間ヒストグラム情報を生成するステップを含むこと
    を特徴とする請求項17に記載の立体映像エラー改善方法。
  19. 前記ピーク周波数生成ステップは、前記入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個の領域に区分するステップと、
    前記区分された領域別に各々の領域に存在するピクセルの周波数成分をFFT(Fast Fourier Transform)して高周波成分と低周波成分に区分するステップと、
    前記高周波成分の係数に該当する割合を前記ピーク周波数で決定するステップと、を含むこと
    を特徴とする請求項17に記載の立体映像エラー改善方法。
  20. 前記オブジェクト分析ステップは、前記オブジェクトに含まれた空間ヒストグラム情報が第1の臨界値を超過する場合、前記オブジェクトの該当領域をエラー予想領域に分類するステップと、
    前記入力された映像データの各々のフレームを既設定されたマクロブロック単位でスキャンして複数個に区分された領域の中で前記エラー予想領域に該当する領域を選別するステップと、
    前記選別された領域の前記ピーク周波数が第2の臨界値を超過する場合、前記エラー予想領域のデプスマップ情報にエラーがあることで確定して前記エラー予想領域エラーがあることで判別するステップと、を含むこと
    を特徴とする請求項17に記載の立体映像エラー改善方法。
  21. 入力された2D映像データにデプスマップ情報を適用して立体映像を提供する過程で前記デプスマップ情報に対するエラーを判別する方法であって、
    前記2D映像データの各々のフレーム内に前記デプスマップ情報によって区分されるオブジェクト別に生成された空間ヒストグラム情報の標準偏差値を脱した一部値を確認するステップと、
    前記一部値が第1の臨界値を基準として前記第1の臨界値の垂直(Y)軸の+方向または−方向に超過する場合、前記一部値に該当する領域をエラー予想領域に分類するエラー予想領域分類ステップと、
    前記エラー予想領域に対するピーク周波数が第2の臨界値を+方向または−方向に超過する場合、前記第1の臨界値を超過した方向結果と前記第2の臨界値を超過した方向結果とが一致するか否かを確認する方向結果一致可否確認ステップと、
    前記方向結果一致可否確認ステップの確認結果、方向結果が一致しない場合、前記エラー予想領域の前記デプスマップ情報に前記エラーがあることで判別するエラー判別ステップと、を含むこと
    を特徴とする立体映像エラー改善方法。
  22. 入力された2D映像データにデプスマップ情報を適用して立体映像を提供する過程でエラーが判別された前記デプスマップ情報を改善する方法であって、
    前記デプスマップ情報に前記エラーがあることで判別されたエラー確定領域に対する空間ヒストグラム情報の標準偏差値を脱した一部値を確認するステップと、
    前記一部値が第1の臨界値を基準として前記第1の臨界値の垂直(Y)軸の+方向と−方向の中でどの方向に超過したかを確認する方向確認ステップと、
    前記方向確認ステップの確認結果、前記一部値が前記第1の臨界値を超過した方向に基づいて前記一部値を前記空間ヒストグラムの標準偏差値で増加または減少させるエラー改善ステップと、を含むこと
    を特徴とする立体映像エラー改善方法。
  23. 前記エラー改善ステップは、前記方向確認ステップの確認結果に基づいて、前記一部値が前記第1の臨界値を+方向に超過した場合、前記一部値を前記空間ヒストグラムの標準偏差値で減少させて、前記一部値が前記第1の臨界値の垂直(Y)軸の−方向に超過した場合、前記一部値を前記空間ヒストグラムの標準偏差値で増加させるステップを含むこと
    を特徴とする請求項22に記載の立体映像エラー改善方法。
  24. 入力された2D映像データにデプスマップ情報を適用して立体映像を提供する過程で前記デプスマップ情報に対するエラーを判別し改善する方法であって、
    前記2D映像データの各々のフレーム内に前記デプスマップ情報によって区分されるオブジェクト別に生成された空間ヒストグラム情報の標準偏差値を脱した一部値を確認するステップと、
    前記一部値が第1の臨界値を超過する場合、前記一部値に該当する領域をエラー予想領域に分類するエラー予想領域分類ステップと、
    前記エラー予想領域に対するピーク周波数が第2の臨界値を超過する場合、前記第1の臨界値と前記第2の臨界値を+方向または−方向に超過した方向結果が一致するか否かを確認する方向結果確認ステップと、
    前記方向結果確認ステップの確認結果、方向結果が一致しない場合、前記エラー予想領域の前記デプスマップ情報に前記エラーがあることで判別するエラー判別ステップと、
    前記一部値が前記第1の臨界値を超過した方向結果に基づいて前記一部値を前記空間ヒストグラムの標準偏差値で増加または減少させるエラー改善ステップと、を含むこと
    を特徴とする立体映像エラー改善方法。
JP2013501200A 2010-06-08 2011-04-08 立体映像エラー改善方法及び装置 Active JP5750505B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020100053971A KR101291071B1 (ko) 2010-06-08 2010-06-08 입체 영상 오류 개선 방법 및 장치
KR10-2010-0053971 2010-06-08
PCT/KR2011/002473 WO2011155698A2 (ko) 2010-06-08 2011-04-08 입체 영상 오류 개선 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014004400A Division JP6027034B2 (ja) 2010-06-08 2014-01-14 立体映像エラー改善方法及び装置

Publications (3)

Publication Number Publication Date
JP2013527646A true JP2013527646A (ja) 2013-06-27
JP2013527646A5 JP2013527646A5 (ja) 2014-04-03
JP5750505B2 JP5750505B2 (ja) 2015-07-22

Family

ID=45098485

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013501200A Active JP5750505B2 (ja) 2010-06-08 2011-04-08 立体映像エラー改善方法及び装置
JP2014004400A Active JP6027034B2 (ja) 2010-06-08 2014-01-14 立体映像エラー改善方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2014004400A Active JP6027034B2 (ja) 2010-06-08 2014-01-14 立体映像エラー改善方法及び装置

Country Status (6)

Country Link
US (1) US8503765B2 (ja)
EP (1) EP2560398B1 (ja)
JP (2) JP5750505B2 (ja)
KR (1) KR101291071B1 (ja)
CN (1) CN103119947B (ja)
WO (1) WO2011155698A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103792950A (zh) * 2014-01-06 2014-05-14 中国航空无线电电子研究所 一种基于压电陶瓷的立体拍摄光学误差纠偏装置及纠偏方法
JP2018500778A (ja) * 2014-09-26 2018-01-11 サムスン エレクトロニクス カンパニー リミテッド 3dパノラマイメージ生成のための映像生成装置及び方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102835118A (zh) * 2010-04-06 2012-12-19 富士胶片株式会社 图像生成装置、方法及打印机
KR101803571B1 (ko) * 2011-06-17 2017-11-30 엘지디스플레이 주식회사 입체영상표시장치와 이의 구동방법
WO2013085513A1 (en) * 2011-12-07 2013-06-13 Intel Corporation Graphics rendering technique for autostereoscopic three dimensional display
KR101393621B1 (ko) * 2012-01-10 2014-05-12 에스케이플래닛 주식회사 3차원 입체영상의 품질 분석 장치 및 방법
ITTO20120208A1 (it) * 2012-03-09 2013-09-10 Sisvel Technology Srl Metodo di generazione, trasporto e ricostruzione di un flusso video stereoscopico
KR101913321B1 (ko) 2012-05-10 2018-10-30 삼성전자주식회사 깊이 센서 기반 반사 객체의 형상 취득 방법 및 장치
TWI630815B (zh) * 2012-06-14 2018-07-21 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9894269B2 (en) * 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
KR101970563B1 (ko) * 2012-11-23 2019-08-14 엘지디스플레이 주식회사 3차원 입체 영상용 깊이지도 보정장치 및 보정방법
TWI502545B (zh) * 2013-06-25 2015-10-01 儲存3d影像內容的方法
KR102106135B1 (ko) * 2013-10-01 2020-05-04 한국전자통신연구원 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
KR102224716B1 (ko) 2014-05-13 2021-03-08 삼성전자주식회사 스테레오 소스 영상 보정 방법 및 장치
JP5874077B1 (ja) * 2015-03-02 2016-03-01 ブレステクノロジー株式会社 フィルタ装置、酸素濃縮装置
PL411602A1 (pl) * 2015-03-17 2016-09-26 Politechnika Poznańska System do estymacji ruchu na obrazie wideo i sposób estymacji ruchu na obrazie wideo
KR20160114983A (ko) * 2015-03-25 2016-10-06 한국전자통신연구원 영상 변환 장치 및 방법
US10346950B2 (en) 2016-10-05 2019-07-09 Hidden Path Entertainment, Inc. System and method of capturing and rendering a stereoscopic panorama using a depth buffer
CN108072663B (zh) * 2017-08-03 2020-09-08 安徽省徽腾智能交通科技有限公司泗县分公司 工件缺陷在线分析装置
CN107492107B (zh) * 2017-08-10 2020-09-22 昆山伟宇慧创智能科技有限公司 基于平面与空间信息融合的物体识别与重建方法
US10735707B2 (en) * 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
US10679368B2 (en) * 2017-12-21 2020-06-09 Intel IP Corporation Methods and apparatus to reduce depth map size in collision avoidance systems
KR20210096306A (ko) 2018-12-26 2021-08-04 스냅 인코포레이티드 컴퓨팅 디바이스들 상에서 3-차원 월페이퍼의 생성 및 사용자 상호작용들
US11276166B2 (en) * 2019-12-30 2022-03-15 GE Precision Healthcare LLC Systems and methods for patient structure estimation during medical imaging

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238230A (ja) * 2000-02-22 2001-08-31 Nippon Hoso Kyokai <Nhk> 多眼式立体テレビシステムにおける3次元構造情報を抽出する装置
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム
JP2010506287A (ja) * 2006-10-04 2010-02-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像強調

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2802034B2 (ja) * 1994-02-23 1998-09-21 松下電工株式会社 三次元物体の計測方法
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3454684B2 (ja) * 1997-09-22 2003-10-06 三洋電機株式会社 2次元映像を3次元映像に変換する装置
US6765618B1 (en) * 1998-10-19 2004-07-20 Pentax Corporation Subject selection device and in-focus portion indicating device
JP2003061116A (ja) * 2001-08-09 2003-02-28 Olympus Optical Co Ltd 立体映像表示装置
JP5462629B2 (ja) * 2006-10-30 2014-04-02 コーニンクレッカ フィリップス エヌ ヴェ ビデオ深度マップ調整
KR20080076628A (ko) * 2007-02-16 2008-08-20 삼성전자주식회사 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법
KR100888459B1 (ko) * 2007-03-14 2009-03-19 전자부품연구원 피사체의 깊이 정보 검출 방법 및 시스템
JP5138031B2 (ja) 2007-05-11 2013-02-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 深度関連情報を処理する方法、装置及びシステム
EP2353298B1 (en) * 2008-11-07 2019-04-03 Telecom Italia S.p.A. Method and system for producing multi-view 3d visual contents
KR101802342B1 (ko) 2008-11-13 2017-11-28 삼성에스디아이 주식회사 유기전해액 및 이를 채용한 리튬전지
KR101580275B1 (ko) * 2008-11-25 2015-12-24 삼성전자주식회사 멀티 레이어 디스플레이에 3차원 영상을 표현하기 위한 영상 처리 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238230A (ja) * 2000-02-22 2001-08-31 Nippon Hoso Kyokai <Nhk> 多眼式立体テレビシステムにおける3次元構造情報を抽出する装置
JP2010506287A (ja) * 2006-10-04 2010-02-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像強調
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103792950A (zh) * 2014-01-06 2014-05-14 中国航空无线电电子研究所 一种基于压电陶瓷的立体拍摄光学误差纠偏装置及纠偏方法
JP2018500778A (ja) * 2014-09-26 2018-01-11 サムスン エレクトロニクス カンパニー リミテッド 3dパノラマイメージ生成のための映像生成装置及び方法
US10559063B2 (en) 2014-09-26 2020-02-11 Samsung Electronics Co., Ltd. Image generating apparatus and method for generation of 3D panorama image

Also Published As

Publication number Publication date
US20130009955A1 (en) 2013-01-10
CN103119947B (zh) 2014-12-31
EP2560398A2 (en) 2013-02-20
CN103119947A (zh) 2013-05-22
EP2560398B1 (en) 2019-08-14
KR101291071B1 (ko) 2013-08-01
WO2011155698A3 (ko) 2012-02-02
JP2014103689A (ja) 2014-06-05
WO2011155698A2 (ko) 2011-12-15
JP5750505B2 (ja) 2015-07-22
KR20110134147A (ko) 2011-12-14
JP6027034B2 (ja) 2016-11-16
EP2560398A4 (en) 2014-01-01
US8503765B2 (en) 2013-08-06

Similar Documents

Publication Publication Date Title
JP6027034B2 (ja) 立体映像エラー改善方法及び装置
JP2013527646A5 (ja)
KR101185870B1 (ko) 3d 입체 영상 처리 장치 및 방법
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
EP3395064B1 (en) Processing a depth map for an image
US8488869B2 (en) Image processing method and apparatus
US9986258B2 (en) Efficient encoding of multiple views
RU2423018C2 (ru) Способ и система для преобразования стереоконтента
EP2618584A1 (en) Stereoscopic video creation device and stereoscopic video creation method
WO2011163603A1 (en) Multi-resolution, multi-window disparity estimation in 3d video processing
US8982187B2 (en) System and method of rendering stereoscopic images
KR20120049997A (ko) 영상 변환 장치 및 이를 이용하는 디스플레이 장치와 그 방법들
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
US20130050413A1 (en) Video signal processing apparatus, video signal processing method, and computer program
JP2015095779A (ja) 画像処理装置、画像処理方法及び電子機器
US9210396B2 (en) Stereoscopic image generation apparatus and stereoscopic image generation method
US20120170841A1 (en) Image processing apparatus and method
JP5627498B2 (ja) 立体画像生成装置及び方法
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
EP2745520B1 (en) Auxiliary information map upsampling
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
JP6131256B6 (ja) 映像処理装置及びその映像処理方法
JP6131256B2 (ja) 映像処理装置及びその映像処理方法
Zhang et al. A 3D subjective quality prediction model based on depth distortion

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130612

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140114

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20140114

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140213

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150518

R150 Certificate of patent or registration of utility model

Ref document number: 5750505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250