JP2010158009A - 映像処理方法及びその装置 - Google Patents

映像処理方法及びその装置 Download PDF

Info

Publication number
JP2010158009A
JP2010158009A JP2009289749A JP2009289749A JP2010158009A JP 2010158009 A JP2010158009 A JP 2010158009A JP 2009289749 A JP2009289749 A JP 2009289749A JP 2009289749 A JP2009289749 A JP 2009289749A JP 2010158009 A JP2010158009 A JP 2010158009A
Authority
JP
Japan
Prior art keywords
background
depth
information
depth map
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009289749A
Other languages
English (en)
Other versions
JP5543191B2 (ja
Inventor
Kil-Soo Jung
吉 洙 鄭
Dae-Jong Lee
大 鍾 李
Genken Tei
鉉 權 鄭
Hye-Young Jun
惠 暎 全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010158009A publication Critical patent/JP2010158009A/ja
Application granted granted Critical
Publication of JP5543191B2 publication Critical patent/JP5543191B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 映像処理方法及びその装置を提供する。
【解決手段】 二次元映像を所定単位に区分するためのショット情報をメタデータから抽出し、ショット情報に含まれたショットタイプ情報を利用し、所定ショットに含まれたフレームが三次元映像として再生されうると判断されれば、メタデータから所定ショットに含まれたフレームの背景についての背景用デプス情報を抽出し、背景用デプス情報を利用し、フレームの背景に係わるデプスマップを生成し、所定ショットに含まれたフレームにオブジェクトが含まれている場合、メタデータからオブジェクトについてのオブジェクト用デプス情報を抽出し、オブジェクト用デプス情報を利用し、オブジェクトに係わるデプスマップを生成する映像処理方法である。
【選択図】 図1

Description

本発明は、映像処理方法及びその装置に係り、さらに具体的には、メタデータから抽出されたデプス(depth)情報を利用し、フレームに係わるデプスマップを生成する映像処理方法及びその装置に関する。
デジタル技術の発達によって、三次元映像技術が広く普及している。三次元映像技術は、二次元映像に、深み(depth:奥行き)についての情報を付与し、さらに写実的な映像を表現する技術である。
肉眼は、横方向に所定距離ほど離れているので、左目と右目とが見る二次元映像が互いに異なるが、これを両眼視差という。脳は、互いに異なる2つの二次元映像を融合し、遠近感と実在感とがある三次元映像を生成する。両眼視差を利用して三次元映像を生成する技術は、特許文献1に開示されている。
三次元映像技術は、初めからビデオデータを三次元で映像として生成する技術と、二次元映像として生成されたビデオデータを三次元映像に変換する技術とがあり、2つの技術に係わる研究が共になされている。
米国特許第7,538,768号明細書
本発明は、背景用デプス情報を利用し、オブジェクトに係わるデプスマップを生成する映像処理方法及びその装置を提供するためのものである。
本発明の一側面によれば、二次元映像を所定単位に区分するためのショット情報をメタデータから抽出する段階、前記ショット情報に含まれたショットタイプ情報を利用し、所定ショットに含まれたフレームが三次元映像として再生されうると判断されれば、前記メタデータから、前記所定ショットに含まれたフレームの背景についての背景用デプス情報を抽出する段階、前記背景用デプス情報を利用し、前記フレームの背景に係わるデプスマップを生成する段階、前記所定ショットに含まれたフレームにオブジェクトが含まれている場合、前記メタデータから、前記オブジェクトについてのオブジェクト用デプス情報を抽出する段階、及び前記オブジェクト用デプス情報を利用し、前記オブジェクトに係わるデプスマップを生成する段階を含む映像処理方法を提供できる。
望ましい実施形態によれば、前記ショット情報を利用し、前記所定ショットに含まれたフレームが出力されねばならない時刻を求める段階をさらに含むことができる。また、前記背景に係わるデプスマップを生成する段階は、前記背景用デプス情報から背景の基本構造を示す背景タイプ情報、前記背景に含まれた曲面にデプス値を適用するための曲面情報、前記背景の座標点及び前記背景の座標点での前記背景のデプス値、画面のデプス値を示すパネルポジション値を抽出し、前記背景に係わるデプスマップを生成する段階を含むことができる。
また、前記背景に係わるデプスマップを生成する段階は、前記背景タイプ情報による前記背景の基本構造のデプス値と、前記曲面情報による前記曲面のデプス値とを利用し、前記背景に係わるデプスマップを生成する段階を含むことができる。
また、前記フレームに含まれた背景が同じデプス値を有する場合、前記背景に係わるデプスマップをフィルタリングする段階をさらに含み、前記背景に係わるデプスマップをフィルタリングする段階は、前記背景に係わるデプスマップが円球の中心を通過する平面になるように、前記背景に係わるデプスマップに半球フィルタを適用したり、前記背景に係わるデプスマップが円柱を縦に半分に分ける平面になるように、前記背景に係わるデプスマップに半円柱フィルタを適用したり、前記背景に係わるデプスマップが三角柱の四角形横面になるように、前記背景に係わるデプスマップに三角柱フィルタを適用し、前記背景に係わるデプスマップを変形する段階を含むことができる。また、前記オブジェクト用デプス情報には、前記オブジェクトの類型が、二次元オブジェクト、ノーマルオブジェクト、ハイライトオブジェクトのうち、何かを示すオブジェクトタイプ情報が含まれうる。
また、前記オブジェクト用デプス情報は、同じフレームに含まれるオブジェクトが複数である場合、前記複数のオブジェクトのデプスマップ生成順序を示す優先順位情報を含み、前記オブジェクトに係わるデプスマップを生成する段階は、前記オブジェクトのデプスマップ生成順序によって、前記複数のオブジェクトに係わるデプスマップを順序通りに生成する段階を含むことができる。また、前記オブジェクトに係わるデプスマップを生成する段階は、前記オブジェクト用デプス情報から、前記オブジェクトが含まれたフレームが出力されねばならない時刻を求める段階を含むことができる。
また、前記オブジェクト用デプス情報から、前記オブジェクトの領域を識別するための領域識別情報を抽出する段階をさらに含み、前記領域識別情報は、前記オブジェクトの領域を座標点で表示した情報であるか、または前記オブジェクトの形状が表示されたマスクについての情報でありうる。また、前記オブジェクトが二次元オブジェクトである場合、前記オブジェクトに係わるデプスマップを生成する段階は、前記背景用デプス情報に含まれたパネルポジション値を、前記識別されたオブジェクト領域のデプス値とし、前記二次元オブジェクトに係わるデプスマップを生成する段階を含むことができる。
また、前記オブジェクトがノーマルオブジェクトであり、前記領域識別情報が前記オブジェクトの形状が表示されたマスクについての情報である場合、前記オブジェクト用デプス情報は、前記背景用デプス情報に含まれた背景の座標点のうち、前記ノーマルオブジェクトの領域を示す座標点と同じ座標点についての情報をさらに含み、前記オブジェクトに係わるデプスマップを生成する段階は、前記同じ座標点に係わる背景のデプス値を、前記識別されたノーマルオブジェクト領域のデプス値とし、前記ノーマルオブジェクトに係わるデプスマップを生成する段階を含むことができる。
また、前記オブジェクトがノーマルオブジェクトである場合、前記オブジェクトに係わるデプスマップを生成する段階は、前記背景用デプス情報に含まれた背景の座標点のうち、前記ノーマルオブジェクトの領域を示す座標点と同じ座標点を求める段階、及び前記求めた座標点に係わる背景のデプス値を、前記識別されたノーマルオブジェクト領域のデプス値とし、前記ノーマルオブジェクトに係わるデプスマップを生成する段階を含むことができる。また、前記オブジェクトがハイライトオブジェクトである場合、前記オブジェクトに係わるデプスマップを生成する段階は、前記背景用デプス情報に含まれたパネルポジション値と、前記オブジェクト用デプス情報に含まれたオフセット値とを利用して求めた値を、前記識別されたハイライトオブジェクト領域のデプス値とし、前記ハイライトオブジェクトに係わるデプスマップを生成する段階を含むことができる。
また、前記オブジェクトに係わるデプスマップをフィルタリングする段階をさらに含み、前記フィルタリングする段階は、前記オブジェクトに係わるデプスマップが円球の中心を通過する平面になるように、前記オブジェクトに係わるデプスマップに半球フィルタを適用したり、前記オブジェクトに係わるデプスマップが円柱を縦に半分に分ける平面になるように、前記オブジェクトに係わるデプスマップに半円柱フィルタを適用したり、前記オブジェクトに係わるデプスマップが三角柱の四角形横面になるように、前記オブジェクトに係わるデプスマップに三角柱フィルタを適用し、前記オブジェクトに係わるデプスマップを変形する段階を含むことができる。
また、前記メタデータから、前記フレームが含まれたタイトルを識別するためのタイトル識別情報を抽出し、前記メタデータがいかようなタイトルについての情報であるかを識別する段階をさらに含むことができる。また、前記デプスマップを利用して二次元映像に係わる左目映像及び右目映像を生成する段階、前記左目映像及び右目映像のホールを補正する段階、及び前記ホールが補正された左目映像及び右目映像を利用し、三次元フォーマット映像を生成する段階をさらに含むことができる。
本発明の他の側面によれば、二次元映像を所定単位に区分するためのショット情報をメタデータから抽出し、前記ショット情報に含まれたショットタイプ情報を利用し、所定ショットに含まれたフレームが三次元映像として再生できると判断されれば、前記メタデータから、前記所定ショットに含まれたフレームの背景についての背景用デプス情報を抽出し、前記所定ショットに含まれたフレームにオブジェクトが含まれている場合、前記メタデータから、前記オブジェクトについてのオブジェクト用デプス情報を抽出して解析するメタデータ解析部、及び前記背景用デプス情報を利用し、前記フレームの背景に係わるデプスマップを生成し、前記オブジェクト用デプス情報を利用し、前記オブジェクトに係わるデプスマップを生成するデプスマップ生成部を含む映像処理装置を提供できる。
本発明のさらに他の側面によれば、二次元映像を所定単位に区分するためのショット情報をメタデータから抽出する段階、前記ショット情報に含まれたショットタイプ情報を利用し、所定ショットに含まれたフレームが三次元映像として再生できると判断されれば、前記メタデータから、前記所定ショットに含まれたフレームの背景についての背景用デプス情報を抽出する段階、前記背景用デプス情報を利用し、前記フレームの背景に係わるデプスマップを生成する段階、前記所定ショットに含まれたフレームにオブジェクトが含まれている場合、前記メタデータから、前記オブジェクトに係わるオブジェクト用デプス情報を抽出する段階、及び前記オブジェクト用デプス情報を利用し、前記オブジェクトに係わるデプスマップを生成する段階を含む映像処理方法を実行するためのコンピュータで判読可能なプログラムを保存する記録媒体を提供できる。
本発明の一実施形態によれば、背景用デプス情報を利用し、オブジェクトに係わるデプスマップを生成する映像処理方法及びその装置を提供できる。
本発明の一実施形態による、ビデオデータに係わるメタデータを図示する図である。 本発明で使われるデプス情報を図示する図である。 背景用デプス情報に含まれた背景タイプ情報及び曲面情報を利用し、背景にデプス値を付与するところを図示する図である。 背景用デプス情報に含まれた背景タイプ情報及び曲面情報を利用し、背景にデプス値を付与するところを図示する図である。 背景用デプス情報に含まれた背景タイプ情報及び曲面情報を利用し、背景にデプス値を付与するところを図示する図である。 背景用デプス情報に含まれた背景タイプ情報及び曲面情報を利用し、背景にデプス値を付与するところを図示する図である。 背景用デプス情報に含まれた背景タイプ情報及び曲面情報を利用し、背景にデプス値を付与するところを図示する図である。 背景用デプス情報に含まれた背景タイプ情報及び曲面情報を利用し、背景にデプス値を付与するところを図示する図である。 画面の側面から観察するとき、映像に付与される奥行き感を図示する図である。 映像処理装置が、オブジェクトに係わるデプスマップや、背景に係わるデプスマップをフィルタリングしたとき、フィルタリングされた映像の立体感を図示する図である。 映像処理装置が、オブジェクトに係わるデプスマップや、背景に係わるデプスマップをフィルタリングしたとき、フィルタリングされた映像の立体感を図示する図である。 映像処理装置が、オブジェクトに係わるデプスマップや、背景に係わるデプスマップをフィルタリングしたとき、フィルタリングされた映像の立体感を図示する図である。 映像処理装置が、オブジェクトに係わるデプスマップや、背景に係わるデプスマップをフィルタリングしたとき、フィルタリングされた映像の立体感を図示する図である。 映像処理装置が、オブジェクトに係わるデプスマップや、背景に係わるデプスマップをフィルタリングしたとき、フィルタリングされた映像の立体感を図示する図である。 映像処理装置が、オブジェクトに係わるデプスマップや、背景に係わるデプスマップをフィルタリングしたとき、フィルタリングされた映像の立体感を図示する図である。 図1のメタデータを利用してデプスマップが生成される方法を図示する図である。 図1のメタデータを利用してデプスマップが生成される方法を図示する図である。 本発明の一実施形態による映像処理方法を遂行するための映像処理装置を示した図である。 図7のデプスマップ生成部をさらに具体的に図示した図である。 図7のステレオレンダリング部をさらに具体的に図示したブロック図である。
以下、添付された図面を参照しつつ、本発明の望ましい実施形態について詳細に説明する。
図1は、本発明の一実施形態による、ビデオデータに係わるメタデータ100を図示した図である。本発明の一実施形態によるメタデータ100には、ビデオデータについての情報が含まれている。メタデータ100が、いかなるビデオデータについての情報であるかを表示するために、メタデータ100には、ビデオデータが含まれたタイトルを識別するためのタイトル識別情報が含まれる。
メタデータ100には、ビデオデータを含むフレームについての情報が含まれている。フレームについての情報は、フレームを所定の基準によって区分するための情報を含む。類似性がある一連のフレームの束を、1つのユニット(unit)とするとき、ビデオデータのフレームは、複数のユニットに区分されうる。本発明でのメタデータ100は、ビデオデータのフレームを、所定のユニットに区分するための情報を含む。
本発明では、フレームの構成が類似しており、以前フレームを利用して現在フレームの構成を予測できる場合、構成が類似した一連のフレームを1つのショット(shot)と呼ぶ。メタデータ100には、二次元ビデオデータのフレームを、所定単位、すなわちショット単位に区分するためのショット情報が保存されている。以下、メタデータ100に含まれている、ショットについての情報をショット情報と呼ぶ。メタデータ100には、一つ以上のショット情報が含まれている。フレームの構成が顕著に変わり、現在フレームの構成が以前フレームの構成と異なる場合、現在フレームと以前フレームは、互いに異なるショットに区分される。
ショット情報は、ショットタイプ情報を含む。ショットタイプ情報は、各ショット別に、そのショットに対応するフレームが二次元映像として出力されねばならないか、または三次元映像として出力されねばならないかを示す情報である。ショットタイプ情報が、そのショットに含まれたフレームが二次元映像として出力されねばならないことを表示すれば、映像処理装置700(図7)は、そのショットに区分されるフレームを、二次元映像をデコーディングしてそのままを画面に出力する。ショットタイプ情報が、そのショットに含まれたフレームが三次元映像として出力されねばならないことを表示する場合、映像処理装置は、メタデータ100に含まれたデプス(depth)情報を利用し、そのショットに対応するフレームを三次元映像として出力する。
ショット情報には、二次元のビデオデータを三次元映像として出力するための、二次元のビデオデータをデプス情報で同期化させるための情報が含まれる。ショット情報には、ショット開始時刻及びショット終了時刻が含まれる。ショット開始時刻は、所定のショットに区分されるフレームのうち、最初に出力されるフレームの出力時刻を意味し、ショット終了時刻は、所定のショットに区分されるフレームのうち、最後に出力されるフレームの出力時刻を意味する。ビデオデータ、または一つ以上のビデオデータの束であるタイトルが単一時間軸によって連続的に再生されるとき、ビデオデータまたはタイトルが再生される連続的な時間軸を、グロ−バルタイム軸(global time axis)という。ショット開始時刻及びショット終了時刻として、ビデオデータやタイトルのグロ−バルタイム軸上での出力時間(presentation time)が割り当てられる。
ショット情報は、そのショットに含まれたフレームの個数がいくつであるか示す情報を含む。ショット情報には、ショット開始時刻及びショット終了時刻が含まれており、ショットに含まれたフレームがいくつであるかについての情報も含まれているので、映像処理装置は、ショット終了時刻からショット開始時刻を差し引いた時間、ショットに含まれたフレームを同一間隔で出力する。従って、ショットに含まれたあらゆるフレームに係わる出力時刻が求められる。
ショットタイプ情報が、所定ショットに区分されるフレームが、三次元映像として出力されねばならないことを示す場合、メタデータ100には、その所定ショットに区分されるフレームを、三次元映像に変換するためのデプス情報がさらに含まれる。
二次元映像に立体感を与えるためには、二次元映像に奥行き感(depth)を付与しなければならない。人が画面を見るとき、画面に投射された映像が両眼に結ばれるが、目に結ばれる映像の二点間の距離を視差(parallax)という。視差は、正の視差(positive parallax)、ゼロの視差(zero parallax)、負の視差(negative parallax)に区分される。正の視差は、映像が画面内側に結ばれる場合の視差をいい、視差が両眼間の距離と同じであるか、またはそれより小さいときをいう。視差値が大きくなるほど、映像が画面よりさらに深く位置したような立体感を与える。
映像が画面平面に二次元に結ばれる場合の視差は、0になる。視差が0である場合、映像が画面平面に結ばれるので、ユーザは、立体感を感じれない。負の視差は、映像が画面より前方にある場合の視差をいい、視線が交差するときに発生し、あたかも物体が飛び出しているような立体感を与える。
二次元映像に奥行き感を与えて三次元映像を生成するために、本発明では、フレームに係わるデプスマップを生成し、フレームに奥行き感を付与する方法を利用する。デプス情報は、フレームに奥行き感を付与し、二次元映像が三次元映像に変換させるための情報であり、背景用デプス情報とオブジェクト用デプス情報とに分けられる。
1つのフレームの映像は、背景をなす映像と、背景を除外した一つ以上のオブジェクトに係わる映像とから構成される。背景用デプス情報は、背景をなす映像に奥行き感を与えるための情報である。背景をなす映像に奥行き感を与えるということは、背景の位置や形の作りのような構成に奥行き感を与え、背景に立体感を有させることを意味する。
フレームの背景は、フレーム別に多様な形態の構成を有することができる。メタデータ100には、多様な形態の構成がいくつかの定形化された形態に分類されて含まれており、所定ショットに含まれるフレームの背景が定形化された構成のうち、いかなる形態の構成を有するかを示す背景タイプ情報が含まれている。本発明でのショットは、フレーム間の構成が変わり、現在フレームの構成が以前フレームの構成と異なる場合を区別するのに使われるので、1つのショットに区分されるフレームは、一般的に同じ構成を有するようになる。従って、1つのショットに区分されるフレームの背景についてのデプス情報もまた同一になる。
背景用デプス情報には、背景タイプ情報によって識別された基本構成に加え、背景に含まれている曲面(surface)にデプス値を付与するための曲面情報をさらに含むことができる。背景タイプ情報と曲面情報とについては、図3Fを参照しつつ説明する。
背景用デプス情報には、背景の座標点、背景の座標点に適用されるデプス値、そしてパネルポジション値が含まれうる。背景の座標点値は、二次元映像フレームを基準としたときの背景の座標値をいう。デプス値は、二次元映像の所定ピクセルに付与される深さの程度をいい、パネルポジションは、映像が結ばれる画面の位置をいう。背景用デプス情報は、ショットタイプ情報がショットに含まれたフレームを、三次元映像として出力しなければならないことを表示する場合、そのショットに含まれるフレームの背景に係わってデプスマップを生成するために必ず必要な情報である。
オブジェクト(object)は、フレームにおいて背景を除外した、垂直成分を有する人や建物などの個体をいう。オブジェクト用デプス情報は、オブジェクトに係わってデプスマップを生成するために使われる情報である。ショットに含まれたフレームを三次元映像として出力しなければならない場合、背景用デプス情報は、必ず必要であるが、そのショットのフレームのうち、一部フレームには、オブジェクトが含まれていないこともあるので、あらゆるフレームについて、オブジェクトについてのデプス情報が必要であるというわけではない。
オブジェクト用デプス情報は、オブジェクトタイプ情報を含む。オブジェクトタイプ情報は、オブジェクトにデプス値をいかように付与するかを基に、二次元オブジェクト、ノーマル(normal)オブジェクト、ハイライト(highlight)オブジェクトに分けられる。二次元オブジェクトは、二次元に出力されねばならない領域を識別するためのオブジェクトである。二次元オブジェクトのデプス値は、画面のデプス値、すなわちパネルポジション値と同一である。ノーマルオブジェクトは、背景に接触して立っているオブジェクトを意味する。従って、ノーマルオブジェクトは、ノーマルオブジェクトと接触している背景の座標点のデプス値を、オブジェクトのデプス値として有する。二次元オブジェクトでもなく、ノーマルオブジェクトでもないオブジェクトを、ハイライトオブジェクトという。ハイライトオブジェクトは、パネルポジションのデプス値を基に、所定値ほど画面内側に、または画面外側に離れた値をデプス値として有する。
オブジェクト用デプス情報は、優先順位情報を含む。優先順位情報とは、同じフレームに複数のオブジェクトが含まれている場合、オブジェクトに係わるデプスマップ生成順位を示す。オブジェクトが複数である場合、優先順位の高いオブジェクトから、まずデプスマップが生成される。優先順位の高いオブジェクトは、低い優先順位を有するオブジェクトより視聴者にさらに近くにあるオブジェクトをいう。
オブジェクト用デプス情報は、フレームが出力される時間についての情報を含む。フレームが出力される時間は、所定ショットに区分されるフレームのうち、所定オブジェクトが登場するフレーム出力時間を意味する。フレーム出力時間は、フレーム開始時刻及びフレーム終了時刻を含み、フレーム開始時刻は、オブジェクトが含まれたフレームが出力され始める時刻を意味し、フレーム終了時刻をそのオブジェクトが含まれたフレームの出力が停止する時刻を意味する。
オブジェクト用デプス情報は、領域識別情報を含む。領域識別情報は、オブジェクトの領域を表示するための情報であり、座標点となりうる。場合によっては、領域識別情報として、オブジェクトの領域が表示されたマスクが利用され、この場合、オブジェクトの領域を識別するために、オブジェクト別に1つのマスクが用いられうる。
オブジェクトがノーマルオブジェクトであり、領域識別情報がマスクを利用して表現された場合、オブジェクト用デプス情報は、参照情報をさらに含むことができる。参照情報は、背景用デプス情報に含まれた背景の座標点のうち、ノーマルオブジェクトの領域を示す座標点と同じ座標点についての情報をいう。前述の通り、ノーマルオブジェクトは、背景と接触しているオブジェクトであるから、背景と接触している座標点での背景のデプス値を、オブジェクトのデプス値として有する。領域識別情報がマスクとして与えられる場合、オブジェクトのどの地点が背景と接触しているかが分からないこともあるので、オブジェクトが背景と接触する地点を知らせるための情報が必要になる。
オブジェクトがハイライトオブジェクトである場合、ハイライトオブジェクトのデプス値が、パネルポジション値とオフセット値との和、または差として与えられるので、オブジェクト用デプス情報は、オフセット値についての情報をさらに含まねばならない。
オブジェクト用デプス情報は、フィルタ情報をさらに含むことができる。オブジェクトは、垂直成分を有するので、オブジェクトのデプス値は、垂直に同じ値を有することになる。場合によっては、オブジェクト全体が同じデプス値を有することもある。例えば、ハイライトオブジェクトのデプス値は、パネルポジション値とオフセット値との和、または差として与えられるので、ハイライトオブジェクト全体について、同じデプス値を有することになる。この場合、オブジェクトのデプス値に追加的なデプス値をさらに付与し、オブジェクトを立体的にするための情報がフィルタ情報である。映像処理装置は、フィルタ情報を利用し、オブジェクトをフィルタリングできる。
場合によっては、背景用デプス情報にもフィルタ情報が含まれうる。例えば、背景全体が同じデプス値を有する場合、背景に立体感を与えるために、フィルタ情報を利用し、背景に係わるデプスマップをフィルタリングできる。フィルタ情報については、図5Aないし図5Fを参照しつつ、さらに具体的に述べる。
このように、本発明の一実施形態によれば、二次元映像のビデオデータを三次元映像に変換するための情報が、メタデータ100に含まれており、メタデータ100には、背景用デプス情報とオブジェクト用デプス情報とが含まれている。
図2は、本発明で使われるデプス情報を説明するための図である。本発明では、デプス情報を利用し、二次元平面のフレームに奥行き感を付与する。図2を参照するに、ユーザが画面を視聴する方向と平行方向であるX軸方向は、フレームの奥行き程度を示す。デプス値は、映像の奥行き程度を意味し、本発明でデプス値は、0から255まで256個のうち1つの値を有することができる。デプス値が小さくなって0に近づくほど、映像に奥行きが生じて映像が視聴者に遠ざかり、デプス値が大きくなって255に近づくほど、映像が視聴者に近づく。
パネルポジションは、映像が結ばれる画面の位置をいい、パネルポジション値は、視差が0である場合、すなわち映像が画面表面に結ばれるときの映像のデプス値を意味する。図2のように、パネルポジション値は0から255のうちの1つのデプス値を有することができる。パネルポジション値が255である場合、フレームに含まれた映像は、いずれも画面と同じデプスを有するか、または画面より小さいデプス値を有することになるので、映像が視聴者に遠ざかる方向、すなわち、画面内側に結ばれる。これは、フレームに含まれた映像が0、または正の視差を有することを意味する。パネルポジション値が0である場合、フレームに含まれた映像は、いずれも画面と同じデプス値を有するか、または画面より大きいデプス値を有することになるので、映像が画面外に飛び出して結ばれる。これは、フレームに含まれたあらゆる映像が、0または負の視差を有することを意味する。
図3Aないし図3Fは、背景用デプス情報に含まれた背景タイプ情報と曲面情報とを利用し、背景にデプス値を付与するところを説明するための図である。前述の通り、背景タイプ情報は、フレームに含まれた背景の基本的な構成情報が何であるかを知らせる情報である。
背景タイプは、六種に大別されうる。以下の表1は、背景のタイプを表で示したものであり、図3Aないし図3Fは、背景タイプ別に背景の基本的な構成を図示する図である。前述のように、背景用デプス情報には、背景の基本構成が何であるかを示す背景タイプ情報が含まれている。
Figure 2010158009
図3Aから図3Fには図示されていないが、背景タイプのうちプレーン(plain)構成を考慮することができる。プレーン構成は、背景全体が同じデプス値を有する背景の構成タイプをいう。
図3Aは、背景タイプがベーシック・ベースライン(basic baseline)である場合のフレームの背景を図示したものである。ベーシック・ベースラインの構成は、地平線のように、全体背景内の上辺、あるいは下辺と平行した1本の線を基に、上下領域に垂直方向にのみデプス変化がある場合に使われる。図3Aで、フレームの最左側の最上端の座標を(0,0)とするとき、p1とp2との座標点がx軸値のみ異なり、y軸値は、同じ値を有する。また、p1とp2との二点を連結した直線は、同じデプス値を有することになる。背景タイプがベーシック・ベースラインである場合、デプス情報には、p1とp2との座標点、二点を連結する直線に付与するデプス値、及び上辺、下辺のデプス値が含まれる。
図3Bは、背景タイプが2ポイントベースライン(two point baseline)である場合のフレームの背景を図示したものである。2ポイントベースラインの構成は、全体背景内の上辺及び下辺と平行ではない1本の線を基に、上下領域に垂直/水平方向にデプス変化がある場合に使われる。図3Bで、p3,p4の座標値は、x軸方向にもy方向にもいずれも異なり、二点でのデプス値も異なる。p3とp4とを連結する直線もまた、ピクセル別に異なるデプス値を有することになる。背景タイプが2ポイントベースラインである場合、デプス情報には、p3とp4との座標点、二点でのデプス値、及び他コーナーの頂点p1,p2,p5,p6に係わるデプス値が含まれる。
図3Cは、背景タイプが5ポイントボックス(five point box)である場合のフレームの背景を図示したものである。5ポイントボックスの構成は、全体背景内部に平面形態(長方形)の同じデプス領域が存在し、これを基に、外部の四点に向かってデプス変化がある場合に使われる。図3Cで、長方形領域として、1つの座標点p3と、横及び縦にの長さ(x,y)が与えられることが分かる。背景タイプが5ポイントボックスである場合、デプス情報として、p1〜p5の座標点、各座標点でのデプス値、そして長方形の横及び縦の長さが含まれる。
図3Dは、背景タイプが6ポイントボックス(six point box)である場合のフレームの背景を図示したものである。6ポイントボックスの構成は、全体背景内部に、縦方向に異なるデプス値を割り当てることができる特徴的な二点を定義し、これを基に、外部の四点に向かってデプス変化がある場合に使われる。背景タイプが6ポイントボックスである場合、デプス情報には、p1〜p6の座標点、及び各座標点でのデプス値が含まれる。
図3Eは、背景タイプが8ポイントボックス(eight point box)である場合のフレームの背景を図示したものである。8ポイントボックスの構成は、全体背景内部に、平面形態(四角形)として4つの頂点にそれぞれ異なるデプス値が割り当て可能な領域が存在し、これを基に、外部の四点に向かってデプス変化がある場合に使われる。背景タイプが8ポイントボックスである場合、デプス情報には、p1〜p8の座標点、及び各座標点でのデプス値が含まれる。
図3Fは、曲面情報によって、背景の基本的な構成に付加的にデプス値が付与される場合を説明するための図である。図3Fを参照するに、図3Fは、2ポイントベースラインの背景構成を有する背景に、付加的にデプス値を付与するための座標点が表示されている。曲面情報は、付加的に背景にデプス値を付与するための座標点の値、及びその座標点でのデプス値を含む。デプス情報には、曲面情報として、p1〜p10に係わる座標点、及び各座標点でのデプス値が含まれることになる。
図4は、画面の側面から観察するとき、映像に付与される奥行き感を説明するための図である。図4には、二次元オブジェクト、ノーマルオブジェクト、ハイライトオブジェクトが図示されている。図4のオブジェクトは、フィルタリングが適用されていない状態を図示したものであり、オブジェクトは、Z軸方向、すなわちパネルポジションに平行方向に同じデプス値を有することが分かる。
二次元オブジェクトは、画面の側面からながめたとき、画面上に位置し、画面と同じデプス値を有することが分かる。画面に結ばれるノーマルオブジェクトは、背景に接触しているオブジェクトであるから、図4のように、ノーマルオブジェクトのデプス値は、背景とオブジェクトとが接触している地点で、背景が有するデプス値と同じデプス値になる。図4でハイライトオブジェクトは、パネルポジション値とオフセット値とを合わせたほどのデプス値を有していることが分かる。ハイライトオブジェクトは、パネルポジション値より大きいデプス値を有するので、視聴者は、ハイライトオブジェクトが画面より外側に飛び出しているかのように認識することになる。
図5Aないし図5Fは、映像処理装置がオブジェクトに係わるデプスマップであるが、背景に係わるデプスマップをフィルタリングしたときに、フィルタリングされた映像の立体感を説明するための図である。オブジェクトが、ハイライトオブジェクトのようにオブジェクト全体に対して同じデプス値を有する場合、オブジェクトをさらに立体的に示すために、オブジェクトに係わるデプスマップをフィルタリングできる。また、背景が同じデプス値を有する場合にも、見栄えのしない背景をさらに立体的に示すために、背景に係わるデプスマップをフィルタリングできる。
便宜上、図5は、オブジェクトや平面が同じデプス値を有すると仮定するとき、かようなオブジェクトまたは背景をフィルタリングした場合、側面から観察されるデプスを示しているが、フィルタリングが必ずしもかような場合のみに適用されるものではなく、オブジェクトや背景が同じデプス値を有さない場合にも、フィルタリングが適用されもする。
図5A及び図5Bは、フィルタが半球状であるとき、半球状のフィルタによってフィルタリングされたデプスマップのデプスを図示する図である。図5A及び図5Bは、オブジェクトに係わるデプスマップ、または背景に係わるデプスマップが球の中心を通過する平面になるように、デプスマップに半球フィルタを適用したものである。例えば、オブジェクトがハイライトオブジェクトであり、ハイライトオブジェクトがサッカーボールである場合、サッカーボールにさらに立体感を付与するために、サッカーボールに係わるデプスマップに球状のフィルタをフィルタリングできる。また、フレームに人の顔がクローズアップされている場合、人の顔を別途のオブジェクトで見ることができるが、便宜上、人の顔が含まれた画面全体が同じデプス値を有する1つの背景であると考慮する場合、人の顔に立体感を与えるために、人の顔に係わるデプスマップに半球フィルタを適用できる。
図5C及び図5Dは、フィルタが半円柱状であるとき、半円柱状のフィルタによってフィルタリングされたデプスマップのデプスを図示する図である。図5C及び図5Dは、オブジェクトに係わるデプスマップ、または背景に係わるデプスマップが円柱を縦に半分に分ける平面になるように、半円柱フィルタを適用したものである。例えば、オブジェクトがノーマルオブジェクトであり、オブジェクトの形態が電信柱状である場合、電信柱にさらに立体感を付与するために、半円柱状のフィルタを適用できる。
図5E及び図5Fは、デプスマップに三角柱が横たわった形態のフィルタを適用した場合を図示したものである。図5E及び図5Fのように、三角柱の四角形横面がデプスマップと平行になるように、デプスマップに三角柱フィルタを適用し、デプスマップを変形できる。
図6A及び図6Bは、図1のメタデータ100を利用し、デプスマップが生成されるところを説明するための図である。図6Aは、二次元映像を図示したものであり、図6Bは、図6Aの画面にデプス値が付与された場合を説明するための図である。
本発明で、映像処理装置700(図7)は、フレームを背景とオブジェクトとに分け、それぞれに対して、背景用デプス情報とオブジェクト用デプス情報とを生成する。
図6Aを参照するに、二次元映像のフレームには、天と地とから構成された背景;2本の木と人と風船とから構成されたオブジェクトが含まれている。映像処理装置は、メタデータ100から背景用デプス情報を抽出する。図6Aのフレームは、天と地とが接触する部分、すなわち地平線の部分が最も深い奥行き感を有する構成であることが分かる。映像処理装置は、メタデータ100に含まれた背景用デプス情報から背景タイプ情報を抽出し、これを利用し、図6Aのフレームが図3Aのようなベーシック・ベースライン背景の構成を有することが分かる。映像処理装置は、構成の類型についての情報、背景の座標点値及びデプス値情報を利用して背景にデプス値を付与し、図6Bのように、背景用デプスマップを生成する。
図6Bで、パネルポジションのデプス値は、255であることが分かる。パネルポジションのデプス値が最も大きい値を有するので、フレームの映像は、いずれも画面より内側に入り込んでいるような立体感を形成する。図3Bで、天と地とが接触する水平線地点は、0のデプス値を有しているので、水平線地点が視聴者から最も遠く位置することになる。地の一番下の部分は、255のデプス値を有することが分かり、これは、この地点の映像が視聴者と最も近い位置に結ばれるということを意味する。
映像処理装置は、領域識別情報からオブジェクト領域を識別するための座標点情報を抽出し、これを利用してフレームでオブジェクトを識別する。領域識別情報としては、オブジェクトの形状が表示されたマスクを利用することができ、この場合、マスクを利用してオブジェクトの領域を識別できる。
映像処理装置は、オブジェクト用デプス情報に含まれたオブジェクトタイプ情報を利用し、複数のオブジェクト別に各オブジェクトのタイプが何であるかを識別する。図6Aのフレームで、オブジェクトは、2本の木と人とNBCというロゴと風船とである。2本の木と人は、いずれも土地に接触しているので、ノーマルオブジェクトであることが分かる。NBCというロゴは、二次元画面に表示されねばならないので、二次元オブジェクトであり、風船は、空中に浮いているオブジェクトであるから、ハイライトオブジェクトであることが分かる。映像処理装置は、領域識別情報を利用し、各オブジェクトの領域を識別する。
映像処理装置は、二次元オブジェクトについて、背景用デプス情報に含まれたパネルポジション値を二次元オブジェクトのデプス値とし、図6Bのように、二次元オブジェクトに係わるデプスマップを生成する。映像処理装置は、ノーマルオブジェクトについて、オブジェクトと背景とが接触している地点がどこであるかを判断し、オブジェクトと背景とが接触している地点の座標点値に対応する背景のデプス値を抽出する。映像生成装置は、抽出されたデプス値を、ノーマルオブジェクトに係わるデプス値として付与し、ノーマルオブジェクトに係わるデプスマップを生成する。映像処理装置は、ハイライトオブジェクトについて、パネルポジション値と、オフセット情報を利用して求めた値とをデプス値とし、ハイライトオブジェクトに係わるデプスマップを生成する。
映像処理装置は、オブジェクトに係わるデプスマップを生成した後、デプスマップをフィルタリングすることも可能である。例えば、図6Bで映像処理装置は、風船に半球フィルタを適用し、風船にさらに立体感を付与することも可能である。
このように、本発明の一実施形態によれば、オブジェクトの類型別に、オブジェクトに多様な方法でデプス値を付与し、オブジェクトに係わるデプスマップを生成できる。
図7は、本発明の一実施形態による映像処理方法を遂行するための映像処理装置を示した図である。図7を参照するに、映像処理装置700は、ビデオデータ・デコーディング部710、メタデータ解析部720、マスクバッファ730、デプスマップ生成部740、ステレオレンダリング部750を含む。場合によっては、映像処理装置700は、三次元フォーマットで生成された三次元映像を画面に出力する出力部760をさらに含むことができる。本発明の他の実施形態によれば、映像処理装置700は、付加的、そして/または異なるユニットをさらに含むことができる。また、前記ユニットのうち、2つ以上の機能が一つで統合されることも可能である。
ビデオデータ・デコーディング部710は、ディスクまたはローカルストレージ(図示せず)からビデオデータを読み取り、これをデコーディングする。メタデータ解析部720は、ディスクまたはローカルストレージから、ビデオデータに係わるメタデータ100を読み取り、これを解析する。
ビデオデータ及び/またはビデオデータに係わるメタデータ100は、多重化された状態で、または独立的にサーバ(図示せず)に保存されていたりディスクに記録されていることが可能である。
映像処理装置700は、サーバからビデオデータをダウンロードし、ビデオデータに係わるメタデータをディスクから読み取って利用したり、ディスクからビデオデータを読み取り、サーバからビデオデータに係わるメタデータをダウンロードされて利用されもする。
ビデオデータ及び/またはビデオデータに係わるメタデータ100がサーバに保存されている場合、映像処理装置700は、通信網を介して、サーバからビデオデータ及び/またはビデオデータに係わるメタデータ100をダウンロードし、これを利用できる。
サーバは、放送局や一般コンテンツ生成企業のようなコンテンツ提供者が運営するものであり、ビデオデータ及び/またはビデオデータに係わるメタデータ100を保存している。サーバは、ユーザが要請したコンテンツを抽出し、これをユーザに提供する。
映像処理装置700が、通信網を介してサーバから情報をダウンロードする場合、映像処理装置700は、通信部(図示せず)及びローカルストレージ(図示せず)をさらに含むことができる。通信部は、有線または無線の通信網を利用し、サーバにユーザが所望のビデオデータ及び/またはビデオデータに係わるメタデータ100を要請し、サーバからビデオデータ及び/またはビデオデータに係わるメタデータ100を受信する。
ローカルストレージは、通信部がサーバからダウンロードした情報を保存する。本発明でローカルストレージは、通信部を介してサーバから伝送されたビデオデータ及び/またはビデオデータに係わるメタデータを保存する。
ビデオデータ及び/またはビデオデータに係わるメタデータ100が多重化された状態で、または独立的にディスクに記録されている場合、ビデオデータ及び/またはメタデータ100が記録されているディスクが、映像処理装置700にローディングされれば、ビデオデータ・デコーディング部710とメタデータ解析部720は、ローディングされたディスクから、ビデオデータとメタデータ100とをそれぞれ読み取る。メタデータ100は、ディスクのリードイン領域、ユーザデータ領域、リードアウト領域のうち、一つ以上の領域に記録されていることが可能である。
ビデオデータがディスクに記録されている場合、メタデータ解析部720は、メタデータ100からビデオデータが記録されているディスクを識別するためのディスク識別子と、ビデオデータがディスク内で何番目のタイトルであるかを示すタイトル識別子とを抽出し、これを利用し、メタデータ100がどのビデオデータに係わるメタデータ100であるかを判断する。
メタデータ解析部720は、メタデータ100からオブジェクトが含まれたフレームの出力時間を抽出し、現在フレームの出力時刻がオブジェクトが含まれたフレームの出力時間に含まれる場合、メタデータ100から現在フレームについての背景用デプス情報と、オブジェクト用デプス情報とをパージングし、これをデプスマップ生成部740に送る。
マスクバッファ730は、現在出力されるフレームに含まれたオブジェクトに対し、領域識別情報としてマスクについての情報が定義されている場合、当該フレームに適用されるマスクを一時的に保存する。マスクは、オブジェクトの形態のみ色相が異なり、残りの領域は同じ色相を有するか、オブジェクトの形態によって、穴のあいたマスクなどになり、1つのオブジェクトに係わる1つのマスクが使われる。
デプスマップ生成部740は、メタデータ解析部720から受けた背景用デプス情報、オブジェクト用デプス情報、そしてマスクバッファ730から受けたマスクを利用し、フレームに係わるデプスマップを生成する。デプスマップ生成部740は、メタデータ100を利用し、背景に係わるデプスマップと、オブジェクトに係わるデプスマップとをそれぞれ生成し、背景に係わるデプスマップと、オブジェクトに係わるデプスマップとを合わせ、1つのフレームに係わるデプスマップを生成する。
デプスマップ生成部740は、オブジェクト用デプス情報に含まれた領域識別情報を利用し、オブジェクトの領域を識別する。前述のように、領域識別情報としては、オブジェクト領域を示す座標点値になりうる。場合によって、領域識別情報は、オブジェクト形状が表示されたマスクになりうる。デプスマップ生成部740は、座標点情報またはマスクを利用し、オブジェクトの形状を把握し、把握されたオブジェクトにデプス値を付与する。
デプスマップ生成部740は、オブジェクトがノーマルオブジェクトである場合、オブジェクトの領域の座標点のうち、背景と接触している部分の座標点を抽出し、抽出された座標点に対応するデプス値を、オブジェクトに係わるデプス値とし、オブジェクトに係わるデプスマップを生成する。デプスマップ生成部740は、オブジェクトが二次元オブジェクトである場合、パネルポジション値を利用し、二次元オブジェクトに係わるデプスマップを生成し、オブジェクトがハイライトオブジェクトである場合、オフセット値とパネルポジションと値を利用し、ハイライトオブジェクトに係わるデプスマップを生成する。
デプスマップ生成部740は、背景に係わるデプスマップと、オブジェクトに係わるデプスマップとを利用し、1つのフレームに係わるデプスマップを生成する。デプスマップ生成部740は、生成されたデプスマップをステレオレンダリング部750に送る。
ステレオレンダリング部750は、ビデオデータ・デコーディング部710から受けたビデオ映像と、デプスマップ生成部740から受けたデプスマップとを利用し、左目映像及び右目映像を生成し、左目及び右目映像をいずれも含む三次元フォーマットの映像を生成する。
場合によっては、出力装置は、映像処理装置700に含まれることもある。以下、出力装置が、映像処理装置700に出力部760として含まれた場合について説明する。出力部760は、左目映像と右目映像とを順次に画面に出力する。視聴者は、一方の目を基に、最小60Hzのフレーム率で映像が出力されてこそ、イメージが切れずに順次に再生されると認知するので、左右両眼を介して入力されたイメージが合わさり、三次元映像として認知されるためには、ディスプレイ装置が、最小限120Hzのフレーム率で画面を出力しなければならない。出力部760は、1/120秒単位でフレームに含まれた左右映像を順次に表示する。
図8は、図7のデプスマップ生成部740をさらに具体的に図示した図である。図8を参照するに、デプスマップ生成部740は、背景デプスマップ生成部810、オブジェクト・デプスマップ生成部820、フィルタリング部830及びデプスマップ・バッファ部840を含む。
背景デプスマップ生成部810は、メタデータ解析部720から、背景用デプス情報に含まれた、背景タイプ情報、背景の座標点、座標点に対応する背景のデプス値及びパネルポジション値を受け、これを利用し、背景に係わるデプスマップを生成する。背景デプスマップ生成部810は、生成された背景に係わるデプスマップを、フィルタリング部830に送る。
オブジェクト・デプスマップ生成部820は、メタデータ解析部720から、オブジェクト用デプス情報に含まれた、領域識別情報とオブジェクトタイプ情報とを受け、これを利用し、オブジェクトに係わるデプスマップを生成する。領域識別情報がマスクについての情報である場合、オブジェクト・デプスマップ生成部820は、マスクバッファ730から当該フレームに適用するマスクを受け、これを利用し、オブジェクトに係わるデプスマップを生成する。
オブジェクト・デプスマップ生成部820は、オブジェクトがノーマルオブジェクトである場合、背景デプスマップ生成部810に、オブジェクトと背景とが接触している地点の座標点に対応する背景のデプス値を要請する。オブジェクト・デプスマップ生成部820は、背景デプスマップ生成部810から、背景とオブジェクトとが接触している地点の背景に係わるデプス値を受け、これを、オブジェクトに係わるデプスマップとし、オブジェクトに係わるデプスマップを生成する。
オブジェクト・デプスマップ生成部820は、オブジェクトが二次元オブジェクトである場合、背景デプスマップ生成部810にパネルポジション値を要請し、これを利用し、二次元オブジェクトに係わるデプスマップを生成する。オブジェクト・デプスマップ生成部820は、オブジェクトがハイライトオブジェクトである場合、背景デプスマップ生成部810から受けたパネルポジション値に、オブジェクト用デプス情報に含まれたオフセット情報を利用し、ハイライトオブジェクトに係わるデプスマップを生成する。オブジェクト・デプスマップ生成部820は、オブジェクトに係わるデプスマップをフィルタリング部830に送る。オブジェクト・デプスマップ生成部820は、オブジェクトが複数個である場合、優先順位情報によって、順序にオブジェクトを生成する。
フィルタリング部830は、背景に係わるデプスマップ及びオブジェクトに係わるデプスマップをフィルタリングする。オブジェクトに係わるデプスマップが同じデプス値を有する場合、フィルタリング部830は、同じデプス値を有するオブジェクトに立体感を与えるために、オブジェクトにフィルタを適用できる。背景に係わるデプスマップが平面である場合、すなわち背景のデプス値が同じ値である場合にも、背景に立体感を与えるために、フィルタを適用することも可能である。
デプスマップ・バッファ部840は、フィルタリング部830を経た背景に係わるデプスマップを一時的に保存していて、オブジェクトに係わるデプスマップが生成されれば、背景に係わるデプスマップに、オブジェクトに係わるデプスマップを加え、フレームに係わるデプスマップを更新する。オブジェクトが複数である場合、デプスマップ・バッファ部840は、複数のオブジェクトに係わるデプスマップを順に書き換え、デプスマップを更新する。デプスマップ・バッファ部840は、デプスマップが完成すれば、完成されたデプスマップを、ステレオレンダリング部750に送る。
図9は、ステレオレンダリング部750をさらに具体的に図示したブロック図である。図9を参照するに、ステレオレンダリング部750は、ステレオ映像生成部910、ホール補正部920、左目映像バッファ930、右目映像バッファ940及び三次元フォーマット映像生成部950を含む。
ステレオ映像生成部910は、ビデオデータ・デコーディング部710から受けたビデオ映像と、デプスマップ生成部740から受けたデプスマップとを利用し、左目映像及び右目映像を生成する。ステレオ映像生成部910は、デプスマップを利用し、二次元映像のあらゆるピクセルについて、各ピクセルが左右にどの程度移動するかを計算し、計算された値ほど左右にピクセルが移動し、マッピングされた左目映像と右目映像とを生成する。
ホール補正部920は、左目映像と右目映像とに生成されたホール(hole)を補正する。1つの二次元映像を利用し、左目映像と右目映像とを生成する場合、左目映像と右目映像とのある地点には、二次元映像のピクセルが重複してマッピングされる一方、ある地点には、二次元映像のピクセルがマッピングされないところもある。このような空き地点をホールという。ホール補正部920は、左目映像と右目映像とのホールをそれぞれ補正した後、左目映像は、左目映像バッファ930に送り、右目映像は、右目映像バッファ940に送る。
左目映像バッファ930と右目映像バッファ940は、左目映像と右目映像とをそれぞれ有していて、映像が出力されねばならない時点になれば、左目映像と右目映像とを三次元フォーマット映像生成部950に送る。三次元フォーマット映像生成部950は、1つの映像に左目映像と右目映像とがいずれも含まれるようにして、三次元フォーマットの映像を生成する。三次元フォーマット映像としては、トップダウン(top and down)フォーマット、サイド・バイ・サイド(side by side)フォーマット、そしてインターレースト(interlaced)フォーマットなどがある。三次元フォーマット映像生成部950は、三次元フォーマットで生成された映像を、出力装置(図示せず)に送る。
以上、本発明についてその望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者は、本発明が本発明の本質的な特性から外れない範囲で変形された形態で具現できることを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなくして、説明的な観点から考慮されねばならない。本発明の範囲は、前述の説明ではなくして、特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は、本発明に含まれるものであると解釈されねばならない。
100 メタデータ
700 映像処理装置
710 ビデオデータ・デコーディング部
720 メタデータ解析部
730 マスクバッファ
740 デプスマップ生成部
750 ステレオ・レンダリング部
760 出力部
810 背景デプスマップ生成部
820 オブジェクト・デプスマップ生成部
830 フィルタリング部
840 デプスマップ・バッファ部
910 ステレオ映像生成部
920 ホール補正部
930 左目映像バッファ
940 右目映像バッファ
950 三次元フォーマット映像生成部

Claims (14)

  1. 二次元映像を所定単位に区分するショット情報をメタデータから抽出する段階と、
    前記ショット情報に含まれたショットタイプ情報を利用し、所定ショットに区分されるフレームが三次元映像として再生されうるか否かを判断する段階と、
    前記所定ショットに区分されるフレームが、三次元映像として再生されうると判断されれば、前記メタデータから、前記所定ショットに含まれたフレームの背景についての背景用デプス情報を抽出する段階と、
    前記背景用デプス情報を利用し、前記フレームの背景に係わるデプスマップを生成する段階と、
    前記所定ショットに含まれたフレームにオブジェクトが含まれている場合、前記メタデータから、前記オブジェクトについてのオブジェクト用デプス情報を抽出する段階と、
    前記オブジェクト用デプス情報を利用し、前記オブジェクトに係わるデプスマップを生成する段階とを含むことを特徴とする映像処理方法。
  2. 前記ショット情報を利用し、前記所定ショットに含まれたフレームが出力されねばならない時刻を求める段階をさらに含むことを特徴とする請求項1に記載の映像処理方法。
  3. 前記背景に係わるデプスマップを生成する段階は、
    前記背景用デプス情報から背景の基本構造を示す背景タイプ情報、前記背景に含まれた曲面にデプス値を適用するための曲面情報、前記背景の座標点及び前記背景の座標点での前記背景のデプス値、画面のデプス値を示すパネルポジション値を抽出し、前記背景に係わるデプスマップを生成する段階を含むことを特徴とする請求項1に記載の映像処理方法。
  4. 前記背景に係わるデプスマップを生成する段階は、
    前記背景タイプ情報による前記背景の基本構造のデプス値と、前記曲面情報による前記曲面のデプス値とを利用し、前記背景に係わるデプスマップを生成する段階を含むことを特徴とする請求項3に記載の映像処理方法。
  5. 前記フレームに含まれた背景が同じデプス値を有する場合、前記背景に係わるデプスマップをフィルタリングする段階をさらに含み、
    前記背景に係わるデプスマップをフィルタリングする段階は、
    前記背景に係わるデプスマップが円球の中心を通過する平面になるように、前記背景に係わるデプスマップに半球フィルタを適用したり、前記背景に係わるデプスマップが円柱を縦に半分に分ける平面になるように、前記背景に係わるデプスマップに半円柱フィルタを適用したり、前記背景に係わるデプスマップが三角柱の四角形横面になるように、前記背景に係わるデプスマップに三角柱フィルタを適用し、前記背景に係わるデプスマップを変形する段階を含むことを特徴とする請求項3に記載の映像処理方法。
  6. 前記オブジェクト用デプス情報には、前記オブジェクトの類型が、二次元オブジェクト、ノーマルオブジェクト、ハイライトオブジェクトのうち、何であるかを示すオブジェクトタイプ情報が含まれていることを特徴とする請求項1に記載の映像処理方法。
  7. 前記オブジェクト用デプス情報は、同じフレームに含まれるオブジェクトが複数である場合、前記複数のオブジェクトのデプスマップ生成順序を示す優先順位情報を含み、
    前記オブジェクトに係わるデプスマップを生成する段階は、前記オブジェクトのデプスマップ生成順序によって、前記複数のオブジェクトに係わるデプスマップを順序通りに生成する段階を含むことを特徴とする請求項1に記載の映像処理方法。
  8. 前記オブジェクトに係わるデプスマップを生成する段階は、
    前記オブジェクト用デプス情報から、前記オブジェクトが含まれたフレームが出力されねばならない時刻を求める段階を含むことを特徴とする請求項1に記載の映像処理方法。
  9. 前記オブジェクト用デプス情報から、前記オブジェクトの領域を識別するための領域識別情報を抽出する段階をさらに含み、
    前記領域識別情報は、前記オブジェクトの領域を座標点で表示した情報であるか、または前記オブジェクトの形状が表示されたマスクについての情報であることを特徴とする請求項1に記載の映像処理方法。
  10. 前記オブジェクトがハイライトオブジェクトである場合、前記オブジェクトに係わるデプスマップを生成する段階は、
    前記背景用デプス情報に含まれたパネルポジション値と、前記オブジェクト用デプス情報に含まれたオフセット値とを利用し、前記ハイライトオブジェクト領域のデプス値を求める段階と、
    前記ハイライトオブジェクト領域のデプス値を基に、前記ハイライトオブジェクトに係わるデプスマップを生成する段階とを含むことを特徴とする請求項9に記載の映像処理方法。
  11. 前記オブジェクトに係わるデプスマップをフィルタリングする段階をさらに含み、前記フィルタリングする段階は、
    前記オブジェクトに係わるデプスマップが円球の中心を通過する平面になるように、前記オブジェクトに係わるデプスマップに半球フィルタを適用したり、前記オブジェクトに係わるデプスマップが円柱を縦に半分に分ける平面になるように、前記オブジェクトに係わるデプスマップに半円柱フィルタを適用したり、前記オブジェクトに係わるデプスマップが三角柱の四角形横面になるように、前記オブジェクトに係わるデプスマップに三角柱フィルタを適用し、前記オブジェクトに係わるデプスマップを変形する段階を含むことを特徴とする請求項10に記載の映像処理方法。
  12. 前記デプスマップを利用し、二次元映像に係わる左目映像及び右目映像を生成する段階と、
    前記左目映像及び右目映像のホールを補正する段階と、
    前記ホールが補正された左目映像及び前記ホールが補正された右目映像を利用し、三次元フォーマット映像を生成する段階とをさらに含むことを特徴とする請求項1に記載の映像処理方法。
  13. 二次元映像を所定単位に区分するショット情報をメタデータから抽出し、前記ショット情報に含まれたショットタイプ情報を利用し、所定ショットに含まれたフレームが三次元映像として再生されうると判断されれば、前記メタデータから、前記所定ショットに含まれたフレームの背景についての背景用デプス情報を抽出し、前記所定ショットに含まれたフレームにオブジェクトが含まれている場合、前記メタデータから、前記オブジェクトについてのオブジェクト用デプス情報を抽出して解析するメタデータ解析部と、
    前記背景用デプス情報を利用し、前記フレームの背景に係わるデプスマップを生成し、前記オブジェクト用デプス情報を利用し、前記オブジェクトに係わるデプスマップを生成するデプスマップ生成部とを含むことを特徴とする映像処理装置。
  14. 二次元映像を所定単位に区分するショット情報をメタデータから抽出する段階と、
    所定ショットに区分されるフレームが三次元映像として再生されうるか否かを判断する段階と、
    前記所定ショットに区分されるフレームが三次元映像として再生されうると判断されれば、前記メタデータから、前記所定ショットに含まれたフレームの背景についての背景用デプス情報を抽出する段階と、
    前記背景用デプス情報を利用し、前記フレームの背景に係わるデプスマップを生成する段階と、
    前記所定ショットに含まれたフレームにオブジェクトが含まれている場合、前記メタデータから、前記オブジェクトについてのオブジェクト用デプス情報を抽出する段階と、
    前記オブジェクト用デプス情報を利用し、前記オブジェクトに係わるデプスマップを生成する段階とを含むことを特徴とする映像処理方法を実行するためのコンピュータで判読可能なプログラムを保存する記録媒体。
JP2009289749A 2008-12-26 2009-12-21 映像処理方法及びその装置 Expired - Fee Related JP5543191B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080134951A KR101547151B1 (ko) 2008-12-26 2008-12-26 영상 처리 방법 및 장치
KR10-2008-0134951 2008-12-26

Publications (2)

Publication Number Publication Date
JP2010158009A true JP2010158009A (ja) 2010-07-15
JP5543191B2 JP5543191B2 (ja) 2014-07-09

Family

ID=41664750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009289749A Expired - Fee Related JP5543191B2 (ja) 2008-12-26 2009-12-21 映像処理方法及びその装置

Country Status (5)

Country Link
US (1) US8767048B2 (ja)
EP (1) EP2202992A3 (ja)
JP (1) JP5543191B2 (ja)
KR (1) KR101547151B1 (ja)
CN (1) CN101771892B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012105019A (ja) * 2010-11-09 2012-05-31 Toshiba Corp 画像処理装置、方法およびそのプログラム
JP5502211B2 (ja) * 2011-01-17 2014-05-28 パナソニック株式会社 立体画像処理装置および立体画像処理方法
WO2019203207A1 (ja) * 2018-04-19 2019-10-24 ソニー株式会社 受信装置、受信方法、送信装置および送信方法
JPWO2021245930A1 (ja) * 2020-06-05 2021-12-09

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120125246A (ko) * 2010-01-07 2012-11-14 톰슨 라이센싱 비디오 컨텐츠의 디스플레이를 제공하는 방법 및 장치
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
JP5655393B2 (ja) * 2010-06-23 2015-01-21 ソニー株式会社 画像データ送信装置、画像データ送信装置の制御方法、画像データ送信方法および画像データ受信装置
US8848038B2 (en) * 2010-07-09 2014-09-30 Lg Electronics Inc. Method and device for converting 3D images
US8994792B2 (en) 2010-08-27 2015-03-31 Broadcom Corporation Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information
KR101708306B1 (ko) * 2010-09-13 2017-02-20 엘지전자 주식회사 이동 단말기 및 그의 3d 이미지 합성방법
US20120069055A1 (en) * 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus
WO2012042963A1 (ja) * 2010-09-29 2012-04-05 富士フイルム株式会社 固体撮像素子及び撮像装置
JP5543892B2 (ja) * 2010-10-01 2014-07-09 日立コンシューマエレクトロニクス株式会社 再生装置、再生方法、表示装置、及び表示方法
JP5132754B2 (ja) * 2010-11-10 2013-01-30 株式会社東芝 画像処理装置、方法およびそのプログラム
GB2485532A (en) * 2010-11-12 2012-05-23 Sony Corp Three dimensional (3D) image duration-related metadata encoding of apparent minimum observer distances (disparity)
EP2485495A3 (en) * 2011-02-03 2013-08-28 Broadcom Corporation Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information
US9020241B2 (en) * 2011-03-03 2015-04-28 Panasonic Intellectual Property Management Co., Ltd. Image providing device, image providing method, and image providing program for providing past-experience images
US9519994B2 (en) 2011-04-15 2016-12-13 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3D image independent of display size and viewing distance
KR20130027727A (ko) * 2011-09-08 2013-03-18 삼성전자주식회사 깊이정보 생성장치, 깊이정보 생성방법 및 그 저장매체
KR101855939B1 (ko) * 2011-09-23 2018-05-09 엘지전자 주식회사 영상표시장치의 동작 방법
RU2014118585A (ru) * 2011-10-10 2015-11-20 Конинклейке Филипс Н.В. Обработка карты глубины
US10477184B2 (en) * 2012-04-04 2019-11-12 Lifetouch Inc. Photography system with depth and position detection
US9031281B2 (en) * 2012-06-22 2015-05-12 Microsoft Technology Licensing, Llc Identifying an area of interest in imagery
KR101355894B1 (ko) * 2012-09-14 2014-01-29 한밭대학교 산학협력단 적응적 깊이 융합을 이용한 2차원 영상의 3차원 영상 변환장치 및 방법
US20140210950A1 (en) * 2013-01-31 2014-07-31 Qualcomm Incorporated Systems and methods for multiview metrology
KR102115930B1 (ko) * 2013-09-16 2020-05-27 삼성전자주식회사 디스플레이 장치 및 영상 처리 방법
US9619884B2 (en) * 2013-10-03 2017-04-11 Amlogic Co., Limited 2D to 3D image conversion device and method
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US10158847B2 (en) 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
KR102219456B1 (ko) * 2014-10-13 2021-02-25 삼성전자 주식회사 컨텐츠를 렌더링하는 방법 및 장치
US10277888B2 (en) * 2015-01-16 2019-04-30 Qualcomm Incorporated Depth triggered event feature
EP3257242A4 (en) 2015-02-12 2018-09-26 NEXTVR Inc. Methods and apparatus for making environmental measurements and/or using such measurements
WO2017039348A1 (en) * 2015-09-01 2017-03-09 Samsung Electronics Co., Ltd. Image capturing apparatus and operating method thereof
US10033926B2 (en) * 2015-11-06 2018-07-24 Google Llc Depth camera based image stabilization
US10148933B2 (en) 2015-11-13 2018-12-04 Vefxi Corporation 3D system including rendering with shifted compensation
US10122987B2 (en) 2015-11-13 2018-11-06 Vefxi Corporation 3D system including additional 2D to 3D conversion
US10277880B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including rendering with variable displacement
US10277877B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including a neural network
US10148932B2 (en) 2015-11-13 2018-12-04 Vefxi Corporation 3D system including object separation
WO2017083509A1 (en) * 2015-11-13 2017-05-18 Craig Peterson Three dimensional system
US10284837B2 (en) 2015-11-13 2019-05-07 Vefxi Corporation 3D system including lens modeling
US10225542B2 (en) 2015-11-13 2019-03-05 Vefxi Corporation 3D system including rendering with angular compensation
US10121280B2 (en) 2015-11-13 2018-11-06 Vefxi Corporation 3D system including rendering with three dimensional transformation
US10242448B2 (en) 2015-11-13 2019-03-26 Vefxi Corporation 3D system including queue management
US10277879B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including rendering with eye displacement
WO2017142712A1 (en) 2016-02-18 2017-08-24 Craig Peterson 3d system including a marker mode
EP3249929A1 (en) * 2016-05-25 2017-11-29 Thomson Licensing Method and network equipment for establishing a manifest
JP6859452B2 (ja) * 2017-03-30 2021-04-14 スノー コーポレーション イメージに動的エフェクトを適用する方法および装置
US10628997B2 (en) 2017-08-24 2020-04-21 Emilio Santos Method for generating three-dimensional models from constrained sketches and an instruction set
US10735649B2 (en) * 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
US11481997B1 (en) * 2018-03-09 2022-10-25 Snap Inc. Presentation of information from the sky
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
US20230394827A1 (en) * 2022-06-04 2023-12-07 Zoom Video Communications, Inc. Title detection for slides presented in a communication session

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200973A (ja) * 2002-12-18 2004-07-15 Nippon Telegr & Teleph Corp <Ntt> 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
WO2007055865A1 (en) * 2005-11-14 2007-05-18 Microsoft Corporation Stereo video for gaming
JP2008148183A (ja) * 2006-12-13 2008-06-26 Seiko Epson Corp 画像処理装置、画像処理方法、および画像処理プログラム
US20080240549A1 (en) * 2007-03-29 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images
WO2008139351A1 (en) * 2007-05-11 2008-11-20 Koninklijke Philips Electronics N.V. Method, apparatus and system for processing depth-related information

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870097A (en) * 1995-08-04 1999-02-09 Microsoft Corporation Method and system for improving shadowing in a graphics rendering system
US20040022322A1 (en) * 2002-07-19 2004-02-05 Meetrix Corporation Assigning prioritization during encode of independently compressed objects
US7639838B2 (en) * 2002-08-30 2009-12-29 Jerry C Nims Multi-dimensional images system for digital image input and output
JP3787633B2 (ja) * 2003-04-21 2006-06-21 独立行政法人情報通信研究機構 実時間コンテンツ編集システム
EP1742488B1 (en) 2004-04-26 2014-10-15 Olympus Corporation Image file reproducing apparatus and method
US7262767B2 (en) 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
US20080278487A1 (en) * 2005-04-07 2008-11-13 Nxp B.V. Method and Device for Three-Dimensional Rendering
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
WO2007148219A2 (en) * 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
CN101542529B (zh) * 2006-11-21 2012-10-03 皇家飞利浦电子股份有限公司 图像的深度图的生成方法和图像处理单元
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
KR100962696B1 (ko) 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
EP2174293B1 (en) * 2007-07-03 2011-04-27 Koninklijke Philips Electronics N.V. Computing a depth map

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200973A (ja) * 2002-12-18 2004-07-15 Nippon Telegr & Teleph Corp <Ntt> 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
WO2007055865A1 (en) * 2005-11-14 2007-05-18 Microsoft Corporation Stereo video for gaming
JP2008148183A (ja) * 2006-12-13 2008-06-26 Seiko Epson Corp 画像処理装置、画像処理方法、および画像処理プログラム
US20080240549A1 (en) * 2007-03-29 2008-10-02 Samsung Electronics Co., Ltd. Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images
WO2008139351A1 (en) * 2007-05-11 2008-11-20 Koninklijke Philips Electronics N.V. Method, apparatus and system for processing depth-related information

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012105019A (ja) * 2010-11-09 2012-05-31 Toshiba Corp 画像処理装置、方法およびそのプログラム
JP5502211B2 (ja) * 2011-01-17 2014-05-28 パナソニック株式会社 立体画像処理装置および立体画像処理方法
US8750601B2 (en) 2011-01-17 2014-06-10 Panasonic Corporation Three-dimensional image processing device, and three-dimensional image processing method
WO2019203207A1 (ja) * 2018-04-19 2019-10-24 ソニー株式会社 受信装置、受信方法、送信装置および送信方法
CN111971955A (zh) * 2018-04-19 2020-11-20 索尼公司 接收装置、接收方法、发送装置和发送方法
JPWO2021245930A1 (ja) * 2020-06-05 2021-12-09

Also Published As

Publication number Publication date
US20100165081A1 (en) 2010-07-01
CN101771892A (zh) 2010-07-07
JP5543191B2 (ja) 2014-07-09
US8767048B2 (en) 2014-07-01
EP2202992A2 (en) 2010-06-30
EP2202992A3 (en) 2012-04-04
CN101771892B (zh) 2014-12-10
KR20100076783A (ko) 2010-07-06
KR101547151B1 (ko) 2015-08-25

Similar Documents

Publication Publication Date Title
JP5543191B2 (ja) 映像処理方法及びその装置
US8488869B2 (en) Image processing method and apparatus
CN110100435B9 (zh) 生成装置、识别信息生成方法、再现装置和图像再现方法
JP5519647B2 (ja) カメラ・パラメータを利用したステレオスコピック映像データ・ストリーム生成方法及びその装置、
CN102845067B (zh) 三维(3d)呈现中的字幕
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
US20090315981A1 (en) Image processing method and apparatus
TWI531212B (zh) 呈現立體影像之系統及方法
EP2400767A2 (en) Graphic image processing method and apparatus
CN113253845A (zh) 一种基于人眼追踪视图显示方法、装置、介质及电子设备
JP2012528510A (ja) 映像処理方法及び装置
CN108450031B (zh) 图像捕获装置
JP2003284095A (ja) 立体画像処理方法および装置
KR20140051035A (ko) 영상 부호화 방법 및 장치
KR101390811B1 (ko) 3차원 영상을 위한 다시점 카메라 파라미터 수신 방법 및그 장치, 그리고 다시점 카메라 파라미터 전송 방법 및 그장치
US8131062B2 (en) Method of processing an image
JP2014175813A (ja) 立体映像表示方法および装置
US10475233B2 (en) System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
US20130127843A1 (en) Display apparatus and display method thereof
US9609313B2 (en) Enhanced 3D display method and system
AU2004226624B2 (en) Image processing
JP2011234305A (ja) 再生装置、表示装置、記録装置及び格納媒体
Zhang et al. 3D Subtitles Superimposed Technical Overview
KR20090093734A (ko) 다시점 영상을 위한 부가 정보를 포함하는 데이터스트림부호화 방법 및 그 장치, 그리고 이를 이용한 데이터스트림복호화 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140508

R150 Certificate of patent or registration of utility model

Ref document number: 5543191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees