JP2013546220A - ディスプレイ装置および信号処理装置並びにその方法 - Google Patents

ディスプレイ装置および信号処理装置並びにその方法 Download PDF

Info

Publication number
JP2013546220A
JP2013546220A JP2013531503A JP2013531503A JP2013546220A JP 2013546220 A JP2013546220 A JP 2013546220A JP 2013531503 A JP2013531503 A JP 2013531503A JP 2013531503 A JP2013531503 A JP 2013531503A JP 2013546220 A JP2013546220 A JP 2013546220A
Authority
JP
Japan
Prior art keywords
disparity information
video
graphic
disparity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2013531503A
Other languages
English (en)
Inventor
ソ,ジュ−ヒ
チョウ,ボン−ジェ
パク,ホン−ソク
ジョン,キル−ス
キム,ヨン−テ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013546220A publication Critical patent/JP2013546220A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

グラフィック客体を表示するディスプレイ装置が開示される。本装置は、ビデオ信号を処理して映像を構成するビデオ処理部と、グラフィックデータを処理してグラフィック客体を構成するグラフィック処理部と、映像およびグラフィック客体を表示するためのディスプレイ部と、映像およびグラフィック客体の各々に互いに異なる立体感を与え、映像が表示されるリファレンスレイヤの上位であるオーバーレイレイヤにグラフィック客体が表示される状態を維持するように、ビデオ処理部およびグラフィック処理部を制御する制御部とを含む。それにより、デプス逆転現象を防止することができる。

Description

本発明は、ディスプレイ装置および信号処理装置並びにその方法に関し、より詳細には、立体感グラフィック客体を安定的に表示するようにするディスプレイ装置および信号処理装置並びにその方法に関する。
電子技術の発達により、多様な種類の電子装置が開発されている。特に、一般家庭で最も多く使われているテレビ等のようなディスプレイ装置の場合、かつてに比べて大型化されたスクリーンを備えて、より多くの機能を行うことができるスマート型機器に進化しつつある。
それにより、ディスプレイ装置から提供するコンテンツも単に放送信号にとどまらなくなった。例えば、多様な種類のアプリケーションやウィジェットプログラムをインストールされ、ユーザに提供することができる。
なお、最近では、3D(three dimension)ディスプレイ機能を備えたディスプレイ装置も急ピッチで普及されている。3Dディスプレイ装置は、画面に表示される客体に立体感を与えて、ユーザが臨場感のある画面を視聴することができるようにする機器である。それにより、3Dディスプレイ装置から出力する3Dコンテンツに対する開発への取り組みが加速化している。
一方、3Dディスプレイ機能を備えたディスプレイ装置をより効率的に用いて、最適の視聴環境を提供すことができるように、画面出力以外の機能も3D方式に合うように適切に実現する必要がある。
例えば、画面字幕やOSDメニュー等のような多様な種類のグラフィック客体の場合、イメージと重なってディスプレイされるようになるが、立体感の大きいコンテンツの場合には、このようなグラフィック客体がイメージの裏側に位置するように認識される画面逆転現象が発生しかねない。それにより、ユーザが3Dコンテンツを視聴するうえで、眩暈や不都合を感じるようになる場合がある。
よって、ビデオ出力とともにグラフィック客体が出力される場合、画面逆転現象が防止できるようにする技術に対する必要性が出てきた。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、グラフィック客体が映像出力レイヤより上位に表示される状態を維持することができるようにするディスプレイ装置および信号処理装置並びにその方法を提供することにある。
以上のような目的を達成するための本発明の一実施形態に係るディスプレイ装置は、ビデオ信号を処理して映像を構成するビデオ処理部と、グラフィックデータを処理してグラフィック客体を構成するグラフィック処理部と、前記映像および前記グラフィック客体を表示するためのディスプレイ部と、前記映像および前記グラフィック客体の各々に互いに異なる立体感を与え、前記映像が表示されるリファレンスレイヤの上位であるオーバーレイレイヤに前記グラフィック客体が表示される状態を維持するように、前記ビデオ処理部および前記グラフィック処理部を制御する制御部とを含む。
ここで、外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を受信する受信部を更に含んでよい。
この場合、前記制御部は、前記第1ディスパリティ情報に応じて、前記映像に立体感を与えるように前記ビデオ処理部を制御し、前記第2ディスパリティ情報に応じて、前記グラフィック客体に立体感を与えるように前記グラフィック処理部を制御してよい。
そして、前記受信部は、前記ビデオ信号と、前記グラフィックデータと、前記第1ディスパリティ情報および前記第2ディスパリティ情報を含む放送信号を受信し、前記ビデオ処理部および前記グラフィック処理部は、前記放送信号に含まれたプログラム情報テーブルまたはユーザデータ領域から前記第1ディスパリティ情報および前記第2ディスパリティ情報を各々検出してよい。
一方、前記本装置は、外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報を受信する受信部と、前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するディスパリティ情報生成部とを更に含んでよい。
この場合、前記制御部は、前記第1ディスパリティ情報に応じて、前記映像に立体感を与えるように前記ビデオ処理部を制御し、前記第2ディスパリティ情報に応じて、前記グラフィック客体に立体感を与えるように前記グラフィック処理部を制御してよい。
そして、前記ディスパリティ情報生成部は、前記リファレンスレイヤのディスパリティ変動状態に応じて、前記オーバーレイレイヤのディスパリティが変動され、前記オーバーレイレイヤ間のデプスの差異が予め設定された大きさを保持するように、前記第1ディスパリティ情報を基準として前記第2ディスパリティ情報を生成してよい。
または、前記ディスパリティ情報生成部は、前記オーバーレイレイヤが固定されたデプスを有するように前記第2ディスパリティ情報を生成してよい。
そして、前記ディスパリティ情報生成部は、任意のストリーム単位内で前記リファレンスレイヤの最大のディスパリティを検出し、検出された情報を基準として前記第2ディスパリティ情報を生成してよい。
なお、前記ディスパリティ情報生成部は、前記グラフィック客体が表示される時点における前記リファレンスレイヤのディスパリティを検出し、検出された情報を基準として前記第2ディスパリティ情報を生成してよい。
そして、予め設定されたデプス情報が保存された保存部と、前記デプス情報に応じて、前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するディスパリティ情報生成部とを更に含んでよい。
この場合、前記制御部は、前記第1ディスパリティ情報に応じて、前記映像に立体感を与えるように前記ビデオ処理部を制御し、前記第2ディスパリティ情報に応じて、前記グラフィック客体に立体感を与えるように前記グラフィック処理部を制御してよい。
一方、前記オーバーレイレイヤは、互いに異なるデプスを有する複数個のレイヤを含み、各レイヤには、互いに異なる種類のグラフィック客体が表示されてよい。
そして、前記各レイヤに表示されるグラフィック客体種類の表示順番は、ユーザの選択によって互いに変更可能であってよい。
そして、前記グラフィック客体は、OSDメニューと、字幕と、プログラム情報と、アプリケーションアイコンと、アプリケーションウィンドウおよびGUIウィンドウのうち、少なくとも何れか一つ以上の種類の客体を含んでよい。
一方、本発明の一実施形態に係る信号処理装置は、入力信号を受信する受信部と、前記入力信号に含まれたビデオ信号を処理してリファレンスレイヤにディスプレイできるように、映像を構成するビデオ処理部と、前記入力信号に含まれたオーディオ信号を処理して音響を生成するオーディオ処理部と、グラフィックデータを処理して前記リファレンスレイヤの上位であるオーバーレイレイヤにディスプレイできるようにグラフィック客体を構成するグラフィック処理部と、前記映像、前記音響、前記グラフィック客体を出力手段に伝送するインターフェース部とを含む。
ここで、前記ビデオ処理部は、前記入力信号に含まれた第1ディスパリティ情報を検出し、前記第1ディスパリティ情報に基づいて前記映像に立体感を与え、前記グラフィック処理部は、前記入力信号に含まれた第2ディスパリティ情報を検出し、前記第2ディスパリティ情報に基づいて前記グラフィック客体に立体感を与えてよい。
そして、本信号処理装置は、前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するディスパリティ情報生成部を更に含んでよい。
ここで、前記ビデオ処理部は、前記入力信号に含まれた第1ディスパリティ情報を検出し、前記第1ディスパリティ情報に基づいて前記映像に立体感を与え、前記グラフィック処理部は、前記ディスパリティ情報生成部から生成した前記第2ディスパリティ情報に応じて前記グラフィック客体に立体感を与えてよい。
そして、前記ディスパリティ情報生成部は、前記リファレンスレイヤのディスパリティ変動状態に応じて、前記オーバーレイレイヤのディスパリティが変動され、前記オーバーレイレイヤ間のデプスの差異が予め設定された大きさを保持するように、前記第1ディスパリティ情報を基準として前記第2ディスパリティ情報を生成してよい。
または、前記ディスパリティ情報生成部は、前記オーバーレイレイヤが固定されたデプスを有するように前記第2ディスパリティ情報を生成してよい。
そして、前記ディスパリティ情報生成部は、任意のストリーム単位内で前記リファレンスレイヤの最大のディスパリティを検出し、検出された情報を基準として前記第2ディスパリティ情報を生成してよい。
または、前記ディスパリティ情報生成部は、前記グラフィック客体が表示される時点における前記リファレンスレイヤのディスパリティを検出し、検出された情報を基準として前記第2ディスパリティ情報を生成してよい。
なお、本装置は、予め設定されたデプス情報が保存された保存部と、前記デプス情報に応じて、前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するディスパリティ情報生成部とを更に含んでよい。
そして、前記ビデオ処理部は、前記入力信号に含まれた第1ディスパリティ情報を検出し、前記第1ディスパリティ情報に基づいて前記映像に立体感を与え、前記グラフィック処理部は、前記入力信号に含まれた第2ディスパリティ情報を検出し、前記第2ディスパリティ情報に基づいて前記グラフィック客体に立体感を与えてよい。
一方、前記オーバーレイレイヤは、互いに異なるデプスを有する複数個のレイヤを含み、各レイヤには、互いに異なる種類のグラフィック客体が表示されてよい。
そして、前記各レイヤに表示されるグラフィック客体種類の表示順番は、ユーザの選択によって互いに変更可能であってよい。
なお、前記グラフィック客体は、OSDメニューと、字幕と、プログラム情報と、アプリケーションアイコンと、アプリケーションウィンドウおよびGUIウィンドウのうち、少なくとも何れか一つ以上の種類の客体を含んでよい。
一方、本発明の一実施形態に係る信号処理方法は、ビデオ信号を処理してリファレンスレイヤにディスプレイできるように映像を構成するステップと、グラフィックデータを処理して、前記リファレンスレイヤの上位であるオーバーレイレイヤにディスプレイできるようにグラフィック客体を構成するステップと、前記映像および前記グラフィック客体を出力手段に伝送するステップとを含む。
ここで、外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を受信する受信ステップを更に含んでよい。
この場合、前記映像は、前記第1ディスパリティ情報に応じて立体感が与えられ、前記グラフィック客体は、前記第2ディスパリティ情報に応じて立体感が与えられて構成されてよい。
そして、前記受信ステップは、前記ビデオ信号と、前記グラフィックデータと、前記第1ディスパリティ情報および前記第2ディスパリティ情報を含む放送信号を受信するステップと、前記放送信号に含まれたプログラム情報テーブルまたはユーザデータ領域から前記第1ディスパリティ情報および前記第2ディスパリティ情報を各々検出するステップとを含んでよい。
なお、外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報を受信するステップと、前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するステップとを更に含んでよい。
ここで、前記映像は、前記第1ディスパリティ情報に応じて立体感が与えられ、前記グラフィック客体は、前記第2ディスパリティ情報に応じて立体感が与えられて構成されてよい。
そして、前記第2ディスパリティ情報を生成するステップは、前記第1ディスパリティ情報を分析して、前記リファレンスレイヤのディスパリティ変動状態を確認するステップと、前記リファレンスレイヤのディスパリティ変動状態に応じて、前記オーバーレイレイヤのディスパリティが変動され、前記オーバーレイレイヤ間のデプスの差異が予め設定された大きさを保持するように、前記第1ディスパリティ情報を基準として前記第2ディスパリティ情報を生成するステップとを含んでよい。
ここで、前記第2ディスパリティ情報は、前記オーバーレイレイヤが固定されたデプスを有するように生成されるものであってよい。
または、前記第2ディスパリティ情報は、任意のストリーム単位内で検出された前記リファレンスレイヤの最大のディスパリティを基準として生成されるものであってよい。
または、前記第2ディスパリティ情報は、前記グラフィック客体が表示される時点で検出される前記リファレンスレイヤのディスパリティを基準として生成されるものであってよい。
一方、本方法は、予め設定されたデプス情報が保存された保存部から前記デプス情報を読み取るステップと、前記デプス情報に応じて、前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するステップとを更に含んでよい。
ここで、前記映像は、前記第1ディスパリティ情報に応じて立体感が与えられ、前記グラフィック客体は、前記第2ディスパリティ情報に応じて立体感が与えられて構成されてよい。
そして、前記オーバーレイレイヤは、互いに異なるデプスを有する複数個のレイヤを含み、各レイヤには、互いに異なる種類のグラフィック客体が表示されてよい。
なお、前記各レイヤに表示されるグラフィック客体種類の表示順番は、ユーザの選択によって互いに変更可能であってよい。
そして、前記グラフィック客体は、OSDメニューと、字幕と、プログラム情報と、アプリケーションアイコンと、アプリケーションウィンドウおよびGUIウィンドウのうち、少なくとも何れか一つ以上の種類の客体を含んでよい。
以上説明したように、本発明によれば、グラフィック客体が、映像が出力されるレイヤより上位レイヤに表示される状態を保持することができるようになる。よって、3Dコンテンツおよびグラフィック客体の位置が入れ替わる画面逆転現象を防止することができるようになる。
本発明の一実施形態に係るディスプレイ装置の構成を示すブロック図である。 リファレンスレイヤおよび複数のオーバーレイレイヤの関係を説明するための図である。 本発明の多様な実施形態に係るディスプレイ装置の構成を示すブロック図である。 本発明の多様な実施形態に係るディスプレイ装置の構成を示すブロック図である。 本発明の多様な実施形態に係るディスプレイ装置の構成を示すブロック図である。 オーバーレイレイヤのディスパリティを固定させる多様な実施形態を説明するための図である。 オーバーレイレイヤのディスパリティを固定させる多様な実施形態を説明するための図である。 オーバーレイレイヤのディスパリティを固定させる多様な実施形態を説明するための図である。 オーバーレイレイヤのディスパリティを流動的に変更する実施形態を説明するための図である。 オーバーレイレイヤのディスパリティを流動的に変更する実施形態を説明するための図である。 オーバーレイレイヤの状態を変更するためのUIの一例を示す図である。 本発明の多様な実施形態に係る信号処理装置の構成を示す図である。 本発明の多様な実施形態に係る信号処理装置の構成を示す図である。 本発明の多様な実施形態に係る信号処理装置の構成を示す図である。 本発明の一実施形態に係る放送送信装置の構成を示すブロック図である。 プログラム情報テーブルの内容に応じて変更されるディスプレイ状態を説明するための図である。 プログラム情報テーブルの内容に応じて変更されるディスプレイ状態を説明するための図である。 本発明の多様な実施形態に係る信号処理方法を説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態に係るディスプレイ装置の構成を示すブロック図である。図1に示すように、ディスプレイ装置100は、ビデオ処理部110と、グラフィック処理部120と、制御部130およびディスプレイ部140を含む。ディスプレイ装置とは、テレビやパソコン、デジタルフォトフレーム、PDA、携帯電話、ノートパソコン、タブレットパソコン、電子書籍等のようにディスプレイ機能を具備した多様な種類の装置を意味する。
ビデオ処理部110は、ビデオ信号を処理して映像を構成する部である。このようなビデオ信号は、放送送信装置から伝送された放送信号から検出することができ、ウェブサーバや内部または外部保存媒体、再生装置等のような多様な外部ソースから提供される信号であってよい。
ビデオ信号は、3D出力のためのステレオ映像であってよい。ステレオ映像とは、二つ以上の映像を意味する。一例として、一つの被写体を別の角度から撮影した二つの映像、すなわち、第1入力映像および第2入力映像がステレオ映像であってよい。説明の便宜上、本明細書では、第1入力映像を左眼映像(または、左側映像)、第2入力映像を右眼映像(または、右側映像)と称し、説明を進める。上述のような多様なソースから左眼映像および右眼映像の両方を含むステレオ映像がそのまま伝送された場合、ビデオ処理部110は、これらのデータを各々デコーディングして一つの3D映像を構成する左眼イメージフレームおよび右眼イメージフレームを生成することができる。
一方、ビデオ信号は2D映像であってよい。この場合、ビデオ処理部110は、2D映像に対するデコーディング、デインターリービング、スケーリング等のような多様な信号処理を行って一つのイメージフレームで構成してよい。
一方、2D映像が入力される場合でも、3D出力をしようとする場合、ビデオ処理部110は入力された2D映像から構成される一つのイメージフレームを基準フレームとしておき、そのフレーム内の各客体に該当するピクセルの位置をシフトさせて新たなフレームを生成することができる。ここで、基準フレームは、左眼イメージフレームとして使用され、ディスパリティを有する新たなフレームは、右眼イメージフレームとして使用されてよい。
グラフィック処理部120は、グラフィックデータを処理してグラフィック客体を構成することができる。ここで、グラフィック客体とは、映像に対応する字幕(subtitle or closed caption)であってよい。なお、それに限定されず、OSDメニューと、プログラム情報と、アプリケーションアイコンと、アプリケーションウィンドウおよびGUIウィンドウ等のような多様な種類の客体がグラフィック処理部120によって生成されてよい。
制御部130は、ビデオ処理部110で構成されて映像、グラフィック120で構成されたグラフィック客体の各々に互いに異なる立体感を与えて、画面逆転現象が生じないように、ビデオ処理部110およびグラフィック処理部120を制御することができる。具体的には、制御部130は、ビデオ処理部110で3D方式で映像を構成する場合、その3D映像が表示されるレイヤより奥行き感覚がより強いレイヤにグラフィック客体が表示される状態を維持するように、ビデオ処理部110およびグラフィック処理部120の各々を制御してよい。
以下では、映像が表示されるレイヤをリファレンスレイヤとし、グラフィック客体が表示されるレイヤをオーバーレイレイヤ(overlay layer)とする。オーバーレイレイヤには、映像を除くグラフィック的な要素を有する多様な種類のグラフィック客体が表示されてよい。オーバーレイレイヤのディスパリティは、映像が表示されるリファレンスレイヤより大きい値に定められてよい。具体的には、逆転が生じないことを保障することができる値に定められる。
ディスプレイ部140は、ビデオ処理部110で構成された映像フレームおよびグラフィック処理部120で構成されたグラフィック客体を画面上にディスプレイする。ここで、ディスプレイ部140は、左眼映像フレームおよび右眼映像フレームを交互に表示して映像を3Dで表示することができる。なお、左眼グラフィック客体と右眼グラフィック客体とを交互に表示してグラフィック客体も3Dで表示することができる。
一方、本ディスプレイ装置100が非メガネ方式の3Dディスプレイ装置で実現された場合、ビデオ処理部110は映像を多時点映像で構成でき、グラフィック処理部120は、グラフィック客体を多時点客体で構成することができる。この場合、ディスプレイ部140は、多時点映像および多時点客体を空間的に区分して出力し、メガネを掛けなくても被写体との距離感を感じ、3D映像として認識するようにすることができる。具体的には、この場合、ディスプレイ装置140は、パララクスバリア(Parallax Barrier)技術またはレンチキュラー(Lenticular)技術によるディスプレイパネルで実現されてよい。
図2は、リファレンスレイヤとオーバーレイレイヤとが表示される状態の一例を示す。図2によると、ディスプレイ装置100の画面上では、映像およびグラフィック客体が各々3D方式で出力される。3D方式の場合、ディスパリティに応じて多様な奥行き感が表示される。このように、互いに異なるデプスを有する複数の客体が存在する際、その奥行き感を各々レイヤまたはプレーン(Plane)と称してよい。複数のレイヤのうち、映像が表示されるリファレンスレイヤ10は最も基本的なベースに該当し、その上位には、少なくとも一つ以上のオーバーレイレイヤ20、30が設けられてよい。図2においては、一つのリファレンスレイヤ10を示しているが、映像が3Dで表示される場合には、リファレンスレイヤ10そのものも複数個で設けられてよい。このとき、全オーバーレイレイヤのうち、最下位のオーバーレイレイヤ20であっても、最上位のリファレンスレイヤ10と最小の同じ奥行き感を有するか、より大きい奥行き感を有するように構成される。これにより、3Dコンテンツの立体感が大きくても、グラフィック客体が常に映像よりもっとユーザに近く感じられるように表示され、逆転が生じなくなる。
上述のように、多様な種類のグラフィック客体は、一つのオーバーレイレイヤに全て表示されてよく、種類に応じて互いに異なる奥行き感を有する複数のオーバーレイレイヤに各々表示されてよい。
一方、リファレンスレイヤのディスパリティ情報およびオーバーレイレイヤのディスパリティ情報は、多様な方式で提供されてよい。
図3は、本発明の一実施形態に係るディスプレイ装置の細部構成例を示すブロック図である。図3に示すように、ディスプレイ装置100は、ビデオ処理部110と、グラフィック処理部120と、制御部130と、ディスプレイ部140および受信部150を含んでよい。
一実施形態によると、受信部150は、外部ソースからリファレンスレイヤに対する第1ディスパリティ情報およびオーバーレイレイヤに対する第2ディスパリティ情報を受信してよい。
ここで、外部ソースとは、放送信号を伝送する放送局であってよく、その他の保存媒体、外部サーバ、再生装置等のように、多様な装置であってよい。外部ソースは、グラフィック客体が常に映像より上位に表示できるように、第2ディスパリティ情報の大きさを第1ディスパリティ情報より大きい値に設定して伝送することができる。
制御部130は、受信部150によって第1ディスパリティ情報および第2ディスパリティ情報のいずれもが受信される場合には、第1ディスパリティ情報に応じて映像に立体感を与えるように、ビデオ処理部110を制御し、第2ディスパリティ情報に応じてグラフィック客体に立体感を与えるように、グラフィック処理部120を制御することができる。ここで、第1ディスパリティ情報とは、オーバーレイレイヤの表示基準として参照され得るビデオのデプス(Depth)またはディスパリティに対する情報を意味する。なお、第2ディスパリティ情報とは、オーバーレイレイヤのデプスまたはディスパリティを直接的に示す明示的な値を意味する。このような第1および第2ディスパリティ情報を用いて、ディスプレイ装置100は画面逆転現象が生じることなく、映像およびグラフィック客体を3D方式で表現することができる。
図4は、ビデオ処理部110およびグラフィック処理部120の細部構成を説明するためのディスプレイ装置100の構成例を示す。図4に示すように、ディスプレイ装置は、ビデオ処理部110と、グラフィック処理部120と、受信部150およびデマルチプレクサ160を含む。
ここで、デマルチプレクサ160は、受信部150を介して受信した放送信号からビデオ信号およびグラフィックデータを検出する構成を意味する。すなわち、上述のように、受信部150は、ビデオ信号、グラフィックデータ、第1ディスパリティ情報および第2ディスパリティ情報を含む放送信号を受信することができる。図4では図示はしていないが、受信部150には、アンテナやRFダウンコンバータ、復調部と、等化部等のような多様な構成が設けられてよい。それにより、受信されたRF信号を中間帯域にダウンコンバーティングした後、復調および等化を行って信号を復元し、デマルチプレクサ160に提供することができる。デマルチプレクサ160は、提供された信号をデマルチプレキシングして、ビデオ信号はビデオ処理部110に提供し、グラフィックデータはグラフィック処理部120に提供する。
一方、図1、3、4では図示はしていないが、放送信号の場合には、オーディオ信号も含まれるため、オーディオ信号を処理するオーディオ処理部(図示せず)も更に含まれてよい。しかし、オーディオ信号は、グラフィック客体処理とは直接関係がないため、以上では図示および説明を省略する。
一方、第1ディスパリティ情報および第2ディスパリティ情報は、放送信号に設けられる所定領域に記録されてよい。一例として、放送信号には、プログラム情報が記録されるプログラム情報テーブル領域、放送事業者またはユーザが任意に使用できるユーザデータ領域等が設けられていてよい。第1および第2ディスパリティ情報は、このような有効領域を用いて伝送されてよい。それについては、今後具体的に説明する。
図4によると、ビデオ処理部110は、ビデオデコーダ111と、Lバッファ112と、Rバッファ113と、Lフレーム構成部114と、Rフレーム構成部115および第1スイッチ116が含まれる。
ビデオデコーダ111は、デマルチプレクサ160から提供されるビデオ信号をデコーディングする。具体的には、RSデコーディング、ビタビデコーディング、ターボデコーディング、トレリスデコーディング等のような多様なデコーディングまたはこれらの組み合わせがなされてよい。なお、図4には示していないが、送信過程において、データインターリービングが行われた場合、ビデオ処理部110内には、デインターリービングを行うデインターリーバが設けられていてよい。
ビデオデコーダ111でデコーディングされたデータのうち、左眼イメージデータはLバッファ112に保存され、右眼イメージデータはRバッファ113に保存される。
Lフレーム構成部114は、Lバッファ112に保存されたデータを用いて左眼イメージフレームを生成する。なお、Rフレーム構成部115は、Rバッファ113に保存されたデータを用いて右眼イメージフレームを構成する。
第1スイッチ116は、Lフレーム構成部114およびRフレーム構成部115で各々構成する左眼イメージフレームおよび右眼イメージフレームを交互に出力する。このとき、左眼イメージフレームおよび右眼イメージフレームの間には、ブラックフレームが表示されてよい。なお、毎回出力の際には、一つの左眼イメージフレームおよび一つの右眼イメージフレームのみが出力されるのではなく、同じ複数の左眼イメージフレームおよび同じ複数の右眼イメージフレームが出力されてよい。
一方、グラフィック処理部120は、グラフィックデータデコーダ121と、L客体(object)構成部122と、R客体構成部123および第2スイッチ124を含む。
グラフィックデータデコーダ121は、デマルチプレクサ160から提供されるグラフィックデータをデコーディングする。デコーディング方式は、送信側で適用されたエンコーディング方式に対応するものであってよく、このようなデータエンコーディングおよびデコーディング方式は、公知となった技術がそのまま適用されてよい。なので、具体的なデコーディング方式および構成については、図示および説明を省略する。
グラフィックデータデコーダ121でデコーディングされたデータは、各々L客体構成部122およびR客体構成部123に提供される。図4には図示はしていないが、グラフィック処理部120内においても、Lバッファ、Rバッファが設けられて使用できることは言うまでもない。L客体構成部122およびR客体構成部123で構成された左眼グラフィック客体および右眼グラフィック客体間のディスパリティは、Lフレーム構成部114およびRフレーム構成部115で構成するフレーム間のディスパリティより大きい値に保持される。
第2スイッチ124は、第1スイッチ116の動作と連動し、L客体構成部122およびR客体構成部123で構成された左眼グラフィック客体および右眼グラフィック客体を交互に出力する。それにより、映像およびそれに対応するグラフィック客体が一つの画面上において、互いに異なる奥行き感をもって重畳され、3D方式で表現されてよい。
図5は、本発明の別の実施形態に係るディスプレイ装置の構成を示すブロック図である。図5によると、ディスプレイ装置は、ビデオ処理部110と、グラフィック処理部120と、制御部130と、ディスプレイ部140と、受信部150と、ディスパリティ情報生成部170および保存部180を含む。
受信部150は、ディスプレイ装置から出力するデータを受信することができる。具体的には、放送局、ウェブサーバ、保存媒体、再生装置等のような多様なソースから受信してよい。
受信されるデータには、映像の奥行き感に関連する情報が含まれていてよい。すなわち、受信部150は、外部ソースからリファレンスレイヤに対する第1ディスパリティ情報を受信することができる。
それにより、制御部130は、受信された第1ディスパリティ情報に応じて映像に立体感を与えるように、ビデオ処理部110を制御することができる。
一方、グラフィック客体が表示されるオーバーレイレイヤの奥行き感に対する情報は含まれなくてよい。このように、受信部150を介してリファレンスレイヤに対する第1ディスパリティ情報のみが受信可能な場合に、ディスパリティ情報生成部170が使われてよい。
すなわち、ディスパリティ情報生成部170は、オーバーレイレイヤに対する第2ディスパリティ情報を生成する。制御部130は、ディスパリティ情報生成部170から生成した第2ディスパリティ情報に応じてグラフィック客体に立体感を与えるように、グラフィック処理部120を制御することができる。
第2ディスパリティ情報は、実施形態に応じて多様な方式で生成されてよい。すなわち、映像が3Dで表現される場合、リファレンスレイヤのディスパリティは、毎時間ごとに変動されてよい。ディスパリティ情報生成部170は、第1ディスパリティ情報を分析してディスパリティを確認した後、確認の結果を用いて第2ディスパリティ情報を生成することができる。
この場合、リファレンスレイヤのディスパリティ変動によらず、オーバーレイレイヤのディスパリティを固定させる固定型、リファレンスレイヤのディスパリティ変動に応じてオーバーレイレイヤのディスパリティを変動させる流動型があってよい。
固定型で実現された場合、ディスパリティ情報生成部170は、オーバーレイレイヤが常に固定したデプスを有するように、第2ディスパリティ情報を生成してよい。
図6ないし図8は、ディスプレイ装置においてオーバーレイレイヤのディスパリティを固定的に決定する方式に対する多様な例を示す。
図6は、時間によるリファレンスレイヤのディスパリティのピーク値を示す。図6に示すように、ディスパリティ情報生成部170は、任意のストリーム単位内でリファレンスレイヤの最大のディスパリティを検出し、検出された情報を基準として、第2ディスパリティ情報を生成することができる。ストリーム単位は、一つのGoP(Group of Picture)であってよく、一つの放送プログラム単位、定められたパケット個数単位、固定された時間単位等であってよい。
図6に示すように、t2時点でグラフィック客体を表示しなければならないイベントが発生した場合、以前までのリファレンスレイヤの最大のディスパリティを確認する。それにより、t1時点で最大のディスパリティを有すると判断されると、ディスパリティ情報生成部170は、t1時点のディスパリティをそのまま、または、その値より所定値を増大させたディスパリティをオーバーレイレイヤのディスパリティに決定し、それによって第2ディスパリティ情報を生成することができる。
また、図7に示すように、グラフィック客体を表示しなければならない時点t3のリファレンスレイヤのディスパリティをそのまま使用し、第2ディスパリティ情報を生成することもできる。すなわち、映像とグラフィック客体とが同時に表示されるその時点のリファレンスレイヤと同じレベルの奥行き感を固定的に有するように、第2ディスパリティ情報が決定されてよい。
このようなオーバーレイレイヤが表示されるイベントという字幕が入力される場合、OSDメニューやアイコン等を確認するための確認命令が入力される場合、アプリケーションやウィジェット等が実行され、UIウィンドウが表示される場合等であってよく、その他に、グラフィック客体が表示される場合は全てが含まれてよい。
一方、上述のように、オーバーレイレイヤは複数個であってよい。
図8は、複数個のオーバーレイレイヤのディスパリティが固定的に各々決定される方式を示す。図8によると、字幕が表示される第1オーバーレイレイヤ、すなわち、Graphic planeのディスパリティはリファレンスレイヤの最大のディスパリティと同じ値に決定される。一方、OSDメニューが表示される第2オーバーレイレイヤ、すなわち、OSD planeは第1オーバーレイレイヤより少し大きいディスパリティを有する。それにより、グラフィック客体の種別に互いに異なる奥行き感を有することができるようになる。
一方、別の例として、ディスパリティ情報生成部170は、オーバーレイレイヤが流動的な奥行き感を有するように、第2ディスパリティ情報を生成することができる。すなわち、ディスパリティ情報生成部170は、リファレンスレイヤのディスパリティ変動状態に応じてオーバーレイレイヤのディスパリティも変動され、そのデプスの差異が予め設定された大きさを保持するように、第1ディスパリティ情報を基準として第2ディスパリティ情報を生成することができる。
図9および図10は、ディスプレイ装置においてオーバーレイレイヤのディスパリティを流動的に決定する方式を説明するための図である。
図9によると、リファレンスレイヤのディスパリティは、毎時間ごとに持続的に変化され、オーバーレイレイヤのディスパリティは、リファレンスレイヤを基準として一定間隔を維持するように変化されることが分かる。
図10は、ディスプレイ装置の画面(screen)を基準としてリファレンスレイヤが上下方向に奥行き感が変動され、それに連動して、オーバーレイレイヤも上下方向に奥行き感が変動される状態を示す。
以上のように、第1ディスパリティ情報のみが外部から提供される場合、第2ディスパリティ情報は、第1ディスパリティ情報を用いて固定的に、または、流動的に決定できるようになる。
一方、以上では、第1ディスパリティ情報のみが提供される場合について説明してきたが、必ずしもそれに限定されるものではない。すなわち、第2ディスパリティ情報のみが提供される場合にも、第2ディスパリティ情報を基準として第1ディスパリティ情報が生成することができる。この場合にも、流動型または固定型にリファレンスレイヤのディスパリティが決定できることは言うまでもない。
一方、更に別の実施形態としては、第2ディスパリティ情報そのものが任意の値に予め定められて、保存部180に保存されていてよい。この場合、ディスパリティ情報生成部170は、第1ディスパリティ情報によらず、保存部180に保存された値で第2ディスパリティ情報を生成することもできる。
一方、更に別の実施形態によると、第1ディスパリティ情報および第2ディスパリティ情報のいずれもが外部から提供されない場合もあってよい。この場合には、ディスパリティ情報生成部170は、予め設定されたディスパリティ情報を用いて第1および第2ディスパリティ情報を生成することができる。
すなわち、保存部180は、任意に定められたデプス情報またはディスパリティ情報が保存されていてよい。一例として、画面のデプスを0とすると、リファレンスレイヤは−10〜+10ピクセル内で、ディスパリティが変動されるように設定し、第1オーバーレイレイヤは+15ピクセル、第2オーバーレイレイヤは+20ピクセル程度にディスパリティが設定されてよい。このようなディスパリティは、ディスプレイ装置の種類に応じて多様な大きさを有してよい。すなわち、画面が大きいテレビの場合には、携帯電話のような小型ディスプレイ装置に比べてより大きいディスパリティ情報が設定されていてよい。
ディスパリティ情報生成部170は、保存部180に保存されたデプス情報に応じて、第1および第2ディスパリティ情報を生成し、それをビデオ処理部110およびグラフィック処理部120に提供することができる。
または、ディスパリティ情報生成部170は、ビデオ信号で構成された左眼イメージフレームおよび右眼イメージフレームを比較し、マッチングポイント間の距離を確認し、リファレンスレイヤのディスパリティを分析することができる。
すなわち、ディスパリティ情報生成部170は、左眼イメージフレームおよび右眼イメージフレームを各々複数のブロックに区分した後、各ブロックのピクセル代表値を比較する。それにより、ピクセル代表値が類似範囲に入るブロックをマッチングポイントに決定する。それにより、決定されたマッチングポイント間の移動距離に基づいて、デプスマップを生成する。すなわち、左眼映像内で被写体を構成するaピクセルの位置と、右眼映像内でaピクセルの位置とを比較して、その差異を算出する。それにより、算出された差異に対応するグレイレベルを有するイメージ、すなわち、デプスマップを生成する。
デプスとは、被写体とカメラとの間の距離、被写体と被写体の映像とが結像される記録媒体(例えば、フィルム)間の距離、立体感の度合い等で定義されてよい。よって、左眼映像と右眼映像との間のポイント間の距離差がディスパリティに該当し、その値が大きいほど、その分だけより立体感が増大していることが分かる。デプスマップとは、このようなデプスの変化状態を一つの映像で構成したものを意味する。
ディスパリティ情報生成部170は、このようなデプスマップに基づいてオーバーレイレイヤのディスパリティ情報を決定し、第2ディスパリティ情報を固定的または流動的に決定することができる。
一方、上述のように、オーバーレイレイヤは、複数個で設けられてよく、各オーバーレイレイヤには、互いに異なる種類のグラフィック客体が表示されてよい。例えば、OSDメニューのようなグラフィック客体が最上位のオーバーレイレイヤに表示され、字幕のようなグラフィック客体は、その下位に位置するオーバーレイレイヤに表示されてよい。このような表示順番は、ユーザの選択によって変更されてよい。
図11は、ユーザがグラフィック客体の表示順番を変更することができるようにするUI(User Interface)の一例を示す。
図11によると、ディスプレイ装置100の画面上には複数のメニュー(a、b、c)が表示される。ユーザが、その中でグラフィック強調モード(a)を選択すると、字幕のようなグラフィック客体が最上位のオーバーレイレイヤに配置され、残りのグラフィック客体はその下位に表示されてよい。または、OSD強調モード(b)が選択されると、OSDメニューのようなグラフィック客体が最上位のオーバーレイレイヤに配置され、残りのグラフィック客体はその下位に表示されてよい。
または、ユーザはユーザ設定モード(c)を選択して、各グラフィック客体のデプスを直接設定することができる。すなわち、図11でのように、ユーザ設定モード(c)が選択されると、新たなUI(d)が表示される。ユーザは、そのUI(d)上において、グラフィック字幕のデプス、OSDメニューのデプス等を直接設定することができる。この場合、図11のように、バーグラフを用いてデプスを設定することもできるが、その他に、ユーザが直接数字やテキスト等を入力してデプスを設定することもできる。
一方、上述においては、ディスプレイ装置で行われる動作を説明してきたが、このような動作はディスプレイ手段を具備しないその他の装置でもなされてよい。以下では、ディスプレイ手段を具備しないその他の装置の一例として、信号処理装置の構成について説明する。
図12は、本発明の一実施形態に係る信号処理装置の構成を示すブロック図である。図12に示すように、信号処理装置200は、OSDデコーダ210と、メモリ220と、PIDフィルタ230と、ビデオデコーダ240と、グラフィックデコーダ250と、3Dマネージャ部260と、OSDバッファ270と、グラフィックバッファ280と、ビデオバッファ290およびMUX295を含む。ここで、信号処理装置とは、セットトップボックスやDVD、ブルーレイ、VCR等のような各種保存媒体を再生する再生装置等であってよく、その他に、各種装置内に内蔵されたチップまたはモジュールで実現されてよい。
OSDデコーダ210は、ユーザのコマンドに応じてOSDデータをメモリ220から読み取った後、デコーディングしてOSDデータを3Dマネージャ部260に提供する。3Dマネージャ部260は、提供されたOSDデータを用いて左眼OSD客体および右眼OSD客体を生成する。この場合、左眼OSD客体および右眼OSD客体の間のディスパリティは、OSDメニューが表示されるオーバーレイレイヤのディスパリティに合うように設定される。生成された左眼および右眼OSDメニューは、OSDバッファ270に保存される。
一方、伝送ストリーム(Transport Stream:TS)が受信されると、検出部230はそれを処理してグラフィックデータおよびビデオデータを分離する。具体的には、伝送ストリームがMPEG−2規格によるストリームの場合、検出部230は、MPEG−2トランスポートストリームからプログラム固有情報(PSI)テーブルを検出する。それにより、PIDフィルタ(Program IDentifier filter)を使用してATSCプログラムとシステム情報プロトコル(PSIP)テーブル、DVBサービス情報(SI)、条件部アクセステーブル(CAT)、DSM−CCメッセージ、Privateテーブルデータ等、全種類のPSIデータを取得することができる。検出部230は、取得されたデータを用いて、ビデオデータおよびグラフィックデータを分離することができる。一方、検出部230は、オーバーレイレイヤに対するディスパリティ情報に関連するdepth packetsを検出し、3Dマネージャ部260に提供する。
グラフィックデータは、グラフィックデコーダ250に提供される。グラフィックデコーダ250は、グラフィックデータをデコーディングして3Dマネージャ部260に提供する。3Dマネージャ部260は、検出部230から提供されるdepth packetsと、デコーディングされたグラフィックデータを用いて左眼グラフィック客体および右眼グラフィック客体を生成する。左眼および右眼グラフィック客体間のディスパリティは、字幕が表示されるオーバーレイレイヤのディスパリティに合うように設定される。生成された左眼および右眼グラフィック客体は、グラフィックバッファ280に保存される。このように、オーバーレイレイヤのディスパリティに対する情報は、ビデオ信号と同じストリームに伝送されてよく、別途のストリームに伝送されてよい。
一方、ビデオデコーダ240は、ビデオデータをデコーディングしてビデオバッファ290に提供する。TS内に含まれたビデオ信号が2D信号である場合、ビデオバッファ290には、2Dイメージフレームが保存される。一方、ビデオ信号そのものが、左眼イメージフレームおよび右眼イメージフレームを含む場合、別途の3D変換処理過程なしに、左眼イメージフレームおよび右眼イメージフレームがビデオバッファ290に保存されてよい。図12では図示を省略しているが、3Dイメージ変換モジュールが更に含まれた場合、2Dビデオ信号が入力されるとしても、それを用いて左眼イメージフレームおよび右眼イメージフレームを生成できることは言うまでもない。
このように、OSDバッファ270と、グラフィックバッファ280およびビデオバッファ290に保存された各データは、MUX295によって組み合わせられて、画面データを構成する。構成されたデータは、別途に設けられたインターフェースを通じて外部ディスプレイ手段に伝送されたり、別途に設けられた保存部に保存されてよい。
図13は、信号処理装置の更に別の構成を示すブロック図である。図13に示すように、信号処理装置300は、受信部310と、ビデオ処理部320と、オーディオ処理部330と、グラフィック処理部340およびインターフェース部350を含む。
受信部310は、入力信号を受信する。ここで入力信号とは、放送局で送信する放送信号だけでなく、内外部保存媒体や再生装置等から提供されるマルチメディア信号であってよい。
受信部310から受信された入力信号に含まれたビデオ信号は、ビデオ処理部320に提供される。ビデオ処理部320は、ビデオ信号を処理してリファレンスレイヤにディスプレイできる映像を構成する。
一方、オーディオ処理部330は、入力信号に含まれたオーディオ信号を処理して音響を生成する。
グラフィック処理部340は、グラフィックデータを処理してリファレンスレイヤの上位であるオーバーレイレイヤにディスプレイされるように、グラフィック客体を構成する。ここで、グラフィックデータは、入力信号に併せて含まれる字幕データ等であってよく、別のソースから提供されるデータであってよい。例えば、OSDメニューや各種アイコン、ウィンドウ等であってよい。
各処理部で処理されたデータは、インターフェース部350によって出力手段に伝送される。
一方、上述の様々な実施形態を参照して説明したように、ビデオデータに対するディスパリティ情報、すなわち、第1ディスパリティ情報と、グラフィックデータに対するディスパリティ情報、すなわち、第2ディスパリティ情報のうち、少なくとも一つは外部から提供されてよく、全てが提供されなくてよい。
一例として、第1および第2ディスパリティ情報が入力信号に含まれている場合、ビデオ処理部320は、入力信号から第1ディスパリティ情報を検出し、検出された第1ディスパリティ情報に基づいて映像に立体感を与える。一方、グラフィック処理部は、入力信号に含まれた第2ディスパリティ情報を検出し、第2ディスパリティ情報に基づいてグラフィック客体に立体感を与える。
図14は、図1および第2ディスパリティ情報の何れか一方は、提供されない場合の信号処理装置の構成例を示すブロック図である。図14に示すように、信号処理装置300は、受信部310と、ビデオ処理部320と、オーディオ処理部330と、グラフィック処理部340と、インターフェース部350と、ディスパリティ情報生成部360および保存部370を含む。
第1ディスパリティ情報のみが入力信号に含まれている場合、ディスパリティ情報生成部360はオーバーレイレイヤに対する第2ディスパリティ情報を生成する。
具体的には、ディスパリティ情報生成部360は、リファレンスレイヤのディスパリティ変動状態に応じて、オーバーレイレイヤのディスパリティが変動されるように、第2ディスパリティ情報を生成する。すなわち、上述のように、オーバーレイレイヤのデプスを流動的に変更することができる。
または、ディスパリティ情報生成部360は、オーバーレイレイヤが固定されたデプスを有するように、第2ディスパリティ情報を生成することもできる。
それについては、上述の図6ないし図11で具体的に説明しているため、繰り返し説明は省略する。
ディスパリティ情報生成部360は、生成した第2ディスパリティ情報をグラフィック処理部340に提供する。グラフィック処理部340は、ディスパリティ情報生成部360から生成した第2ディスパリティ情報に応じてグラフィック客体に立体感を与える。
一方、別の例によると、第1ディスパリティ情報および第2ディスパリティ情報のいずれもが入力信号に含まれていなくてよい。
この場合、ディスパリティ情報生成部360は、保存部370に保存されたデプス情報を用いて、第1および第2ディスパリティ情報を生成する。
それにより、ビデオ処理部320およびグラフィック処理部340は、各々第1および第2ディスパリティ情報を用いて映像およびグラフィック客体に立体感を与える。
図15は、本発明の一実施形態に係る送信装置の構成を示すブロック図である。図15に示すように、送信装置400は、ビデオエンコーダ410と、ビデオパケット化部420と、オーディオエンコーダ430と、オーディオパケット化部440と、データエンコーダ450と、パケット化部460と、ディスパリティ情報処理部47と、MUX480および出力部490を含む。
ビデオエンコーダ410と、オーディオエンコーダ430およびデータエンコーダ450は、各々ビデオと、データデータと、オーディオデータおよび一般データをエンコーディングする。
ビデオパケット化部420と、オーディオパケット化部440およびパケット化部460は、各々エンコーディングされたデータを含むパケットを構成する。具体的には、ヘッダやペイロード、パリティ等を含む複数のパケットを構成する。
MUX480は、構成された各パケットをマキシングする。具体的には、ビデオパケット化部420と、オーディオパケット化部440およびパケット化部460から提供される複数のパケットを予め設定された個数だけ組み合わせる。
出力部490は、パケットが組み合わせられたフレームに対して、ランダム化、RSエンコーディング、インターリービング、トレリスエンコーディング、シンクマキシング、パイロット挿入、変調、RFアップコンバーティング等の処理を行った後、アンテナを通じて出力する。
一方、ディスパリティ情報処理部470は、リファレンスレイヤおよびオーバーレイレイヤの少なくともいずれか一方のディスパリティに対する情報を生成し、MUX480に提供する。このような情報は、ストリーム内で予め設定されたフィールドに記録されてよい。具体的には、PMT(Program Map Table)ディスクリプタ(descriptor)、ユーザデータ領域等に記録されてよい。または、別途のストリームを通じて提供されてよい。このようなディスパリティ情報は、デプススタイル(depth style)情報、デプス制御許容情報等のような多様なパラメータで提供されてよい。
次に、ディスパリティ情報の多様な例について説明する。
Figure 2013546220

表1は、オーバーレイレイヤのデプスまたはディスパリティを報知するための情報のシンタックスを示す。表1において、depth_control_permissionとは、ユーザがオーバーレイレイヤのデプスを直接調整することができるようにするパラメータである。すなわち、この値が1である場合、ユーザはデプス調節を行うことができる。一方、0であれば、3D再生が可能な外部再生装置或いは表示装置でデプス調節が可能であるとしても、作者(author)の製作意図に応じてデプス調節が許容されなくなる。
一方、オーバーレイレイヤのデプスまたはディスパリティは、次のようなデプススタイルという関数を用いて受信機(すなわち、ディスプレイ装置や信号処理装置)側に提供されてよい。
Figure 2013546220

ここで、video_modeとは、2Dモードか3Dモードかを報知する情報である。すなわち、0の場合には2Dモード、1の場合には3Dモードを意味する。
optimized_graphic_depthとは、作者によって決定された字幕の最適デプスまたはディスパリティを示し、osd_offsetとは、作者によって決定されたOSDメニューのデプスまたはディスパリティを示す。
そして、min_graphic_depthとは、デプス逆転現象が生じないように定められたオーバーレイレイヤの最小デプスまたはディスパリティを示し、max_graphic_depthとは、ユーザの視聴における不都合を最小限化しつつ、立体効果を最適化させるためのオーバーレイレイヤの最大デプスまたはディスパリティを示す。
一方、表1のようなオーバーレイプレーンデプス()の定義位置は、PMTディスクリプタ部分であってよい。具体的には、Overlay_plane_depthに対するディスクリプタは次の表のように定義されてよい。
Figure 2013546220

overlay_plane_depth_descriptorは、ISO/IEC 13818−1で定義しているdescriptor_tagのUser private領域に、表3のような方式で定義されてよい。
その他に、ES User data領域にも、overlay_plane_depth()に対して定義することができるが、その定義周期に対しては制限を設けない。
一方、表2のvideo_modeと、optimized_graphic_depthと、osd_offsetと、min_graphic_depthおよびmax_graphic_depth等は、多様な値に定められてよい。
具体的には、以下の表4のように定義されてよい。
Figure 2013546220

図16は、表4のように、パラメータが定義された際の画面構成を示す。すなわち、表4のように、osd_offsetが0にセットされると、OSDメニュー11は映像が表示されるレイヤ、すなわち、リファレンスレイヤに表示される。一方、min_graphic_depthが10に表示されると、グラフィック客体12はオーバーレイレイヤ上に表示される。
または、各パラメータは、以下の表5のように定義されてよい。
Figure 2013546220

図17は、表5のように、パラメータが定義された際の画面構成を示す。すなわち、表5のように、osd_offsetが10にセットされると、OSDメニュー11はオーバーレイレイヤ上に表示される。一方、グラフィック客体12はリファレンスレイヤに表示される。
このように、グラフィック客体に対するディスパリティ情報が外部から提供される場合には、そのディスパリティ情報に応じて各種グラフィック客体を少なくとも一つのオーバーレイレイヤまたはリファレンスレイヤに表示することができる。
一方、オーバーレイレイヤのデプスまたはディスパリティを定義するために、別途のPESストリームが定義されてよい。具体的には、次のようなフォーマットのPESストリームが設けられてよい。
Figure 2013546220

表6において、data_identifierは、オーバーレイレイヤのデプスまたはディスパリティに対する情報を盛り込んでいるストリームを区分するための識別子を意味する。このような別途のストリームは、図12ないし図14のような多様な構造の受信機に受信され、処理されてよい。
表6のoverlay_plane_depth_segmentは、表2のようなdepth_styleと同じ意味をもつパラメータで構成されてよい。
一方、表3のようなoverlay_plane_depth_descriptorは、次の表のように定義されてよい。
Figure 2013546220

表7によると、overlay_plane_depthストリームの存在有無をシグナリングすることができ、デプス調節が許容可能か否かに対する情報も提供することができる。
図18は、本発明の一実施計値亜に係る信号処理方法を説明するためのフローチャートである。図18に示すように、信号を受信されると(S1810)、受信された信号を用いて映像を構成する(S1820)。
一方、グラフィックデータを表示しなければならない状況であれば(S1830)、グラフィック客体を構成する(S1840)。ここで、グラフィックデータを表示しなければならない状況とは、映像とともに表示する字幕が存在する場合、OSDメニュー選択のためのユーザ命令が入力される場合、その他のアプリケーションやウィジェット等に対するアイコン、ウィンドウ等が表示されなければならないユーザ命令が入力される場合等のように多様であってよい。
一方、グラフィック客体は、映像が表示されるレイヤより上位のオーバーレイレイヤで表示できるように、立体感が与えられて生成される。オーバーレイレイヤのディスパリティに対する情報は、上述のように、外部から提供されてよく、リファレンスレイヤのディスパリティに基づいて装置の内部で自ら生成されてよく、別途に保存されたデプス情報を用いて生成されてよい。
それにより、映像、グラフィック客体は、外部装置に伝送される(S1850)。ここで、外部装置とは、本発明が行われる装置の外部に別途に設けられたディスプレイ装置であってよく、同一装置内の別のチップを意味してよい。
このような信号処理方法は、上述のように、多様な方法で実現されてよい。すなわち、複数のオーバーレイ上に異なる種類のグラフィック客体が表示されてよく、オーバーレイレイヤ間の表示順番を変更してよい。
その他に、フローチャートに全てを示していないが、上述の様々な装置で行われる動作は、本発明の多様な実施形態に係る信号処理方法で実現されてよい。それに対しては、上述の多様な実施形態で具体的に説明しているため、繰り返し説明は省略する。
以上のように、本発明の多様な実施形態によると、3D再生が可能な装置において映像とグラフィック客体のデプスが逆転する逆転現象およびそれによる疲労感誘発を未然に防止することができる。
なお、上述の本発明の多様な実施形態に係る方法を行うためのプログラムは、多様な記録媒体に保存されて使用されてよい。
具体的には、上述の方法を行うためのコードは、RAM(Random Access Memory)、フラッシュメモリ、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electronically Erasable and Programmable ROM)、レジスタ、ハードディスク、リムーバブルディスク、メモリカード、USBメモリ、CD−ROMなどのように、端末機で読取可能な多様な記録媒体に保存されていてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 リファレンスレイヤ
20 第1オーバーレイレイヤ
30 第2オーバーレイレイヤ
110 ビデオ処理部
111 ビデオデコーダ
112 Lバッファ
113 Rバッファ
114 Lフレーム構成部
115 Rフレーム構成部
120 グラフィック処理部
121 グラフィックデータデコーダ
122 L客体構成部
123 R客体構成部
130 制御部
140 ディスプレイ部
150 受信部
160 デマルチプレクサ
170 ディスパリティ情報生成部
180 保存部
210 OSDデコーダ
220 メモリ
230 検出部
240 ビデオデコーダ
250 グラフィックデコーダ
260 3Dマネージャ部
270 OSDバッファ
280 グラフィックバッファ
290 ビデオバッファ
310 受信部
320 ビデオ処理部
330 オーディオ処理部
340 グラフィック処理部
350 インターフェース部
360 ディスパリティ情報生成部
370 保存部
410 ビデオエンコーダ
420 ビデオパケット化部
430 オーディオエンコーダ
440 オーディオパケット化部
450 データエンコーダ
460 パケット化部
470 ディスパリティ情報処理部
480 MUX
490 出力部

Claims (15)

  1. ビデオ信号を処理して映像を構成するビデオ処理部と、
    グラフィックデータを処理してグラフィック客体を構成するグラフィック処理部と、
    前記映像および前記グラフィック客体を表示するためのディスプレイ部と、
    前記映像および前記グラフィック客体の各々に互いに異なる立体感を与え、前記映像が表示されるリファレンスレイヤの上位であるオーバーレイレイヤに前記グラフィック客体が表示される状態を維持するように、前記ビデオ処理部および前記グラフィック処理部を制御する制御部と
    を含むディスプレイ装置。
  2. 外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を受信する受信部を更に含み、
    前記制御部は、前記第1ディスパリティ情報に応じて、前記映像に立体感を与えるように前記ビデオ処理部を制御し、前記第2ディスパリティ情報に応じて、前記グラフィック客体に立体感を与えるように前記グラフィック処理部を制御することを特徴とする請求項1に記載のディスプレイ装置。
  3. 前記受信部は、前記ビデオ信号と、前記グラフィックデータと、前記第1ディスパリティ情報および前記第2ディスパリティ情報を含む放送信号を受信し、
    前記ビデオ処理部および前記グラフィック処理部は、前記放送信号に含まれたプログラム情報テーブルまたはユーザデータ領域から前記第1ディスパリティ情報および前記第2ディスパリティ情報を各々検出することを特徴とする請求項2に記載のディスプレイ装置。
  4. 外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報を受信する受信部と、
    前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するディスパリティ情報生成部と
    を更に含み、
    前記制御部は、前記第1ディスパリティ情報に応じて、前記映像に立体感を与えるように前記ビデオ処理部を制御し、前記第2ディスパリティ情報に応じて、前記グラフィック客体に立体感を与えるように前記グラフィック処理部を制御することを特徴とする請求項1に記載のディスプレイ装置。
  5. 前記ディスパリティ情報生成部は、
    前記リファレンスレイヤのディスパリティ変動状態に応じて、前記オーバーレイレイヤのディスパリティが変動され、前記オーバーレイレイヤ間のデプスの差異が予め設定された大きさを保持するように、前記第1ディスパリティ情報を基準として前記第2ディスパリティ情報を生成することを特徴とする請求項4に記載のディスプレイ装置。
  6. 前記ディスパリティ情報生成部は、
    前記オーバーレイレイヤが固定されたデプスを有するように前記第2ディスパリティ情報を生成することを特徴とする請求項4に記載のディスプレイ装置。
  7. 前記ディスパリティ情報生成部は、
    任意のストリーム単位内で前記リファレンスレイヤの最大のディスパリティを検出し、検出された情報を基準として前記第2ディスパリティ情報を生成することを特徴とする請求項6に記載のディスプレイ装置。
  8. 前記ディスパリティ情報生成部は、
    前記グラフィック客体が表示される時点における前記リファレンスレイヤのディスパリティを検出し、検出された情報を基準として前記第2ディスパリティ情報を生成することを特徴とする請求項6に記載のディスプレイ装置。
  9. 予め設定されたデプス情報が保存された保存部と、
    前記デプス情報に応じて、前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するディスパリティ情報生成部と
    を更に含み、
    前記制御部は、前記第1ディスパリティ情報に応じて、前記映像に立体感を与えるように前記ビデオ処理部を制御し、前記第2ディスパリティ情報に応じて、前記グラフィック客体に立体感を与えるように前記グラフィック処理部を制御することを特徴とする請求項1に記載のディスプレイ装置。
  10. 前記オーバーレイレイヤは、互いに異なるデプスを有する複数個のレイヤを含み、
    各レイヤには、互いに異なる種類のグラフィック客体が表示されることを特徴とする請求項1ないし9の何れか一項に記載のディスプレイ装置。
  11. 前記各レイヤに表示されるグラフィック客体種類の表示順番は、ユーザの選択によって互いに変更可能であることを特徴とする請求項10に記載のディスプレイ装置。
  12. 前記グラフィック客体は、OSDメニューと、字幕と、プログラム情報と、アプリケーションアイコンと、アプリケーションウィンドウおよびGUIウィンドウのうち、少なくとも何れか一つ以上の種類の客体を含むことを特徴とする請求項10に記載のディスプレイ装置。
  13. ビデオ信号を処理してリファレンスレイヤにディスプレイできるように映像を構成するステップと、
    グラフィックデータを処理して、前記リファレンスレイヤの上位であるオーバーレイレイヤにディスプレイできるようにグラフィック客体を構成するステップと、
    前記映像および前記グラフィック客体を出力手段に伝送するステップと
    を含むことを特徴とする信号処理方法。
  14. 外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報および前記オーバーレイレイヤに対する第2ディスパリティ情報を受信する受信ステップを更に含み、
    前記映像は、前記第1ディスパリティ情報に応じて立体感が与えられ、前記グラフィック客体は、前記第2ディスパリティ情報に応じて立体感が与えられて構成されることを特徴とする請求項13に記載の信号処理方法。
  15. 外部ソースから前記リファレンスレイヤに対する第1ディスパリティ情報を受信するステップと、
    前記オーバーレイレイヤに対する第2ディスパリティ情報を生成するステップと
    を更に含み、
    前記映像は、前記第1ディスパリティ情報に応じて立体感が与えられ、前記グラフィック客体は、前記第2ディスパリティ情報に応じて立体感が与えられて構成されることを特徴とする請求項13に記載の信号処理方法。
JP2013531503A 2010-10-01 2011-09-30 ディスプレイ装置および信号処理装置並びにその方法 Ceased JP2013546220A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US38877010P 2010-10-01 2010-10-01
US61/388,770 2010-10-01
PCT/KR2011/007285 WO2012044128A2 (ko) 2010-10-01 2011-09-30 디스플레이 장치 및 신호 처리 장치와, 그 방법들

Publications (1)

Publication Number Publication Date
JP2013546220A true JP2013546220A (ja) 2013-12-26

Family

ID=45893706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013531503A Ceased JP2013546220A (ja) 2010-10-01 2011-09-30 ディスプレイ装置および信号処理装置並びにその方法

Country Status (6)

Country Link
US (1) US20130182072A1 (ja)
EP (1) EP2624571A4 (ja)
JP (1) JP2013546220A (ja)
KR (1) KR20120034574A (ja)
CN (1) CN103155577A (ja)
WO (1) WO2012044128A2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012101916A1 (ja) * 2011-01-25 2012-08-02 富士フイルム株式会社 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
US8923686B2 (en) 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
EP2867757A4 (en) * 2012-06-30 2015-12-23 Intel Corp 3D GRAPHIC USER INTERFACE
KR20140061098A (ko) * 2012-11-13 2014-05-21 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN103841394B (zh) * 2012-11-23 2017-07-07 北京三星通信技术研究有限公司 多层式三维显示器的标定设备和标定方法
KR101289527B1 (ko) * 2012-11-26 2013-07-24 김영민 이동 단말기 및 그 제어방법
EP2767973A1 (en) * 2013-02-15 2014-08-20 Samsung Electronics Co., Ltd. User terminal and method of displaying image thereof
JP6253307B2 (ja) * 2013-08-21 2017-12-27 キヤノン株式会社 撮像装置、外部装置、撮像システム、撮像装置の制御方法、外部装置の制御方法、撮像システムの制御方法、及びプログラム
CN104581341B (zh) * 2013-10-24 2018-05-29 华为终端有限公司 一种字幕显示方法及字幕显示设备
KR102176474B1 (ko) * 2014-01-06 2020-11-09 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 영상표시방법
CN109561266A (zh) 2016-07-26 2019-04-02 青岛海信电器股份有限公司 电视的截屏方法及电视
KR102423295B1 (ko) 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법
CN111133763B (zh) * 2017-09-26 2022-05-10 Lg 电子株式会社 360视频系统中的叠加处理方法及其设备
EP3493431A1 (en) * 2017-11-30 2019-06-05 Advanced Digital Broadcast S.A. A method for parallel detection of disparities in a high resolution video
KR20190132072A (ko) * 2018-05-18 2019-11-27 삼성전자주식회사 전자장치, 그 제어방법 및 기록매체
US11222470B1 (en) * 2018-08-21 2022-01-11 Palantir Technologies Inc. Systems and methods for generating augmented reality content
US11314383B2 (en) * 2019-03-24 2022-04-26 Apple Inc. Stacked media elements with selective parallax effects
US10937362B1 (en) * 2019-09-23 2021-03-02 Au Optronics Corporation Electronic apparatus and operating method thereof
US11099709B1 (en) 2021-04-13 2021-08-24 Dapper Labs Inc. System and method for creating, managing, and displaying an interactive display for 3D digital collectibles
US11210844B1 (en) 2021-04-13 2021-12-28 Dapper Labs Inc. System and method for creating, managing, and displaying 3D digital collectibles
USD991271S1 (en) 2021-04-30 2023-07-04 Dapper Labs, Inc. Display screen with an animated graphical user interface
US11227010B1 (en) 2021-05-03 2022-01-18 Dapper Labs Inc. System and method for creating, managing, and displaying user owned collections of 3D digital collectibles
US11533467B2 (en) * 2021-05-04 2022-12-20 Dapper Labs, Inc. System and method for creating, managing, and displaying 3D digital collectibles with overlay display elements and surrounding structure display elements
US11170582B1 (en) 2021-05-04 2021-11-09 Dapper Labs Inc. System and method for creating, managing, and displaying limited edition, serialized 3D digital collectibles with visual indicators of rarity classifications
US11830106B2 (en) * 2021-11-19 2023-11-28 Lemon Inc. Procedural pattern generation for layered two-dimensional augmented reality effects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267655A (ja) * 2002-08-29 2005-09-29 Sharp Corp コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生プログラム、コンテンツ再生プログラムを記録した記録媒体、および携帯通信端末
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
WO2010092823A1 (ja) * 2009-02-13 2010-08-19 パナソニック株式会社 表示制御装置
WO2010095074A1 (en) * 2009-02-17 2010-08-26 Koninklijke Philips Electronics N.V. Combining 3d image and graphical data
JP2012510750A (ja) * 2008-12-01 2012-05-10 アイマックス コーポレイション 内容順応情報を有する3次元動画提示方法及びシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
US7623140B1 (en) * 1999-03-05 2009-11-24 Zoran Corporation Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
KR100597406B1 (ko) * 2004-06-29 2006-07-06 삼성전자주식회사 Osd 화면 상에서 애니메이션이 진행되는 동안 실시간키입력이 가능한 셋탑박스 및 osd 데이터 출력 방법
WO2008038205A2 (en) * 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
EP2105032A2 (en) * 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Creating three dimensional graphics data
WO2009083863A1 (en) * 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Playback and overlay of 3d graphics onto 3d video
KR101520659B1 (ko) * 2008-02-29 2015-05-15 엘지전자 주식회사 개인용 비디오 레코더를 이용한 영상 비교 장치 및 방법
EP2401870A4 (en) * 2009-02-27 2012-12-26 Deluxe Lab Inc SYSTEMS, DEVICES AND METHODS FOR SUBTITLEING STEREOSCOPIC CONTENT
KR101370925B1 (ko) * 2009-10-16 2014-03-07 엘지전자 주식회사 3d 컨텐츠 표시 방법 및 신호 처리 장치
US8605136B2 (en) * 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267655A (ja) * 2002-08-29 2005-09-29 Sharp Corp コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生プログラム、コンテンツ再生プログラムを記録した記録媒体、および携帯通信端末
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
JP2012510750A (ja) * 2008-12-01 2012-05-10 アイマックス コーポレイション 内容順応情報を有する3次元動画提示方法及びシステム
WO2010092823A1 (ja) * 2009-02-13 2010-08-19 パナソニック株式会社 表示制御装置
WO2010095074A1 (en) * 2009-02-17 2010-08-26 Koninklijke Philips Electronics N.V. Combining 3d image and graphical data
JP2012518314A (ja) * 2009-02-17 2012-08-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3d画像及びグラフィカル・データの結合

Also Published As

Publication number Publication date
CN103155577A (zh) 2013-06-12
EP2624571A4 (en) 2014-06-04
WO2012044128A3 (ko) 2012-05-31
WO2012044128A2 (ko) 2012-04-05
WO2012044128A4 (ko) 2012-07-26
US20130182072A1 (en) 2013-07-18
KR20120034574A (ko) 2012-04-12
EP2624571A2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
JP2013546220A (ja) ディスプレイ装置および信号処理装置並びにその方法
EP2384009B1 (en) Display device and method of outputting audio signal
KR101781861B1 (ko) 영상표시장치 및 이를 이용한 텍스트 디스플레이 방법
WO2012111756A1 (ja) 画像処理装置および画像処理方法
CN103339946B (zh) 用于接收多视图三维广播信号的接收设备和方法
CN102577398A (zh) 图像显示装置及其操作方法
US20110254837A1 (en) Image display apparatus and method for controlling the same
US20120050154A1 (en) Method and system for providing 3d user interface in 3d televisions
US20150035958A1 (en) Apparatus and method for concurrently displaying multiple views
CN102223551B (zh) 图像处理设备和图像处理方法
US20120002010A1 (en) Image processing apparatus, image processing program, and image processing method
US8941718B2 (en) 3D video processing apparatus and 3D video processing method
KR101853660B1 (ko) 3차원 그래픽 콘텐츠 재생 방법 및 장치
CN112204960A (zh) 传输三维360度视频数据的方法、使用该方法的显示设备以及使用该方法的视频存储设备
EP2676446B1 (en) Apparatus and method for generating a disparity map in a receiving device
US20120281073A1 (en) Customization of 3DTV User Interface Position
US20120098944A1 (en) 3-dimensional image display apparatus and image display method thereof
KR100781275B1 (ko) 비디오 영상의 복호화 방법 및 장치
US20130047186A1 (en) Method to Enable Proper Representation of Scaled 3D Video
EP2837183A2 (en) Depth signaling data
KR101760939B1 (ko) 컨텐츠 제어 방법 및 그를 이용한 컨텐츠 재생 장치
KR20120062428A (ko) 영상표시장치 및 그 동작방법
KR101700451B1 (ko) 컨텐츠 제어 방법 및 그를 이용한 디스플레이 장치
KR101804912B1 (ko) 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법
KR101781850B1 (ko) 전자 장치 및 입체영상 재생 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20170627