JP2012249295A - 映像処理装置 - Google Patents

映像処理装置 Download PDF

Info

Publication number
JP2012249295A
JP2012249295A JP2012127950A JP2012127950A JP2012249295A JP 2012249295 A JP2012249295 A JP 2012249295A JP 2012127950 A JP2012127950 A JP 2012127950A JP 2012127950 A JP2012127950 A JP 2012127950A JP 2012249295 A JP2012249295 A JP 2012249295A
Authority
JP
Japan
Prior art keywords
depth
range
data
video data
graphics data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012127950A
Other languages
English (en)
Inventor
Nobuyuki Ikeda
信之 池田
Tamotsu Hasegawa
保 長谷川
Tatsuhiro Nishioka
竜大 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012127950A priority Critical patent/JP2012249295A/ja
Publication of JP2012249295A publication Critical patent/JP2012249295A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】3D映像データと3Dグラフィクスデータとを重ね合わせて立体像を表示する場合に、3Dグラフィクスデータの見やすさを向上させる。
【解決手段】映像処理装置は、第1の生成手段と、第2の生成手段と、処理手段とを有する。第1の生成手段は、3D映像データを生成する。第2の生成手段は、3Dグラフィクスデータを生成する。処理手段は、奥行き方向に第1の深度レンジを有する第1の表示範囲に前記3D映像データを収め、前記第1の表示範囲と前記奥行き方向に重なり合わない第2の深度レンジを有する第2の表示範囲に前記3Dグラフィクスデータを収める。
【選択図】図7

Description

本発明の実施形態は映像処理する装置に関する。
現在、様々な方式の立体像表示技術が開発されている。一例としては、眼鏡式の立体像表示技術である。ユーザは、特殊な眼鏡を使用して映像表示装置に表示される右目用の像と左目用の像を見ることで、立体像を知覚できる。
他の例としては、裸眼式である。ユーザは、特殊な眼鏡を使用することなく映像表示装置に表示される左右方向にずらした視点からの複数視差画像を見ることで、立体像を知覚できる。一般的に裸眼式の立体映像表示技術は、両眼視差を用いる両眼視差方式である。
特開2010−245761号公報
立体像は、放送波などから取得されるコンテンツを加工した3D映像データに基づく立体像からなる。場合によっては、立体像は、3D映像データに放送波から取得されるテロップやバナー、ユーザ選択に基づくメニュー(ボリューム設定や輝度設定などの設定画面、EPG(電子番組表)画面など)、アラートなどのグラフィクスを加工した3Dグラフィクスデータに基づく立体像を重ね合わせたものでもある。3D映像データの深度と3Dグラフィクスデータの深度が重なる場合、立体像は、ユーザにとって不自然なものとして知覚される。深度とは、立体像の奥行き方向の最大表示範囲における最手前から奥行き方向に向う位置を意味する。
例えば、3Dグラフィクスデータが不透明(α=1)である場合、3Dグラフィクスデータは、3D画像データに食い込む。つまり、3Dグラフィクスデータと3D画像との重なり部分では、ユーザは、3Dグラフィクスデータが3D画像データを3Dグラフィクスデータの深度まで押し込むように知覚する。
さらに、3Dグラフィクスデータが透明(0≦α<1)である場合、3Dグラフィクスデータは、3D映像データに埋まり込む。つまり、3Dグラフィクスデータと3D映像データとの重なり部分では、ユーザは、3D映像データが3Dグラフィクスデータよりも手前側に飛び出すように知覚する。そのため、ユーザは、3DグラフィクスデータがEPG表示などであって文字を含む場合、ユーザは、3D画像データが気になって3Dグラフィクスデータを読みにくいと知覚する可能性がある。
本発明の目的は、3D映像データと3Dグラフィクスデータとを重ね合わせて立体像を表示する場合に、3Dグラフィクスデータの見やすさを向上させる映像処理装置を提供することである。
実施形態によれば情報処理装置は、第1の生成手段と、第2の生成手段と、処理手段とを有する。第1の生成手段は、3D映像を生成する。第2の生成手段は、3Dグラフィクスを生成する。処理手段は、奥行き方向に第1の深度レンジを有する第1の表示範囲に前記3D映像データを収め、前記第1の表示範囲と前記奥行き方向に重なり合わない第2の深度レンジを有する第2の表示範囲に前記3Dグラフィクスデータを収める。
実施形態に係る立体像表示装置の概略を示す図。 実施形態に係る立体像表示装置が一体化したテレビジョン受信装置の全体構成例を示す図。 実施形態に係る立体像の最大表示範囲を示す概念図。 実施形態に係る3D処理モジュールの構成を示すブロック図。 実施形態に係る映像深度テーブルを示す図。 実施形態に係るグラフィクス深度テーブルを示す図。 実施形態に係る3D映像データに3Dグラフィクスデータを重ね合わせた状態の概念図。 実施形態に係る3D映像データに3Dグラフィクスデータを重ね合わせた状態の概念図。
以下、実施の形態について図面を参照して説明する。先ず、立体表示の原理を説明する。図1は、実施形態に係る映像表示装置の一例を概略的に示す断面図である。実施形態はインテグラル方式による立体像表示技術の例を説明するが、立体視の方式はインテグラル方式以外の裸眼式でもよく、眼鏡式でもよい。
図1に示す立体像表示装置1は、縦横に配列した多数の立体像表示用画素11を有する表示ユニット10と、それらから離間するとともにそれら立体像表示用画素11に対応して多数の窓部22が設けられたマスク20とを備えている。
マスク20は光学的開口を有し、上記画素からの光線を制御する機能を有し、視差バリアまたは光線制御素子とも呼ばれる。マスク20は透明基板上に多数の窓部22に対応した多数の開口を有する遮光体パターンを形成したものや、遮光板に多数の窓部22に対応した多数の貫通孔を設けたものなどを使用することができる。あるいは、マスク20の他の例としては、多数の微小なレンズを2次元的に配列してなるフライアイレンズ、光学的開口が垂直方向に直線状に延び水平方向に周期的に配列される形状のレンチキュラーレンズも使用可能である。さらに、マスク20として、透過型の液晶表示ユニットのように窓部22の配置、寸法、形状などを任意に変更可能なものを使用してもよい。
動画像を立体視するためには、液晶表示ユニットを用いて立体像表示用画素11を実現する。透過型の液晶表示ユニット10の多数の画素が多数の立体像表示用画素11を構成し、液晶表示ユニット10の背面側には面光源であるバックライト30を配置している。液晶表示ユニット10の前面側には、マスク20を配置している。
透過型の液晶表示ユニット10を使用する場合、マスク20はバックライト30と液晶表示ユニット10との間に配置してもよい。液晶表示ユニット10及びバックライト30の代わりに有機EL(エレクトロルミネッセンス)表示装置や陰極線管表示装置やプラズマ表示装置などのように自発光型の表示装置を使用しても良い。その場合、マスク20は自発光型表示装置の前面側に配置する。
図1は、立体像表示装置1と観察位置A00,A0R、A0Lの関係を概略的に示している。観察位置は画面(あるいはマスク)との距離を一定に保ったまま表示画面の水平方向に平行移動した位置である。この例では、1つの立体像表示用画素11が、複数の(例えば5つの)2次元表示用画素で構成されている例を示している。画素の数は1つの例であり、5より少なくてもよく(例えば2個))さらに数が多くても良い(例えば9個)。
図1において、破線41は隣接する立体像表示用画素11間の境界に位置する単一画素の中心と、マスク20の窓部22とを結ぶ直線(光線)である。図1において、太線52の領域が真の立体像(本来の立体像)が知覚される領域である。観察位置A00,A0R、A0Lは、太線52の領域内である。以下、真の立体像のみが知覚される観察位置を「視域」と称する。
図2は、実施形態が適用された装置の一例でありテレビジョン放送受信装置2100の信号処理系を概略的に示している。デジタルテレビジョン放送受信用のアンテナ222で受信したデジタルテレビジョン放送信号は、入力端子223を介してチューナ224に供給される。このチューナ224は、入力されたデジタルテレビジョン放送信号から所望のチャンネルの信号を選局し復調している。チューナ224から出力された信号は、デコーダ225に供給されて、例えばMPEG(moving picture experts group)2デコード処理が施された後、セレクタ226に供給される。
またチューナ224の出力は、直接セレクタ226に供給されている。この信号から映像・音声データなどが分離され、この映像・音声データが制御部235を介して記録・再生信号処理器255で処理され、ハードディスクドライブ(HDD)257にて記録されることも可能である。HDD257は、ユニットとして端子256を介して記録・再生信号処理器55に接続されており、交換することも可能である。またHDD257は、信号の記録器、読み取り器を含む。
アナログテレビジョン放送受信用のアンテナ227で受信したアナログテレビジョン放送信号は、入力端子228を介してチューナ229に供給される。このチューナ229は、入力されたアナログテレビジョン放送信号から所望のチャンネルの信号を選局し復調している。そして、このチューナ229から出力された信号は、A/D(analog/digital)コンバータ230によりデジタル化された後、セレクタ226に出力される。
また、例えばVTRなどの機器が接続されるアナログ信号用の入力端子231に供給されたアナログの映像・音声信号は、A/Dコンバータ232に供給されてデジタル化された後、セレクタ226に出力される。さらに、例えばHDMI(High Definition Multimedia Interface)261を介して光ディスクあるいは磁気記録媒体再生装置などの外部機器が接続されるデジタル信号用の入力端子233に供給されたデジタルの映像及び音声信号は、そのままセレクタ226に供給される。
A/D変換された信号が、HDD257にて記録される場合は、セレクタ226に付随しているエンコーダ・デコーダ236内のエンコーダにより、所定のフォーマット例えばMPEG(moving picture experts group)2方式による圧縮処理が施された後、記録・再生信号処理器255を介してHDD257に記録される。記録・再生信号処理器255は、記録制御器235aと相俟って、HDD257に情報を記録する場合、例えばHDD257の何処のディレクトリに対してどのような情報を記録するかを予めプログラムされている。したがってストリームファイルをストリームディレクトリに格納するときの条件、識別情報を録画リストファイルに格納するときの条件などが設定されている。
セレクタ226は、4種類の入力デジタル映像・音声信号から1つを選択して、信号処理器234に供給している。この信号処理器234は、入力されたデジタル映像・音声信号から映像データ、音声データを分離し、所定の信号処理を施している。信号処理としては、音声データに関しては、オーディオデコード・音質調整・ミックス処理などが任意に行われる。映像データに関しては、カラー・輝度分離処理、カラー調整処理、画質調整処理などが行われる。さらに、信号処理器234は、映像・音声信号からグラフィクスデータ(例えば、テロップやバナー、チャンネル情報など)を分離し、所定の信号処理を施す。さらに、信号処理器234は、制御ブロック235からのグラフィクデータ(例えば、ユーザ入力に基づくメニューなど)を受信する。
信号処理器234は、必要に応じてグラフィクスデータを映像データに重ね合わせる。さらに、信号処理器234は、3D処理モジュール80を含む。3D処理モジュール80は、立体像を生成する。3D処理モジュール80の構成については、後述する。ビデオ出力回路239は、(必要に応じてグラフィクスデータを重ね合わせた)映像データに基づく複数視差画像を表示装置2103に表示制御する。ビデオ出力回路239は、複数視差画像の表示制御手段として機能する。
映像データ(必要に応じてグラフィクスデータも)は、出力端子242を介して表示装置2103へ出力される。表示装置2103としては、例えば、図1で説明した装置が採用される。表示装置2103は、平面像(2D)、立体像(3D)のいずれも表示可能である。立体像は、ユーザが表示装置2103に表示された複数視差画像を見ることで知覚するものであるが、本実施形態では、3D処理モジュール80が奥行きをもった立体像を擬似的に生成し、表示装置2103が奥行きをもった立体像を擬似的に表示するものとして説明する。
音声データは、オーディオ出力回路237でアナログ化され、音量、チャンネルバランスなどの調整を受けた後、出力端子238を介してスピーカ装置2102に出力される。
このテレビジョン放送受信装置2100は、各種の受信動作を含む種々の動作を制御ブロック235によって統括的に制御されている。この制御ブロック235は、CPU(central processing unit)等を内蔵したマイクロプロセッサの集合である。制御ブロック235は、操作部247からの操作情報、または、リモートコントローラ2104から送信された操作情報がリモコン信号受信部248を取得され、これにより、その操作内容が反映されるように各種ブロックをそれぞれ制御している。
制御部235は、メモリ249を使用している。このメモリ249は、主として、そのCPUが実行する制御プログラムを格納したROM(read only memory)と、該CPUに作業エリアを提供するためのRAM(random access memory)と、各種の設定情報及び制御情報等が格納される不揮発性メモリとを備えている。
またこの装置はインターネットを介して外部サーバーとの通信を行うことも可能である。接続端子244からのダウンストリーム信号は、送・受信器245で復調され変調・復調器246で復調され、制御ブロック235に入力される。またアップストリーム信号は、変調・復調器246で変調され、送・受信器245で送信信号に変換され接続端子244に出力される。
制御ブロック235は、外部サーバーからダウンロードされた動画像あるいはサービス情報を変換処理し、信号処理部234に供給することができる。また制御ブロック235は、リモコン操作に応答して、外部サーバーに向けてサービス要求信号を送信することもできる。
さらに制御ブロック235は、コネクタ251に装着されたカードタイプメモリ252のデータを読み取ることも可能である。このために本装置は、例えば、カードタイプメモリ252から写真画像データを取り込み、表示装置2104に表示することが可能である。また特殊なカラー調整などを行う場合に、カードタイプメモリ252からの画像データを標準データ或いは参照データとして用いることも可能である。
上記装置において、ユーザは、デジタルテレビジョン放送信号の所望の番組を視聴したいと思う場合、リモートコントローラ2104を操作することによりチューナ224を制御し、番組選択を行う。
チューナ224の出力は、デコーダ225でデコードされベースバンド映像信号に復号され、このベースバンド映像信号は、セレクタ226から信号処理器234に入力する。これによりユーザは、所望の番組を表示装置2103で見ることができる。
また、ユーザがHDD257に記録されているストリームファイルを再生して視聴したい場合、例えばリモートコントローラ2104を操作して、例えば録画リストファイルの表示を指定する。ユーザが録画リストファイルの表示を指定すると、録画リストがメニューとして表示されるので、ユーザは、表示されたリストの中の希望の番組名あるいはファイル番号の位置にカーソルを移動させ、決定ボタンを操作する。すると、所望のストリームファイルの再生が開始される。
指定されたストリームファイルは、再生制御器235bの制御のもとで、HDD257から読み出され、記録・再生信号処理器255で復号され、制御ブロック235、セレクタ226を経由して信号処理器234に入力される。
図3は、表示装置2103が表示可能な立体像の最大表示範囲Aを示す概念図である。最大表示範囲Aは、立体像の奥行き方向のフルレンジを示す。最大表示範囲Aは、表示装置2103の性能によって異なるが、ユーザが表示装置2103を視域で見た場合のものとする。本実施形態では、立体像の奥行き方向の最大表示範囲Aにおける最手前から奥行き方向に向う位置を深度と定義する。最大表示範囲Aは、相対的な値として、最手前を0、最奥を255と定義する。したがって、最大表示範囲Aの深度レンジは、255である。本実施形態では、立体像の奥行き方向の大きさ(幅)を深度レンジと定義する。なお、最大表示範囲Aにおける最手前を0としているが、最奥を0と定義してもよい。また、最大表示範囲Aにおける中央を0とし、最手前を127、最奥を−128と定義してもよい。
次に、3D処理モジュール80の構成について説明する。図4は、3D処理モジュール80の構成を示すブロック図である。3D処理モジュール80は、映像処理モジュール801、グラフィクス処理モジュール802、画像合成モジュール803、メモリ804を有する。以降、各部の動作について説明する。映像処理モジュール801は、2D映像データから3D映像データを生成する。映像処理モジュール801は、D映像データの生成手段として機能する。2D映像データから3D映像データへの変換技術は、いかなるものであってもよい。なお、映像処理モジュール801は、入力された映像データが3Dの場合、3D映像データの生成処理を必要としない。映像処理モジュール801は、3D映像データを画像合成モジュール803へ供給する。
グラフィクス処理モジュール802は、2Dグラフィクスデータから3Dグラフィクスデータを生成する。グラフィクス処理モジュール802は、3Dグラフィクスデータの生成手段として機能する。2Dグラフィクスデータから3Dグラフィクスデータへの変換技術は、いかなるものであってもよい。なお、グラフィクス処理モジュール802は、入力されたグラフィクスデータが3Dの場合、3Dグラフィクスデータの生成処理を必要としない。グラフィクス処理モジュール802は、3Dグラフィクスデータを画像合成モジュール803へ供給する。
メモリ804は、3D映像データの表示範囲に関する映像深度テーブル及び3Dグラフィクスデータの表示範囲に関するグラフィクス深度テーブルを保存する。図5は、映像深度テーブルを示す。映像深度テーブルは、以下のような設定を保存する。3Dグラフィクスデータが3D映像データに重ね合わせられない場合、3D映像データの表示範囲は、最手前深度0から始まり、最奥深度255までである。深度レンジは、255である。つまり、3D映像データの深度レンジは、フルレンジである。一方、3Dグラフィクスデータが3D映像データに重ね合わせられる場合、3D映像データの表示範囲は、最手前深度128から始まり、最奥深度255までである。深度レンジは、127である。3D映像データの深度レンジは、フルレンジよりも小さい。つまり、3D映像データの深度レンジは、3Dグラフィクスデータが3D映像データに重ね合わせられるか否かに応じて可変である。
図6は、グラフィクス深度テーブルを示す。3Dグラフィクスデータが3D映像データに重ね合わせられる場合、3Dグラフィクスデータの表示範囲は、最手前深度0から始まり、最奥深度127までである。深度レンジは、127である。3Dグラフィクスデータの深度レンジは、フルレンジよりも小さい。つまり、3D映像データの深度レンジは、3Dグラフィクスデータが3D映像データに重ね合わせられるか否かに応じてオン(127)/オフ(0)が切り換えられる。
図7は、図5、図6に基づいて3Dグラフィクスデータが3D映像データに重ね合わせられる場合の概念図である。3Dグラフィクスデータの表示範囲Bは、3D映像データの表示範囲Cよりも奥行方向の手前であって、奥行き方向に3D映像データの表示範囲Cと重なり合わない。つまり、3Dグラフィクスデータの表示範囲Bは、図3に示す最大表示範囲Aから3D映像データの表示範囲Cを除いた範囲である。
画像合成モジュール803は、図5に示す映像深度テーブルを参照して、3D映像データを加工する。具体的には、画像合成モジュール803は、3Dグラフィクスデータが3D映像データに重ね合わせられない場合、最手前深度0から始まり最奥深度255までの深度レンジを有する表示範囲に収まるように3D映像データを加工する。画像合成モジュール803は、3D画像データを表示範囲に収める処理手段として機能する。画像合成モジュール803は、例えば、(3Dグラフィクスデータが3D映像データに重ね合わせられる場合の深度レンジ)/(3Dグラフィクスデータが3D映像データに重ね合わせられない場合の深度レンジ)で求められる定数を深度に乗算することで3D映像データを加工する。画像合成モジュール803は、映像深度テーブルに設定されている3D映像データの表示範囲における最手前深度より手前の深度を最手前深度として3D映像データを加工してもよい。
画像合成モジュール803は、3D映像データに重ね合わせる3Dグラフィクスデータが存在するか否か(グラフィクス処理モジュール802が3Dグラフィクスデータを生成するか否か)を判断する判断モジュール8031を有する。判断モジュール8031は、以下に説明ように、3D映像データに重ね合わせる3Dグラフィクスデータが存在するか否かを判断する。例えば、グラフィクス処理モジュール802は、3D映像データに重ね合わせる3Dグラフィクスデータが存在する場合、その旨を示す通知データを判断モジュール8031に送信する。判断モジュール8031は、この通知データを受信すれば、3D映像データに重ね合わせる3Dグラフィクスデータが存在すると判断する。一方、判断モジュール8031は、この通知データを受信しなければ、3D映像データに重ね合わせる3Dグラフィクスデータが存在しないと判断する。
他の方法としては、グラフィクス処理モジュール802は、3D映像データに重ね合わせる3Dグラフィクスデータが存在するか否かを明示的に示すフラグを立ててもよい。この場合、判断モジュール8031は、フラグに基づいて3D映像データに重ね合わせる3Dグラフィクスデータが存在するか否かを判断する。
一方、画像合成モジュール803は、3Dグラフィクスデータが3D映像データに重ね合わせられる場合、図5に示す映像深度テーブルを参照して、最手前深度128から始まり最奥深度255までの深度レンジを有する表示範囲に収まるように3D映像データを加工する。画像合成モジュール803は、3Dグラフィクスデータが3D映像データに重ね合わせられる場合、図6に示すグラフィクス深度テーブルを参照して、最手前深度0から始まり最奥深度255までの深度レンジを有する表示範囲に収まるように3D映像データを加工する。画像合成モジュール803は、3Dグラフィクスデータを表示範囲に収める処理手段として機能する。なお、映像処理モジュール801及びグラフィクス処理モジュール802が上記説明した画像合成モジュール803における深度レンジの加工処理と同様の処理をしてもよい。
画像合成モジュール803は、深度レンジを加工して表示範囲に収めた3D映像データから複数視差画像を生成する。同様に、画像合成モジュール803は、深度レンジを加工して表示範囲に収めた3Dグラフィクスデータから複数視差画像を生成する。画像合成モジュール803は、3D映像データに3Dグラフィクスデータを重ね合わせる場合、3D映像データの複数視差画像と、対応する3Dグラフィクスの複数視差画像をそれぞれ合成し、新たな複数視差画像(ここでは、複数合成視差画像と称す)を生成する。
画像合成モジュール803は、3D映像データの複数視差画像または複数合成視差画像をビデオ出力回路239に供給する。ビデオ出力回路239は、3D映像データの複数視差画像または複数合成視差画像を表示装置2103に表示制御する。表示装置2103は、3D映像データの複数視差画像または、複数合成視差画像により、立体像を表示する。表示装置2103は、ユーザが視域で表示装置2103を見たときに、奥行きをもつ立体像を見ることができるように表示する。
上記説明したように、3Dグラフィクスデータが3D映像データに重ね合わせられない場合、画像合成モジュール803は、最手前深度0から始まり最奥深度255までの深度レンジ(つまりフルレンジ)を有する表示範囲に収まるように3D映像データを加工する。さらに、画像合成モジュール803は、3Dグラフィクスの深度レンジを0(オフ)に設定する。表示装置2103は、フルレンジの表示範囲に収められた3D映像データに基づく複数視差画像により立体像を表示する。
一方、上記説明したように、3Dグラフィクスデータが3D映像データに重ね合わせられる場合、画像合成モジュール803は、最手前深度128から始まり最奥深度255までの深度レンジを有する表示範囲に収まるように(言い換えると、フルレンジよりも圧縮するように)3D映像データを加工する。さらに、画像合成モジュール803は、最手前深度0から始まり最奥深度127までの深度レンジを有する表示範囲に収まるように3Dグラフィクスデータを加工する。つまり、画像合成モジュール803は、3D映像データよりも3Dグラフィクスデータが奥行き方向の手前であって、互いに奥行き方向に重なり合わないように表示範囲を調整する。表示装置2103は、各表示範囲に収められた3D映像データ及び3Dグラフィクスデータに基づく複数合成視差画像により、立体像を表示する。
図8は、3Dグラフィクスデータが3D映像データに重ね合わせられる場合の概念図である。3D映像データDは、コンテンツに基づく立体像である。3DグラフィクスデータEは、チャンネル情報に基づく立体像である。表示装置2103は、3D映像データDよりも3DグラフィクスデータEが奥行き方向の手前であって、互いに奥行き方向に重なり合わないように表示する。したがって、ユーザは、3D映像データの影響を受けることなく、3DグラフィクスデータEの内容を知覚することができる。
本実施形態によれば、表示装置2103に表示される3D映像データの表示範囲と3Dグラフィクスの表示範囲は、奥行き方向に重ならないよう制限される。そのため、表示装置2103に不自然な立体像が表示されることを防ぐことができる。さらに、3Dグラフィクスデータが3D映像データに重ね合わせられる場合のみ3D映像データの深度レンジは狭められるので、表示装置2103は、3D効果を損ねることなく3D映像データに基づく立体像を最大限に表現できる。
本実施形態では、3Dグラフィクスデータの深度レンジはオン/オフが切り替えられ、3Dグラフィクスデータの深度レンジは可変である例について説明したが、これに限られない。一例として、3Dグラフィクスデータが3D映像データに重ね合わせられる場合における3D映像データの深度レンジ及び3Dグラフィクスデータの深度レンジは可変であってもよい。グラフィクス深度テーブルは、3Dグラフィクスデータの種別に応じて、異なる深度レンジの設定を保存する。例えば、グラフィクス深度テーブルは、3Dグラフィクスデータが設定画面に基づく場合、最手前深度0から始まり、最奥深度127までの深度レンジを有する表示範囲の設定を保存する。例えば、グラフィクス深度テーブルは、3DグラフィクスデータがEPG画面に基づく場合、最手前深度0から始まり、最奥深度50までの深度レンジを有する表示範囲の設定を保存する。つまり、3Dグラフィクスデータの深度レンジは、3Dグラフィクスデータの種別に応じたユーザにとっての利便性に基づいて設定されている。グラフィクスデータが設定画面に基づく場合、ユーザはリモートコントローラ2104を用いて直感的に設定画面上で操作するため、深度レンジは広い方がよい。一方、グラフィクスデータが文字の多いEPG画面に基づく場合、ユーザはEPG画面の文字を視認する必要がある、深度レンジは狭い方がよい。
なお、映像深度テーブルも、3Dグラフィクスデータが3D映像データに重ね合わせられる場合、3Dグラフィクスデータの種別に応じて異なる深度レンジの設定を保存する。つまり、映像深度テーブルは、最大表示範囲から3Dグラフィクスデータの表示範囲を除いた範囲を3D映像データの表示範囲とする最手前深度、最奥深度、深度レンジの設定を保存する。3D映像データの深度レンジは3Dグラフィクスデータの種別に応じて変化するため、3D映像データは、3D効果を最大限に表現できる。
他の例として、3Dグラフィクスデータが3D映像データに重ね合わせられるか否かにかかわらず、3D映像データの深度レンジと3Dグラフィクスデータの深度レンジは固定であってもよい。例えば、映像深度テーブルは、最手前深度128から始まり、最奥深度255までの深度レンジ(固定)を有する表示範囲の設定を保存する。例えば、グラフィクス深度テーブルは、最手前深度0から始まり、最奥深度127までの深度レンジ(固定)を有する表示範囲の設定を保存する。この場合、画像合成モジュール803は、3D映像データに重ね合わせる3Dグラフィクスデータが存在するか否かにかかわらず、3D映像データの深度レンジを加工処理しなくてもよい。
なお、グラフィクス深度テーブルは、3Dグラフィクスデータの表示範囲における最手前深度を投影面の位置とする設定を保存していてもよい。本実施形態では、ユーザが視域で表示装置2103に表示される平面像(2D)を見た場合に、最もきれいな像を投影する奥行き方向の面を投影面と定義する。一般的には、表示装置2103のパネル面である。表示装置2104は、3Dグラフィクスデータが文字を含む場合、可読性を高めた立体像を表示できる。したがって、ユーザは、表示装置2104に表示される3Dグラフィクスデータに基づく立体像を、ぶれが少なく、くっきりした状態で見ることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…表示ユニット、11…立体映像表示用画素、20…マスク、30…バックライト、22…窓部、80…3D処理モジュール、801…映像処理モジュール、802…グラフィクス処理モジュール、803…画像合成モジュール、804…メモリ。

Claims (3)

  1. 3D映像データを生成する第1の生成手段と、
    3Dグラフィクスデータを生成する第2の生成手段と、
    奥行き方向に第1の深度レンジを有する第1の表示範囲に前記3D映像データを収め、前記第1の表示範囲と前記奥行き方向に重なり合わない第2の深度レンジを有する第2の表示範囲に前記3Dグラフィクスデータを収める処理手段と、
    前記第2の生成手段で前記3Dグラフィクスデータを生成するか否かを判断する判断手段と、
    を有し、
    前記判断手段が前記3Dグラフィクスデータを生成しないと判断した場合、前記処理手段は、前記第1の深度レンジを最大表示範囲の深度レンジに設定し、前記第2の深度レンジを0に設定する、映像処理装置。
  2. 3D映像データを生成する第1の生成手段と、
    3Dグラフィクスデータを生成する第2の生成手段と、
    奥行き方向に第1の深度レンジを有する第1の表示範囲に前記3D映像データを収め、前記第1の表示範囲と前記奥行き方向に重なり合わない第2の深度レンジを有する第2の表示範囲に前記3Dグラフィクスデータを収め、前記3Dグラフィクスデータの種別に応じて前記第1の深度レンジを調整する処理手段と、
    を有する映像処理装置。
  3. 3D映像データを生成する第1の生成手段と、
    3Dグラフィクスデータを生成する第2の生成手段と、
    奥行き方向に固定された第1の深度レンジを有する第1の表示範囲に前記3D映像データを収め、前記第1の表示範囲と前記奥行き方向に重なり合わない固定された第2の深度レンジを有する第2の表示範囲に前記3Dグラフィクスデータを収める処理手段と、
    を有する映像処理装置。
JP2012127950A 2012-06-05 2012-06-05 映像処理装置 Pending JP2012249295A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012127950A JP2012249295A (ja) 2012-06-05 2012-06-05 映像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012127950A JP2012249295A (ja) 2012-06-05 2012-06-05 映像処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010284751A Division JP2015039063A (ja) 2010-12-21 2010-12-21 映像処理装置及び映像処理方法

Publications (1)

Publication Number Publication Date
JP2012249295A true JP2012249295A (ja) 2012-12-13

Family

ID=47469250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012127950A Pending JP2012249295A (ja) 2012-06-05 2012-06-05 映像処理装置

Country Status (1)

Country Link
JP (1) JP2012249295A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120154382A1 (en) * 2010-12-21 2012-06-21 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110120A (ja) * 2003-10-01 2005-04-21 Sharp Corp 立体画像表示装置および立体画像表示方法
JP2007028439A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像処理装置、画像処理方法
JP2010505174A (ja) * 2006-09-28 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メニューディスプレイ
JP2010206774A (ja) * 2009-02-05 2010-09-16 Fujifilm Corp 3次元画像出力装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110120A (ja) * 2003-10-01 2005-04-21 Sharp Corp 立体画像表示装置および立体画像表示方法
JP2007028439A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像処理装置、画像処理方法
JP2010505174A (ja) * 2006-09-28 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メニューディスプレイ
JP2010206774A (ja) * 2009-02-05 2010-09-16 Fujifilm Corp 3次元画像出力装置及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120154382A1 (en) * 2010-12-21 2012-06-21 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
US20100265315A1 (en) Three-dimensional image combining apparatus
WO2010092823A1 (ja) 表示制御装置
JP4892098B1 (ja) 立体映像表示装置及び方法
JP4956664B1 (ja) 立体映像表示装置及び方法
JP4908624B1 (ja) 立体映像信号処理装置及び方法
JP4991930B2 (ja) 立体映像信号処理装置及び方法
JP2015039063A (ja) 映像処理装置及び映像処理方法
JP5025786B2 (ja) 画像処理装置、及び画像処理方法
JP5050094B2 (ja) 映像処理装置及び映像処理方法
JP5025787B2 (ja) 画像処理装置、及び画像処理方法
US20130266287A1 (en) Reproduction device and reproduction method
US20120268559A1 (en) Electronic apparatus and display control method
JP5355758B2 (ja) 映像処理装置及び映像処理方法
JP2012249295A (ja) 映像処理装置
JP5487192B2 (ja) 立体映像表示装置及び方法
JP2012133555A (ja) 画像処理装置および画像処理方法
JP2012222622A (ja) 映像表示装置、映像表示方法
JP5289606B2 (ja) 立体映像表示装置及び方法
JP5039238B2 (ja) 立体映像表示装置及び方法
US20110316986A1 (en) Video display apparatus and video display method
JP4951148B2 (ja) 映像表示装置及び映像表示方法
JP2012178863A (ja) 多視差画像表示装置
KR20120017127A (ko) 입체영상 재생 장치 및 입체영상 재생 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140204

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140319