JP4908624B1 - 立体映像信号処理装置及び方法 - Google Patents

立体映像信号処理装置及び方法 Download PDF

Info

Publication number
JP4908624B1
JP4908624B1 JP2010278071A JP2010278071A JP4908624B1 JP 4908624 B1 JP4908624 B1 JP 4908624B1 JP 2010278071 A JP2010278071 A JP 2010278071A JP 2010278071 A JP2010278071 A JP 2010278071A JP 4908624 B1 JP4908624 B1 JP 4908624B1
Authority
JP
Japan
Prior art keywords
area
signal
pattern
main video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010278071A
Other languages
English (en)
Other versions
JP2012129708A (ja
Inventor
大 石丸
秀人 井澤
丈朗 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010278071A priority Critical patent/JP4908624B1/ja
Priority to US13/217,006 priority patent/US20120146997A1/en
Application granted granted Critical
Publication of JP4908624B1 publication Critical patent/JP4908624B1/ja
Publication of JP2012129708A publication Critical patent/JP2012129708A/ja
Priority to US13/865,065 priority patent/US9774840B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】本発明は、グラフィックスデータの映像に対して適応的に処理可能で商品価値を向上し得る装置を提供する。
【課題を解決するための手段】実施形態によれば、メインビデオデータを配置する第1の領域、グラフィックスデータを配置する第2の領域、前記メインビデオデータの画素の深さ情報を配置する第3の領域、及び前記グラフィックスデータの画素の深さ情報を配置する第4の領域を有した3D信号用の基本フォーマットが定義される。3D処理モジュールは、前記メインビデオデータの画素の深さ情報を生成する場合に、前記メインビデオデータに前記グラフィックスデータを挿入した第1のパターンと前記メインビデオデータに前記グラフィックスデータを挿入しない第2のパターンを用いるかを選択可能としている。3D関連制御器は、前記3D処理モジュールが用いる第1と第2のパターンのいずれかを決定する。
【選択図】図6

Description

本発明の実施形態は立体映像表示装置及び方法に関する。
特殊な眼鏡を使用することなく立体映像を知覚可能な裸眼式の立体映像表示技術は様々な分類が可能である。一般的な分類は、両眼視差を用いる両眼視差方式と実際に空間像を形成する空間像再生方式である。
両眼視差方式はさらに2眼式と多眼式とに分類される。2眼式は、左眼用の画像と右眼用の画像とを左眼と右眼とでそれぞれ見えるようにした方式である。また、多眼式は映像撮影時の観察位置を複数にすることで情報量を増加し、より立体映像を観察できる範囲を広げた方式である。
空間像再生方式はさらにホログラフィ方式とインテグラル・フォトグラフィ方式(以下、インテグラル方式と称するが、光線再生法とも称される)に分類される。インテグラル方式は両眼視差方式として分類されている場合もある。インテグラル方式は、光線の経路が撮影時と映像再生時とで全く逆の経路を辿るので、光線数を十分多くし且つ画素サイズを十分小さくできた場合には完全に近い立体映像が再生される。このため、理想的なインテグラル方式は空間像再生方式として分類される。
ところで、多眼式やインテグラル方式のように眼鏡無しで立体映像を知覚するには、通常、以下の構成が採用される。2次元画像表示用画素配列上で立体映像表示用画素配列を構成する。立体映像表示用画素配列の前面側に立体映像表示用画素からの光線を制御する機能を有するマスク(光線制御素子とも称される)を配置する。マスクには、立体映像表示用画素よりも遥かに小さな(典型的には2次元画像表示用画素とほぼ同じ大きさの)窓部が立体映像表示用画素に対応した位置に設けられている。
マスクとしては、微小なレンズが2次元的に配列されてなるフライアイレンズ、垂直方向に光学的開口が直線状に延び水平方向に周期的に配列される形状のレンチキュラーシート、またはスリットも用いられる。
このような構成によると、個々の立体映像表示用画素により表示される要素画像はマスクによって部分的に遮られ、観察者は窓部を透過したもののみを視認することとなる。したがって、或る窓部を介して視認される2次元画像表示用画素を観察位置毎に異ならしめることができ、メガネを使用することなく立体映像を知覚することができる。
特開平10−215466号公報 特開2000−261828号公報
上記したように立体映像を表示するための装置の基本的な構成が具体化している。立体映像を表示するためには、立体映像信号が必要である。立体映像信号を得るための方法としては、各種の技術が開発されている。立体映像信号を得るために、水平方向に間隔を置いて複数の撮像装置を用い、それぞれの撮像装置から、視角が異なる(視差が異なる)映像信号を得る方法がある。また、2次元(2D)映像信号を加工処理して、立体映像信号を得る方法がある。
ここで2次元(2D)映像信号を加工し、眼鏡無しで観察できる立体映像を得る場合は、複数の2D映像信号(3D要素プレーンと称しても良い)を生成している。この3つ以上のフレームの2D映像信号(3D要素プレーン)を得る従来の信号処理装置は、実験段階のものが多く、商品としては多くの課題を有する。
そこで本発明が解決しようとする課題は、グラフィックスデータの映像に対して適応的に処理可能で商品価値を向上し、各種の方式に適合可能な立体映像信号処理装置及び方法を提供するところにある。
実施形態によれば、メインビデオデータを配置する第1の領域、グラフィックスデータを配置する第2の領域、前記メインビデオデータの画素の深さ情報を配置する第3の領域、及び前記グラフィックスデータの画素の深さ情報を配置する第4の領域を有した3D信号用の基本フォーマットが定義される。3D処理モジュールは、前記メインビデオデータの画素の深さ情報を生成する場合に、前記メインビデオデータに前記グラフィックスデータを挿入した第1のパターンと前記メインビデオデータに前記グラフィックスデータを挿入しない第2のパターンを用いるかを選択可能としている。3D関連制御器は、前記3D処理モジュールが用いる第1と第2のパターンのいずれかを決定する。
実施形態に係る立体映像表示装置の概略を示す図である。 実施形態に係る他の立体映像表示装置の概略を示す図である。 3D処理モジュールの構成例を示す図である。 3D処理モジュールの信号処理経過の例を示す図である。 立体映像表示装置が一体化したテレビジョン受信装置の全体構成例を示す図である。 図5の3D処理モジュールと3D関連制御器の関係を示す図である。 図6のブロックの動作例を説明するために示したフローチャートである。
以下、実施の形態について図面を参照して説明する。先ず、立体映像表示の原理を説明する。図1は、眼鏡を使用して立体映像を観察できる2眼式の立体映像表示装置の例であり、図2は、裸眼で立体映像を観察できる裸眼式の立体映像表示装置の例である。
図1には、2つの2眼方式を同時に示している。
第1の方式は、左眼用の映像(L)と右眼用の映像(R)がフレーム毎に交互にテレビジョン受信装置2100で表示される例である。左眼用の映像(L)の信号と右眼用の映像(R)の信号は、外部から送られて来るものであっても、また、テレビジョン受信装置の内部で2D表示用映像信号から擬似的に生成されるものであってもよい。
テレビジョン受信装置2100からは、現在表示されている映像が、右目用映像と左目用映像のどちらであるかを示す識別情報が出力される。左右識別情報の搬送媒体は、有線、電波あるいは赤外線のいずれであってもよい。3D眼鏡3000は、受信機3001を有し、この受信機3001は識別情報を受信し、左と右の液晶眼鏡のシャッター動作を制御し表示された左右映像に同期させる。これにより視聴者は、右眼用の映像を右眼で左眼用の映像を左眼で観察し、立体映像を知覚することができる。
第2の方式は、左眼用の映像(L)がフレームの左半分に配置され、右眼用の映像(R)がフレームの右半分に配置されてテレビジョン受信装置2100で表示される例である。この左眼用の映像(L)の信号、右眼用の映像(R)の信号も、外部から送られて来るものであっても、また、テレビジョン受信装置の内部で2D表示用映像信号から擬似的に生成されるものであってもよい。この方式はサイドバイサイドと称されることもある。左と右の映像による出射光は、偏光方向が異なり、3D眼鏡3000は、偏光眼鏡が使用され、左と右のガラスが偏光性を有し、左のガラスは左の映像を透過し、右のガラスが右の映像を透過する。これにより視聴者は、右眼用の映像を右眼で左眼用の映像を左眼で観察し、立体映像を知覚することができる。さらに各種の立体映像表示方式があるがここでは、省略する。
図2は、実施形態に係る立体映像表示装置の一例を概略的に示す断面図である。
図2に示す立体映像表示装置1は、縦横に配列した多数の立体映像表示用画素11を有する表示ユニット10と、それらから離間するとともにそれら立体映像表示用画素11に対応して多数の窓部22が設けられたマスク20とを備えている。
マスク20は光学的開口を有し、上記画素からの光線を制御する機能を有し、視差バリアまたは光線制御素子とも呼ばれる。マスク20は透明基板上に多数の窓部22に対応した多数の開口を有する遮光体パターンを形成したものや、遮光板に多数の窓部22に対応した多数の貫通孔を設けたものなどを使用することができる。あるいは、マスク20の他の例としては、多数の微小なレンズを2次元的に配列してなるフライアイレンズ、光学的開口が垂直方向に直線状に延び水平方向に周期的に配列される形状のレンチキュラーレンズも使用可能である。さらに、マスク20として、透過型の液晶表示ユニットのように窓部22の配置、寸法、形状などを任意に変更可能なものを使用してもよい。
静止画の立体視の場合は、立体映像表示用画素11は画像が印刷された紙でも良い。しかし、動画像を立体視するためには、液晶表示ユニットを用いて立体映像表示用画素11を実現する。透過型の液晶表示ユニット10の多数の画素が多数の立体映像表示用画素11を構成し、液晶表示ユニット10の背面側には面光源であるバックライト30を配置している。液晶表示ユニット10の前面側には、マスク20を配置している。
透過型の液晶表示ユニット10を使用する場合、マスク20はバックライト30と液晶表示ユニット10との間に配置してもよい。液晶表示ユニット10及びバックライト30の代わりに有機EL(エレクトロルミネッセンス)表示装置や陰極線管表示装置やプラズマ表示装置などのように自発光型の表示装置を使用しても良い。その場合、マスク20は自発光型表示装置の前面側に配置する。
図は、立体映像表示装置1と観察位置A00,A0R、A0Lの関係を概略的に示している。
観察位置は画面(あるいはマスク)との距離を一定に保ったまま表示画面の水平方向に平行移動した位置である。この例では、1つの立体映像表示用画素11が、複数の(例えば5つの)2次元表示用画素で構成されている例を示している。画素の数は1つの例であり、5より少なくてもよく(例えば2個))さらに数が多くても良い(例えば9個)。
図2において、破線41は隣接する立体映像表示用画素11間の境界に位置する単一画素の中心と、マスク20の窓部22とを結ぶ直線(光線)である。図2において、太線52の領域が真の立体映像(本来の立体映像)が知覚される領域である。観察位置A00,A0R、A0Lは、太線52の領域内である。以下、真の立体映像のみが知覚される観察位置を「視域」と称する。
図3は2D映像表示用信号を3D映像表示用信号に変換する3D処理モジュール80の例を示している。この3D処理モジュール80には、例えば、左眼用の2D映像表示用信号を左の領域に配置し、右眼用の2D映像表示用信号を右の領域に配置した2眼式の3D映像表示用信号が入力する。
3D処理モジュール80は、2眼式の3D映像表示用信号のうちの一方の2D映像表示用信号を裸眼式の3D映像表示用信号に変換する。即ち、3D処理モジュール80は、2Dデジタル入力映像信号を3D用信号フォーマットとして成型するフォーマット設定部81を有する。なお3D用信号が入力した場合は、そのまま採用することができる。
フォーマット設定部81で3Dフォーマット化された2Dデジタル入力映像信号は、3D用情報処理部82と、2D/3D変換器83により、3D構成用の複数(例えば9個)の映像プレーンに分解される。又このときメインビデオデータの各画素に対する深さ情報(奥行き情報と称してもよい、この情報は、視差情報も含むものとする)が生成される。またグラフィックスデータの各画素に対する深さ情報などが生成される。グラフィックスデータの各画素に対する深さ情報は、予めフォーマット設定部81で設定されていてもよい。
3D構成用の複数の映像プレーン及び深さ情報は、3D映像生成部84に入力され、3D映像表示用信号(立体映像表示用信号)に変換される。この3D映像表示用信号は、図2で示した立体映像表示用画素を駆動する絵柄信号となる。
3D用信号フォーマットは、メインビデオデータを配置する領域90a、グラフィックスデータ(R,G,B画素を含む)を配置する領域90b、グラフィックスデータの偶数ラインの画素の深さ情報を配置する領域90c1、グラフィックスデータの奇数ラインの画素の深さ情報を配置する領域90c2、メインビデオデータの偶数ラインの画素の深さ情報を配置する領域90d1、メインビデオデータの奇数ラインの画素の深さ情報を配置する領域90d2を有する。メインビデオデータの画素の深さ情報は、偶数画素と奇数画素に関する深さ情報が含まれている。
メインビデオデータの領域90aは例えば1280画素×720ライン、領域90bは640画素×720ライン、領域90c1は640画素×360ライン、領域90c2は640画素×360ライン、領域90c1は320画素×360ライン、領域90c2は320画素×360ラインである。
メインビデオデータ及びグラフィックスデータの領域90a,90bを除く他の領域90c1,90c2,90d1,90d2は、3D信号生成用制御情報領域と称してもよい。3D信号生成用制御情報は、3D用情報処理部82と、2D/3D変換器83において生成され、所定の領域へ配置される。
図4は、図3の3D処理モジュール80内(即ちフォーマット設定部81、3D用情報処理部82、2D/3D変換器83、3D映像生成部84)で処理される信号の処理経過を示している。
まず、フォーマット設定部81では、第1のパターンと第2のパターンのいずれか一方が用意される、或いは、両方が用意されてもよい。
第1のパターンは、第1の領域90aにおいて、メインビデオデータVIDEOにグラフィックスデータGFXを挿入したパターンである。この第1のパターンの第2の領域90bは、ブランクであってもよくグラフィックデータGFXが配置されていてもよい。また第3の領域90c1,90c2は、ブランクであってもよくグラフィックデータGFXの深さ情報が配置されていてもよい。第4の領域90d1,90d2は、この段階ではブランクである。
第2のパターンは、メインビデオデータVIDEOにグラフィックスデータGFXを挿入しないパターンである。この第2のパターンの第2の領域90bは、グラフィックデータGFXが配置される。また第3の領域90c1,90c2は、グラフィックデータGFXの深さ情報が配置される。第4の領域90d1,90d2は、この段階ではブランクである。
なおブランクとはデータオール0又はオール“F”である。
第1のパターン又は第2のパターンの3D用信号のいずれかが採用されて、3D用情報処理部82と、2D/3D変換器83により、3D構成用の複数(例えば9個)の映像プレーンに分解される。そしてここでは、主として、メインビデオデータの各画素の情報が生成される。メインビデオデータの奇数ライン及び偶数ラインの画素の深さ情報は、領域90d1、領域90d2に配置される。
第1のパターンの3D用信号が処理される場合は、メインビデオデータと同程度の解像度のグラフィックスデータを使用することができる。ただし、メインビデオデータに対する調整が影響し、グラフィックスデータの深さ情報が不安定になる場合がある。つまりグラフィックスの奥行きが不安定になる場合がある。メインビデオデータに対する調整とは、例えば、ガンマ調整、輝度調整、カラー調整などである。これらの調整があると、メインビデオデータに含まれているグラフィックスデータがメインビデオデータ調整の影響を受けるからである。
また、メインビデオデータの深さ情報を得るための処理時間が、そのままグラフィックデータの表示出力の遅れ時間として現れる。このために、グラフィックスデータによる画像が例えばリモートコントローラを操作するためのグラフィックユーザインターフェースであると、リモートコントローラの操作を実行する時点に対して、遅れ時間を考慮する必要がある。
上記した第1のパターンの3D用信号を用いるケースとしては、映像の特性が、例えば、静止画の領域が多い場合、あるいは、画面上で静止画と動画の領域が明確に分かれているような場合に有効である。静止画の領域が多い映像としては、例えば番組表の映像、データ放送から取得した映像などがあり、静止画と動画の領域が明確に分かれている映像としては、例えば映画に対して字幕の領域が設定されている映像がある。
第2のパターンの3D用信号が処理される場合は、グラフィックスデータGFXは、専用の第2の領域90bに配置される。このために、メインビデオデータに対する調整がグラフィックスデータに影響することはなく、グラフィックスデータの深さ情報が不安定になることもない。
またメインビデオデータの深さ情報を得るための処理が行われている間に、独立して、第2の領域90bに、最新のグラフィックデータGFXを配置し、また第3の領域90c1,90c2にグラフィックデータGFXの深さ情報を配置することができる。このために、グラフィックスデータによる画像が例えばリモートコントローラを操作するためのグラフィックユーザインターフェースであると、リモートコントローラの操作を実行する時点に対して、遅れ時間を伴うことがない。例えばゲーム映像に対して、リモートコントローラを用いてゲーム操作を行う場合は、第2のパターンは有効である。
第1のパターン若しくは第2のパターンの3D用信号は、3D映像生成部84に入力され、3D映像表示用信号(立体映像表示用信号)に変換される。この3D映像表示用信号は、図2で示した立体映像表示用画素を駆動する絵柄信号となる。つまり深さ情報に応じた画素信号に生成される。
上記した第1と第2のパターンの3D用信号のいずれを採用するかは、後述する3D関連制御器235c(図5、図6参照)により決定される。
上記の実施形態によれば、メインビデオデータが配置される第1の領域、グラフィックスデータが配置される第2の領域、前記メインビデオデータの画素の深さ情報が配置される第3の領域、及び前記グラフィックスデータの画素の深さ情報のための第4の領域を有した3D信号用の基本フォーマットを定義している。3D処理モジュール80は、前記第1の領域の画素の深さ情報を生成する場合に、前記メインビデオデータに前記グラフィックスデータを挿入した第1のパターンと前記メインビデオデータに前記グラフィックスデータを挿入しない第2のパターンを用いるかを選択可能としている。3D関連制御器は、前記3D処理モジュールが用いる第1と第2のパターンのいずれかを決定する。これにより、映像の特性に応じて適切なパターンの選択が可能となる。
上記の説明では、図3及び図4では、2D映像表示用信号を3D映像表示用信号に変換する3D処理モジュール80として説明した。しかし、図3に示した3D映像表示用信号の既に完成したもの(各領域に既にデータが配置されたもの)が外部から入力することもある。本実施例は、このような場合は、必要な領域の信号を分解して、図4で説明した第1のパターンと第2のパターンの3D信号を再構築することも含むものである。したがって、本実施形態は、方式の異なる入力3D信号に対して柔軟に対応できる。例えばサイドバイサイド方式が入力した場合は、何れか片側のフレームを利用することができる。またフレーム毎に左右の眼用の映像がフレーム毎に交互に入力する場合は、片方のフレームのみを採用してもよい。
図5は、実施形態が適用された装置の一例でありテレビジョン放送受信装置2100の信号処理系を概略的に示している。デジタルテレビジョン放送受信用のアンテナ222で受信したデジタルテレビジョン放送信号は、入力端子223を介してチューナ224に供給される。このチューナ224は、入力されたデジタルテレビジョン放送信号から所望のチャンネルの信号を選局し復調している。チューナ224から出力された信号は、デコーダ225に供給されて、例えばMPEG(moving picture experts group)2デコード処理が施された後、セレクタ226に供給される。
またチューナ224の出力は、直接セレクタ226に供給されている。この信号から映像・音声情報などが分離され、この映像・音声情報が制御部235を介して記録・再生信号処理器255で処理され、ハードディスクドライブ(HDD)257にて記録されることも可能である。HDD257は、ユニットとして端子256を介して記録・再生信号処理器55に接続されており、交換することも可能である。またHDD257は、信号の記録器、読み取り器を含む。
アナログテレビジョン放送受信用のアンテナ227で受信したアナログテレビジョン放送信号は、入力端子228を介してチューナ229に供給される。このチューナ229は、入力されたアナログテレビジョン放送信号から所望のチャンネルの信号を選局し復調している。そして、このチューナ229から出力された信号は、A/D(analog/digital)コンバータ230によりデジタル化された後、セレクタ226に出力される。
また、例えばVTRなどの機器が接続されるアナログ信号用の入力端子231に供給されたアナログの映像及び音声信号は、A/Dコンバータ232に供給されてデジタル化された後、セレクタ226に出力される。さらに、例えばHDMI(High Definition Multimedia Interface)261を介して光ディスクあるいは磁気記録媒体再生装置などの外部機器が接続されるデジタル信号用の入力端子233に供給されたデジタルの映像及び音声信号は、そのままセレクタ226に供給される。
A/D変換された信号が、HDD257にて記録される場合は、セレクタ226に付随しているエンコーダ・デコーダ236内のエンコーダにより、所定のフォーマット例えばMPEG(moving picture experts group)2方式による圧縮処理が施された後、記録・再生信号処理器255を介してHDD257に記録される。記録・再生信号処理器255は、記録制御器235aと相俟って、HDD257に情報を記録する場合、例えばHDD257の何処のディレクトリに対してどのような情報を記録するかを予めプログラムされている。したがってストリームファイルをストリームディレクトリに格納するときの条件、識別情報を録画リストファイルに格納するときの条件などが設定されている。
セレクタ226は、4種類の入力デジタル映像及び音声信号から1つを選択して、信号処理器234に供給している。この信号処理器234は、入力されたデジタル映像信号からオーディオ情報、ビデオ情報を分離し、所定の信号処理を施している。信号処理としては、オーディオ情報に関しては、オーディオデコード・音質調整・ミックス処理などが任意に行われる。ビデオ情報に関しては、カラー・輝度分離処理、カラー調整処理、画質調整処理などが行われる。
また信号処理器234内には、先に説明した3D処理モジュール80も含まれる。ビデオ出力部239では、3D・2Dの切り替えに応じて3D信号出力又は2D信号出力の切り替えが行われる。またビデオ出力部239は、制御ブロック235からのグラフィック映像、文字・図形・記号・等の映像、ユーザインターフェース映像、番組表の映像などをメイン映像に多重する合成部も含む。ビデオ出力部235は、走査線数変換を含んでもよい。
オーディオ情報は、オーディオ出力回路237でアナログ化され、音量、チャンネルバランスなどの調整を受けた後、出力端子238を介してスピーカ装置2102に出力される。
ビデオ情報は、ビデオ出力回路239にて、画素の合成処理、走査線数変換など受けたのち、出力端子242を介して表示装置2103へ出力される。表示装置2103としては、例えば、図2で説明した装置が採用される。
このテレビジョン放送受信装置2100は、各種の受信動作を含む種々の動作を制御ブロック235によって統括的に制御されている。この制御ブロック235は、CPU(central processing unit)等を内蔵したマイクロプロセッサの集合である。制御ブロック235は、操作部247からの操作情報、または、リモートコントローラ2104から送信された操作情報がリモコン信号受信部248を取得され、これにより、その操作内容が反映されるように各種ブロックをそれぞれ制御している。
制御部235は、メモリ249を使用している。このメモリ249は、主として、そのCPUが実行する制御プログラムを格納したROM(read only memory)と、該CPUに作業エリアを提供するためのRAM(random access memory)と、各種の設定情報及び制御情報等が格納される不揮発性メモリとを備えている。
またこの装置はインターネットを介して外部サーバーとの通信を行うことも可能である。接続端子244からのダウンストリーム信号は、送・受信器245で復調され変調・復調器246で復調され、制御ブロック235に入力される。またアップストリーム信号は、変調・復調器246で変調され、送・受信器245で送信信号に変換され接続端子244に出力される。
制御ブロック235は、外部サーバーからダウンロードされた動画像あるいはサービス情報を変換処理し、ビデオ出力回路239に供給することができる。また制御ブロック235は、リモコン操作に応答して、外部サーバーに向けてサービス要求信号を送信することもできる。
さらに制御ブロック235は、コネクタ251に装着されたカードタイプメモリ252のデータを読み取ることも可能である。このために本装置は、例えば、カードタイプメモリ252から写真画像データを取り込み、表示装置2104に表示することが可能である。また特殊なカラー調整などを行う際に、カードタイプメモリ252からの画像データを標準データ或いは参照データとして用いることも可能である。
上記装置において、ユーザは、デジタルテレビジョン放送信号の所望の番組を視聴すると共に、HDD257に保存したいと思う場合、リモートコントローラ2104を操作することによりチューナ224を制御し、番組選択を行う。
チューナ224の出力は、デコーダ225でデコードされベースバンド映像信号に復号され、このベースバンド映像信号は、セレクタ226から信号処理器234に入力する。これによりユーザは、所望の番組を表示装置2103で見ることができる。
また選択された番組のストリーム(多数のパケットからなる)は、セレクタ226を介して制御ブロック235に入力する。ユーザが録画操作を行えば、記録制御器35aは、前記番組のストリームを選択して記録・再生信号処理器255に供給する。記録制御器235a及び記録・再生信号処理器255の動作により、例えば前記番組のストリームに対してファイル番号が付され、ストリームファイルとしてHDD257のファイルディレクトリに格納される。
また、ユーザがHDD257に記録されているストリームファイルを再生して視聴したい場合、例えばリモートコントローラ2104を操作して、例えば録画リストファイルの表示を指定する(この録画リストファイルについては後でさらに詳しく説明する)。
録画リストファイルは、HDD257にどのようなストリームファイルが記録されているのかを示すファイル番号やファイル名(識別情報と称する)のテーブルを有する。ユーザが録画リストファイルの表示を指定すると、録画リストがメニューとして表示されるので、ユーザは、表示されたリストの中の希望の番組名あるいはファイル番号の位置にカーソルを移動させ、決定ボタンを操作する。すると、所望のストリームファイルの再生が開始される。
指定されたストリームファイルは、再生制御器235bの制御のもとで、HDD257から読み出され、記録・再生信号処理器255で復号され、制御ブロック235、セレクタ226を経由して信号処理器234に入力される。
ここで、制御ブロック235は、記録制御器235a、再生制御器235b、及び3D関連制御器235cを含む。
図6には、3D関連制御器235cと3D処理モジュール80、ビデオ出力回路239の関係を取り出して示している。3D関連制御器235cは、設定及び操作入力処理器80a、処理パターン制御信号選択器80b、処理パターン決定器80cを含む。処理パターン制御信号選択器80bは、操作入力に応じて先に説明した第1のパターン若しくは第2のパターンを決定するための制御信号を出力し、処理パターン決定器80cに供給する。処理パターン決定器80cは、入力した制御信号に応じて、3D処理モジュール80内における処理パターンを第1若しくは第2の何れかの処理パターンに決定することができる。
処理パターンを設定若しくは切り替えるための方法が各種設定されている。第1は、リモートコントローラからのユーザ操作による操作信号が入力したときである。ユーザは、第1若しくは第2の処理パターンのいずれかを強制的に設定することが可能である。ユーザが特に操作入力を入力しないとき(或いは例えば、処理パターン解除ボタンを操作したとき)は、処理パターン制御信号選択器80bは、映像状態診断器80fからの診断信号、若しくは制御信号取得機80gからの制御信号に応答して、処理パターン制御信号を特定する。
映像状態診断器80fは、入力した2D映像表示用信号を解析して、例えば、
(1)データ放送信号を出力中であるかどうか、また、
(2)画面上でグラフィック画像エリアの割合を計算しその割合が画面の例えば40%以上であるかどうかを判断する。さらには、
(3)入力した2D映像表示用信号は、静止画領域(例えば字幕の領域)と動画領域(例えば映画の領域)が明確に区分されているかどうかを判断する。
制御信号取得器80gは、入力した2D映像表示用信号に付随する制御信号が、処理パターンを指定しているかどうかを判断する。
図7は、図6のブロック構成において、使用する第1と第2のパターンのいずれかを決定する手順の一例を示している。この手順は一例であり、本発明を限定的にするものではない。まず、リモコン操作によりユーザは所望のパターンを強制的に選択できるようになっている(ステップS1)。リモコン操作が無い、つまり非選択モードにあるときは、制御信号が判断される(ステップS2)。この制御信号は、例えば、メインビデオデータとともに送られてきた指定信号であり、第1のパターン若しくは第2のパターンを指定している。この指定信号は、例えば予めコンテンツプロバイダーが、メインビデオデータのコンテンツに対して与えたものである。
指定信号が無い場合は、現在の処理中の信号がデータ放送信号であるかどうかの判定がなされる(ステップS3)。データ放送信号が処理され出力されているときは、第1のパターンを選択する制御信号が出力され、第1のパターンの設定信号が得られる(ステップS7)。データ放送信号が処理され出力されていないときは、表示器の1画面に対するグラフィック画像エリアの割合が計算される(ステップS4)。ここで1画面に対するグラフィック画像エリアの割合が例えば40%以上であれば(ステップS5)、第1のパターンの設定信号が得られる(ステップS7)。なお40%は限定的ではなく、変更可能であっても良い。1画面に対するグラフィック画像エリアの割合が例えば40%以上無かった場合、静止画領域と動画領域とが明確に区分されているかどうかを判断する(ステップS6)。明確に区分されている場合は、第1のパターン設定信号が得られる(ステップS7)。これにより字幕領域が固定されているような映画の場合、字幕の文字を高い解像度で表示できる。静止画領域と動画領域とが明確に区分されていない場合は、第2のパターンの設定信号が得られる(ステップS8)。なお上記のフローにおいて、判断部分の順序が入れ替わっても良く本発明の範疇である。
上記したように実施形態によると、グラフィックスデータ、メインビデオデータの特質に応じて使用する第1のパターンと第2のパターンを選択して、2D映像表示用信号を3D映像表示用信号に変換している。このために種々の入力映像信号に対して適切な2D/3D変換処理を実現できる。また第1のパターンを採用したときは、高解像度のグラフィックスデータの映像を効果的に伝送できる。つまりグラフィックスデータの映像に対して適応的に処理可能で商品価値を向上し得るものである。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10・・・表示ユニット、11・・・立体映像表示用画素、20・・・マスク、30・・・バックライト、22・・・窓部、41・・・光線、80・・・3D処理モジュール、235・・・3D関連制御器、08a・・・設定及び操作入力器、80b・・・処理パターン制御信号選択器、80c・・・処理パターン決定器、80g・・・制御信号取得器、80f・・・映像状態診断器。

Claims (6)

  1. メインビデオデータを配置する第1の領域、グラフィックスデータを配置する第2の領域、前記メインビデオデータの画素の深さ情報を配置する第3の領域、及び前記グラフィックスデータの画素の深さ情報を配置する第4の領域を有した3D信号用のフォーマットを定義しており、
    前記第1の領域の画素の深さ情報を生成する場合に、前記メインビデオデータに前記グラフィックスデータを挿入した第1のパターンと前記メインビデオデータに前記グラフィックスデータを挿入しない第2のパターンのいずれを用いるか選択可能とした3D処理モジュールと、
    前記3D処理モジュールが用いる第1と第2のパターンのいずれかを決定する3D関連制御器と、
    を有する立体映像信号処理装置。
  2. 前記3D関連制御器は、前記メインビデオデータと共に送られてくる制御信号に基づいて、若しく前記メインビデオデータの静止画領域と動画領域が明確に区分されているかを判断した判断結果による制御信号に基づいて、前記第1と第2のパターンのいずれかを決定する請求項1記載の立体映像信号処理装置。
  3. 前記3D関連制御器は、グラフィックスデータによる映像領域が前記メインビデオデータによる映像領域の所定パーセント以上の場合に前記第1のパターンを決定する請求項2記載の立体映像信号処理装置。
  4. 前記3D関連制御器は、リモートコントローラの操作信号に基づいて、前記第1と第2のパターンのいずれかを決定する請求項1記載の立体映像信号処理装置。
  5. 3D信号処理モジュールとその制御信号を出力する3D関連制御器による立体映像信号処理方法において、
    メインビデオデータを配置する第1の領域、グラフィックスデータを配置する第2の領域、前記メインビデオデータの画素の深さ情報を配置する第3の領域、及び前記グラフィックスデータの画素の深さ情報を配置する第4の領域を有した3D信号用のフォーマットを定義しており、
    前記3D信号処理モジュールでは、前記第1の領域の画素の深さ情報を生成する場合に、前記メインビデオデータに前記グラフィックスデータを挿入した第1のパターンと前記メインビデオデータに前記グラフィックスデータを挿入しない第2のパターンを用いるかを選択可能し、
    前記メインビデオデータの処理を指定する制御信号に基づいて、前記3D関連制御器により第1と第2のパターンのいずれかを決定するようにした立体映像信号処理方法。
  6. 前記制御信号は、前記メインビデオデータと共に送られてくる信号、若しく前記メインビデオデータの静止画領域と動画領域が明確に区分されているかを判断した判断結果の信号である請求項5記載の立体映像信号処理方法。
JP2010278071A 2010-12-14 2010-12-14 立体映像信号処理装置及び方法 Active JP4908624B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010278071A JP4908624B1 (ja) 2010-12-14 2010-12-14 立体映像信号処理装置及び方法
US13/217,006 US20120146997A1 (en) 2010-12-14 2011-08-24 Stereoscopic Video Signal Processing Apparatus and Method Thereof
US13/865,065 US9774840B2 (en) 2010-12-14 2013-04-17 Stereoscopic video signal processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278071A JP4908624B1 (ja) 2010-12-14 2010-12-14 立体映像信号処理装置及び方法

Publications (2)

Publication Number Publication Date
JP4908624B1 true JP4908624B1 (ja) 2012-04-04
JP2012129708A JP2012129708A (ja) 2012-07-05

Family

ID=46170907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278071A Active JP4908624B1 (ja) 2010-12-14 2010-12-14 立体映像信号処理装置及び方法

Country Status (2)

Country Link
US (2) US20120146997A1 (ja)
JP (1) JP4908624B1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP4908624B1 (ja) 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
KR101820497B1 (ko) * 2011-07-27 2018-01-22 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
CN109961478A (zh) * 2017-12-25 2019-07-02 深圳超多维科技有限公司 一种裸眼立体显示方法、装置及设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2723867B2 (ja) 1995-11-24 1998-03-09 日本電気アイシーマイコンシステム株式会社 画像信号復号化装置
JP3443272B2 (ja) 1996-05-10 2003-09-02 三洋電機株式会社 立体映像表示装置
JP2000261828A (ja) 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
KR100631499B1 (ko) * 2000-01-24 2006-10-09 엘지전자 주식회사 디지털 티브이의 캡션 표시 방법
US20050041736A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
JP2006135747A (ja) 2004-11-08 2006-05-25 Canon Inc 三次元画像変換装置ならびに制御方法
EP1862016B1 (en) 2005-03-17 2012-09-26 Koninklijke Philips Electronics N.V. Autostereoscopic display apparatus and colour filter therefor
JP2010510558A (ja) * 2006-10-11 2010-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元グラフィックスのデータの作成
JP2008167310A (ja) 2006-12-28 2008-07-17 Deedrive:Kk 裸眼立体視画像処理方法および装置ならびに演算プログラムを記録した記録媒体
ATE472230T1 (de) * 2007-03-16 2010-07-15 Thomson Licensing System und verfahren zum kombinieren von text mit dreidimensionalem inhalt
CN101981912B (zh) * 2007-12-13 2013-01-23 苏蓬诺尔有限公司 用于更改电视图像的内容的方法
JP2011509558A (ja) * 2007-12-18 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示インタフェースを通じた立体画像データの輸送
WO2009094036A1 (en) * 2008-01-25 2009-07-30 Hewlett-Packard Development Company, L.P. Coding mode selection for block-based encoding
MY155378A (en) * 2008-07-24 2015-10-15 Koninkl Philips Electronics Nv Versatile 3-d picture format
ES2435669T3 (es) * 2008-07-25 2013-12-20 Koninklijke Philips N.V. Gestión de subtítulos en visualización en 3D
CN102027749B (zh) * 2008-11-18 2014-02-19 松下电器产业株式会社 考虑特殊再现的再现装置、集成电路、再现方法
CN102318352B (zh) * 2009-02-17 2014-12-10 皇家飞利浦电子股份有限公司 组合3d图像和图形数据
US8436918B2 (en) * 2009-02-27 2013-05-07 Deluxe Laboratories, Inc. Systems, apparatus and methods for subtitling for stereoscopic content
US20100265315A1 (en) * 2009-04-21 2010-10-21 Panasonic Corporation Three-dimensional image combining apparatus
WO2010131314A1 (ja) * 2009-05-14 2010-11-18 パナソニック株式会社 ビデオデータの伝送方法
US8270807B2 (en) * 2009-07-13 2012-09-18 Panasonic Corporation Recording medium, playback device, and integrated circuit
US20110032331A1 (en) * 2009-08-07 2011-02-10 Xuemin Chen Method and system for 3d video format conversion
EP2309463A3 (en) * 2009-10-07 2011-07-27 Thomson Licensing Method of displaying a 3D video with insertion of a graphic item and terminal for implementing the method
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
IT1397591B1 (it) * 2009-12-21 2013-01-16 Sisvel Technology Srl Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
JP5480915B2 (ja) * 2009-12-28 2014-04-23 パナソニック株式会社 表示装置と方法、記録媒体、送信装置と方法、及び再生装置と方法
EP2524510B1 (en) * 2010-01-13 2019-05-01 InterDigital Madison Patent Holdings System and method for combining 3d text with 3d content
US8472746B2 (en) * 2010-02-04 2013-06-25 Sony Corporation Fast depth map generation for 2D to 3D conversion
US9025933B2 (en) * 2010-02-12 2015-05-05 Sony Corporation Information processing device, information processing method, playback device, playback method, program and recording medium
WO2011129631A2 (ko) * 2010-04-14 2011-10-20 삼성전자 주식회사 디지털 자막 방송을 위한 방송 비트스트림을 생성하는 방법 및 그 장치, 디지털 자막 방송을 위한 방송 비트스트림을 수신하는 방법 및 그 장치
CN103119948A (zh) * 2010-09-19 2013-05-22 Lg电子株式会社 用于处理针对3d(三维)广播业务的广播信号的方法和装置
JP4908624B1 (ja) 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体

Also Published As

Publication number Publication date
US20130229488A1 (en) 2013-09-05
US9774840B2 (en) 2017-09-26
US20120146997A1 (en) 2012-06-14
JP2012129708A (ja) 2012-07-05

Similar Documents

Publication Publication Date Title
US20110063422A1 (en) Video processing system and video processing method
US20120050502A1 (en) Image-processing method for a display device which outputs three-dimensional content, and display device adopting the method
JP4892098B1 (ja) 立体映像表示装置及び方法
WO2010092823A1 (ja) 表示制御装置
JP5172991B2 (ja) 三次元映像処理装置および鑑賞位置チェック方法
US20110157303A1 (en) Method and system for generation of captions over steroscopic 3d images
JP4956664B1 (ja) 立体映像表示装置及び方法
JP4908624B1 (ja) 立体映像信号処理装置及び方法
JP4991930B2 (ja) 立体映像信号処理装置及び方法
JP4997327B2 (ja) 多視差画像受信装置
JP2015039063A (ja) 映像処理装置及び映像処理方法
JP5025786B2 (ja) 画像処理装置、及び画像処理方法
US20130266287A1 (en) Reproduction device and reproduction method
JP5050094B2 (ja) 映像処理装置及び映像処理方法
JP5355758B2 (ja) 映像処理装置及び映像処理方法
JP5487192B2 (ja) 立体映像表示装置及び方法
JP2012249295A (ja) 映像処理装置
JP5039238B2 (ja) 立体映像表示装置及び方法
JP5289606B2 (ja) 立体映像表示装置及び方法
JP5178932B2 (ja) 多視差画像表示装置
US20110316986A1 (en) Video display apparatus and video display method
KR20120017127A (ko) 입체영상 재생 장치 및 입체영상 재생 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4908624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250