JP5066244B2 - 映像再生装置及び映像再生方法 - Google Patents

映像再生装置及び映像再生方法 Download PDF

Info

Publication number
JP5066244B2
JP5066244B2 JP2010244521A JP2010244521A JP5066244B2 JP 5066244 B2 JP5066244 B2 JP 5066244B2 JP 2010244521 A JP2010244521 A JP 2010244521A JP 2010244521 A JP2010244521 A JP 2010244521A JP 5066244 B2 JP5066244 B2 JP 5066244B2
Authority
JP
Japan
Prior art keywords
information
depth
parallax
range
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010244521A
Other languages
English (en)
Other versions
JP2012099956A (ja
Inventor
豪毅 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010244521A priority Critical patent/JP5066244B2/ja
Priority to US13/118,079 priority patent/US20120105437A1/en
Publication of JP2012099956A publication Critical patent/JP2012099956A/ja
Application granted granted Critical
Publication of JP5066244B2 publication Critical patent/JP5066244B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明の実施の形態は、映像再生装置及び映像再生方法に関する。
映像を再生する映像再生装置において、映像信号から奥行き情報を求め、立体的な映像を再生可能とする映像再生装置及び映像再生方法が実用化されている。
特開2003−209858号公報
映像を立体的に表示する映像再生装置及び再生方法の多くは、右目と左目の視差を利用するため、ユーザが感じる奥行き感に、個人差が生じることが知られている。このため、奥行き感を、例えばユーザ毎に設定できることが好ましい。
本発明の目的は、映像を立体的に表示する際の奥行き感を変更可能な映像表示装置及び映像表示方法を提供することである。
実施形態によれば、映像再生装置は、実施形態によれば、映像再生装置は、奥行情報生成部と、入力部と、奥行調整部と、視差情報生成部と、視差画像生成部と、を具備する。奥行情報生成部は、入力画像信号から奥行情報を生成する。入力部は、前記奥行情報生成部が生成した奥行情報に、奥行の全範囲を固定したまま、奥行範囲境界情報を、明示的に入力する。奥行調整部は、前記入力部により入力された奥行範囲境界情報に基づいて、前記奥行情報生成部が生成した奥行情報を、奥行の全範囲を固定したまま、少なくとも奥行きの範囲内の一部の範囲について、調整する。視差情報生成部は、奥行調整部が調整した奥行情報から視差情報を生成する。視差画像生成部は、視差情報生成部が生成した視差情報に従い、左視点用画像信号及び右視点用画像信号を生成する。
実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。 実施形態の一例を示す概略図。
以下、実施の形態について図面を参照して説明する。
図1は、実施形態を適用する映像再生装置(例えば、テレビジョン受信装置、以下TV装置と称する)の一例を示す。なお、以下に説明する要素や構成あるいは機能は、ハードウエアで実現するものであってもよいし、マイクロコンピュータ(処理装置、CPU)等を用いてソフトウエアで実現するものであってもよい。
図1に示すTV装置(映像再生装置)1は、例えば空間波や有線伝送により供給されるテレビジョン放送や音声(オーディオ)及び映像(ビデオ)を含むコンテンツ、すなわち番組を受け付け、再生する。また、TV装置1は、インターネット(ネットワーク)網1001を通じて供給されるコンテンツも、再生できる。なお、TV装置1は、例えばHDD(ハードディスク)のような記録媒体とエンコーダとを含み、コンテンツを記録可能に形成されてもよい。また、以下に説明する実施の形態は、TV装置を例とするが、ディスプレイ(モニタ装置)とスピーカとを分離して、例えばSTB(セットトップボックス)と呼ばれるチューナユニットとすることもできる。
TV装置1において、チューナ/入力部11が取得したコンテンツまたは外部入力信号は、分離(Demux)部12により、映像(ビデオ)データと音声(オーディオ)データとに分離される。なお、チューナ/入力部11は、入力映像信号すなわちコンテンツが通常映像(2D)信号であるか、立体映像(3D)信号であるかを、入力映像信号に付属する制御信号に従い、識別できる。
分離部12が分離した映像(ビデオ)データは、映像(ビデオ)処理ブロック21の映像(ビデオ)デコーダ22によりデコードされ、デジタル映像(ビデオ)信号として出力される。なお、チューナ/入力部11が受けつけるコンテンツまたは外部入力信号が、例えばビデオカメラからの映像及び音声である場合、信号の入力方式に依存するが、分離部12による分離が必要ない(スルーできる)ことは、いうまでもない。
映像デコーダ22がデコードした映像(ビデオ)データは、映像出力装置を表示可能に処理する映像(ビデオ)処理部23に入力され、後段のディスプレイ24が表示可能に、所定の解像度及び出力方式、例えばインターレース(i)/ノンインターレース(p)等に変換され、ディスプレイ24に供給される。なお、映像(ビデオ)処理部23の出力は、例えば外部モニタ装置あるいは投影装置(プロジェクタ装置)等が接続可能な、出力端25に出力されてもよい。
映像(ビデオ)処理部23の後段にはまた、映像の立体的な表示のため、映像信号から立体映像信号を得る立体映像処理部26が設けられている。立体映像処理部26については、図2〜図6を用いて後段に詳述する。
分離部12が分離した音声データは、音声(オーディオ)処理ブロック31の音声(オーディオ)デコーダ32によりデコードされ、デジタル音声(オーディオ)信号として出力される。
音声デコーダ32がデコードした音声(オーディオ)信号は、音声出力装置が再生可能に処理する音声(オーディオ)処理部33を通過し、アナログの音声(オーディオ)出力を得るD−Aコンバータ34に入力される。
D−Aコンバータ34からのアナログの音声(オーディオ)出力は、例えばスピーカ35に入力される。なお、D−Aコンバータ34からの出力は、AV(Audio Visual)アンプ等が接続可能な出力端36に、さらに分岐されてもよい。
上述したTV装置1において、チューナ部11、分離部12、映像(ビデオ)処理ブロック21及び音声(オーディオ)処理ブロック31のそれぞれは、主制御ブロック51により制御され、所定の動作を実行する。
主制御ブロック51は、例えばCPU(Central Processing Unit,演算装置)あるいはマイクロコンピュータを含む。主制御ブロック51は、動作プログラムを保持したROM及びワークメモリとして機能するRAMを少なくとも含むメモリユニット52、インターネット網1001との間の接続、すなわちインターネット網1001からのさまざまな情報の取得及びインターネット網1001に対するユーザからのアクセス等を制御するネットワーク(LAN)制御部53及びHDMI(登録商標)規格に準拠することによりイーサネット(登録商標)を経由するデータ/制御信号の受け渡しを制御するHDMI制御部54、等を少なくとも含む。
なお、HDMI制御部54は、外部の装置との接続に用いるHDMIポート54aとLAN(ネットワーク)制御部53のHDMIポート53aとの間のデータ及び制御信号の受け渡しが可能で、HDMI規格に従い、上述のアクティブHECを構築可能なHDMIポート54bを含む。また、HDMI制御部54のHDMIポート54bとLAN制御部53のHDMIポート53aとの間の信号制御及びデータの受け渡しは、例えば、主制御ブロック51または、主制御ブロック51と接続するサブ制御装置55により制御される。
主制御ブロック51にはまた、ユーザからの制御入力を受け付ける操作入力部3が接続される。
操作入力部3は、例えばチューナ(入力)部11が選択するチャンネルを特定するためのチャンネルキー(ボタン)や電源のオン/オフに用いる電源スイッチあるいはリモートコントローラ(以下、リモコンと称する)5からの指示や制御入力を受け付ける受信部、等を少なくとも含む。また、文字や記号あるいは数字等の入力を可能とするキー操作入力部(キーボード)等、が接続されてもよい。
以下、リモコン5による制御入力を例に、立体表示と通常表示の切り替えを説明する。
リモコン5は、立体表示と通常表示を切り替えて表示させるための選択信号を出力可能な選択入力部、例えば入力ボタン(キー)5aを含み、ユーザによる立体表示の選択すなわち切り替え指示を、主制御ブロック51に入力できる。なお、リモコン5は、立体表示の際に、奥行感の変更を設定するための設定ボタン(キー)5bを有することが好ましい。
リモコン5の操作により立体表示が選択された場合、映像(ビデオ)処理部23の出力は、ディスプレイ24または出力端25に出力される前段で、立体映像処理部26へ入力され、後段に詳述する立体映像信号に変換され、その後ディスプレイ24または出力端25に出力される。
図2は、図1に示したTV装置(映像表示装置)に組み込まれる立体映像処理部の一例を示す。
図2に示す立体映像処理部201(図1において26と呼称)は、2次元画像すなわち映像(ビデオ)処理部23の出力画像信号から奥行情報を生成し、出力する奥行生成部211、奥行範囲境界情報に基づいて奥行情報を調整し、調整後の奥行情報を出力する奥行調整部212、調整後の奥行情報から視差情報を生成し、出力する視差情報生成部213、及び2次元画像及び視差情報を基に右視点用画像及び左視点用画像を生成し、出力する視差画像生成部214、を少なくとも含む。
2次元画像は、奥行生成部211及び視差画像生成部214に入力される。奥行情報および奥行範囲境界情報は、奥行調整部212に入力される。調整後の奥行情報が、視差情報生成部213に入力される。
奥行生成部211は、図3に一例を示すが、入力映像信号(2次元映像信号)から背景領域画像信号を抽出し、背景動きベクトルを求める背景領域抽出部221、背景領域抽出部221で分離した背景領域以外の領域の画像信号から動きベクトル(映像動きベクトル)を求める動きベクトル検出部222、背景領域抽出部221が求めた背景動きベクトルと動きベクトル検出部222が求めた映像動きベクトルから代表背景動きベクトルを算出する背景動きベクトル検出部223、動きベクトル検出部222が求めた映像動きベクトルと背景動きベクトル検出部223が算出した代表背景動きベクトルから相対動きベクトルを求める相対動きベクトル算出部224を、少なくとも含む。なお、相対動きベクトル算出部224は、一例ではあるが、動きベクトル検出部222が求めた映像動きベクトルから背景動きベクトル検出部223が算出した代表背景動きベクトルを減算して、入力映像信号が含む映像の奥行きを求める(推定する)。この相対動きベクトル算出部224の出力が調整前奥行情報(図2−202)である。
奥行調整部212は、図4に示すように、最も手前(原点)から最も奥側(Dmax)との間のレンジ(奥行き全範囲)を固定したまま、原点と任意の奥行き点(範囲)Bとの間の範囲(以下、「手前」と称する)について、奥行き点(範囲)B´に、奥行き点Bと最も奥側(Dmax)との間の奥行き点(範囲)B2の範囲(以下、「中間」と称する)について、奥行き点(範囲)B´に、それぞれ変更するものある。ここで、奥行情報として与えられる値(以下,奥行値)は,0のとき最も手前,大きくなるほど奥であることを示すとする。
このとき、図4においては、
0 < B <B’ < B < B’ < Dmax
−B = B’−B’
の関係が維持されるものとする。
従って、図4の例では、大まかに3つに区分したレンジ(範囲)のうち、「手前」の範囲にある映像の奥行き感を最も強調し、「中央」の範囲にある映像の奥行き感を、調整前と同じとすることになる。なお、図4の例では、奥行き点(範囲)Bと最も奥側(Dmax)との間の範囲(以下、「奥」と称する)については、奥行き感は圧縮されることになるため、視覚的には、「手前」の奥行き感は強められ、「奥」の奥行感は弱められることになる。
より詳細には、図4に示す例は、最大奥行値(Dmax)により規定される奥行範囲が0(原点)以上Dmaxであるから、
奥行範囲境界情報として、
調整前の「手前」と「中間」との間の奥行範囲の境界B
調整前の「中間」と「奥」との間の奥行範囲の境界B
調整後の「手前」と「中間」の奥行範囲の境界B´
調整後の「中間」と「奥」との間の奥行範囲の境界B´
を与えた場合、調整前の奥行値dに対する調整後の奥行値d´は、上述の奥行範囲境界情報が与えられた範囲内で、以下の(1)式が示す関数fで求められる。
Figure 0005066244
また、個々の調整後の奥行値d´が奥行情報として出力され、視差情報生成部213に入力される。
図5は、図4に示した奥行き調整の結果を、ディスプレイ24が表示する映像における奥行きとして示す。図4により説明した例は、「手前」の範囲については、奥行範囲を広げ、「奥」の範囲については、奥行範囲を縮める調整であるから、視覚的には、図5に示す通り、「手前」の範囲の奥行き感は強められ,「奥」の範囲の奥行感は弱められることになる。
なお、「中間」の奥行範囲は変化しないため、「中間」の奥行き感は保たれる。
また、図6に模式的に示すが、ディスプレイ24が表示する映像を、最も手前(原点)と最も奥側(Dmax)との間の奥行き範囲(レンジ)のうち、例えば「手前」あるいは「中間」等の特定の奥行き範囲にある部分的な画像について、強度を求め、その強度を部分的に変更することで、奥行き感を任意に変更できる。
また、奥行調整は、奥行範囲境界情報によって奥行範囲を伸縮させるものであるため、ユーザが奥行境界情報を指定して奥行き感を調整する場合、直感的に調整を行うことができる。例えば、奥行範囲境界情報については、「B」、「B’」、「B」及び「B’」のすべてをユーザが指定してもよいし、「B」及び「B」については予め決定した固定の値を用い、「B’」及び「B’」をユーザが指定してもよい。
例えば、ユーザが、リモコン5の設定ボタン(キー)5bにより、奥行範囲の変更開始を指示した場合、リモコン5から、例えば「手前」と「中間」の奥行き範囲を広げるよう設定した[強調]、「手前」の奥行き範囲を広げるよう設定した[奥行変更(浅く)]あるいは「中間」の奥行き範囲を広げるよう設定した[奥行き変更(深く)]等の直感的な表現を用いた複数の変更モードを用意し、例えば図7に示すように、ディスプレイ24が表示する映像表示701内に、メニュー表示711を表示し、メニュー表示711中の「奥行き変更」表示721を選択したのち、設定ボタン5bがオンされる毎に、[強調]→[奥行き変更(浅く)]→[奥行き変更(深く)]→[強調]・・・を、ロータリー式で、順に表示することで、上述の図5に示したような、3つの区間に区分した奥行範囲の変更を、入力指示可能としてもよい。
また、表示例としては、図8A、図8B及び図8Cに示すように、図1に示したリモコン5の設定ボタン5bがオンされる毎に画面801中に、メニュー表示811が表示され(図8A)、「奥行き変更」ボタン群821、822、823がメニューバーとして、選択入力可能に表示され(図8B)、メニューバー821〜823からユーザが選択したメニューが確定入力される(図8C)という、複数画面表示を適用することもできる。
なお、奥行き感の感じ方(立体画像の見え方)は、ユーザにより異なることが知られている。このため、上述の[強調]、[奥行き変更(浅く)]、[奥行き変更(深く)]等の変更モードを、個々のユーザのユーザ名でプリセットできるようにしてもよい。
また、入力映像信号に字幕情報等の背景領域画像や映像信号と独立した情報が含まれる場合、例えば字幕情報検出部を設け、上述の奥行範囲を変更する対象から除外することもできる。
視差情報生成部213は、調整後の奥行情報から視差情報を生成し、視差画像生成部214に入力する。
視差情報は、例えば左目用の左視点画像を基準とする場合、右目用の右視点画像を水平方向に移動するための情報であり、立体画像の生成において用いられるさまざまな手法に従い、生成される。なお、本実施の形態では、視差情報は、上述した調整後の奥行情報を含む。
視差画像生成部214は、視差情報生成部213からの調整後の視差情報に従い、例えば左視点用画像として入力画像をそのまま用い、右視点用画像として入力画像の画素を、視差情報(奥行情報)に基づいて水平方向へずらすことにより左目用の左視点画像と右目用の右視点画像を生成し、ディスプレイ24あるいは出力端25へ、映像出力信号を出力する。視差画像生成部214はまた、リモコン5による入力切り替え、あるいはチューナ/入力部11において取得した3D(立体映像)モードによる映像であることを示す制御情報に従い、予め設定されている表示方式に応じた形式、例えばside−by−side方式、Frame−Sequential方式、あるいはAbove−Below方式等の映像出力信号を出力する。もちろん、3D(立体映像)表示装置において広く用いられる偏向メガネ(シャッター)が不要なレンチキュラレンズを用いる表示装置においても同様である。
図9に、立体映像処理部に適用可能な別の処理方式の一例を示す。
図9に示す立体映像処理部926は、相対動きベクトル検出部927、視差情報生成部928、視差調整部929、及び視差画像生成部930を、少なくとも含む。なお、図9に示す立体映像処理部926は、奥行を、陽に算出せずに視差画像を生成することを特徴とする。
入力映像信号すなわち2次元画像信号は、相対動きベクトル検出部927及び視差画像生成部930に入力される。
相対動きベクトル検出部927は、2次元画像(入力映像)信号から相対動きベクトル情報を生成し、視差情報生成部928に入力する。
視差情報生成部928は、相対動きベクトル検出部927からの相対動きベクトル情報に従い、視差情報(調整前)を生成し、視差調整部929に入力する。
視差調整部929は、入力された視差情報を調整し、調整後の視差情報を視差画像生成部930に、入力する。
相対動きベクトル検出部927は、図3により説明したが、2次元(入力)映像信号を背景領域像とそれ以外の領域の像の信号に分離し、2次元映像の動きベクトルと背景領域像の背景動きベクトルとから背景領域像の代表動きベクトルを算出し、2次元映像の動きベクトルから代表動きベクトルを減算することで相対動きベクトルを算出して、相対動きベクトル情報として出力する(図9−931)。
視差情報生成部928は、相対動きベクトル検出部927からの相対動きベクトル情報から視差情報を生成する。
例えば、予め、
左向きの最大視差量P
右向きの最大視差量Pを決めておき、
相対動きベクトルの水平成分のフレーム内最大値Vmaxのとき右向きの最大視差量、
相対動きベクトルの水平成分のフレーム内最小値Vminのとき左向きの最大視差量、
となるように、以下(2)の式により、視差量(視差情報)を算出すればよい。
Figure 0005066244
ここで、
vは、相対動きベクトルの水平成分、
pは、算出された視差量であり、
相対ベクトルの水平成分は右向きを正の値とする。
図9は、上記式(2)を示すグラブであり、算出された視差量が、視差情報として出力される。
視差調整部929は、入力された視差情報を調整するもので、上述の通り、陽に奥行きは算出はされないが、
視差量が左向きに大きいほど手前、
視差量が右向きに大きいほど奥、
を表すことを利用して、「視差量」と「奥行き」とを、対応づけることができる。
例えば、視差範囲を、「手前」、「中間」及び「奥」の3つに分割し、それぞれに対して、強弱を調整する場合、
視差情報生成部928において定義した
視差範囲が左向きの最大視差量P
視差範囲が右向きの最大視差量P
によって視差範囲が制限されているものとすると、視差範囲境界情報として、調整前の「手前」と「中間」の視差範囲の境界、調整前の「中間」と「奥」の視差範囲の境界、調整後の「手前」と「中間」の視差範囲の境界、調整後の「中間」と「奥」の視差範囲の境界が与えられる。
上述の視差範囲境界情報が与えられた下で、調整前の視差量pに対する調整後の視差量p´は、以下の(3)の関数gで求められる。
Figure 0005066244
このとき、図11に示すように、調整前後の視差範囲については、
<P <P’ < P <P’ < P
−P =P’ −P’
の関係が維持されるものとする。
従って、図11から、(3)式を用いる視差範囲の調整は、「手前」の視差範囲を広げ、「奥」の視差範囲を縮める調整となる。
このため、視覚的には「手前」の奥行き感は強められ、「奥」の奥行感は弱められることになる。なお、「中間」の視差範囲は変化しないため,中間の奥行き感は保たれる。
すなわち、図12が示す視差範囲の調整結果は、図4に示した奥行き調整に類似した視差範囲をあたえることができる。なお、図12は、図11が示す視差範囲の調整の結果を、ディスプレイ24が表示する映像における奥行き感として示す。
また、視差範囲の調整は、視差範囲境界情報によって視差範囲を伸縮させるものであるため、ユーザが視差範囲境界情報を指定して奥行き感を調整する場合、直感的に調整を行うことができる。例えば、視差範囲境界情報として、「P」、「P」、「P’」及び「P’」のすべてをユーザが指定してもよいし、「P」及び「P」については予め決定した固定の値を用い、「P’」及び「P’」をユーザが指定してもよい。
視差画像生成部930は、視差調整部929からの調整後の視差情報に従い、例えば左視点用画像として入力画像をそのまま用い、右視点用画像として入力画像の画素を、視差情報(奥行情報)に基づいて水平方向へずらすことにより左目用の左視点画像と右目用の右視点画像を生成し、ディスプレイ24あるいは出力端25へ、映像出力信号を出力する。視差画像生成部214はまた、リモコン5による入力切り替え、あるいはチューナ/入力部11において取得した3D(立体映像)モードによる映像であることを示す制御情報に従い、予め設定されている表示方式に応じた形式、例えばside−by−side方式、Frame−Sequential方式、あるいはAbove−Below方式等の映像出力信号を出力する。もちろん、3D(立体映像)表示装置において広く用いられる偏向メガネ(シャッター)が不要なレンチキュラレンズを用いる表示装置においても同様である。
図13は、図2〜図5を用いて説明した実施形態が適用可能なビデオカメラ装置の制御ブロックの一例を示す。
撮像レンズ1351から取り込まれた被写体像は、例えばCCDセンサである撮像素子1331の結像面に結像され、アナログ信号(撮像画像データ)に変換される。なお、レンズ1351の前段に、3D(立体映像)撮影用の3D拡張レンズユニット1352をセットすることで、CCDセンサ1331が出力する映像(撮像画像データ)を立体映像とすることができる。
CCDセンサ1331からのアナログ信号(撮像画像データ)は、CPU(主制御部)1311により制御されるアナログ−デジタル(A/D)変換部1301によりデジタル信号に変換され、カメラ信号処理回路1302に入力される。
カメラ信号処理回路1302では、A/D変換部1301によりデジタル信号に変換された撮像画像データに、例えばガンマ補正、色信号分離、あるいはホワイトバランス調整等の処理が施される。
カメラ信号処理回路1302から出力された撮像画像データは、ビデオデコーダ(Video Decoder)1307を介して液晶パネル駆動回路(LCD Driver)1308に入力され、液晶パネル駆動回路1308により、LCD(ディスプレイ/表示部)1324に、表示される。
カメラ信号処理回路1302から出力された撮像画像データは、記録時においては、圧縮/伸長部1303で圧縮された後、メモリ回路(メインメモリ/ワークメモリ)1304を通じて、主記録媒体、例えばハードディスク装置(以下HDDと略称する)1305または付随する取り出し可能な記録媒体、例えば不揮発性メモリであるメモリカード1306に記録される。なお、圧縮/伸長部1303においては、静止画は、例えばJPEG規格等の、動画(非静止画)は、MPEG規格等の、周知の圧縮方式により圧縮される。また、メモリカード1306は、例えばSDカード(登録商標)や、mini−SD(登録商標)と呼ばれる半導体メモリが利用可能である。
HDD1305またはメモリカード1306に既に記録されている画像を再生する際には、HDD1305あるいはメモリカード1306から読み出された画像が圧縮/伸長部1303において伸長され、メモリ回路1304を通じてビデオデコーダ1307に供給される。以下、ビデオデコーダ1307に供給された画像データは、液晶パネル駆動回路1308を介して、表示部1324に表示される。
なお、HDD1305およびメモリカード1306との間のデータ(圧縮画像)の受け渡しには、図示しないが、記録メディアインタフェースが用いられる。また、HDD1305に換えて、例えば光ディスクが用いられてもよいことはいうまでもない。もちろん、容量の大きなメモリカード(1306)を、主記録媒体とすることも可能である。
メモリ回路1304には、レンズユニット1352を通じ、立体映像として撮像される映像信号を処理する立体映像処理部1321が接続されている。
立体映像処理部1321は、図14に抜きだして“1401”として説明するが、3Dレンズユニット1352を介して供給される右カメラ画像と左カメラ画像から奥行情報を生成し、出力する奥行生成部1411、ユーザにより入力される奥行範囲境界情報に基づいて奥行情報を調整し、調整後の奥行情報を出力する奥行調整部1412、調整後の奥行情報から視差情報を生成し、出力する視差情報生成部1413、及び2次元画像及び視差情報を基に右視点用画像及び左視点用画像を生成し、出力する視差画像生成部1414、を少なくとも含む。
なお、奥行生成部1411は、右カメラ画像と左カメラ画像が入力されることが、図2の例と異なる。また、視差画像生成部1414には、左カメラ画像が入力されることが、図2の例と異なる。
立体映像処理部1401(1321)においては、奥行生成部1411は、右カメラ画像と左カメラ画像を用いてステレオマッチングを行い、左カメラ画像における対応点の位置を基点とし、右カメラ画像における対応点の位置を終点としたベクトルを算出し、それを用いて奥行情報を生成する。なお、奥行調整部1412における奥行調整は、図4及び図5に示した例と実質的に同一である。
視差画像生成部1414は、左視点用画像として左カメラ画像をそのまま用い,右視点用画像について、視差情報生成部1413が生成する視差情報に従って、左カメラ画像の画素を水平方向へずらすことにより左目用の左視点画像と右目用の右視点画像を生成し、表示部(ディスプレイ/LCD)1324へ、映像出力信号を出力する。
図15は、図13に示したビデオカメラ装置における立体映像処理部として図9により説明した処理回路を適用する例を示す。
図15に示す立体映像処理部1521は、3Dレンズユニット1352から供給される右カメラ画像と左カメラ画像から対応点を検出し、対応ベクトル情報を生成し、出力する対応点検出部1527、出力する対応点検出部1527からの対応ベクトル情報に従い、視差情報(調整前)を生成する視差情報生成部1528、入力された視差情報を調整し、調整後の視差情報を出力する視差生成部1529及び視差生成部1529からの調整後の視差情報に従い、例えば左視点用画像として入力画像をそのまま用い、右視点用画像として入力画像の画素を、視差情報(奥行情報)に基づいて水平方向へずらすことにより左目用の左視点画像と右目用の右視点画像を生成し、ディスプレイ(表示部/LCD)1324へ、映像出力信号を出力する視差画像生成部1530を、少なくとも含む。
なお、対応点検出部1527は、3Dレンズユニット1352を用いて撮像した映像が左カメラ画像と右カメラ画像の2種類であることに起因して、左カメラ画像における対応点の位置を基点,右カメラ画像における対応点の位置を終点としたベクトル(以下,対応ベクトル)を算出し,対応ベクトル情報として出力するものである。
以下、視差情報生成部1528、視差生成部1529及び視差画像生成部1530は、実質的に、図9に示した例と同様であるから、詳細な説明を省略する。
図16に、TV装置(映像再生装置)の別の例を示す。本例の基本構成は、図1に示す例と同様である。ただし、立体映像処理部1626に、図14に示した立体映像処理部1401または図15に示した立体映像処理部1521が組み込まれている点が異なる。また、立体映像処理部1626に、例えば外部入力端子1626a,1626bにより、ステレオカメラ映像信号の右カメラ映像と左カメラ映像を入力することができる。
図17は、記録再生装置(レコーダ装置)の例を示す。
レコーダ(記録再生)装置(記録再生装置)1711は、映像信号(ビデオデータ)に対応する映像信号(ビデオ)を出力する映像出力端1721、音声出力(オーディオデータ)に対応する音声信号(オーディオ)を出力する音声出力端1723、ユーザからの制御指示(制御入力)信号を受け入れる操作部1717、ユーザからのリモコン装置Rによる操作情報(制御入力)信号を受けつけるリモコン受信部1719、および制御ブロック(制御部)1760等を含む。
制御部1760は、CPUまたはMPU(Main Processing Unit)とよばれる主制御装置(主制御用大規模IC(LSI))1761を、含む。
制御部1760(主制御装置1761)は、操作部1717からの操作入力、またはリモコン装置Rから送出された操作情報を受信部1719により受信した(リモコン入力)制御信号、もしくはネットワーク接続部(通信インタフェース)1773を介して外部から供給される情報およびデータに対応して、以下に説明する各部(要素)を、制御する。
制御部1760はまた、主制御装置1761が実行する制御プログラムを保持したROM(Read Only Memory)1762、主制御装置1761の作業エリアを提供するRAM(Random Access Memory)1763、各種の設定情報や制御情報あるいはネットワーク接続部1773を介して外部から供給される情報および録画予約情報などのデータ等を保持する不揮発性メモリ(Non Volatility Memory,NVM)1764、およびHDD1765を、含む。
制御部1760には、半導体メモリであるカード状媒体(メモリカード)Mからの情報の読み出しとメモリカードMへの情報の書き込みを可能とするカード_IF1771、ネットワーク接続部(通信_IF)1773、HDMI(High-Definition Multimedia Interface)1774、光ディスクDからの情報すなわち動画データやオーディオ(音声)データの読み出しと光ディスクへの情報の書き込みに用いられるディスクドライブ装置1775、USB_I/F、およびi.Link_I/F(インタフェース)1777等の任意数のI/F(Interface,インタフェース)群が接続され、それぞれのインタフェースに適合する外部装置、あるいはハブ(拡張装置)もしくはネットワーク制御装置として機能する。
カード_I/F1771は、カードホルダ1772に装着されるメモリカードMから、映像および音声ファイルを読み込むことができ、また、メモリカードMに、映像および音声ファイルを書き込むことができる。
通信_I/F1773は、LAN端子(ポート)1781と接続され、イーサネット規格に従い、例えば携帯端末装置やモバイルPCを介して、あるいはリモコン装置Rから供給される制御情報や動画データを受け入れる。なお、通信_I/F1773は、LAN対応のハブ(Hub)が接続されることで、LAN対応のHDD(NAS(Network Attached Storage)HDD(Hard Disk Drive))、PC(personal computer)、HDD内臓のDVDレコーダ等の機器の接続が可能である。
HDMI1774には、HDMI端子1782を介して、例えば図示しないDVDレコーダやAVアンプ、あるいはハブが接続される。なお、AVアンプには、例えばDVDレコーダやDVDプレーヤ等が接続される。また、ハブには、例えばHDMI端子を備えたAVアンプや、PC、HDD内臓のDVDレコーダ、DVDプレーヤ等の外部機器が接続可能である。なお、HDMI端子1782がハブと接続される場合には、例えばブロードバンドルータを介して、例えばインターネット等のネットワークとの接続や、ネットワーク上に位置するPCや図示しない携帯電話または携帯端末装置、もしくは携帯端末との間の動画ファイル(映像データ)やオーディオファイル(音声データ)の読み込みおよび再生ならびに書き込み(記録)等も可能である。
ディスクドライブ装置1775は、例えばDVD規格やより記録密度の高いブルーレイ規格の光ディスクDから情報すなわち動画データやオーディオ(音声)データを読み出し、もしくは記録する。また、セットされた光ディスクがCD規格である場合には、オーディオ(音声)データを読み出し、再生する。
USB_I/F1776は、USBポート1784に接続される図示しないハブを介して、USB_I/Fを介してアクセス可能に形成されたHDD、キーボード等が接続可能であり、それぞれのUSB機器との間で情報の受け渡しが可能である。なお、USB_I/F1776に対応する携帯電話、デジタルカメラ、メモリカードに対するカードリーダ/ライタも接続可能であることはいうまでもない。
i.Link_I/F1777は、図示しないが、例えばAV(オーディオ−ビジュアル)−HDDあるいはD(Digital)−VHS(Video Home System)等の外部機器、もしくは、外付けのチューナあるいはSTP(Set Top Box(ケーブルテレビ用受信機))等がシリアル接続可能であり、接続される任意の機器との間で、情報の受け渡しが可能である。
なお、詳述しないが、個々のインタフェースに加えて、もしくは任意の1または複数のインタフェースに代えて、例えばDLNA(Digital Living Network Alliance(登録商標))規格等に準拠したネットワークコントローラや、図示しないBluetooth(登録商標)/(ブルートゥース(登録商標))が用意され、それらを経由して、データの受け渡しが可能なレコーダ装置やHDD装置、もしくは携帯可能な端末装置が接続されてもよいことはいうまでもない。
制御部1760は、タイマーコントローラ(時計部)1790を含む。時計部90は、時刻や、ユーザからの入力により設定される予約録画のための予約時刻(日時)と録画対象チャンネル等の情報を管理するとともに、その情報を保持可能である。なお、時計部1790は、地上波デジタルチューナ1750を介して受信するデジタル放送におけるTOT(Time Offset Table)と呼ばれる「時刻情報」を、常時取得できる。すなわち、電波時計を内蔵している機器と同等の時刻管理が可能である。また、地上波アナログチューナ1752により受信するアナログアナログ放送の所定のチャンネルからも、毎日、所定の時間に時報を取得可能であることはいうまでもない。また、時計部1790は、携帯端末装置から供給されるスケジューラ機能やメッセンジャ機能のための情報に対する計時部としても機能する。なお、時計部1790は、スケジューラ機能およびメッセンジャ機能により規定される所定の時刻において、電源部1791による、商用電源に対する電源のオン/オフ(通電)を制御できることはいうまでもない。すなわち、コンセントが抜かれている等の物理的に通電が困難な状況下以外においては、信号処理部1747あるいはHDD等の電力消費の比較的大きな要素を除く、制御部1760等への2次電源(DC(直流)31V、あるいは24Vもしくは5V等)は、通常確保されており、予め規定された時刻に信号処理部1747あるいはHDD1765等が起動されることは、いうまでもない。
制御部1760にはさらに、立体映像処理部1780が接続する。立体映像処理部1780は、図14に示した立体映像処理部1401または図15に示した立体映像処理部1521と同等である。また、立体映像処理部1780に、例えば外部入力端子1780a,1780bにより、ステレオカメラ映像信号の右カメラ映像と左カメラ映像を入力することができる。なお、映像信号は、信号処理部1747に外部からの信号を入力できる1740a〜1740dを経由して入力されても良い。
上述のレコーダ装置1711においては、BS/CSデジタル放送受信用のアンテナ1742で受信した衛星デジタルテレビジョン放送信号は、入力端子1743を介して衛星デジタル放送用のチューナ1744に供給される。
チューナ1744は、制御部1760からの制御信号により所望のチャンネルの放送信号を選局し、この選局された放送信号をPSK(Phase Shift Keying)復調器1745に出力する。
PSK復調器1745は、制御部1760からの制御信号に基づき、チューナ44で選局された放送信号を復調して、所望の番組を含んだトランスポートストリーム(Transport Stream,TS)を得て、TS復号器1746に出力する。
TS復号器1746は、制御部1760からの制御信号により、トランスポートストリーム多重化された信号のTS復号処理を行い、所望の番組のデジタルの映像信号及び音声信号を信号処理部1747に出力する。また、TS復号器1746は、デジタル放送により送られている番組(コンテンツ)を取得するための各種データ(サービス情報)、電子番組ガイド(EPG)情報、番組属性情報(番組ジャンル等)および字幕情報等を制御部1760へ出力する。
また、地上波放送受信用のアンテナ1748で受信した地上デジタルテレビジョン放送信号は、入力端子1749を介して地上デジタル放送用のチューナ1750に供給される。
チューナ1750は、制御部1760からの制御信号により所望のチャンネルの放送信号を選局し、この選局された放送信号をOFDM(Orthogonal Frequency Division Multiplexing)復調器1751に出力する。
OFDM復調器1751は、制御部1760からの制御信号により、チューナ1750で選局された放送信号を復調して、所望の番組を含んだトランスポートストリームを得て、TS復号器1756に出力する。
TS復号器1756は、制御部1760の制御の下で、トランスポートストリーム(TS)多重化された信号のTS復号処理を行い、所望の番組のデジタルの映像信号および音声信号を信号処理部1747に出力する。なお、信号処理部1747では、デジタル放送波により送られてくる番組を取得するための各種データや電子番組ガイド(EPG)情報や、番組属性情報(番組ジャンル等)等を取得して、制御部1760へ出力する。
地上波放送受信用のアンテナ1748で受信した地上アナログテレビジョン放送信号は、入力端子1749を介して地上アナログ放送用のチューナ1752に供給されることにより、所望のチャンネルの放送信号が選局される。チューナ1752で選局された放送信号は、アナログ復調器1753により、アナログコンテンツすなわちアナログの映像信号および音声信号に復調された後、信号処理部1747に出力される。
信号処理部1747は、PSK復調器1745及びOFDM復調器1751からそれぞれ供給されたデジタルの映像信号および音声信号に対して、選択的に所定のデジタル信号処理を施し、グラフィック処理部1754及び音声処理部55に出力している。
信号処理部1747の複数(図示の場合は4つ)の入力端子1740a,1740b,1740c,1740dが接続されている。これら入力端子1740a〜1740dは、それぞれ、映像信号及び音声信号を、放送受信装置1711の外部から入力可能とするものである。
グラフィック処理部1754は、信号処理部1747から供給されるデジタルの映像信号に、OSD(On Screen Display)信号生成部57で生成されるOSD信号を重畳して出力する機能を有する。このグラフィック処理部1754は、信号処理部1747の出力映像信号と、OSD信号生成部1757の出力OSD信号とを選択的に出力すること、また、両出力をそれぞれ画面の半分を構成するように組み合わせて出力することができる。なお、OSD信号生成部1757により出力される出力OSD信号は、αブレンディングのパラメーターが設定されることで、通常の映像表示上に、「半透明」状態で(通常の映像信号の一部を透過可能に)重ね合わせて出力させることもできる。
グラフィック処理部1754はまた、放送信号が字幕信号を伴い、字幕が表示可能である場合は、制御部1760からの制御信号および字幕情報に基づき、映像信号上に字幕情報を重畳する処理を行う。
グラフィック処理部1754から出力されたデジタルの映像信号は、映像処理部1758に供給される。映像処理部1758は、グラフィック処理部54から供給されるデジタルの映像信号をアナログの映像信号に変換する。なお、映像処理部1758と接続された出力端1721には、例えば外部装置として、拡大投影装置(プロジェクタ装置)や外部モニタ装置が接続されてもよいことはいうまでもない。
なお、信号処理部1747に入力される映像信号が立体映像処理部1780からの映像信号である場合、映像処理部1758から出力端1721に出力される映像信号は、上述の奥行き調整処理された成分を含む。
音声処理部1755は、信号処理部1747から供給されるデジタルの音声信号をアナログの音声信号に変換する。なお、詳述しないが、音声信号(オーディオ出力)は、出力端1723と接続される外部スピーカや、オーディオアンプ(ミキサーアンプ)や、出力端1723の1つの形態として用意されるヘッドホン出力端に、音声/オーディオ出力として再生可能に出力されてもよいことはいうまでもない。
以上説明した通り、本提案により、個人差があることが知られている立体映像の奥行き感を、ユーザ毎に設定できる。
また、安全性の観点から輻輳距離と調節距離の差を小さくするために表示する奥行の範囲を限定する場合に、被写体までの撮像距離と表示される立体像までの距離のずれが生じて被写体の厚みが立体的に表現されない(立体感の乏しい映像が表示される)現象が起こることがあることが知られているが、自然な立体映像となるように奥行感を調整することができる。
また、奥行き範囲の一部、すなわち奥行き範囲の内の特定の範囲にある画像の奥行き感を部分的に強調することができる。
なお、奥行範囲の調整は直感的に行うことが可能であり、煩雑な手続きや調整が不要であり、ユーザの利便性を損なうことなく、立体映像の奥行き感を、ユーザ毎に容易に設定できる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…テレビジョン受信装置(映像再生装置)、3…操作入力部、5…リモコン、11…チューナ/入力部、22…映像デコーダ、23…映像(ビデオ)処理部、26,201,926,1401,1521…立体映像処理部、32…音声デコーダ、33…音声(オーディオ)処理部、51…主制御ブロック、211…奥行生成部、212…奥行調整部、213,928…視差情報生成部、214,930…視差画像生成部、221…背景領域抽出部、222…動きベクトル検出部、223…背景動きベクトル検出部、224…相対動きベクトル算出部、927…相対動きベクトル検出部、929…視差調整部。

Claims (13)

  1. 入力画像信号から奥行情報を生成する奥行情報生成部と、
    前記奥行情報生成部が生成した奥行情報に、奥行の全範囲を固定したまま、奥行範囲境界情報を、明示的に入力する入力部と、
    前記入力部により入力された奥行範囲境界情報に基づいて、前記奥行情報生成部が生成した奥行情報を、奥行の全範囲を固定したまま、少なくとも奥行きの範囲内の一部の範囲について、調整する奥行調整部と、
    前記奥行調整部が調整した奥行情報から視差情報を生成する視差情報生成部と、
    前記視差情報生成部が生成した視差情報に従い、左視点用画像信号及び右視点用画像信号を生成する視差画像生成部と、
    を、具備する映像再生装置。
  2. 前記奥行範囲境界情報は、複数である請求項1記載の映像再生装置。
  3. 前記奥行調整部は、前記奥行の全範囲を前記奥行範囲境界情報で区分した範囲毎に、前記奥行情報を調整する請求項1記載の映像再生装置。
  4. 入力画像信号から動きベクトル情報を生成する動きベクトル検出部と、
    前記動きベクトル検出部が生成した前記動きベクトル情報から視差情報を生成する視差情報生成部と、
    前記視差情報生成部が生成した視差情報に、調整範囲内において、視差範囲境界情報を、明示的に入力する入力部と、
    前記入力部により入力された視差範囲境界情報に基づいて、前記視差情報生成部が生成した視差情報を、調整範囲内において、少なくとも表示映像の奥行きの範囲内の一部の範囲について、調整する視差調整部と、
    前記視差調整部が調整した視差情報に従い、左視点用画像信号及び右視点用画像信号を生成する視差画像生成部と、
    を、具備する映像再生装置。
  5. 前記視差範囲境界情報は、複数である請求項4記載の映像再生装置。
  6. 前記視差調整部は、前記調整範囲内において、前記視差範囲境界情報で区分した範囲毎に、前記視差情報を調整する請求項4記載の映像再生装置。
  7. 入力画像信号から奥行情報を生成し、
    生成した奥行情報に、奥行の全範囲を固定したまま、奥行範囲境界情報を、明示的に入力し、
    入力された奥行範囲境界情報に基づいて、生成した奥行情報を、奥行の全範囲を固定したまま、少なくとも奥行きの範囲内の一部の範囲について、調整し、
    調整した奥行情報から視差情報を生成し、
    生成した視差情報に従い、左視点用画像信号及び右視点用画像信号を生成する
    映像再生方法。
  8. 奥行情報を調整するために用いる奥行範囲境界情報は、複数である請求項7記載の映像再生方法。
  9. 奥行情報の調整は、奥行の全範囲を奥行範囲境界情報で区分した範囲毎である請求項7記載の映像再生方法。
  10. 入力画像信号から動きベクトル情報を生成し、
    生成した動きベクトル情報から視差情報を生成し、
    生成した視差情報に、調整範囲内において、視差範囲境界情報を、明示的に入力し、
    入力された視差範囲境界情報に基づいて、生成した視差情報を、調整範囲内において、少なくとも表示映像の奥行きの範囲内の一部の範囲について、調整し、
    生成した視差情報に従い、左視点用画像信号及び右視点用画像信号を生成する
    映像再生方法。
  11. 視差範囲境界情報を調整するために用いる境界情報は、複数である請求項10記載の映像再生方法。
  12. 視差情報の調整は、調整範囲内を視差範囲境界情報で区分した範囲毎である請求項10記載の映像再生方法。
  13. 前記視差画像生成部が生成した画像信号に対応する映像を表示する表示部をさらに含む
    請求項1または4記載の映像再生装置。
JP2010244521A 2010-10-29 2010-10-29 映像再生装置及び映像再生方法 Expired - Fee Related JP5066244B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010244521A JP5066244B2 (ja) 2010-10-29 2010-10-29 映像再生装置及び映像再生方法
US13/118,079 US20120105437A1 (en) 2010-10-29 2011-05-27 Image Reproducing Apparatus and Image Reproducing Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010244521A JP5066244B2 (ja) 2010-10-29 2010-10-29 映像再生装置及び映像再生方法

Publications (2)

Publication Number Publication Date
JP2012099956A JP2012099956A (ja) 2012-05-24
JP5066244B2 true JP5066244B2 (ja) 2012-11-07

Family

ID=45996182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010244521A Expired - Fee Related JP5066244B2 (ja) 2010-10-29 2010-10-29 映像再生装置及び映像再生方法

Country Status (2)

Country Link
US (1) US20120105437A1 (ja)
JP (1) JP5066244B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6081839B2 (ja) * 2013-03-27 2017-02-15 京セラ株式会社 表示装置および同装置における画面制御方法
US10955665B2 (en) * 2013-06-18 2021-03-23 Microsoft Technology Licensing, Llc Concurrent optimal viewing of virtual objects
JP6425534B2 (ja) * 2014-12-25 2018-11-21 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US11747617B2 (en) * 2020-07-24 2023-09-05 Padula Rehabilitation Technologies, Llc Systems and methods for a parallactic ambient visual-field enhancer

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4819064A (en) * 1987-11-25 1989-04-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Television monitor field shifter and an opto-electronic method for obtaining a stereo image of optimal depth resolution and reduced depth distortion on a single screen
US6414678B1 (en) * 1997-11-20 2002-07-02 Nintendo Co., Ltd. Image creating apparatus and image display apparatus
JP2001142166A (ja) * 1999-09-15 2001-05-25 Sharp Corp 3dカメラ
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP4118146B2 (ja) * 2003-01-09 2008-07-16 三洋電機株式会社 立体画像処理装置
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
US7376250B2 (en) * 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
JP2005295004A (ja) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム
US7787688B1 (en) * 2006-01-25 2010-08-31 Pixar Interactive depth of field using simulated heat diffusion
US7869649B2 (en) * 2006-05-08 2011-01-11 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
US8009903B2 (en) * 2006-06-29 2011-08-30 Panasonic Corporation Image processor, image processing method, storage medium, and integrated circuit that can adjust a degree of depth feeling of a displayed high-quality image
US9253504B2 (en) * 2006-07-18 2016-02-02 Thomson Licensing Methods and apparatus for adaptive reference filtering
US8094152B1 (en) * 2007-11-26 2012-01-10 Nvidia Corporation Method for depth peeling and blending
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
JP4875680B2 (ja) * 2008-09-10 2012-02-15 日本放送協会 三次元情報統合装置および三次元情報統合プログラム
WO2010040146A1 (en) * 2008-10-03 2010-04-08 Real D Optimal depth mapping
US20110310982A1 (en) * 2009-01-12 2011-12-22 Lg Electronics Inc. Video signal processing method and apparatus using depth information
JP5495683B2 (ja) * 2009-09-10 2014-05-21 キヤノン株式会社 撮像装置および測距方法
US8711204B2 (en) * 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
EP2520096A4 (en) * 2009-12-29 2013-10-09 Shenzhen Tcl New Technology PERSONALIZING A 3D TV VIEW
US8692870B2 (en) * 2010-06-28 2014-04-08 Microsoft Corporation Adaptive adjustment of depth cues in a stereo telepresence system

Also Published As

Publication number Publication date
US20120105437A1 (en) 2012-05-03
JP2012099956A (ja) 2012-05-24

Similar Documents

Publication Publication Date Title
JP4959830B2 (ja) 映像再生装置
US8810563B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
US9055281B2 (en) Source device and sink device and method of transmitting and receiving multimedia service and related data
TWI520566B (zh) 在三維視訊上疊加三維圖形的方法及裝置
WO2011135857A1 (ja) 画像変換装置
WO2010092823A1 (ja) 表示制御装置
JP2010273333A (ja) 立体映像合成装置
CA2767511A1 (en) Signal processing method and apparatus therefor using screen size of display device
TW201105105A (en) Method and system for transmitting over a video interface and for compositing 3D video and 3D overlays
WO2011016240A1 (ja) 映像再生装置
JP4996720B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
JP5390016B2 (ja) 映像処理装置
JP5066244B2 (ja) 映像再生装置及び映像再生方法
JP2011015011A (ja) 画質調整装置および画質調整方法
JP5390017B2 (ja) 映像処理装置
JP2011155640A (ja) 立体映像再生装置
JP2010268048A (ja) 映像表示装置及びその制御方法
JP5550520B2 (ja) 再生装置及び再生方法
WO2011077673A1 (ja) 再生装置
US20120098944A1 (en) 3-dimensional image display apparatus and image display method thereof
US20130136336A1 (en) Image processing apparatus and controlling method for image processing apparatus
JP2011234136A (ja) 映像表示装置及び映像表示方法
JP5431390B2 (ja) 映像出力装置及び映像出力方法
JP2011249859A (ja) 3d映像表示装置、3d映像表示方法
JP5707120B2 (ja) 映像出力装置、表示方法及び表示装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120810

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees