JP2010273333A - 立体映像合成装置 - Google Patents

立体映像合成装置 Download PDF

Info

Publication number
JP2010273333A
JP2010273333A JP2010097985A JP2010097985A JP2010273333A JP 2010273333 A JP2010273333 A JP 2010273333A JP 2010097985 A JP2010097985 A JP 2010097985A JP 2010097985 A JP2010097985 A JP 2010097985A JP 2010273333 A JP2010273333 A JP 2010273333A
Authority
JP
Japan
Prior art keywords
video
main
image
sub
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010097985A
Other languages
English (en)
Other versions
JP2010273333A5 (ja
Inventor
Tadayoshi Okuda
忠義 奥田
Shinichi Kawakami
真一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010097985A priority Critical patent/JP2010273333A/ja
Publication of JP2010273333A publication Critical patent/JP2010273333A/ja
Publication of JP2010273333A5 publication Critical patent/JP2010273333A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Abstract

【課題】主映像が拡大又縮小された場合であっても、より簡易な構成で、立体映像の主映像に対する付加映像(字幕映像や副映像等)の奥行き方向の表示位置を調整することのできる合成装置を提供する。
【解決手段】立体映像合成装置は、立体視を可能とする映像である主映像のデータと、主映像に合成されて表示される付加映像のデータと、前記付加映像を立体視する際の奥行き方向の表示位置を決定する位置情報と、を取得する取得手段と、主映像を拡大又は縮小するスケーリング手段と、主映像を拡大又は縮小する際の倍率に基づき位置情報を調整する調整手段と、調整された位置情報に基づき、付加映像を立体視可能とするように、付加映像を拡大又は縮小された主映像に合成する合成手段とを備える。
【選択図】図2

Description

本発明は、立体映像を表示する映像である主映像に付加的な映像を合成可能な映像合成装置に関する。
特許文献1は、主映像に字幕映像を合成する映像合成装置を開示する。また、特許文献1は、主映像に対して字幕映像が最適な位置に表示されるよう、字幕映像の視差情報を主映像や字幕映像に多重化して記憶する技術が開示している。
具体的には、立体映像のデータの編集側で、立体映像の主映像、字幕映像、字幕映像の視差情報(奥行き方向の表示位置を示す情報)を生成する。そして編集側で、その生成した主映像、字幕映像、字幕映像の視差情報を多重化して立体映像ストリームとして記憶する。
立体映像を表示する再生装置は、立体映像ストリームを分離して、主映像、字幕映像、視差情報を得て、その字幕情報の視差情報に基づいて主映像に字幕映像を合成する。そして、再生装置はその合成した合成映像を表示する。以上により、主映像に対して字幕映像が最適な位置に表示される。
なお、立体映像ストリームには、字幕映像だけでなく、副映像(ポップアップメニューやボーナスビュー映像など)が含まれる可能性がある。この場合、副映像に加えて、副映像の視差情報も立体映像ストリームに含まれる必要がある。
特開2004−274125号公報
ところで、立体映像ストリームに含まれる主映像は、常に画面全体に表示されるわけではなく、縮小されて表示される場合がある。例えば、図14に示すように、画面全体に副映像52が表示され、主映像50は縮小され副映像52の一部の領域に表示される場合がある。このとき、字幕映像54も主映像50と同様に縮小して、主映像50に合成する必要がある。その合成において字幕映像の視差情報を適切に調整せずに字幕映像を主映像に合成すると、合成映像に基づく立体映像が違和感のある映像になるという問題がある。例えば、主映像が示すオブジェクトに対して字幕が埋め込まれているように見えてしまうことがある。
また、主映像と字幕映像がNTSCやPALのStandard Definition(SD)映像であり、副映像がHigh Definition(HD)映像(垂直解像度が1080本や720本等の映像)である場合、主映像と字幕映像を副映像に合成する際には、主映像と字幕映像に拡大処理を施す必要がある。これは、NTSCやPALの映像信号が長方画素に基づき、HD映像信号は正方画素に基づくからである。この場合も、視差情報を調整せずに字幕映像を主映像に合成すると、違和感のある映像になってしまう。
以上のように主映像を拡大または縮小して表示する場合にユーザが違和感なく立体映像を視認できるようにする映像合成技術が要望される。
本発明は、上記課題を解決すべくなされたものであり、主映像が拡大又は縮小された場合であっても、より簡易な構成で、立体映像の主映像に対する付加映像(字幕映像や副映像等)の奥行き方向の表示位置を適切に調整することのできる映像合成装置を提供することを目的とする。
本発明の第1の態様において、立体視を可能とする映像である主映像のデータと、主映像に合成されて表示される付加映像のデータと、前記付加映像を立体視する際の奥行き方向の表示位置を決定する位置情報と、を取得する取得手段と、主映像を拡大又は縮小するスケーリング手段と、主映像を拡大又は縮小する際の倍率に基づき位置情報を調整する調整手段と、調整された位置情報に基づき、付加映像を立体視可能とするように、付加映像を拡大又は縮小された主映像に合成する合成手段とを備える、立体映像合成装置が提供される。
上記構成により、主映像の拡大又は縮小の倍率に応じて、主映像に対する付加映像の合成位置を調整できる。これによって、ユーザに立体映像を提供する際、付加画像の奥行き方向の表示位置を適切に調整できる。
本発明の第2の態様において、立体視を可能とする映像である主映像と、副映像とを合成する立体映像合成装置が提供される。立体映像合成装置は、主映像のデータと、主映像に合成されて表示される付加映像のデータと、副映像のデータと、を取得する取得手段と、主映像を拡大または縮小する第1のスケーリング手段と、拡大または縮小された主映像と副映像とを、拡大または縮小された主映像が副映像の一部の領域で表示されるように合成する第1の合成手段と、付加映像を拡大または縮小する第2のスケーリング手段と、拡大または縮小された付加映像と、主映像と副映像の合成映像とを合成する第2の合成手段と、を備える。
上記構成により、主映像及び字幕映像それぞれに独立して拡大・縮小率を設定することが可能となり、種々の副映像の生成に適用できる。
本発明の第3の態様において、立体視を可能とする映像である主映像のデータと、主映像に合成されて表示される付加映像のデータと、付加映像を立体視する際の奥行き方向の表示位置を決定する位置情報と、を取得し、主映像を拡大又は縮小し、主映像を拡大又は縮小する際の倍率に基づき前記位置情報を調整し、調整された位置情報に基づき、付加映像を立体視可能とするように、付加映像を前記拡大又は縮小された主映像に合成する、立体映像合成方法が提供される。
本発明の第4の態様において、立体視を可能とする映像である主映像と、副映像とを合成する立体映像合成方法が提供される。その立体映像合成方法は、主映像のデータと、主映像に合成されて表示される付加映像のデータと、副映像のデータと、を取得し、主映像を拡大または縮小し、拡大または縮小された主映像と副映像とを、拡大または縮小された主映像が副映像の一部の領域で表示されるように合成し、付加映像を拡大または縮小し、拡大または縮小された付加映像と、主映像と副映像の合成映像とを合成する。
本発明によれば、拡大又は縮小された主映像に付加される付加映像(例えば、字幕映像)の奥行き方向の表示位置を適切に設定でき、視聴者が違和感を覚えることなく主映像及び付加映像を視認できる。
立体映像表示制御装置と他の装置の関係を示す図である。 立体映像表示制御装置の構成例を示す図である。 立体映像表示装置の構成例を示す図である。 立体映像の表示方法を説明するための図である。 立体映像の表示方法を説明するための図である。 立体映像ストリームの一例を示す図である。 字幕映像や装置画像を立体映像データに重ね合わせた場合の例を説明するための図である。 主映像、字幕映像及び副映像の合成を説明するための図である。 副映像表示ONにされた場合の表示画像例を説明するための図である。 主映像が縮小された場合の字幕映像の視差情報の調整例を説明するための図である。 主映像が縮小された場合の字幕映像の視差情報の調整例を説明するための図である。 主映像がNTSC又はPALである場合の主映像を16:9のメニュー映像に拡大又は縮小して重複した場合の字幕映像の視差情報の調整例を説明するための図である。 主映像がNTSC又はPALである場合の主映像を16:9のメニュー映像に拡大又は縮小して重複した場合の字幕映像の視差情報の調整例を説明するための図である。 主映像がNTSC又はPALである場合の主映像を16:9のメニュー映像に拡大して重複した場合の字幕映像の視差情報の調整例を説明するための図である。 主映像がNTSC又はPALである場合の主映像を16:9のメニュー映像に拡大して重複した場合の字幕映像の視差情報の調整例を説明するための図である。 主映像がNTSC又はPALである場合の主映像を16:9のメニュー映像に拡大して重複した場合の字幕映像の視差情報の調整例を説明するための図である。 立体映像表示制御装置の動作例を説明するためのフローチャートである。 別の映像合成処理に関するAV入出力回路の機能ブロックを示した図である。 課題となる合成画像の一例を説明するための図である。
以下添付の図面を参照して実施の形態を説明する。以下の実施の形態にて説明する立体映像表示制御装置は、主映像及び字幕映像を副映像に合成する場合に所定の手順にしたがって合成を行なう。また、立体映像表示制御装置は、主映像を拡大又は縮小する場合、拡大又は縮小倍率に応じて、主映像に合成される字幕映像の視差情報を調整(補正)する。以下、その詳細を説明する。
以下、好ましい実施形態の立体映像表示制御装置を説明する。図1は、立体映像表示制御装置1と他の装置との関係を示す図である。図2は、立体映像表示制御装置1の構成例を示す図である。以下、具体的に説明する。
1.立体映像表示システム
図1に、本実施形態の立体映像表示システムの構成を示す。立体映像表示システムは、立体映像表示制御装置1と立体映像表示装置2を含む。図2に、立体映像表示制御装置1の構成例を示す。図3に立体映像表示装置2の構成例を示す。
図1に示すように、立体映像表示制御装置1は、立体映像を表示する立体映像表示装置2と、立体映像ストリームが蓄積されているサーバ3と、及びアンテナ5とに接続されている。また、立体映像表示制御装置1には、光ディスク4及びメモリカード6が挿入されている。立体映像表示制御装置1は、サーバ3、光ディスク4、アンテナ5、またはメモリカード6から、立体映像を表示するための立体映像ストリームまたは立体映像ストリームを生成するための情報を取得する。
図3に示すように、立体映像表示装置2はディスプレイ24を備え、映像データを表示する。ディスプレイ24は例えば、液晶ディスプレイ、プラズマディスプレイ又は有機ELディスプレイで構成される。立体映像表示装置2は、立体映像表示制御装置1から送信された映像データを表示可能である。立体映像表示装置2は、立体映像表示制御装置1からの要求信号に基づき、画面サイズに関する情報を立体映像表示制御装置1に送信可能である。
より具体的に、立体映像表示装置2は、コントローラ22、メモリ23、ディスプレイ24、データ伝送インターフェース21および通信インターフェース25で構成されている。
メモリ23には、立体映像表示装置2の画面サイズに関する情報が予め記憶されている。メモリ23は例えばフラッシュメモリやFRAMで実現可能である。
コントローラ22は、立体映像表示制御装置1から要求信号を受け付けると、メモリ23に記憶された画面サイズに関する情報を読み出して、立体映像表示制御装置1に送信する。これによって、立体映像表示制御装置1は、立体映像表示装置2から画面サイズに関する情報を取得できる。なお、コントローラ22は、例えば、マイクロプロセッサで実現できる。
データ伝送インターフェース21は、立体映像表示制御装置1との間でデータの送受信を行なうためのインターフェースである。データ伝送インターフェース21は、例えば、HDMI(High Definition Multimedia Interface)コネクタ等で実現できる。
通信インターフェース25は、アクティブシャッターメガネ7と通信を行なうためのインターフェースである。通信インターフェース25は、例えば、赤外線やBluetoothなどの無線又は有線により、アクティブシャッターメガネ7との通信を確立する。
図1を参照し、サーバ3は、立体映像ストリームが蓄積されているネットワークサーバである。サーバ3は、ネットワークに接続されており、家庭内におかれた立体映像表示制御装置1と接続可能である。サーバ3は、立体映像表示制御装置1からのアクセス要求に対応して、立体映像ストリームを立体映像表示制御装置1(ネットワーク通信インターフェース13)に送信することが可能である。
光ディスク4は、立体映像ストリームが記録された記録メディアである。光ディスク4は、立体映像表示制御装置1のディスクドライブ11に挿入可能である。立体映像表示制御装置1(ディスクドライブ11)は、光ディスク4に記録された立体映像ストリームを読み出すことが可能である。
アンテナ5は、放送局の放送装置から放送された立体映像ストリームを含む放送波を受信するためのアンテナである。アンテナ5は、立体映像表示制御装置1(チューナ12)に対して、受信した立体映像ストリームを含む放送波を送信する。
メモリカード6は、立体映像ストリームが記録された半導体メモリカード、又は半導体メモリを内部に有した記録媒体である。メモリカード6は、立体映像表示制御装置1(データ伝送インターフェース15)に挿入可能である。なお、立体映像表示制御装置1(データ伝送インターフェース15)は、メモリカード6に記録された立体映像ストリームを読み出すことが可能である。
2.立体映像の表示方法
図4(a)及び図4(b)を参照して立体映像の表示方法について説明する。立体映像表示装置2は、アクティブシャッターメガネ7を用いて立体映像を視聴可能にするための映像を表示する(図4(a)参照)。具体的には、立体映像表示制御装置1は、立体映像表示装置2に対して、左眼用の映像(以下「左眼映像」という)が示す画像データと右眼用の映像(以下「右眼映像」という)が示す画面データを交互に出力する。立体映像表示装置2は、立体映像表示制御装置1から取得した画面データをディスプレイ24の画面上に順次表示する(図4(b)参照)。ユーザは、このようにして立体映像表示装置2に表示された映像を、アクティブシャッターメガネ7を通して視認することで立体映像を認識できる。
アクティブシャッターメガネ7は、ユーザの左右の何れかの視野を遮ることが可能なシャッタを備えている。アクティブシャッターメガネ7は、立体映像表示装置2に左眼映像が表示されると、ユーザの立体映像表示装置2に対する右眼の視野を遮る一方で、立体映像表示装置2に右眼映像が表示されると、ユーザの立体映像表示装置2に対する左眼の視野を遮る。つまり、図4(a)、図4(b)のように、立体映像表示装置2に左眼映像を示す画面が表示されている場合は、ユーザは、左眼で映像を見ることになり、立体映像表示装置2に右眼映像を示す画面が表示されている場合は、ユーザは、右眼で映像を見ることになる。これによって、ユーザは、立体映像表示装置2に順次表示された画面を立体映像として視認することができる。
なお、本実施の形態では、アクティブシャッターメガネ7を用いた例を説明したが、立体映像表示装置2に表示された右眼映像と左眼映像を使用者が別々に見ることができるのであれば、この方法に限られない。
3.立体映像ストリーム
本実施の形態において、立体映像表示制御装置1が、サーバ3、光ディスク4、アンテナ5及びメモリカード6などから取得する立体映像ストリームは、以下のような構成を有する。
図5に立体映像ストリームの構造の一例を示す。立体映像ストリームは、管理情報31と、デコード情報32と、主映像データ33と、字幕映像データ35と、字幕映像の視差情報36と、副映像データ37と、副映像の視差情報38とを含んでいる。
上述した主映像データ33、字幕映像データ35、字幕映像の視差情報36、副映像データ37、副映像の視差情報38は、任意の圧縮方式で符号化されているものとする。圧縮方式には、例えば、MVC(Multi−view Video Coding)やMPEG4−AVC/H.264などが考えられるが、これに限られない。なお、圧縮された立体映像データには、上記圧縮方式で圧縮されているため、デコードするために必要な情報(デコード情報)が立体映像データに含まれている。
管理情報31には、主映像、字幕映像、副映像の各々に関して、映像サイズ、及び、映像アスペクトを有している。
主映像データ33は、複眼カメラの左右のカメラで撮影された左眼映像および右眼映像を含む。
字幕映像の視差情報36は、左眼映像及び右眼映像に対して、字幕映像をどの程度ずらして重ね合わせればよいかを示している。本実施の形態では、字幕映像の視差情報は、主映像に対する相対的なズレ量を示している。例えば、字幕映像の視差情報がYピクセルである場合、左眼用の主映像に対して字幕映像をYピクセルだけ右方向にずらして重ね合わせ、右眼用の主映像に対して字幕映像をYピクセルだけ左方向にずらして重ね合わせればよい。なお、副映像の視差情報38(例えば、X)も字幕映像の視差情報36と同様である。また、ズレ量をあらわす視差情報はピクセル単位で表現しているが、これに限られず、mm単位で表現してもよい。
立体映像表示制御装置1は、立体映像ストリームから上記情報を取得し、主映像に字幕映像又は副映像を合成して、立体映像表示装置2に表示させることが可能である。図6(a)、(b)は、主映像、字幕映像、副映像の合成を説明した図である。図7(a)に示す主映像50、字幕映像52、副映像54が合成されて、図6(b)に示すような合成画像が生成される。このとき、左右の合成画像50a、50bにおいて、メニューアイコン53及び字幕55は主映像に対してそれぞれの視差情報X、Yだけずシフトされるように映像が合成される。
4.立体映像表示制御装置の構成
立体映像表示制御装置1の構成を説明する。図2に戻り、立体映像表示制御装置1は、ディスクドライブ11、チューナ12、ネットワーク通信インターフェース13、メモリデバイスインターフェース14、データ伝送インターフェース15、バッファメモリ(フレームメモリ)16、HDドライブ17、フラッシュメモリ19及びLSI18を備える。
ディスクドライブ11は、光ピックアップを含み、光ディスク4から立体映像ストリームを読み出す。ディスクドライブ11は、LSI18と接続されており、光ディスク4から読み出した立体映像ストリームをLSI18に送信する。ディスクドライブ11は、LSI18からの制御に応じて、光ディスク4から立体映像ストリームを読み出し、LSI18に送信する。
チューナ12は、アンテナ5で受信した立体映像ストリームを含む放送波を取得する。チューナ12は、取得した放送波から、LSI18によって指定された周波数の立体映像ストリームを取り出す。チューナ12はLSI18に接続されており、取り出した立体映像ストリームをLSI18に送信する。
ネットワーク通信インターフェース13は、ネットワークを介してサーバ3と接続可能である。ネットワーク通信インターフェース13は、サーバ3から送信された立体映像ストリームを取得する。
メモリデバイスインターフェース14は、メモリカード6を装着可能に構成されており、装着されたメモリカード6から立体映像ストリームを読み出すことが可能である。メモリデバイスインターフェース14は、メモリカード6から読み出された立体映像ストリームを、LSI18に送信する。
HDドライブ17は、ハードディスクなどの記録媒体を内蔵し、記録媒体から読み出されたデータをLSI18に送信する。また、HDドライブ17は、LSI18から受信したデータを記録媒体に記録する。
データ伝送インターフェース15は、LSI18から送信されたデータを、外部の立体映像表示装置2に送信するためのインターフェースである。データ伝送インターフェース15は、データ信号及びコントロール信号を、立体映像表示装置2との間で送受信可能に構成されている。したがって、LSI18は、データ伝送インターフェース15を介して、立体映像表示装置2を制御することが可能である。データ伝送インターフェース15は、例えば、HDMIコネクタ等で実現可能である。なお、データ伝送インターフェース15は、データ信号を立体映像表示装置2に送信できれば、どのような構成であってもかまわない。
バッファメモリ16は、LSI18が処理を行う際に、ワークメモリとして機能する。バッファメモリ16は、例えば、DRAMやSRAMなどで実現可能である。
フラッシュメモリ19は装置画像を予め格納している。装置画像は、例えば、チャンネルの情報や音量の情報、ディスプレイの輝度・コントラスト量・色温度などを調整するための情報、再生装置の画質を調整するための情報を示す画像を含む。すなわち、LSI18は、フラッシュメモリ19から読み出した装置画像を映像データに重ね合わせて立体映像表示装置2に表示させることができる。これによって、LSI18は、装置の情報を視聴者に提示できる。また、LSI18は視聴者に設定画面を表示して、視聴者からの設定を受け付けることが可能になる。
LSI18は、立体映像表示制御装置1の各部を制御するシステムコントローラである。マイクロコンピュータで実現してもよく、ハードワイヤードな回路で実現してもよい。
LSI18の内部には、CPU181、ストリームコントローラ182、デコーダ183、AV入出力回路184、システムバス185及びメモリコントローラ186が実装されている。
CPU181はLSI18全体を制御する。LSI18の各部は、LSI18からの制御に基づいて各種制御を行なうように構成されている。また、CPU181は外部との通信も制御する。また、CPU181は、サーバ3等から立体映像ストリームを取得する際、ディスクドライブ11やチューナ12、ネットワーク通信インターフェース13、メモリデバイスインターフェース14に制御信号を送信する。これによってディスクドライブ11やチューナ12、ネットワーク通信インターフェース13、メモリデバイスインターフェース14は、記録メディアや放送局等から立体映像ストリームを取得することができる。
ストリームコントローラ182は、サーバ3や光ディスク4、アンテナ5、メモリカード6、アクティブシャッターメガネ7との間のデータの送受信を制御する。例えば、CPU181は、サーバ3から取得した立体映像ストリームを、メモリコントローラ186に送信する。
メモリコントローラ186は、LSI18の各部から送信されたデータを、バッファメモリ16に書き込む。例えば、メモリコントローラ186は、ストリームコントローラ182から取得した立体映像ストリームを、バッファメモリ16に記録する。また、メモリコントローラ186は、バッファメモリ16に記録されたデータを、バッファメモリ16から読み出す。そして、バッファメモリ16は、読み出したデータをLSI18の各部に送信する。
デコーダ183は、メモリコントローラ186からデータを取得すると、取得したデータをデコードする。ここで、デコーダ183に入力されるデータは、CPU181の制御に基づいている。具体的には、CPU181は、メモリコントローラ186を制御して、バッファメモリ16に記録された立体映像ストリームを読み出させる。そして、CPU181は、読み出した立体映像ストリームをデコーダ183に送信するようメモリコントローラ186を制御する。これによって、メモリコントローラ186からデコーダ183に立体映像ストリームが入力される。
また、デコーダ183は、立体映像ストリームに含まれるデコード情報に基づいて、圧縮された立体映像ストリームをデコードする。なお、デコーダ183は、デコードした情報をメモリコントローラ186に送信する。メモリコントローラ186では、取得した情報を、バッファメモリ16に記録する。
AV入出力回路184は、バッファメモリ16から情報を読み出して、立体映像表示装置2に表示させる表示画像を生成する。そして、AV入出力回路184は、生成した表示画像を、データ伝送インターフェース15を介して立体映像表示装置2に送信する。
また、AV入出力回路184は、字幕映像(又は、立体映像に付加される副映像)を立体映像データに重ね合わせるよう設定された場合、以下のように制御を行なう。
AV入出力回路184は、字幕映像データ35及び字幕映像の視差情報36をバッファメモリ16から取得し、字幕映像の視差情報36に基づいて、左眼映像又は右眼映像に字幕映像を重ね合わせる。例えば、AV入出力回路184は、図6(b)に示すように字幕映像の視差情報(ズレ量)がYピクセルである場合、左眼映像50aに対して字幕映像51をYピクセル右方向にずらして重ね合わせ、右眼映像50bに対して字幕映像51をYピクセル左方向にずらして重ね合わせる。立体映像50a、50bに付加される副映像53も同様である。
なお、AV入出力回路184は、ユーザの操作によってリモコンから赤外線センサを介して入力した信号に基づいて、主映像に字幕映像が重ねあわせるか否か、すなわち、主映像に字幕映像を重ねて表示させるか否かを設定する。以下、字幕映像が表示される状態を、「字幕表示ON」と称し、字幕映像が表示されない状態を「字幕表示OFF」と称する。ユーザは、リモコン操作によって字幕映像のONとOFFを切り換えることができる。副映像も字幕映像と同様に表示のONとOFFが切り換えられる。
5.縮小された主映像が合成された副映像
副映像の一例として、画面全体に表示され、その一部に縮小された主映像が表示されるものがある。このような画面には、例えば、種々の付加機能をユーザが選択できる機能選択画面がある。例えば、図7にそのような副画像の例を示す。そこには、副画像52の一部の領域において縮小された主映像50及び字幕映像54が配置されている。主映像50及び字幕映像54は、副映像の基準位置(図7では左上端)からのオフセット値(Px, Py)だけ離れた位置を開始位置として配置される。オフセット値(Px, Py)の情報は管理情報31内の含まれる。
図8Aは字幕表示ONの場合の表示の例を示した図である。図8Aに示すような状態で、副映像の表示がONにされると、図8Bに示すように、副映像52が画面全体に表示される。その副映像52の一部の領域において縮小された主映像50が表示される。この場合、字幕55も縮小されて副映像52の一部の領域に表示される。なお、副映像52に含まれるメニュー項目等の表示アイコン53は、図8Bの場合、副映像52領域内で、副映像52の視差情報に基づいて合成位置が調整される。
このような副映像が表示されるように設定された場合、AV入出力回路184は、副映像の一部の領域に主映像が合成できるように倍率を設定し、その倍率で主映像を縮小する。またAV入出力回路184は、主映像の縮小倍率に応じて字幕映像も縮小する。さらに、本実施形態では、AV入出力回路184は、主映像の縮小倍率に応じて字幕映像の視差情報を調整する。
そして、AV入出力回路184は、調整された字幕映像の視差情報に基づいて、字幕映像を主映像に合成した後、字幕映像が合成された主映像を副映像に合成する。AV入出力回路184は、このように合成した合成映像データを、データ伝送インタフェース15を介して立体映像表示装置2に出力する。
このようにすれば、立体映像表示制御装置1は、主映像が拡大又は縮小された場合であっても、容易な構成で、字幕映像の視差情報を調整できる。
なお、図示しないが、立体映像表示制御装置1の各部には電源が接続されており、電源から電力が供給されるように構成されている。
6.字幕映像の視差情報の調整
本実施の形態において、立体映像表示制御装置1(すなわち、AV入出力回路184)は、前述の副映像に、拡大又は縮小した主映像及び字幕映像を合成する際には、字幕映像の視差情報を主映像の拡大又は縮小倍率に基づき調整する。以下、主映像の拡大または縮小倍率に応じた字幕映像の視差情報の調整について種々の例を挙げて説明する。
6.1 第1の視差情報の調整例
視差情報の第1の調整例を説明する。ここでは、図9(a)に示す主映像50及び字幕映像54を合成して、図9(b)に示す合成画像を生成する場合の、字幕映像の視差情報(水平オフセット量Z)の調整を説明する。
図9(a)において、副映像52は主映像を配置する領域58を有する。字幕映像54は字幕情報55を含む。字幕映像54において字幕情報55以外の領域は透明な領域である。主映像50は左目用の画像と右目用の画像とを含むが、副映像52と字幕映像54は1つの映像と視差情報とを有する。
図9(b)に、条件(1)〜(4)に対する字幕映像の視差情報(水平オフセット量Z)が示されている。条件(1)は、主映像50、字幕映像54及び副映像52のそれぞれが、有効走査線数が1080本または720本であるHD(High Definition)映像であり、主映像及び字幕映像が縮小されて副映像内に表示される場合の条件を示している。条件(5)〜(8)は、主映像50、字幕映像54及び副映像52のそれぞれが、有効走査線数が480本または576本のNTSCやPALといったSD(Standard Definition)映像であり、主映像50及び字幕映像54が縮小されて副映像52内に表示させる場合の条件を示している。
図9(b)の例では、副映像表示がONになることによって、主映像および字幕映像が縮小されて副映像と合成される。その際に主映像の縮小倍率に応じて、字幕映像の視差情報が調整される。
例えば、図9(b)の条件(1)のように、主映像が横1920×縦1080画素である場合において、主映像が横960×縦540画素に縮小(すなわち1/2に縮小)される場合、調整後の字幕映像の視差情報(水平オフセット量Z)は、Y×1/2で得られる。ここで、Yは字幕映像の元々の視差情報である。以下、これを詳細に説明する。
図9(b)の条件(1)は以下の条件の映像ストリームを前提としている。
<映像ストリーム>
主映像 フレームアスペクト 16:9
ピクセル数 1920×1080
スケーリングファクタ 1/2
字幕映像 フレームアスペクト 16:9
ピクセル数 1920×1080
副映像 フレームアスペクト 16:9
ピクセル数 1920×1080
ここで、フレームアスペクトは映像のアスペクト比である。ピクセル数は、映像の解像度(サイズ)であり、映像の横方向及び縦方向の画素数で表される。スケーリングファクタは、副映像(バックグラウンド映像)に主映像を合成する際の横縦方向の拡大又は縮小倍率である。ストリームの作成者は、スケーリングファクタを指定することで、副映像を表示する際の主映像の拡大又は縮小倍率を任意に指定できる。上記の情報は、管理情報31内に含まれている。
AV入出力回路184は、副映像52に主映像50及び字幕映像54を合成する場合、副映像52と、主映像50及び字幕映像54との間で画素アスペクトが異なるか否かを判断する。ここで、画素アスペクトとは画素の縦横の比である。画素アスペクトが異なる場合、画素変換が必要になる。
AV入出力回路184は、各映像のフレームアスペクト及びピクセル数に基づいて画素アスペクトを判断する。この例では、主映像、字幕映像、及び副映像それぞれの画素アスペクトは、それぞれ1:1(正方画素)であり、同じであるため、画素変換は行わず、スケーリングファクタに基づくスケーリング処理のみを行う。
次にAV入出力回路184は、スケーリングファクタ(=1/2)にしたがい主映像を縮小する。例えば、スケーリングファクタが1/2の場合、AV入出力回路184は、横1920×縦1080画素の主映像を横960×縦540画素に縮小する。この際、AV入出力回路184は、主映像50の縮小に用いたスケーリングファクタで字幕映像を縮小する。
さらに、AV入出力回路184は、スケーリングファクタに基づき、字幕映像54の視差情報を調整する。この後、AV入出力回路184は、副映像に、縮小した主映像と字幕映像を合成する。
また、他の例である条件(6)の場合、スケーリングファクタ(=1/4)に基づき、横720×縦480画素の主映像50は横180×縦120画素の主映像に縮小される。この場合、調整後の視差情報(Z)は、主映像の縮小率(1/4)に基づき、Y×1/4で得られる。
上記の例では、画素アスペクトが同じであるため画素変換は行わず、主映像のスケーリングファクタのみに基づいて視差情報(Z)を調整している。
6.2 第2の視差情報の調整例
視差情報の調整の第2の例を説明する。ここでは、図10(a)に示す主映像50及び字幕映像54を合成して、図10(b)に示す合成画像を生成する場合の、字幕映像の視差情報(水平オフセット量Z)の調整を説明する。
図10(b)に、条件(1)〜(4)に対する字幕映像の視差情報(水平オフセット量Z)が示されている。条件(1)〜(4)は、主映像50及び字幕映像54がともにSD映像であり、副映像52がHD映像である場合に、副映像52の一部の領域53に拡大又は縮小した主映像50を表示させる場合の条件を示している。
副映像表示がONになることによって、画素変換を考慮した主映像の拡大又は縮小倍率に応じて、字幕映像の視差情報が調整される。
例えば、図10(b)の条件(1)のように、主映像が横720×縦480画素である場合において、主映像が横640×縦480画素に縮小される場合、調整後の字幕映像の視差情報(Z)は、Y×8/9で得ることができる。以下、これを詳細に説明する。
図10(b)の条件(1)は以下の条件の映像ストリームを前提としている。
<映像ストリーム>
主映像 フレームアスペクト 4:3
ピクセル数 720×480
スケーリングファクタ 1
字幕映像 フレームアスペクト 4:3
ピクセル数 720×480
副映像 フレームアスペクト 16:9
ピクセル数 1920×1080
AV入出力回路184は、副映像52に主映像50及び字幕映像54を合成する場合、副映像52と、主映像50及び字幕映像54との間で画素アスペクトが異なるか否かを判断する。AV入出力回路184は、フレームアスペクト及びピクセル数に基づいて画素アスペクトを判断する。この例では、副映像の画素アスペクトは1:1であるが、主映像及び字幕映像の画素アスペクトは1:0.9となる。よって、副映像52と、主映像50及び字幕映像54との間で画素アスペクトが異なる。このため、AV入出力回路184は画素変換処理を実施する。
AV入出力回路184は、主映像50の画素アスペクトが副映像52の画素アスペクトに合致するよう、主映像50の画素変換を行なう。例えば、AV入出力回路184は、主映像の横縦の画素数の比が4:3になるようにピクセル数を調整する。
つまり、AV入出力回路184は、横720×縦480画素の主映像の横方向を画素変換パラメータ(=8/9)で縮小する。その結果、横720×縦480画素の主映像は、横640×縦480画素の映像に縮小され、画素アスペクトは1:1になる。同様に、字幕映像54も、主映像50の縮小に応じて横方向に縮小される。なお、画素変換パラメータは、映像のフォーマットが決まっている場合、予め立体映像表示制御装置1のメモリに記憶しておけばよい。または、画素変換パラメータを映像ストリームから得られる情報により算出してもよい。
画素変換処理の終了後、スケーリングファクタに基づくスケーリング処理を行う。AV入出力回路184は、スケーリングファクタに基づいて主映像及び字幕映像を拡大又は縮小する。本例では、前提条件で示したようにスケーリングファクタが1であるので、主映像及び字幕映像の拡大、縮小処理は行わない。
次に、AV入出力回路184は、主映像の縮小倍率(換言すれば、画素変換パラメータ及びスケーリングファクタ)に基づいて、字幕映像の視差情報を調整する。例えば、主映像の縮小倍率は、画素変換パラメータ(=8/9)×スケーリングファクタ(=1)=8/9で求まるので、AV入出力回路184は、この値により、字幕情報の視差情報Zを調整する。この後、AV入出力回路184は、副映像52に、縮小された主映像50と字幕映像54を合成する。
以上のように、AV入出力回路184は、主映像と副映像の画素アスペクトが異なる場合、スケーリングファクタに加えて画素変換パラメータをも考慮して算出した値を用いて、字幕映像の視差情報Zを調整する。これによって、字幕映像の視差調整をより高い精度で調整できるようになる。
6.3 第3の視差情報の調整例
視差情報の調整の第3の例を説明する。ここでは、図11(a)に示す主映像50及び字幕映像54を合成して図11(b)または図11(c)に示す合成画像を生成する場合の、字幕映像の視差情報(水平オフセット量Z)の調整を説明する。
図11(b)の条件(1)〜(2)は、主映像50及び字幕映像54が共にSD映像であり、フレームアスペクトが4:3であり、副映像52がHD映像である場合に、副映像52の一部の領域58に拡大又は縮小された主映像50を表示させる場合の条件を示している。図11(c)の条件(3)〜(4)は、主映像50及び字幕映像54が共にSD映像であり、主映像50および字幕映像54のフレームアスペクトが16:9であり、副映像52がHD映像である場合に、副映像52の一部の領域58に拡大又は縮小された主映像を表示させる場合の条件を示している。図11(b)、図11(c)の例では、副映像表示がONになることによって、画素変換を考慮した主映像の拡大又は縮小倍率に応じて、字幕映像の視差情報が調整される。
例えば、図11(c)の条件(4)に示すように、横720×縦576画素の主映像を、横1980×縦1080画素に拡大する場合を検討する。この場合、調整後の字幕映像の視差情報(Z)は、Y×8/3で得ることができる。以下、これを詳細に説明する。
図11(c)の条件(4)は以下の条件の映像ストリームを前提としている。
<映像ストリーム>
主映像 フレームアスペクト 16:9
ピクセル数 720×576
スケーリングファクタ 15/8
字幕映像 フレームアスペクト 16:9
ピクセル数 720×576
副映像 フレームアスペクト 16:9
ピクセル数 1920×1080
AV入出力回路184は、副映像52に主映像50及び字幕映像54を合成する場合、副映像52と、主映像50及び字幕映像54との間で、フレームアスペクト及びピクセル数に基づいて画素アスペクトが異なるか否かを判断する。この例では、画素アスペクトが異なるため、AV入出力回路184は画素変換の処理を実施する。
AV入出力回路184は、主映像の画素アスペクトが副映像の画素アスペクトに合致するように主映像の画素変換を行なう。例えば、AV入出力回路184は、主映像の横縦のピクセル数の比が16:9になるようにピクセル数を調整する。
つまり、AV入出力回路184は、横720×縦576画素の主映像の横方向を、画素変換パラメータ(64/45)で拡大する。その結果、横720×縦576画素の主映像が、横1024×縦576画素の映像に拡大される。字幕映像も主映像と同様に拡大される。
画素変換処理の後、スケーリングファクタに基づくスケーリング処理を行う。AV入出力回路184は、スケーリングファクタに基づいて主映像及び字幕映像を拡大又は縮小する。ここで、スケーリングファクタは15/8であるので、以下のように拡大処理を行なう。
例えば、AV入出力回路184は、スケーリングファクタ=15/8に基づき、横1024×縦576画素の主映像を、横1980×縦1080画素の映像に拡大する。字幕映像も同様に拡大される。
そして、AV入出力回路184は、主映像の縮小倍率(換言すれば、画素変換パラメータ及びスケーリングファクタ)に基づいて、字幕映像の視差情報を調整する。例えば、主映像の縮小倍率は、画素変換パラメータ(=64/45)×スケーリングファクタ(=15/8)=8/3で求まるので、AV入出力回路184は、この値(8/3)を用いて、字幕情報の視差情報を調整する。この後、AV入出力回路184は、副映像に主映像と字幕映像を合成する。この際、拡大された主映像及び字幕映像において、主映像を配置する領域58をはみ出した分はカットすればよい。
以上のように、AV入出力回路184は、主映像と副映像の画素アスペクトが異なる場合、スケーリングファクタだけでなく、画素変換パラメータをも考慮して、字幕映像の視差情報を調整する。これによって、字幕映像の視差調整をより高い精度で調整できるようになる。
なお、以上の例は、主映像の拡大および縮小処理の一例であり、主映像を任意の倍率に拡大、縮小してもよく、この場合においても、字幕映像は主映像の拡大/縮小倍率に応じて視差情報を調整するものとする。
7.立体映像表示制御装置の動作例
図12のフローチャートを参照し、立体映像表示制御装置1の動作例を説明する。本動作例は、アンテナ5で得られた放送波に含まれる立体映像ストリームを立体映像表示装置2に表示させる場合を例にして説明を行なう。また、本動作例は、字幕表示ONになり、副映像表示ONになった状態の立体映像表示制御装置1の動作例である。
まず、LSI18は、チューナ12を制御して、アンテナ5で受信した放送波から、立体映像ストリームを取得する(S1)。LSI18は、取得した立体映像ストリームをバッファメモリ16に記憶する(S2)。LSI18は、バッファメモリ16に記憶された立体映像ストリームを読み出し、立体映像ストリームを管理情報、デコード情報及び符号化データに分離する(S3)。LSI18は、分離した情報をバッファメモリ16に記憶する。LSI18は、デコード情報に基づいて符号化データをデコードし(S4)、デコードした立体映像データをバッファメモリ16に記憶する(S5)。
そしてLSI18は、主映像を拡大又は縮小する必要があるか否かを判別する(S6)。拡大/縮小の必要性の判断手法は前述のとおりである。
主映像を拡大又は縮小する必要がない場合、LSI18は、字幕映像の視差情報及び副映像に視差情報に基づいて、字幕映像及び副映像を主映像に合成する(S10)。この場合、例えば、図6(b)に示すような合成映像が生成される。
一方、主映像を拡大又は縮小する必要がある場合、LSI18は、主映像及び字幕映像をそれぞれ拡大又は縮小する(S7)。ここで、字幕映像は、主映像と同じ拡大または縮小倍率で拡大又は縮小する。しかしながら、必ずしも倍率を同じにする必要はなく、任意の倍率で字幕映像を拡大又は縮小してもよいし、字幕映像を拡大又は縮小しなくてもよい。そして、LSI18は、主映像の水平方向の拡大又は縮小倍率に応じて、字幕映像の視差情報を調整する(S8)。主映像の拡大・縮小及び字幕映像の視差情報の調整については前述のとおりである。
その後、LSI18は、調整された視差情報に基づき字幕映像を主映像に合成する(S9)。また、LSI18は、字幕映像が合成された主映像を、副映像(所定の領域)に合成する。ここで、副映像に含まれるアイコンメニューは、副映像の視差情報に基づき、合成映像(主映像・字幕映像・副映像)に合成される。例えば、図9(b)に示すような合成映像が生成される。
LSI18は、合成された合成映像を立体映像表示装置2に出力する(S11)。上記動作を繰り返し行なうことで、LSI18は立体映像表示装置2に表示画面を順次出力する。
7.1 別の映像合成処理
上述の例では、主映像に字幕映像を合成し、その後、字幕映像が合成された主映像を副映像に合成したが、合成処理はこれに限られない。以下、別の合成処理手順を説明する。図13は、別の映像合成処理に関するAV入出力回路184の機能ブロックを示した図である。第1のスケーリングブロック61は主映像を入力し、前述の方法で拡大または縮小する。第1のスケーリングブロック61はさらに、主映像の副映像上への配置位置(オフセット値Px、Py(図7参照))を求める。その後、第1の加算器62にて、求めた配置位置に基づき、拡大または縮小された主映像を副映像に合成する。
第2のスケーリングブロック65は、主映像に対する拡大率または縮小率と同じ倍率で、字幕映像を拡大または縮小する。さらに、第2のスケーリングブロック65は字幕映像の視差情報(Z)を決定する。視差情報(Z)の決定方法は前述のとおりである。第2の加算器63にて、主映像50の配置位置及び決定した視差情報(Z)に基づき、拡大または縮小された字幕映像を副映像(または主映像)に合成する。
第3のスケーリングブロック66は、必要に応じてメニューアイコンを拡大または縮小し、さらに、メニューアイコンの視差情報を求める。第3の加算器64にて、主映像50の配置位置及び求めた視差情報に基づき、拡大または縮小されたメニューアイコンを副映像に合成する。
以上のようにして、副映像に対して主映像、字幕映像、メニューアイコンが合成される。
なお、主映像の拡大・縮小率と、字幕映像及びメニューアイコンの拡大・縮小率は異なっても良い。図13に示す構成のように、主映像及び字幕映像に対してそれぞれ拡大・縮小を行った後、合成することで、それぞれ独立して拡大・縮小率を設定することが可能となり、副映像の生成時の汎用性が増す。
8.まとめ
本実施の形態の立体映像表示制御装置1は、立体視を可能とする映像である主映像のデータと、主映像に合成されて表示される字幕映像のデータと、字幕映像を立体視する際の奥行き方向の表示位置を決定する視差情報とを取得するLSI18と、主映像を拡大又は縮小するLSI18と、主映像を拡大又は縮小する際の倍率に基づき位置情報を調整するLSI18と、調整された位置情報に基づき、字幕映像を立体視可能とするように、字幕映像を拡大又は縮小された主映像に合成するLSI18とを備える。
この構成により、立体映像表示制御装置1は、主映像の拡大又は縮小の倍率に応じて、字幕映像の奥行き方向の表示位置を調整できる。これによって、ユーザは、主映像が拡大又は縮小された場合であっても、主映像に付加される字幕映像の奥行き方向の表示位置に違和感を覚えることが少なくなる。
また、本実施の形態の立体映像表示制御装置1は、立体視を可能とする映像である主映像のデータと、主映像に合成されて表示される字幕映像のデータと、副映像のデータと、を取得するLSI18と、主映像を拡大または縮小するLSI18と、拡大または縮小された主映像と副映像とを、拡大または縮小された主映像が副映像の一部の領域で表示されるように合成するLSI18と、付加映像を拡大または縮小する第2のスケーリング手段と、拡大または縮小された付加映像と、主映像と副映像の合成映像とを合成する第2のLSI18と、を備える。
この構成により、主映像及び字幕映像それぞれに独立して拡大・縮小率を設定することが可能となり、種々の副映像の生成に適用できる。例えば、上記構成は、以下の場合に特に有効となる。主映像と副映像が立体映像ストリームとして光ディスクに記録され、字幕映像が追加ストリームとしてネットワーク上のサーバに記録されている場合であって、主映像のピクセル数と、字幕映像のピクセル数が異なる場合である。例えば、立体映像表示制御装置が、光ディスクに記録された映像コンテンツを、ネットからダウンロードした字幕映像と合成して、再生する場合などである。
上記のような場合、主映像と字幕映像のスケーリング回路が同じ回路で実現されると、主映像と字幕映像のピクセル数が異なるため、映像の適切なスケーリングができなくなる。これでは、ユーザに対して最適な映像を提供したくてもできない。そこで、本実施の形態のように、主映像と字幕映像に対して、別々のスケーリング回路を設けることによって、主映像と字幕映像間の適切なスケーリングを実現できるようにしている。
なお、立体映像表示制御装置1は立体映像合成装置の一例である。また、字幕映像は、付加映像の一例である。字幕映像の視差情報は、奥行き方向の表示位置を示す位置情報の一例である。LSI18は、取得手段、スケーリング手段、調整手段、合成手段、付加映像スケーリング手段の一例である。
本発明の一実施形態として上記の例を示した。しかし、本発明の思想は上記の特定の実施の形態に限定されるものではない。すなわち、当業者にとっては他の多くの変形例、修正、他の利用が明らかである。
本発明は、立体映像を表示可能なテレビ受像機や、ディスプレイに接続可能な録再機または再生機に適用可能である。
1 立体映像表示制御装置
2 立体映像表示装置
3 サーバ
4 光ディスク
5 アンテナ
6 メモリカード
7 アクティブシャッターメガネ
11 ディスクドライブ
12 チューナ
13 ネットワーク通信インターフェース
14 メモリデバイスインターフェース
15 データ伝送インターフェース
16 バッファメモリ
17 HDドライブ
18 LSI
181 CPU
182 ストリームコントローラ
183 デコーダ
184 AV入出力回路
185 システムバス
186 メモリコントローラ
19 フラッシュメモリ
21 データ伝送インターフェース
22 コントローラ
23 メモリ

Claims (10)

  1. 立体視を可能とする映像である主映像のデータと、前記主映像に合成されて表示される付加映像のデータと、前記付加映像を立体視する際の奥行き方向の表示位置を決定する位置情報と、を取得する取得手段と、
    前記主映像を拡大又は縮小するスケーリング手段と、
    前記主映像を拡大又は縮小する際の倍率に基づき前記位置情報を調整する調整手段と、
    前記調整された位置情報に基づき、前記付加映像を立体視可能とするように、前記付加映像を前記拡大又は縮小された主映像に合成する合成手段と、
    を備える立体映像合成装置。
  2. 前記取得手段は、前記主映像が合成される副映像のデータと、前記主映像が副映像に合成される際の主映像のスケーリング倍率と、をさらに取得し、
    前記スケーリング手段は、前記主映像と前記副映像の間で、それぞれの映像を構成する画素の縦横の長さの比率である画素アスペクトが異なる場合、前記主映像の画素アスペクトを前記副映像の画素アスペクトに合致させるよう定められる係数である画素変換パラメータと、前記スケーリング倍率とに基づいて前記主映像を拡大又は縮小する、
    請求項1に記載の立体映像合成装置。
  3. 前記取得手段は、前記主映像が合成される副映像のデータと、前記主映像が副映像に合成される際の主映像のスケーリング倍率と、をさらに取得し、
    前記スケーリング手段は、前記主映像と前記副映像の間で、それぞれの映像を構成する画素の縦横の長さの比率である画素アスペクトが異なる場合、前記主映像の画素アスペクトを前記副映像の画素アスペクトに合致させるように、前記主映像の画素数を変換する処理を行い、その後に、前記スケーリング倍率に基づいて前記主映像を拡大又は縮小する、
    請求項1に記載の立体映像合成装置。
  4. さらに、前記付加映像を拡大または縮小する第2のスケーリング手段を備え、
    前記付加映像の拡大または縮小率は前記主映像の拡大または縮小率と同じである、請求項1に記載の立体映像合成装置。
  5. 前記位置情報は主映像に対する付加映像のシフト量である、請求項1に記載の立体映像合成装置。
  6. 前記付加映像は字幕情報を含む映像である、請求項1に記載の立体映像合成装置。
  7. 立体視を可能とする映像である主映像と、副映像とを合成する装置であって、
    前記主映像のデータと、前記主映像に合成されて表示される付加映像のデータと、前記副映像のデータと、を取得する取得手段と、
    前記主映像を拡大または縮小する第1のスケーリング手段と、
    前記拡大または縮小された主映像と前記副映像とを、前記拡大または縮小された主映像が前記副映像の一部の領域で表示されるように合成する第1の合成手段と、
    前記付加映像を拡大または縮小する第2のスケーリング手段と、
    前記拡大または縮小された付加映像と、前記主映像と副映像の合成映像とを合成する第2の合成手段と、
    を備える立体映像合成装置。
  8. 前記付加映像の拡大または縮小率は前記主映像の拡大または縮小率と同じである、請求項7に記載の立体映像合成装置。
  9. 前記付加映像は字幕情報を含む映像である、請求項7に記載の立体映像合成装置。
  10. 立体視を可能とする映像である主映像のデータと、前記主映像に合成されて表示される付加映像のデータと、前記付加映像を立体視する際の奥行き方向の表示位置を決定する位置情報と、を取得し、
    前記主映像を拡大又は縮小し、
    前記主映像を拡大又は縮小する際の倍率に基づき前記位置情報を調整し、
    前記調整された位置情報に基づき、前記付加映像を立体視可能とするように、前記付加映像を前記拡大又は縮小された主映像に合成する、
    立体映像合成方法。
JP2010097985A 2009-04-21 2010-04-21 立体映像合成装置 Withdrawn JP2010273333A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010097985A JP2010273333A (ja) 2009-04-21 2010-04-21 立体映像合成装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009102586 2009-04-21
JP2010097985A JP2010273333A (ja) 2009-04-21 2010-04-21 立体映像合成装置

Publications (2)

Publication Number Publication Date
JP2010273333A true JP2010273333A (ja) 2010-12-02
JP2010273333A5 JP2010273333A5 (ja) 2013-03-14

Family

ID=42980700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010097985A Withdrawn JP2010273333A (ja) 2009-04-21 2010-04-21 立体映像合成装置

Country Status (2)

Country Link
US (1) US20100265315A1 (ja)
JP (1) JP2010273333A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4892105B1 (ja) * 2011-02-21 2012-03-07 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
JP2012175698A (ja) * 2011-12-13 2012-09-10 Toshiba Corp 映像処理装置、映像処理方法および映像表示装置
WO2012147354A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 映像処理装置及び映像処理方法
JP2012234447A (ja) * 2011-05-06 2012-11-29 Toshiba Corp 医用画像処理装置
JP2013026792A (ja) * 2011-07-20 2013-02-04 Toshiba Corp 画像処理装置、画像処理方法、画像処理システム及び医用画像診断装置
JP2013026644A (ja) * 2011-07-15 2013-02-04 Hitachi Consumer Electronics Co Ltd 受信装置、受信方法および送受信方法
JP2013090272A (ja) * 2011-10-21 2013-05-13 Toshiba Corp 映像処理装置、映像処理方法および映像表示装置
WO2013176315A1 (ko) * 2012-05-24 2013-11-28 엘지전자 주식회사 디지털 신호 처리 장치 및 방법
US8750600B2 (en) 2011-07-07 2014-06-10 Samsung Electronics Co, Ltd. Apparatus and method for generating three-dimensional (3D) zoom image of stereo camera
US8964000B2 (en) 2012-05-24 2015-02-24 Lg Electronics Inc. Apparatus and method for processing digital signal
US9939637B2 (en) 2014-03-27 2018-04-10 Panasonic Intellectual Property Management Co., Ltd. Virtual image display device, head-up display system, and vehicle
KR101877802B1 (ko) * 2011-06-30 2018-07-13 한국전자통신연구원 3차원 디스플레이에서의 영상 확대 장치 및 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
CN105163105B (zh) * 2010-05-30 2018-03-27 Lg电子株式会社 处理和接收用于3维字幕的数字广播信号的方法和装置
JP2012023648A (ja) * 2010-07-16 2012-02-02 Sony Corp 再生装置、再生方法、およびプログラム
JP5302285B2 (ja) * 2010-10-28 2013-10-02 シャープ株式会社 立体映像出力装置、立体映像出力方法、立体映像出力プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、立体映像表示装置
JP4908624B1 (ja) 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
JP2012205285A (ja) * 2011-03-28 2012-10-22 Sony Corp 映像信号処理装置及び映像信号処理方法
JP5978573B2 (ja) * 2011-09-06 2016-08-24 ソニー株式会社 映像信号処理装置および映像信号処理方法
JP6266217B2 (ja) * 2012-04-02 2018-01-24 東芝メディカルシステムズ株式会社 医用画像処理システム、方法及びプログラム
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
JP2014203017A (ja) 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置、画像処理方法、表示装置、および電子機器
CN105657485A (zh) * 2015-08-21 2016-06-08 乐视致新电子科技(天津)有限公司 一种音视频播放设备
CN108600727B (zh) * 2018-04-13 2020-11-27 天津大学 一种基于观看舒适度的立体字幕添加方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5754692A (en) * 1993-07-31 1998-05-19 Sony Corporation Picture coincidence detecting apparatus and method
WO1997015150A1 (fr) * 1995-10-19 1997-04-24 Sony Corporation Procede et dispositif de formation d'images en trois dimensions
US6768774B1 (en) * 1998-11-09 2004-07-27 Broadcom Corporation Video and graphics system with video scaling
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
US8570441B2 (en) * 2008-06-11 2013-10-29 Microsoft Corporation One pass video processing and composition for high-definition video
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US8436918B2 (en) * 2009-02-27 2013-05-07 Deluxe Laboratories, Inc. Systems, apparatus and methods for subtitling for stereoscopic content

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4892105B1 (ja) * 2011-02-21 2012-03-07 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
US8390678B2 (en) 2011-02-21 2013-03-05 Kabushiki Kaisha Toshiba Image processing device, image processing method and display
WO2012147354A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 映像処理装置及び映像処理方法
JP5957769B2 (ja) * 2011-04-28 2016-07-27 パナソニックIpマネジメント株式会社 映像処理装置及び映像処理方法
US9357200B2 (en) 2011-04-28 2016-05-31 Panasonic Intelectual Property Management Co., Ltd. Video processing device and video processing method
US9020219B2 (en) 2011-05-06 2015-04-28 Kabushiki Kaisha Toshiba Medical image processing apparatus
JP2012234447A (ja) * 2011-05-06 2012-11-29 Toshiba Corp 医用画像処理装置
KR101877802B1 (ko) * 2011-06-30 2018-07-13 한국전자통신연구원 3차원 디스플레이에서의 영상 확대 장치 및 방법
US8750600B2 (en) 2011-07-07 2014-06-10 Samsung Electronics Co, Ltd. Apparatus and method for generating three-dimensional (3D) zoom image of stereo camera
JP2013026644A (ja) * 2011-07-15 2013-02-04 Hitachi Consumer Electronics Co Ltd 受信装置、受信方法および送受信方法
JP2013026792A (ja) * 2011-07-20 2013-02-04 Toshiba Corp 画像処理装置、画像処理方法、画像処理システム及び医用画像診断装置
JP2013090272A (ja) * 2011-10-21 2013-05-13 Toshiba Corp 映像処理装置、映像処理方法および映像表示装置
JP2012175698A (ja) * 2011-12-13 2012-09-10 Toshiba Corp 映像処理装置、映像処理方法および映像表示装置
US8964000B2 (en) 2012-05-24 2015-02-24 Lg Electronics Inc. Apparatus and method for processing digital signal
WO2013176315A1 (ko) * 2012-05-24 2013-11-28 엘지전자 주식회사 디지털 신호 처리 장치 및 방법
US9939637B2 (en) 2014-03-27 2018-04-10 Panasonic Intellectual Property Management Co., Ltd. Virtual image display device, head-up display system, and vehicle

Also Published As

Publication number Publication date
US20100265315A1 (en) 2010-10-21

Similar Documents

Publication Publication Date Title
JP2010273333A (ja) 立体映像合成装置
WO2010092823A1 (ja) 表示制御装置
JP5502436B2 (ja) 映像信号処理装置
US20110310099A1 (en) Three-dimensional image processing apparatus and method of controlling the same
JP4763822B2 (ja) 映像信号処理装置及び映像信号処理方法
JP2007536825A (ja) 立体テレビジョン信号処理方法、送信システムおよびビユーア拡張装置
US8836758B2 (en) Three-dimensional image processing apparatus and method of controlling the same
JP5454444B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2012186781A (ja) 画像処理装置および画像処理方法
JP2011055148A (ja) 映像合成装置、映像表示装置および映像合成方法
JP2010034704A (ja) 再生装置及び再生方法
JP2010273333A5 (ja)
US10122986B2 (en) Image processing device and image processing method
JP5390016B2 (ja) 映像処理装置
JP5390017B2 (ja) 映像処理装置
JP5505637B2 (ja) 立体表示装置および立体表示装置の表示方法
JP4657258B2 (ja) 立体画像表示装置およびその方法
JP2012089906A (ja) 表示制御装置
JP2012044625A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2003319417A (ja) 立体画像作成装置、立体画像表示装置およびそれらの方法
JP4747214B2 (ja) 映像信号処理装置、及び、映像信号処理方法
JP2015039063A (ja) 映像処理装置及び映像処理方法
JP2011142410A (ja) 画像処理装置
JP2012249295A (ja) 映像処理装置
KR102014149B1 (ko) 영상표시장치, 및 그 동작방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130130

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130628