JP2012186652A - 電子機器、画像処理方法及び画像処理プログラム - Google Patents
電子機器、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JP2012186652A JP2012186652A JP2011048290A JP2011048290A JP2012186652A JP 2012186652 A JP2012186652 A JP 2012186652A JP 2011048290 A JP2011048290 A JP 2011048290A JP 2011048290 A JP2011048290 A JP 2011048290A JP 2012186652 A JP2012186652 A JP 2012186652A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sub
- eye
- video
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Abstract
【課題】 三次元映像が表示されるとき、ユーザが視認しやすい奥行き位置に字幕を表示できる電子機器及び画像処理方法を提供すること。
【解決手段】 実施形態によれば、電子機器は、奥行き推定手段、視差算出手段、映像生成手段、副画像視差決定手段、副画像生成手段及び表示制御手段を具備する。奥行き推定手段は、映像データを用いて処理対象の画像フレームに含まれる画素に対応する奥行き値を推定する。視差算出手段は前記奥行き値を用いて視差を算出する。映像生成手段は、前記映像データと前記視差とを用いて左眼用画像と右眼用映像とを生成する。副画像視差決定手段は、前記奥行き値に基づいて副画像を表示するための奥行き値を決定し、前記副画像に対応する視差を決定する。副画像生成手段は、副画像データと前記決定された視差とを用いて左眼用副画像と右眼用副画像とを生成する。表示制御手段は左眼用画像と右眼用画像とを表示する。
【選択図】図7
【解決手段】 実施形態によれば、電子機器は、奥行き推定手段、視差算出手段、映像生成手段、副画像視差決定手段、副画像生成手段及び表示制御手段を具備する。奥行き推定手段は、映像データを用いて処理対象の画像フレームに含まれる画素に対応する奥行き値を推定する。視差算出手段は前記奥行き値を用いて視差を算出する。映像生成手段は、前記映像データと前記視差とを用いて左眼用画像と右眼用映像とを生成する。副画像視差決定手段は、前記奥行き値に基づいて副画像を表示するための奥行き値を決定し、前記副画像に対応する視差を決定する。副画像生成手段は、副画像データと前記決定された視差とを用いて左眼用副画像と右眼用副画像とを生成する。表示制御手段は左眼用画像と右眼用画像とを表示する。
【選択図】図7
Description
本発明の実施形態は、三次元映像コンテンツを再生する電子機器、該機器に適用される画像処理方法及び画像処理プログラムに関する。
近年、三次元映像を観賞するための様々な映像表示装置が提供されている。このような映像表示装置では、例えば、両眼視差に基づく左眼用映像と右眼用映像とを用いて、ユーザに三次元映像(立体映像)を知覚させる。
一般に、放送やネットワークを介して受信される映像コンテンツのほとんどは、二次元映像を含む映像コンテンツデータである。そのような映像コンテンツデータを用いて三次元映像を観賞するために、二次元映像を三次元映像に変換する種々の2D−3D変換技術が提案されている。
ところで、映像コンテンツデータには、映像上に字幕を表示するための字幕データが含まれることがある。二次元映像のための映像コンテンツデータでは、字幕は、例えば二次元映像(画面)上の所定の位置に表示される。また、三次元映像上に字幕を表示するためには、字幕が表示される画面上の位置だけでなく奥行方向の位置も指定される必要がある。そのため、三次元映像のための映像コンテンツデータに、字幕データと字幕を表示する奥行き位置を示すパラメータとを格納するための技術が提案されている。この奥行き位置には、例えばユーザからの距離が設定される。これによりユーザは、三次元映像上の字幕を常に一定の奥行き位置で見ることができる。
しかし、三次元映像に含まれる複数の画素の奥行き位置は画素毎に異なり、また、それら画素が取り得る奥行き位置の範囲はフレーム毎に変動する。そのため、字幕を一定の奥行き位置に表示する際には、映像の奥行き位置が字幕の奥行き位置よりも手前にあるとき、字幕が映像にめり込んでいるように見える可能性がある。また、字幕が映像にめり込まないように、字幕が表示される奥行き位置を、映像に含まれる画素が取り得る奥行き位置よりも十分に手前に設定した際には、ユーザは、字幕と映像とを見るために視線(合焦位置)を大きく動かさなければならず、疲労の原因となる。
本発明は、三次元映像が表示されるとき、ユーザが視認しやすい奥行き位置に字幕を表示できる電子機器、画像処理方法及び画像処理プログラムを提供することを目的とする。
実施形態によれば、電子機器は、映像データと副画像データとを含む映像コンテンツデータを用いて三次元映像を再生する電子機器であって、奥行き推定手段、視差算出手段、映像生成手段、副画像視差決定手段、副画像生成手段、及び表示制御手段を具備する。奥行き推定手段は、前記映像データの複数の画像フレームの内の処理対象の画像フレームに含まれる複数の画素に対応する複数の奥行き値を推定する。視差算出手段は、前記推定された複数の奥行き値を用いて、前記複数の画素に対応する複数の視差を算出する。映像生成手段は、前記映像データと前記算出された複数の視差とを用いて、左眼用画像データと右眼用映像データとを生成する。副画像視差決定手段は、前記推定された複数の奥行き値に基づいて副画像を表示するための奥行き値を決定し、前記決定された奥行き値を用いて前記副画像に対応する視差を決定する。副画像生成手段は、前記副画像データと前記決定された視差とを用いて、左眼用副画像データと右眼用副画像データとを生成する。表示制御手段は、前記左眼用映像データと前記左眼用副画像データとを用いて左眼用画像を表示し、前記右眼用映像データと前記右眼用副画像データとを用いて右眼用画像を表示する。
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ1として実現される。また、この電子機器は、テレビジョン受信機、映像データを保存するためのレコーダ(例えば、ハードディスクレコーダ、DVDレコーダ)、タブレットPC、スレートPC、PDA、カーナビゲーション装置、スマートフォン等として実現され得る。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ1として実現される。また、この電子機器は、テレビジョン受信機、映像データを保存するためのレコーダ(例えば、ハードディスクレコーダ、DVDレコーダ)、タブレットPC、スレートPC、PDA、カーナビゲーション装置、スマートフォン等として実現され得る。
図1に示すように、本コンピュータ1は、コンピュータ本体2と、ディスプレイユニット3とから構成される。
ディスプレイユニット3には、LCD(liquid crystal display)15が組み込まれている。ディスプレイユニット3は、コンピュータ本体2の上面が露出される開放位置とコンピュータ本体2の上面を覆う閉塞位置との間を回動自在にコンピュータ本体2に取り付けられている。
ディスプレイユニット3には、LCD(liquid crystal display)15が組み込まれている。ディスプレイユニット3は、コンピュータ本体2の上面が露出される開放位置とコンピュータ本体2の上面を覆う閉塞位置との間を回動自在にコンピュータ本体2に取り付けられている。
コンピュータ本体2は、薄い箱形の筐体を有しており、その上面には、キーボード26、本コンピュータ1を電源オン/電源オフするためのパワーボタン28、入力操作パネル29、タッチパッド27、スピーカ18A,18Bなどが配置されている。入力操作パネル29上には、各種操作ボタンが設けられている。これらボタン群には、TV機能(視聴、録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。
コンピュータ本体2の例えば右側面には、TV放送用のアンテナ端子30Aが設けられている。また、コンピュータ本体2の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
図2は、本コンピュータ1のシステム構成を示す図である。
本コンピュータ1は、図2に示すように、CPU11、ノースブリッジ12、主メモリ13、表示コントローラ14、ビデオメモリ(VRAM)14A、LCD(Liquid Crystal Display)15、サウスブリッジ16、サウンドコントローラ17、スピーカ18A,18B、BIOS−ROM19、LANコントローラ20、ハードディスクドライブ(HDD)21、光ディスクドライブ(ODD)22、無線LANコントローラ23、USBコントローラ24、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)25、キーボード(KB)26、ポインティングデバイス27、TVチューナ30等を備えている。
本コンピュータ1は、図2に示すように、CPU11、ノースブリッジ12、主メモリ13、表示コントローラ14、ビデオメモリ(VRAM)14A、LCD(Liquid Crystal Display)15、サウスブリッジ16、サウンドコントローラ17、スピーカ18A,18B、BIOS−ROM19、LANコントローラ20、ハードディスクドライブ(HDD)21、光ディスクドライブ(ODD)22、無線LANコントローラ23、USBコントローラ24、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)25、キーボード(KB)26、ポインティングデバイス27、TVチューナ30等を備えている。
CPU11は、本コンピュータ1の動作を制御するプロセッサである。CPU11は、HDD21から主メモリ13にロードされる、オペレーティングシステム(OS)13A、及び映像コンテンツ再生プログラム13B等のようなアプリケーションプログラムを実行する。映像コンテンツ再生プログラム13Bは、映像コンテンツデータを視聴するための機能を有するソフトウェアである。この映像コンテンツ再生プログラム13Bは、TVチューナ30によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD21に記録する録画処理、HDD21に記録された放送番組データ/ビデオデータを再生する再生処理、ネットワークを介して受信された映像コンテンツデータを再生する再生処理等を実行する。また、映像コンテンツ再生プログラム13Bは、DVDのような記憶メディアやハードディスクのような記憶装置に格納された映像コンテンツデータを再生することもできる。さらに、映像コンテンツ再生プログラム13Bは、三次元映像を視聴するための機能も有する。映像コンテンツ再生プログラム13Bは、映像コンテンツデータに含まれる二次元映像を三次元映像にリアルタイムで変換してLCD15の画面上に表示する。映像コンテンツ再生プログラム13Bは、様々な映像コンテンツデータ(たとえば、放送番組データ、DVDのような記憶メディアに格納されたビデオデータ、インターネット上のサーバから受信したビデオデータ、等)を2D−3D変換することができる。
三次元映像の表示には、例えば、シャッター方式(時分割方式とも云う)を用いてもよい。シャッター方式の三次元映像表示では、左眼用ビデオデータと右眼用ビデオデータとを含むステレオペア映像が用いられる。LCD15は、例えば、通常のリフレッシュレート(例えば60Hz)の2倍のリフレッシュレート(例えば120Hz)で駆動される。左眼用ビデオデータ内の左眼用フレームデータと右眼用ビデオデータ内の右眼用フレームデータは例えば120Hzのリフレッシュレートで交互にLCD15上に表示される。ユーザは、例えば、液晶シャッターメガネのような3Dグラス(図示せず)を用いることで、左眼用フレームに対応する画像を左眼で、右眼用フレームに対応する画像を右眼で見ることができる。3Dグラスは、左眼用フレームデータ及び右眼用フレームデータそれぞれの表示タイミングを示す同期信号をコンピュータ1から赤外線などを用いて受信するように構成してもよい。3Dグラス内の左眼用シャッター及び右眼用シャッターは、LCD15への左眼用及び右眼用フレームデータそれぞれの表示タイミングに同期して開閉される。
代わりに、三次元映像の表示には、例えば、Xpol(登録商標)方式等の偏光方式を用いてもよい。この場合、例えば、左眼用画像と右眼用画像とが例えば走査線単位でインタリーブされたインタリーブフレーム群が生成され、これらインタリーブフレーム群がLCD15に表示される。LCD15の画面を覆う偏向フィルタは、LCD15の画面上の例えば奇数番目のライン群に表示される左眼用画像と偶数番目のライン群に表示される右眼用画像とを異なる方向に偏光する。ユーザは、偏向メガネを用いることにより、左眼用画像を左眼で、右眼用画像を右眼で見ることができる。
また、三次元映像の表示には、レンチキュラ方式、バリア方式等の裸眼立体視方式によるディスプレイ装置を用いてもよい。ユーザは、裸眼立体視方式のディスプレイ装置に表示された映像を見ることにより、三次元映像を知覚することができる。
また、CPU11は、BIOS−ROM19に格納されたBIOS(Basic Input/Output System)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ12は、CPU11のローカルバスとサウスブリッジ16との間を接続するブリッジデバイスである。ノースブリッジ12には、主メモリ13をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ12は、表示コントローラ14との通信を実行する機能も有している。
表示コントローラ14は、本コンピュータ1のディスプレイとして使用されるLCD15を制御するデバイスである。この表示コントローラ14によって生成される表示信号はLCD15に送られる。LCD15は、表示信号に基づいて映像を表示する。
サウスブリッジ16は、PCI(Peripheral Component Interconnect)バス上及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ16は、HDD21及びODD22を制御するためのIDE(Integrated Drive Electronics)コントローラ、及びBIOS−ROM19をアクセス制御するメモリコントローラが内蔵されている。さらに、サウスブリッジ16は、サウンドコントローラ17及びLANコントローラ20との通信を実行する機能も有している。
サウンドコントローラ17は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18Bに出力する。LANコントローラ20は、例えばEthernet(登録商標)規格の有線通信を実行する有線通信デバイスであり、無線LANコントローラ23は、例えばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。また、USBコントローラ24は、例えばUSB2.0規格のケーブルを介して外部機器との通信を実行する。
EC/KBC25は、電力管理を行うためのエンベデッドコントローラと、キーボード(KB)26、及びポインティングデバイス27を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このEC/KBC25は、ユーザの操作に応じて本コンピュータ1をパワーオン/パワーオフする機能を有している。
TVチューナ30はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子30Aに接続されている。このTVチューナ30は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ30は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
次いで、図3及び図4を参照して、三次元映像上に表示される字幕の例について説明する。
図3に示す例では、三次元映像32が表示されるとき、実際に画面31(ディスプレイ15)が存在する奥行き位置に字幕33が表示されている。一般に、字幕33は、映像32よりも優先して表示されるため、例えば、映像32上に上書きして描画される。図3に示す例では、字幕33が映像32よりも奥に表示されるので、映像32の一部の領域32Aが欠落し、映像32に字幕33がめり込んでいるように見える。そのため、ユーザは、字幕33を見づらく感じたり、字幕33がめり込んだ映像32に違和感を覚えたりする可能性があり、観賞の妨げとなる。
図3に示す例では、三次元映像32が表示されるとき、実際に画面31(ディスプレイ15)が存在する奥行き位置に字幕33が表示されている。一般に、字幕33は、映像32よりも優先して表示されるため、例えば、映像32上に上書きして描画される。図3に示す例では、字幕33が映像32よりも奥に表示されるので、映像32の一部の領域32Aが欠落し、映像32に字幕33がめり込んでいるように見える。そのため、ユーザは、字幕33を見づらく感じたり、字幕33がめり込んだ映像32に違和感を覚えたりする可能性があり、観賞の妨げとなる。
また、図4に示す例では、映像32が表示され得る奥行き位置よりも十分手前である一定の奥行き位置に、字幕33が表示されている。これにより、字幕33が映像32にめり込んで見えることはない。しかし、ユーザは、字幕33と映像32の各々を見るために視線(合焦位置)を大きく動かさなければならず、疲労の原因となる。
具体的には、映像32が表示される奥行き位置は、映像32に含まれる画素毎に異なる。また、映像32に含まれる画素それぞれの奥行き位置の範囲は、画像フレーム毎に変動する。そのため、一定の奥行き位置に字幕33が表示されるとき、字幕32と映像33との距離が大きくなることによって、ユーザは、字幕33と映像32の各々を見るために視線を大きく動かさなければならなくなる。
そのため本実施形態では、映像32に応じて字幕(副画像とも称する)33が表示される奥行き位置を動的に変更することにより、映像32と字幕33の双方が視認しやすい位置関係を維持する。図5及び図6は、映像32に応じて字幕33が表示される例を示す。
図5に示す例では、映像32に含まれる画素の内、最も手前にある画素(すなわち、最も飛び出している画素)32Bと同じ奥行き位置に字幕33が表示されている。また、図6に示す例では、字幕が表示される画面31上の領域に対応する画素群(図6では、領域32C,32D,32Eの一部)の内、最も手前にある画素(領域)32Cの手前に字幕33が表示されている。図5及び図6に示す例では、字幕33が映像32にめり込んで見えることはなく、また、映像32と字幕33とを見るために目にかかる負担も小さくすることができる。
図5に示す例では、映像32に含まれる画素の内、最も手前にある画素(すなわち、最も飛び出している画素)32Bと同じ奥行き位置に字幕33が表示されている。また、図6に示す例では、字幕が表示される画面31上の領域に対応する画素群(図6では、領域32C,32D,32Eの一部)の内、最も手前にある画素(領域)32Cの手前に字幕33が表示されている。図5及び図6に示す例では、字幕33が映像32にめり込んで見えることはなく、また、映像32と字幕33とを見るために目にかかる負担も小さくすることができる。
図7は、映像コンテンツ再生プログラム13Bの機能構成を示す。映像コンテンツ再生プログラム13Bは、映像コンテンツデータ41を用いて、映像32上に字幕33が合成された三次元映像46を再生するための三次元映像再生機能を有する。図7に示す例では、映像コンテンツ再生プログラム13Bとディスプレイドライバプログラム13Cとによって、三次元映像46が出力デバイス(ディスプレイ)15に表示される。
映像コンテンツ再生プログラム13Bは、映像リード部51、2Dto3D変換部52及び表示制御部53を含む。また、2Dto3D変換部52は、奥行き推定部521、視差算出部522、視差映像生成部523、字幕視差決定部524、及び視差字幕生成部525を含む。
映像リード部51は、例えば、DVDのような記憶メディアやHDD21のような記憶装置から、映像コンテンツデータ41を読み出す。なお、映像リード部51は、TVチューナ30やLANコントローラ20,23等を介して、映像コンテンツデータ41を受信してもよい。映像コンテンツデータ41は、副画像データ(字幕データとも称する)41Aと二次元映像データ41Bとを含む。二次元映像データ41Bは、例えば、圧縮符号化された映像データである。その場合、二次元映像データ41Bは復号して用いられる。副画像データ41Aは、例えば、字幕を含む画像データである。なお、副画像データ41Aは、字幕を示すテキストデータであってもよい。その場合、字幕を示すテキストデータに基づいて、テキスト(字幕)を含む画像データが生成される。また、副画像データ41Aは、字幕データ、OnScreenDisplay(OSD)データ、及び各種のアプリケーションプログラムを操作するためのコントロールパネルを表示するためのデータを含んでもよい。コントロールパネルは、ボタン、メニュー等を含んでいてもよい。
映像リード部51は、読み出した(受信した)映像コンテンツデータ41から、字幕データ41Aと二次元映像データ41Bとを抽出する。そして、映像リード部51は、抽出された二次元映像データ41Bに基づく複数の画像フレームの内、先頭の画像フレームを処理対象の画像フレームに設定する。つまり、映像リード部51は、二次元映像データ41Bに基づく複数の画像フレームを、先頭の画像フレームから順に処理対象の画像フレームに設定する。以下では、この処理対象の画像フレームをN番目の画像フレームとも称する。また、処理対象の画像フレームの一つ前の画像フレームをN−1番目の画像フレームとも称する。
映像リード部51は、抽出された字幕データ41Aの内、当該処理対象の画像フレームに対応する字幕データを、処理対象の字幕データに設定する。そして、映像リード部51は、設定された処理対象の画像フレームと字幕データとを2Dto3D変換部52に出力する。
また、映像リード部51は、例えばHDD21のような記憶装置に格納された設定情報47を読み出す。設定情報47は、立体感設定情報47A、視聴環境情報47B及び字幕表示位置設定情報47Cを含む。立体感設定情報47Aは、三次元映像46に含まれる画素が取り得る実空間での奥行き値の範囲を示す情報を含む。視聴環境情報47Bは、眼間距離を示す情報と観視距離を示す情報とを含む。字幕表示位置設定情報47Cは、字幕が表示される奥行き位置を決定するためのパラメータを含む。この設定情報47については、図8から図12を参照して後述する。映像リード部51は、読み出した設定情報47Cを2Dto3D変換部52に出力する。
奥行き推定部521は、映像リード部51によって出力された処理対象の画像フレーム(二次元画像)を用いて、当該画像フレームに含まれる複数の画素の奥行き値(奥行き位置)を推定することによって、奥行きマップ(depth map)42を生成する。奥行き推定部521は、例えば、画像フレームを複数の領域に分割し、分割された領域間の前後関係(背景の領域であるか、他の領域よりも前に存在するか等)を判定することによって、画素の奥行き値を決定する。奥行きマップ42は、処理対象の画像フレームに含まれる複数の画素に対応する複数の奥行き値を含む。奥行き値は、例えば、−127から128までの整数値である。奥行きマップ42は、各画素の奥行き値に応じたグレイスケール画像として(例えば、手前に存在する画素を黒く、奥に存在する画素を白くして)表すこともできる。奥行き推定部521は、生成された奥行きマップ42を視差算出部522に出力する。
図8は、奥行きが推定される三次元空間、すなわち、三次元映像が表示される空間を示す。三次元映像が表示される空間は、換言すると、ユーザによって三次元映像が知覚される空間であると云える。
この三次元空間は、X軸とY軸とZ軸とによる右手系の直交座標空間として定義される。すなわち、X軸は水平方向の軸であり、右向きに正をとる。Y軸は垂直方向の軸であり、下向きに正をとる。Z軸は奥行き方向の軸であり、奥に向かって正をとる。また、映像が表示される画面31(すなわち、ディスプレイ15の画面)は、この直交座標系において、Z=0であるXY平面上に位置し、画面31の左上の頂点が原点に対応することを想定する。なお、画面31は、Z軸の負の方向に向かって映像を表示する。つまり、ユーザがZ<0である位置から、正対して画面31を見ることを想定する。
次いで、視差算出部522は、奥行き推定部521によって出力された奥行きマップ42と設定情報47とを用いて、処理対象の画像フレームに含まれる複数の画素に対応する視差を算出することによって、視差マップ43を生成する。
より具体的には、まず、視差算出部522は、立体感設定情報47Aに基づいて、奥行きマップ42に含まれる奥行き値の値域を変換する。
図9は、立体感設定情報47Aに示される、三次元映像が表示され得る実空間での奥行き(Z軸)方向の範囲35を示す。この奥行き方向の範囲35は、奥行上限値34Aと奥行下限値34Bとによって規定される。奥行上限値34Aは、三次元映像が表示される奥行き位置の上限を示す。また、奥行下限値34Bは、三次元映像が表示される奥行き位置の下限を示す。したがって、奥行下限値≦Z≦奥行上限値である空間内に三次元映像が表示される。また、三次元映像が表示されるX軸方向の範囲及びY軸方向の範囲は画面31に対応する範囲であるので、画面31に対応する範囲と奥行き方向の範囲35とによって規定される直方体の空間内に三次元映像が表示される。なお、奥行き方向の範囲35は、例えば、9.5cmである。
図9は、立体感設定情報47Aに示される、三次元映像が表示され得る実空間での奥行き(Z軸)方向の範囲35を示す。この奥行き方向の範囲35は、奥行上限値34Aと奥行下限値34Bとによって規定される。奥行上限値34Aは、三次元映像が表示される奥行き位置の上限を示す。また、奥行下限値34Bは、三次元映像が表示される奥行き位置の下限を示す。したがって、奥行下限値≦Z≦奥行上限値である空間内に三次元映像が表示される。また、三次元映像が表示されるX軸方向の範囲及びY軸方向の範囲は画面31に対応する範囲であるので、画面31に対応する範囲と奥行き方向の範囲35とによって規定される直方体の空間内に三次元映像が表示される。なお、奥行き方向の範囲35は、例えば、9.5cmである。
視差算出部522は、奥行きマップ42に含まれる奥行き値を、三次元映像が表示され得る実空間での奥行き方向の範囲35に基づいてスケーリングする。視差算出部522は、例えば、奥行きマップ42に含まれる奥行き値の範囲が、奥行き下限値34Bから奥行き上限値34Aまでの範囲になるように、奥行きマップ42に含まれる奥行き値を変換する。奥行きマップ42に含まれる奥行き値は、例えば、実空間での奥行き値(例えば、ミリメートル単位)に変換される。
次いで、視差算出部522は、視聴環境情報47Bに基づいて、奥行き値に対応する視差(例えば、ミリメートル単位)を算出する。
図10は、視聴環境情報47Bに示される、眼間距離37Aと観視距離37Bとを示す。眼間距離37Aは、左眼36Aと右眼36Bとの間の距離を示す。より具体的には、眼間距離37Aは、例えば、左眼36AのX軸方向の位置XLと右眼36BのX軸方向の位置XRとの間の距離(XR−XL)を示す。眼間距離37には、例えば、電子機器1を実際に使用するユーザの眼間距離、眼間距離の統計的な平均等(例えば、6.5cm)が用いられる。
図10は、視聴環境情報47Bに示される、眼間距離37Aと観視距離37Bとを示す。眼間距離37Aは、左眼36Aと右眼36Bとの間の距離を示す。より具体的には、眼間距離37Aは、例えば、左眼36AのX軸方向の位置XLと右眼36BのX軸方向の位置XRとの間の距離(XR−XL)を示す。眼間距離37には、例えば、電子機器1を実際に使用するユーザの眼間距離、眼間距離の統計的な平均等(例えば、6.5cm)が用いられる。
観視距離37Bは、左眼36Aと右眼36Bとの中間点Mから画面までの距離を示す。より具体的には、観視距離37Bは、例えば、中間点MのZ軸方向の位置ZMから、画面31(すなわち、Z=0)までの距離ZMを示す。観視距離37Bには、例えば、電子機器1の利用形態や画面サイズに応じた距離、ユーザによって設定される任意の距離等が用いられる。
また、図11及び図12は、奥行き値に応じて算出される視差37Dの例を示す。視差37Dは、三次元映像内の画素38(観測点とも称する)を左眼36Aで見たときの位置と、この画素38を右眼36Bで見たときの位置とのずれを示す。ユーザは、画面31に表示された左眼用映像44A内の画素39Aを左眼36Aで、右眼用映像44B内の画素39Bを右眼36Bで見ることによって、画素38の奥行き(立体感)を知覚することができる。つまり、視差37Dは、画素38に対応する左眼用映像44A内の画素39Aの位置と右眼用映像44B内の画素39Bの位置とを決定するために算出される。
以下では、説明を簡単にするため、左眼36AのY座標及びZ座標と、右眼36BのY座標及びZ座標は等しいものとする。また、中間点MのX座標及びY座標と、三次元映像内の観測点38のX座標及びY座標とは等しいものとする。すなわち、ユーザの視点36は、観測点38に正対し、傾いていないことを想定する。
まず、図11を参照して、奥行き値37Cを有する画素38に対応する視差37Dを算出する例について説明する。奥行き値37Cは、Z>0(すなわち、画面31よりも奥)である。なお、眼間距離37Aの値と観視距離37Bの値とは、視聴環境情報47Bによって与えられている。
左眼用映像44A内の画素39Aは、左眼36Aと三次元映像内の画素38とをつなぐ視線と画面31とが交わる点に位置する。また、右眼用映像44B内の画素39Bは、右眼36Bと三次元映像内の画素38とをつなぐ視線と画面31とが交わる点に位置する。したがって、
眼間距離:(観視距離+奥行き)=視差:奥行き
であるので、
視差=奥行き×眼間距離/(観視距離+奥行き)
によって、三次元映像内の画素38に対応する、左眼用映像内の画素39Aと右眼用映像内の画素39Bとの視差37Dが算出される。
眼間距離:(観視距離+奥行き)=視差:奥行き
であるので、
視差=奥行き×眼間距離/(観視距離+奥行き)
によって、三次元映像内の画素38に対応する、左眼用映像内の画素39Aと右眼用映像内の画素39Bとの視差37Dが算出される。
また、図12を参照して、奥行き値37Cを有する画素38に対応する視差37Dを算出する別の例について説明する。奥行き値37Cは、Z<0(すなわち、画面31よりも手前)である。なお、眼間距離37Aの値と観視距離37Bの値とは、視聴環境情報47Bによって与えられている。
左眼用映像内の画素39Aは、左眼36Aと三次元映像内の画素38とをつなぐ視線と画面31とが交わる点に位置する。また、右眼用映像内の画素39Bは、右眼36Bと三次元映像内の画素38とをつなぐ視線と画面31とが交わる点に位置する。図11に示した例と同様に、
視差=奥行き×眼間距離/(観視距離+奥行き)
によって、三次元映像内の画素38に対応する、左眼用映像内の画素39Aと右眼用映像内の画素39Bとの視差37Dが算出される。
視差=奥行き×眼間距離/(観視距離+奥行き)
によって、三次元映像内の画素38に対応する、左眼用映像内の画素39Aと右眼用映像内の画素39Bとの視差37Dが算出される。
視差算出部522は、上述のようにして視差37Dを算出することによって、視差マップ43を生成する。視差マップ43は、奥行きマップ42に含まれる複数の奥行き値に対応する複数の視差を含む。換言すると、視差マップ43は、二次元映像に含まれる複数の画素に対応する複数の視差を含む。視差は、例えば、ミリメートル単位の値である。視差マップ43は、例えば、各画素の視差に応じた画像として(例えば、正の値の大きさを赤色の濃淡で、負の値の大きさを緑色の濃淡で)表すこともできる。視差算出部522は、生成された視差マップ43を視差映像生成部523に出力する。また、視差算出部522は、奥行きマップ42と視差マップ43とを字幕視差決定部524に出力する。
視差映像生成部523は、視差算出部522によって出力された視差マップ43と処理対象の画像フレームとを用いて、左眼用映像データ44Aと右眼用映像データ44Bとを含む三次元映像データ44を生成する。視差映像生成部523は、映像32の解像度に基づいて、実空間での視差37Dを画像上での視差を示す値(例えば、ピクセル単位)に変換する。左眼用映像データ44A及び右眼用映像データ44Bでは、変換された視差37Dに応じた位置に画素が配置される。より具体的には、三次元映像内の画素38に対応する、左眼用映像データ44A内の画素39Aと右眼用映像データ44B内の画素39Bとは、視差/2だけずらした位置に配置される。
図11及び図12に示した例では、三次元映像内の画素38のX軸方向の位置をXAとすると、画素38に対応する、左眼用映像データ44A内の画素39AのX軸方向の位置XALと右眼用映像データ44B内の画素39BのX軸方向の位置XARとは以下の式によって表される。
XAL=(XA−視差/2)
XAR=(XA+視差/2)
視差映像生成部523は、上述のように生成された左眼用映像データ44Aと右眼用映像データ44Bとを表示制御部53に出力する。
XAL=(XA−視差/2)
XAR=(XA+視差/2)
視差映像生成部523は、上述のように生成された左眼用映像データ44Aと右眼用映像データ44Bとを表示制御部53に出力する。
また、字幕視差決定部524は、奥行きマップ42と視差マップ43とを用いて、字幕33を表示するための視差45を決定する。
具体的には、まず、字幕視差決定部524は、字幕表示位置設定情報47Cに基づいて、字幕33を表示するための奥行き値を決定する。字幕表示位置設定情報47Cは、例えば、探索範囲情報、オフセット情報、変化量上限値情報等を含む。
具体的には、まず、字幕視差決定部524は、字幕表示位置設定情報47Cに基づいて、字幕33を表示するための奥行き値を決定する。字幕表示位置設定情報47Cは、例えば、探索範囲情報、オフセット情報、変化量上限値情報等を含む。
探索範囲情報は、奥行きマップ42内の領域を示す。探索範囲情報に示される領域は、例えば、奥行きマップ42全体である。また、探索範囲情報に示される領域は、字幕33が表示される、XY平面上の領域に対応する領域である。奥行きマップ42内の探索範囲情報に示される領域から、字幕33を表示するための奥行きの候補値(基準値)が検出される。
オフセット情報は、奥行きの候補値を調整するためのZ軸方向のオフセット値を示す。このオフセット値は、例えば、字幕33の奥行き値をユーザ(視聴者)の嗜好に合わせて調整するために使用される。具体的には、オフセット値は、例えば字幕33を映像32よりも少し手前に表示するための値が設定される。また、オフセット値は0であってもよい。
また、変化量上限値情報は、字幕33の奥行き値の単位時間当たりの変化量の上限値を示す。字幕33を表示するための奥行き値は、例えばフレーム毎に変化する。しかし、字幕33が表示される奥行き位置が大きく変化した際には、ユーザが字幕33を見づらく感じてしまう可能性がある。そのため、この変化量上限値情報によって、字幕33が表示される奥行き値の単位時間当たりの変化量の上限値(しきい値)が設定される。この変化量上限値は、例えば、9.5cm/秒である。したがって、毎秒60フレームの映像(画像フレーム)を表示するとき、1フレーム当たりの変化量の上限値THDは、0.16cmである。
字幕視差決定部524は、奥行きマップ42内の探索範囲情報に示される領域を探索し、その領域内で最小の奥行き値(すなわち、最も手前にある奥行き値)を検出する。検出された奥行き値は、字幕33を表示するための奥行きの候補値(基準値)ZCとして用いられる。なお、探索範囲から検出される奥行き値は、最小値に限らず、探索範囲に含まれる奥行き値の平均値や中間値であってもよい。探索範囲内に局所的に突出した画素(領域)が存在する際には、奥行き候補値ZCに平均値や中間値を用いる方が、字幕33の自然な(好ましい)奥行き値が得られる。
そして、字幕視差決定部524は、この奥行き候補値ZCに対して、オフセット情報に示されるオフセット値を加えた値を、新たな奥行き候補値ZCに設定する。
そして、字幕視差決定部524は、この奥行き候補値ZCに対して、オフセット情報に示されるオフセット値を加えた値を、新たな奥行き候補値ZCに設定する。
次いで、字幕視差決定部524は、一つ前の画像フレーム(N−1番目の画像フレーム)での字幕の奥行き値ZN−1に対する、現在の画像フレーム(N番目の画像フレーム)での奥行き候補値ZCの変化量(例えば、差の絶対値)を算出する。そして、字幕視差決定部524は、算出された変化量が上限値THD以内であるか否かを判定する。上限値THDは、毎秒60フレームの画像が表示されることを想定したとき、例えば、0.16cm/frameである。算出された変化量が上限値THD以内であるとき、字幕視差決定部524は、奥行き候補値ZCを、現在の画像フレームで字幕を表示するための奥行き値ZNとして用いる。一方、算出された変化量が上限値THDより大きいとき、字幕視差決定部524は、変化量が上限値THD以内になるように奥行き候補値ZCを変更して、奥行き値ZNに設定する。
そして、字幕視差決定部524は、この字幕の奥行き値ZNに対応する視差45を算出する。なお、奥行き値ZNが奥行きマップ42から検出された値(例えば、上述のオフセット値や奥行き値の変化量に基づいて調整されていない奥行き値)であるとき、字幕視差決定部524は、視差マップ43から、この奥行き値ZNに対応する視差を検出することによって、字幕33を表示するための視差45を決定する。この場合、視差マップ43から奥行き値ZNに対応する視差を検出するので、字幕33を表示するための視差45を新たに算出する必要がない。したがって、字幕33に対応する視差45を算出するための処理を省略することができるので、計算量が減少し、CPU11等にかかる負荷も低減することができる。一方、奥行き値ZNが奥行きマップ42から検出された値でないとき、字幕視差決定部524は、図11及び図12を参照して説明した方法によって、字幕33を表示するための視差45を算出する。字幕視差決定部524は、決定された視差45を視差字幕生成部525に出力する。
次いで、視差字幕生成部525は、字幕データ41Aと、視差字幕生成部525によって出力された視差45とを用いて、左眼用字幕データと右眼用字幕データとを生成する。具体的には、視差字幕生成部525は、映像32の解像度に基づいて、視差45を画像上の値(例えば、ピクセル単位)に変換する。そして、左眼用字幕データ及び右眼用字幕データでは、変換された視差45に応じた位置に画素が配置される。具体的な方法は、視差映像生成部523について説明した方法と同様である。視差字幕生成部525は、生成された左眼用字幕データと右眼用字幕データとを表示制御部53に出力する。
表示制御部53は、視差映像生成部523によって出力された左眼用映像データ44A及び右眼用映像データ44Bと、視差字幕生成部525によって出力された左眼用字幕データ及び右眼用字幕データとを用いて、左眼用映像と右眼用映像とを画面に表示する。表示制御部53は、例えばドライバプログラム13Cを介して、左眼用映像と右眼用映像とを画面に出力する。具体的には、表示制御部53は、視差映像生成部523によって出力された左眼用映像データ44Aと、視差字幕生成部525によって出力された左眼用字幕データとを用いて、左眼用字幕が合成された左眼用映像をディスプレイ15の画面に表示する。そして、表示制御部53は、視差映像生成部523によって生成された右眼用映像データ44Bと、視差字幕生成部525によって生成された右眼用字幕データとを用いて、右眼用字幕が合成された右眼用映像をディスプレイ15の画面に表示する。
以上の構成により、ユーザは、例えば3Dグラス(液晶シャッターメガネ)を用いて、左眼用映像を左眼36Aで、右眼用映像を右眼36Bで見ることによって、三次元映像を知覚することができる。また、字幕33の奥行き位置は、映像32の奥行きに応じた視認しやすい位置に動的に決定される。字幕33の奥行き位置は、例えば、映像32にめり込まず、また映像32と字幕33との間の奥行き方向の距離が広がり過ぎないような位置に設定される。さらに、画像フレーム間での字幕の奥行き位置の変化量は、所定の上限値以内になるように制御される。これにより、ユーザが字幕33と映像32とを見るために目にかかる負担を軽減することができる。
なお、字幕視差決定部524は、字幕33の奥行き値ZNを、所定の期間だけ変化させないように制御することもできる。その場合、字幕視差決定部524は、字幕33を表示するための奥行き値ZNを、画像フレーム毎に変更するのではなく、所定の期間毎に変更する。したがって、字幕視差決定部524は、例えば、所定の期間だけ、一つ前の画像フレームに対応する字幕が表示された奥行き値ZN−1を、処理対象の画像フレームに対応する字幕33を表示するための奥行き値ZNとして用いる。また、字幕視差決定部524は、同一の内容を示す字幕33が表示される期間内に、字幕33の奥行き値ZNを変更しないように制御することもできる。つまり、字幕視差決定部524は、同一の字幕33が表示される期間内では、同じ視差で(すなわち、同じ奥行き位置に)字幕33を表示し続けることもできる。より具体的には、字幕視差決定部524は、処理対象の画像フレームに対応する字幕(副画像)33と一つ前の画像フレームに対応する字幕33とが同じであるとき、一つ前の画像フレームに対応する字幕33が表示された奥行き値ZN−1を、処理対象の画像フレームに対応する字幕33を表示するための奥行き値ZNに決定する。
また、字幕33に加えて、OnScreenDisplay(OSD)信号に基づく画像や、アプリケーションプログラムを操作するためのコントロールパネル(操作パネル)の画像等、映像32上に合成して(重畳して)表示される各種の副画像について、それら副画像が表示される奥行き位置を、上述の字幕33の奥行き位置の決定方法と同様にして決定してもよい。
なお、上述の例では、映像32と字幕33とが合成された左眼用映像(右眼用映像)を、ディスプレイドライバプログラム13Cを介してディスプレイ15に出力する構成について説明したが、左眼用映像データ44A、右眼用映像データ44B、字幕データ41A、及び字幕を表示するための視差情報45をディスプレイドライバプログラム13Cに出力する構成でもよい。その場合、ディスプレイドライバプログラム13Cは、左眼用映像データ44A又は右眼用映像データ44Bに基づく映像上に、視差情報45に基づく視差を有する字幕を合成してディスプレイ15に表示する。
次いで、図13に示すフローチャートを参照して、映像再生処理の手順の例について説明する。映像再生処理では、入力された映像コンテンツデータ41を用いて、映像32上に字幕33が合成された三次元映像46が生成される。
まず、映像リード部51は、例えばDVDのような記憶メディアやHDDのような記憶装置から、映像コンテンツデータ41を読み出す(ブロックB101)。映像リード部51は、読み出した映像コンテンツデータ41から、字幕データ41Aと二次元映像データ41Bとを抽出する(ブロックB102)。そして、映像リード部51は、抽出された二次元映像データ41Bに基づく複数の画像フレームの内、先頭の画像フレームを処理対象の画像フレームに設定する(ブロックB103)。また、映像リード部51は、抽出された字幕データ41Aの内、当該処理対象の画像フレームに対応する字幕データを、処理対象の字幕データに設定する。
次いで、奥行き推定部521は、処理対象の画像フレームを用いて、当該画像フレームに含まれる複数の画素の奥行き値(奥行き位置)を推定することによって、奥行きマップ42を生成する(ブロックB104)。視差算出部522は、生成された奥行きマップ42を用いて、処理対象の画像フレームに含まれる複数の画素に対応する複数の視差を算出することによって、視差マップ43を生成する(ブロックB105)。そして、視差映像生成部523は、処理対象の画像フレームと視差マップ43とを用いて、左眼用映像データ44Aと右眼用映像データ44Bとを生成する(ブロックB106)。
また、字幕視差決定部524は、奥行きマップ42と視差マップ43とを用いて、字幕を表示するための視差42を決定する(ブロックB107)。字幕を表示するための視差を決定するための処理の手順については、図14に示すフローチャートを参照して後述する。そして、視差字幕生成部525は、字幕データ41Aと決定された視差45とを用いて、左眼用字幕データと右眼用字幕データとを生成する(ブロックB108)。
次いで、表示制御部53は、視差映像生成部523によって生成された左眼用映像データ44Aと、視差字幕生成部525によって生成された左眼用字幕データとを用いて、字幕が合成された左眼用画像をディスプレイ15の画面に表示する(ブロックB109)。そして、表示制御部53は、視差映像生成部523によって生成された右眼用映像データ44Bと、視差字幕生成部525によって生成された右眼用字幕データとを用いて、字幕が合成された右眼用画像をディスプレイ15の画面に表示する(ブロックB110)。
次いで、映像リード部51は、二次元映像データ41Bに基づく複数の画像フレーム内に、現在の画像フレーム(処理対象の画像フレーム)に後続する画像フレームがあるか否かを判定する(ブロックB111)。後続する画像フレームがある場合(ブロックB111のYES)、映像リード部51は、その後続する画像フレームを処理対象の画像フレームに設定する(ブロックB112)。また、映像リード部51は、抽出された字幕データ41Aの内、当該処理対象の画像フレームに対応する字幕データを、処理対象の字幕データに設定する。そして、ブロックB104に戻り、新たに設定された処理対象の画像フレームに対して、字幕が合成された三次元映像46を表示するための処理を施す。
一方、後続する画像フレームがない場合(ブロックB112のNO)、処理を終了する。
一方、後続する画像フレームがない場合(ブロックB112のNO)、処理を終了する。
以上の処理により、入力された映像コンテンツデータ41を用いて、映像32上に字幕33が合成された三次元映像46を生成することができる。
また、図14は、字幕を表示するための視差を決定するための字幕視差決定処理の手順の例を示すフローチャートである。
まず、字幕視差決定部524は、奥行きマップ42に含まれる複数の奥行き値から奥行き候補値ZCを検出する(ブロックB21)。この奥行き候補値ZCは、例えば、奥行きマップ42に含まれる複数の奥行き値の内の、最小の奥行き値(すなわち、処理対象の画像フレームに含まれる画素の内、最も手前にある画素の奥行き値)である。なお、この奥行き候補値ZCは、字幕が表示されるXY平面上の領域内に含まれる画素に対応する奥行き値の内の、最小の奥行き値であってもよい。検出された奥行き候補値ZCは、現在のフレームで字幕が表示される奥行き値の候補として用いられる。
まず、字幕視差決定部524は、奥行きマップ42に含まれる複数の奥行き値から奥行き候補値ZCを検出する(ブロックB21)。この奥行き候補値ZCは、例えば、奥行きマップ42に含まれる複数の奥行き値の内の、最小の奥行き値(すなわち、処理対象の画像フレームに含まれる画素の内、最も手前にある画素の奥行き値)である。なお、この奥行き候補値ZCは、字幕が表示されるXY平面上の領域内に含まれる画素に対応する奥行き値の内の、最小の奥行き値であってもよい。検出された奥行き候補値ZCは、現在のフレームで字幕が表示される奥行き値の候補として用いられる。
次いで、字幕視差決定部524は、一つ前の画像フレームでの字幕の奥行き値ZN−1に対する、現在の画像フレームでの奥行き候補値ZCの変化量(差の絶対値)を算出する。そして、字幕視差決定部524は、算出された変化量が上限値(しきい値)THD以内であるか否かを判定する。上限値THDは、毎秒60フレームの画像が表示されることを想定したとき、例えば、0.16cmである。算出された変化量が上限値THD以内であるとき、字幕視差決定部524は、奥行き候補値ZCを、現在の画像フレームで字幕を表示するための奥行き値ZNとして用いる。一方、算出された変化量が上限値THDより大きいとき、字幕視差決定部524は、変化量が上限値THD以内になるように奥行き値ZNを決定する。
より具体的には、字幕視差決定部524は、一つ前の画像フレームで字幕が表示された奥行き値ZN−1と検出された奥行き候補値ZCとの差DZを算出する(ブロックB22)。そして、字幕視差決定部524は、算出された差DZが−THD以上であるか否かを判定する(ブロックB23)。
算出された差DZが−THD以上であるとき(ブロックB23のYES)、字幕視差決定部524は、算出された差DZがTHD以下であるか否かを判定する(ブロックB24)。そして、算出された差DZがTHD以下であるとき(ブロックB24のYES)、字幕視差決定部524は、奥行き候補値ZCを、現在の画像フレームで字幕を表示するための奥行き値ZNに決定する(ブロックB25)。そして、字幕視差決定部524は、視差マップ43を用いて、決定された字幕の奥行き値ZN(=ZC)に対応する視差を検出する(ブロックB26)。
一方、算出された差DZがTHDより大きいとき(ブロックB24のNO)、字幕視差決定部524は、現在の画像フレームで字幕を表示するための奥行き値ZNを次式により算出する(ブロックB27)。
ZN=ZN−1−THD
そして、字幕視差決定部524は、算出された字幕の奥行き値ZNに対応する視差を算出する(ブロックB28)。
ZN=ZN−1−THD
そして、字幕視差決定部524は、算出された字幕の奥行き値ZNに対応する視差を算出する(ブロックB28)。
また、算出された差DZが−THD未満であるとき(ブロックB23のNO)、字幕視差決定部524は、現在の画像フレームで字幕を表示するための奥行き値ZNを次式により算出する(ブロックB29)。
ZN=ZN−1+THD
そして、字幕視差決定部524は、算出された字幕の奥行き値ZNに対応する視差45を算出する(ブロックB28)。
ZN=ZN−1+THD
そして、字幕視差決定部524は、算出された字幕の奥行き値ZNに対応する視差45を算出する(ブロックB28)。
以上の処理により、字幕33を表示するための視差45を決定することができる。なお、二次元映像データ内の先頭の画像フレームに対して処理を行う際には、所定の値を一つ前の画像フレームで字幕が表示された奥行き値ZN−1として用いてもよい。また、先頭の画像フレームでは、奥行きマップ42に含まれる奥行き値の内の最小の奥行き値や、字幕が表示されるXY平面上の領域内に含まれる画素に対応する奥行き値の内の、最小の奥行き値を、字幕を表示するための奥行き値ZNとして用いてもよい。
以上説明したように、本実施形態によれば、三次元映像が表示されるとき、ユーザが視認しやすい奥行き位置に字幕を表示できる。映像コンテンツ再生プログラム13Bは、映像32に字幕33が重畳された映像(すなわち、左眼用映像及び右眼用映像)を表示する。字幕33は、映像32の奥行きに応じた視認しやすい奥行き位置に動的に表示される。字幕33の奥行き位置は、例えば、映像32にめり込まず、また映像32と字幕33との間の奥行き方向の距離が広がり過ぎないような位置に設定される。さらに、画像フレーム間での字幕の奥行き位置の変化量は、所定のしきい値以内になるように制御される。これにより、ユーザが字幕33と映像32とを見るために目にかかる負担を軽減することができる。
なお、本実施形態の映像再生処理の手順は全てソフトウェアによって実行することができる。このため、映像再生処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
13B…映像コンテンツ再生プログラム、15…ディスプレイ、51…映像入力部、52…2Dto3D変換部、521…奥行き推定部、522…視差算出部、523…視差映像生成部、524…字幕視差決定部、525…視差字幕生成部、53…表示制御部。
実施形態によれば、電子機器は、映像データと副画像データとを含む映像コンテンツデータを用いて三次元映像を再生する電子機器であって、奥行き推定手段、視差算出手段、映像生成手段、副画像視差決定手段、副画像生成手段、及び表示制御手段を具備する。奥行き推定手段は、前記映像データの複数の画像フレームの内の処理対象の画像フレームに含まれる複数の画素に対応する複数の奥行き値を推定する。視差算出手段は、前記推定された複数の奥行き値を用いて、前記複数の画素に対応する複数の視差を算出する。映像生成手段は、前記映像データと前記算出された複数の視差とを用いて、左眼用映像データと右眼用映像データとを生成する。副画像視差決定手段は、前記推定された複数の奥行き値に基づいて副画像を表示するための奥行き値を決定し、前記決定された奥行き値を用いて前記副画像に対応する視差を決定する。副画像生成手段は、前記副画像データと前記決定された視差とを用いて、左眼用副画像データと右眼用副画像データとを生成する。表示制御手段は、前記左眼用映像データと前記左眼用副画像データとを用いて左眼用画像を表示し、前記右眼用映像データと前記右眼用副画像データとを用いて右眼用画像を表示する。
Claims (12)
- 映像データと副画像データとを含む映像コンテンツデータを用いて三次元映像を再生する電子機器であって、
前記映像データの複数の画像フレームの内の処理対象の画像フレームに含まれる複数の画素に対応する複数の奥行き値を推定する奥行き推定手段と、
前記推定された複数の奥行き値を用いて、前記複数の画素に対応する複数の視差を算出する視差算出手段と、
前記映像データと前記算出された複数の視差とを用いて、左眼用画像データと右眼用映像データとを生成する映像生成手段と、
前記推定された複数の奥行き値に基づいて副画像を表示するための奥行き値を決定し、前記決定された奥行き値を用いて前記副画像に対応する視差を決定する副画像視差決定手段と、
前記副画像データと前記決定された視差とを用いて、左眼用副画像データと右眼用副画像データとを生成する副画像生成手段と、
前記左眼用映像データと前記左眼用副画像データとを用いて左眼用画像を表示し、前記右眼用映像データと前記右眼用副画像データとを用いて右眼用画像を表示する表示制御手段とを具備する電子機器。 - 前記副画像視差決定手段は、前記算出された複数の視差の内の前記決定された奥行き値に対応する視差を前記副画像に対応する視差に決定する請求項1記載の電子機器。
- 前記副画像視差決定手段は、前記副画像を表示するための奥行き値と、前記処理対象の画像フレームの一つ前の画像フレームに対応する副画像が表示された奥行き値との差の絶対値を算出し、前記算出された差の絶対値がしきい値よりも大きいとき、前記算出された差の絶対値がしきい値以下になるように前記副画像を表示するための奥行き値を変更する請求項2記載の電子機器。
- 前記副画像視差決定手段は、所定の期間だけ、前記処理対象の画像フレームの一つ前の画像フレームに対応する副画像が表示された奥行き値を、前記副画像を表示するための奥行き値に決定する請求項2記載の電子機器。
- 前記副画像視差決定手段は、前記推定された複数の奥行き値の内の最小の奥行き値を、前記副画像が表示される奥行き値に決定する請求項2記載の電子機器。
- 前記副画像視差決定手段は、前記推定された複数の奥行き値の内、前記副画像が表示される画面上の領域に対応する奥行き値を検出し、前記検出された奥行き値の内の最小の奥行き値を、前記副画像が表示される奥行き値に決定する請求項2記載の電子機器。
- 前記副画像視差決定手段は、前記処理対象の画像フレームに対応する副画像と前記処理対象の画像フレームの一つ前の画像フレームに対応する副画像とが同じであるとき、前記一つ前の画像フレームに対応する副画像が表示された奥行き値を、前記処理対象の画像フレームに対応する副画像を表示するための奥行き値に決定する請求項2記載の電子機器。
- 前記副画像データは、字幕を表示するための字幕データを含む請求項2記載の電子機器。
- 前記副画像データは、アプリケーションプログラムを操作するためのコントロールパネルのデータを含む請求項2記載の電子機器。
- 前記副画像データは、オンスクリーンディスプレイ信号を含む請求項2記載の電子機器。
- 映像データと副画像データとを含む映像コンテンツデータを用いて三次元映像を再生する画像処理方法であって、
前記映像データの複数の画像フレームの内の処理対象の画像フレームに含まれる複数の画素に対応する複数の奥行き値を推定し、
前記推定された複数の奥行き値を用いて、前記複数の画素に対応する複数の視差を算出し、
前記映像データと前記算出された複数の視差とを用いて、左眼用画像データと右眼用映像データとを生成し、
前記推定された複数の奥行き値に基づいて副画像を表示するための奥行き値を決定し、前記決定された奥行き値を用いて前記副画像に対応する視差を決定し、
前記副画像データと前記決定された視差とを用いて、左眼用副画像データと右眼用副画像データとを生成し、
前記左眼用映像データと前記左眼用副画像データとを用いて左眼用画像を表示し、前記右眼用映像データと前記右眼用副画像データとを用いて右眼用画像を表示する画像処理方法。 - 映像データと副画像データとを含む映像コンテンツデータを用いて三次元映像を再生するプログラムであって、
前記映像データの複数の画像フレームの内の処理対象の画像フレームに含まれる複数の画素に対応する複数の奥行き値を推定する手順と、
前記推定された複数の奥行き値を用いて、前記複数の画素に対応する複数の視差を算出する手順と、
前記映像データと前記算出された複数の視差とを用いて、左眼用画像データと右眼用映像データとを生成する手順と、
前記推定された複数の奥行き値に基づいて副画像を表示するための奥行き値を決定し、前記決定された奥行き値を用いて前記副画像に対応する視差を決定する手順と、
前記副画像データと前記決定された視差とを用いて、左眼用副画像データと右眼用副画像データとを生成する手順と、
前記左眼用映像データと前記左眼用副画像データとを用いて左眼用画像を表示し、前記右眼用映像データと前記右眼用副画像データとを用いて右眼用画像を表示するする手順とをコンピュータに実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011048290A JP2012186652A (ja) | 2011-03-04 | 2011-03-04 | 電子機器、画像処理方法及び画像処理プログラム |
US13/302,827 US20120224035A1 (en) | 2011-03-04 | 2011-11-22 | Electronic apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011048290A JP2012186652A (ja) | 2011-03-04 | 2011-03-04 | 電子機器、画像処理方法及び画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012186652A true JP2012186652A (ja) | 2012-09-27 |
Family
ID=46753057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011048290A Pending JP2012186652A (ja) | 2011-03-04 | 2011-03-04 | 電子機器、画像処理方法及び画像処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20120224035A1 (ja) |
JP (1) | JP2012186652A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102812711B (zh) * | 2010-02-25 | 2016-11-02 | 汤姆森特许公司 | 利用视差估计和视差时间变化限制的立体字幕加载 |
JP2013243585A (ja) * | 2012-05-22 | 2013-12-05 | Funai Electric Co Ltd | 映像信号処理装置 |
WO2014100959A1 (en) * | 2012-12-24 | 2014-07-03 | Thomson Licensing | Apparatus and method for displaying stereoscopic images |
US10935788B2 (en) * | 2014-01-24 | 2021-03-02 | Nvidia Corporation | Hybrid virtual 3D rendering approach to stereovision |
CN104463890B (zh) * | 2014-12-19 | 2017-05-24 | 北京工业大学 | 一种立体图像显著性区域检测方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11289555A (ja) * | 1998-04-02 | 1999-10-19 | Toshiba Corp | 立体映像表示装置 |
JP2000261828A (ja) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | 立体映像生成方法 |
JP2003061000A (ja) * | 2001-08-10 | 2003-02-28 | Fujitsu Ltd | 制御装置、およびプログラム |
JP2006325165A (ja) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
JP2009239388A (ja) * | 2008-03-26 | 2009-10-15 | Fujifilm Corp | 立体動画像処理装置および方法並びにプログラム |
WO2010032399A1 (ja) * | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 立体視映像再生装置、及び立体視映像表示装置 |
WO2010092823A1 (ja) * | 2009-02-13 | 2010-08-19 | パナソニック株式会社 | 表示制御装置 |
JP2010258848A (ja) * | 2009-04-27 | 2010-11-11 | Mitsubishi Electric Corp | 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置 |
JP2011029849A (ja) * | 2009-07-23 | 2011-02-10 | Sony Corp | 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 |
JP4772163B2 (ja) * | 2008-11-18 | 2011-09-14 | パナソニック株式会社 | 立体視再生を行う再生装置、再生方法、プログラム |
-
2011
- 2011-03-04 JP JP2011048290A patent/JP2012186652A/ja active Pending
- 2011-11-22 US US13/302,827 patent/US20120224035A1/en not_active Abandoned
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11289555A (ja) * | 1998-04-02 | 1999-10-19 | Toshiba Corp | 立体映像表示装置 |
JP2000261828A (ja) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | 立体映像生成方法 |
JP2003061000A (ja) * | 2001-08-10 | 2003-02-28 | Fujitsu Ltd | 制御装置、およびプログラム |
JP2006325165A (ja) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
JP2009239388A (ja) * | 2008-03-26 | 2009-10-15 | Fujifilm Corp | 立体動画像処理装置および方法並びにプログラム |
WO2010032399A1 (ja) * | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 立体視映像再生装置、及び立体視映像表示装置 |
JP4772163B2 (ja) * | 2008-11-18 | 2011-09-14 | パナソニック株式会社 | 立体視再生を行う再生装置、再生方法、プログラム |
WO2010092823A1 (ja) * | 2009-02-13 | 2010-08-19 | パナソニック株式会社 | 表示制御装置 |
JP2010258848A (ja) * | 2009-04-27 | 2010-11-11 | Mitsubishi Electric Corp | 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置 |
JP2011029849A (ja) * | 2009-07-23 | 2011-02-10 | Sony Corp | 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 |
Also Published As
Publication number | Publication date |
---|---|
US20120224035A1 (en) | 2012-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9124870B2 (en) | Three-dimensional video apparatus and method providing on screen display applied thereto | |
TWI520566B (zh) | 在三維視訊上疊加三維圖形的方法及裝置 | |
JP5389139B2 (ja) | 電子機器及び表示制御方法 | |
US20100103168A1 (en) | Methods and apparatuses for processing and displaying image | |
US20130038611A1 (en) | Image conversion device | |
US8988498B2 (en) | Method for controlling operations of image display apparatus and shutter glasses used for the image display apparatus | |
KR20110096494A (ko) | 전자 장치 및 입체영상 재생 방법 | |
US9167237B2 (en) | Method and apparatus for providing 3-dimensional image | |
JP5092033B2 (ja) | 電子機器、表示制御方法及び表示制御プログラム | |
JP2012186652A (ja) | 電子機器、画像処理方法及び画像処理プログラム | |
US8687950B2 (en) | Electronic apparatus and display control method | |
US20110134226A1 (en) | 3d image display apparatus and method for determining 3d image thereof | |
JP5025768B2 (ja) | 電子機器及び画像処理方法 | |
JP5058354B1 (ja) | 電子機器、表示制御方法及びプログラム | |
JP5166567B2 (ja) | 電子機器、映像データの表示制御方法、およびプログラム | |
JP5161999B2 (ja) | 電子機器、表示制御方法及び表示制御プログラム | |
US8736668B2 (en) | Electronic apparatus and image processing method | |
JP5161998B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20120162397A1 (en) | Image processing apparatus and display controlling method | |
WO2012014489A1 (ja) | 映像信号処理装置及び映像信号処理方法 | |
US9547933B2 (en) | Display apparatus and display method thereof | |
KR101804912B1 (ko) | 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법 | |
JP2013174665A (ja) | 情報処理装置、画質補正の制御方法およびプログラム | |
JP5433774B2 (ja) | 電子機器、表示制御方法及び表示制御プログラム | |
JP2014225736A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121102 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130129 |