JP2011139261A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2011139261A
JP2011139261A JP2009297546A JP2009297546A JP2011139261A JP 2011139261 A JP2011139261 A JP 2011139261A JP 2009297546 A JP2009297546 A JP 2009297546A JP 2009297546 A JP2009297546 A JP 2009297546A JP 2011139261 A JP2011139261 A JP 2011139261A
Authority
JP
Japan
Prior art keywords
image
eye
caption
data
subtitle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009297546A
Other languages
English (en)
Inventor
Toshiya Hamada
俊也 浜田
Tatsumi Sakaguchi
竜己 坂口
Naohisa Kitazato
直久 北里
Mitsuru Katsumata
充 勝股
Hiroyuki Suzuki
博之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009297546A priority Critical patent/JP2011139261A/ja
Priority to US12/965,127 priority patent/US8922622B2/en
Priority to CN2010106088770A priority patent/CN102111631B/zh
Publication of JP2011139261A publication Critical patent/JP2011139261A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】3Dの字幕等の副画像をより効果的に表示させる。
【解決手段】ビデオデコーダ11は、3D表示用の主画像のビデオデータをデコードする。オーディオデコーダ15は、3Dの主画像のビデオデータに対応する音声データに基づいて、音声データに対応する音声の音量を表す情報である音量情報を計測する。字幕デコーダ12は、音量情報に基づいて、3Dの主画像に合成される3Dの字幕画像の表示状態を変更する。本発明は、例えば、3D画像を合成する画像処理装置に適用することができる。
【選択図】図4

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、3Dの字幕等の副画像をより効果的に表示させることができるようにした画像処理装置、画像処理方法、およびプログラムに関する。
映画等のコンテンツとしては2D画像が主流であるが、最近では、3D画像が注目を集めている。
3Dコンテンツを再生する再生装置としては、3Dの映画等の主画像に3Dの字幕画像を合成して表示する装置がある。なお、ここでは、字幕画像は、1画面に表示される全字幕を含む矩形領域の画像であるものとする。
このような再生装置は、左目用の主画像に左目用の字幕画像を合成して左目用の画面に表示し、右目用の主画像に右目用の字幕画像を合成して右目用の画面に表示する。
具体的には、左目用の字幕画像の画像データとその字幕画像の左上の画面上のxy座標における表示位置(Lx,Ly)からなる左目用字幕データ、および、右目用の字幕画像の画像データとその字幕画像の左上の画面上のxy座標における表示位置(Rx,Ry)からなる右目用字幕データが入力される場合、再生装置は、図1に示すように、左目用字幕データに基づいて表示位置(Lx,Ly)に左目用の字幕画像が配置された画面の画像データである左目用字幕プレーンを生成するとともに、右目用字幕データに基づいて表示位置(Rx,Ry)に右目用の字幕画像が配置された画面の画像データである右目用字幕プレーンを生成する。
そして、再生装置は、図1に示すように、左目用の主画像の画面の画像データである左目用ビデオプレーンに左目用字幕プレーンを重畳して、左目用の画面の画像データである左目用プレーンを生成する。また、再生装置は、図1に示すように、右目用の主画像の画面の画像データである右目用ビデオプレーンに右目用字幕プレーンを重畳し、右目用の画面の画像データである右目用プレーンを生成する。
一方、2D表示用の字幕画像の画像データとその字幕画像の左上の画面上のxy座標における表示位置(x,y)からなる2D表示用字幕データが入力される場合、再生装置は、図2に示すように、まず、その表示位置(x,y)をx座標の正の方向にオフセット量offsetだけずらした位置(x+offset,y)に2D表示用の字幕画像の左上が配置される画面の画像データを左目用字幕プレーンとして生成する。そして、再生装置は、左目用ビデオプレーンに左目用字幕プレーンを重畳し、左目用プレーンを生成する。
また、再生装置は、表示位置(x,y)をx座標の負の方向にオフセット量offsetだけずらした位置(x-offset,y)に字幕画像の左上が配置される画面の画像データを右目用字幕プレーンとして生成する。そして、再生装置は、右目用ビデオプレーンに右目用字幕プレーンを重畳し、右目用プレーンを生成する。
なお、図1および図2の左目用字幕プレーンに対応する画面および右目用字幕プレーンに対応する画面において、字幕画像が配置されない領域は、透明の画像となっており、左目用プレーンおよび右目用プレーンに対応する画面の、その領域には主画像が配置される。
以上のようにして左目用プレーンおよび右目用プレーンが生成されると、左目用プレーンに基づいて左目用の画面が表示デバイスに表示され、ユーザの左目に見せられるとともに、右目用プレーンに基づいて右目用の画面が表示デバイスに表示され、ユーザの右目に見せられる。これにより、ユーザは、3Dの字幕が合成された3Dの主画像を見ることができる。
例えば、図3Aに示すように、左目用の字幕画像がオフセット量offsetだけ右方向にずらされ、右目用の字幕画像がオフセット量offsetだけ左方向にずらされている場合には、焦点位置が表示デバイス面より手前側(ユーザ側)になり、字幕画像が飛び出て見える。
一方、図3Bに示すように、左目用の字幕画像がオフセット量offsetだけ左方向にずらされ、右目用の字幕画像がオフセット量offsetだけ右方向にずらされている場合には、焦点位置が表示デバイス面より奥側になり、字幕画像が引っ込んで見える。なお、図3は、表示デバイスに表示された画像を見ているユーザを頭上から見た図である。
3Dコンテンツを再生する再生装置としては、3Dの主画像に対してテロップを合成して表示する装置もある(例えば、特許文献1参照)。
特開平10−327430号公報
上述したような再生装置において、字幕の色、透明度、画面に垂直な方向である奥行き方向の位置等の字幕画像の表示状態は、その字幕画像が合成される主画像に対応する音声の大きさや変化に応じて変化されなかった。
従って、主画像に対応する音声の大きさや変化に応じて、その主画像に合成される字幕画像の表示状態を変化させることにより、字幕をより効果的に表示させたいという要望がある。
本発明は、このような状況に鑑みてなされたものであり、3Dの字幕等の副画像をより効果的に表示させることができるようにするものである。
本発明の一側面の画像処理装置は、3Dの主画像の画像データに対応する音声データに基づいて、前記音声データに対応する音声の音量を表す情報である音量情報を計測する計測手段と、前記音量情報に基づいて、前記3Dの主画像に合成される3Dの副画像の表示状態を変更する変更手段とを備える画像処理装置である。
本発明の一側面の画像処理方法およびプログラムは、本発明の一側面の画像処理装置に対応する。
本発明の一側面においては、3Dの主画像の画像データに対応する音声データに基づいて、前記音声データに対応する音声の音量を表す情報である音量情報が計測され、前記音量情報に基づいて、前記3Dの主画像に合成される3Dの副画像の表示状態が変更される。
本発明の一側面の画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本発明の一側面によれば、3Dの字幕等の副画像をより効果的に表示させることができる。
左目用プレーンと右目用プレーンの生成方法について説明する図である。 左目用プレーンと右目用プレーンの他の生成方法について説明する図である。 3Dの字幕画像の見え方を説明する図である。 本発明を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。 図4の画像処理装置による字幕変換処理を説明するフローチャートである。 本発明を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。 図6の画像処理装置による字幕変換処理を説明するフローチャートである。 コンピュータの一実施の形態の構成例を示す図である。
<第1実施の形態>
[画像処理装置の第1実施の形態の構成例]
図4は、本発明を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。
図4の画像処理装置10は、ビデオデコーダ11、字幕デコーダ12、重畳部13、表示部14、オーディオデコーダ15、およびスピーカ16により構成される。
画像処理装置10には、BD(Blu-Ray(登録商標) Disc )などの記録媒体から読み出されたり、ネットワークなどを介して外部の装置から受信された3D表示用の主画像のビデオデータ、3D表示用の字幕データ、および音声データが3Dコンテンツデータとして入力される。画像処理装置10は、この3Dコンテンツデータを用いて、字幕画像が合成された主画像の3D表示を行うとともに、その主画像に対応する音声を出力する。
具体的には、画像処理装置10のビデオデコーダ11は、入力された3D表示用の主画像のビデオデータをデコードし、その結果得られる左目用ビデオプレーンと右目用ビデオプレーンを重畳部13に供給する。
字幕デコーダ12は、入力された3D表示用の字幕データに対してデコード処理を行う。なお、3D表示用の字幕データは、右目用の字幕データと左目用の字幕データにより構成され、各目用の字幕データは、各目用の字幕画像の各画素の画素値からなる画像データ(例えば、ビットマップ画像データなど)、各目用の字幕画像の画面上の表示位置、各目用の字幕画像の主画像との合成比率を表すアルファブレンド量等により構成される。
なお、各目用の字幕データには、各目用の字幕画像の画像データではなく、各目用の字幕の文字コードを記述した文字列とパレット番号などの色情報が含まれるようにしてもよい。この場合、字幕デコーダ12では、各目用の文字列および色情報から各目用の字幕画像の画像データを生成する処理も行われる。
字幕デコーダ12は、オーディオデコーダ15から供給される、入力された音声データに対応する音声の音量を表す情報である音量情報に基づいて、デコード処理の結果得られる3D表示用の字幕データを変更する。そして、字幕デコーダ12は、その結果得られる3D表示用の字幕データに基づいて、左目用字幕プレーンと右目用字幕プレーンを生成し、重畳部13に供給する。また、字幕デコーダ12は、左目用の字幕データに含まれる左目用のアルファブレンド量と右目用の字幕データに含まれる右目用のアルファブレンド量を重畳部13に供給する。
重畳部13は、ビデオデコーダ11からの左目用ビデオプレーンに字幕デコーダ12からの左目用字幕プレーンを左目用のアルファブレンド量で重畳し、左目用プレーンを生成する。また、重畳部13は、ビデオデコーダ11からの右目用ビデオプレーンに字幕デコーダ12からの右目用字幕プレーンを右目用のアルファブレンド量で重畳し、右目用プレーンを生成する。そして、重畳部13は、左目用プレーンと右目用プレーンを表示部14に供給する。
表示部14は、例えば、重畳部13から供給される左目用プレーンと右目用プレーンに基づいて、左目用の画面と右目用の画面を時分割で表示する。このとき、ユーザは、例えば、左目用の画面と右目用の画面の切り替えに同期したシャッタ付き眼鏡を装着し、左目用の画面を左目だけで見て、右目用の画面を右目だけで見る。これにより、ユーザは、3Dの字幕が合成された3Dの主画像を見ることができる。
オーディオデコーダ15は、入力された音声データに対してデコード処理を行い、その結果得られる音声データのビット数を音量情報として字幕デコーダ12に供給する。また、オーディオデコーダ15は、デコード処理の結果得られる音声データをスピーカ16に供給する。
スピーカ16は、オーディオデコーダ15から供給される音声データに対応する音声を出力する。これにより、ユーザは、表示部14に表示されている画像に対応する音声を聴くことができる。
[画像処理装置の処理の説明]
図5は、図4の画像処理装置10による字幕変換処理を説明するフローチャートである。この字幕変換処理は、例えば、3Dコンテンツデータが画像処理装置10に入力されたとき開始される。
ステップS11において、オーディオデコーダ15は、入力された音声データに対してデコード処理を行い、その結果得られる音声データのビット数を音量情報Vとして計測し、その音量情報Vを字幕デコーダ12に供給する。
ステップS12において、字幕デコーダ12は、オーディオデコーダ15から供給される音量情報Vが、閾値Vthより大きいかどうかを判定する。この閾値Vthは、例えば、字幕データに含まれており、字幕デコーダ12は、3D表示用の字幕データに対してデコード処理を行い、その結果得られる左目用の字幕データまたは右目用の字幕データから閾値Vthを取得する。
ステップS12で音量情報Vが閾値Vthより大きいと判定された場合、処理はステップS13に進む。ステップS13において、字幕デコーダ12は、デコード処理の結果得られる左目用の字幕データと右目用の字幕データに含まれる字幕画像の画像データのうちの字幕の画像データを赤色の画像データに変更する。具体的には、字幕デコーダ12は、字幕の画像データとしてのパレット番号、RGB値、YCbCr値、またはYPbPr値を赤色の値に変更する。なお、表示可能な色の数が256色である場合、パレット番号は8ビットの値である。また、RGB値、YCbCr値、およびYPbPr値は、例えば、24(=8×3)ビットの値である。
このように、ステップS13では字幕の色が赤色に変更されるので、字幕の視覚的な印象が強くなる。
ステップS14において、字幕デコーダ12は、デコード処理の結果得られる左目用の字幕データと右目用の字幕データに含まれるアルファブレンド量を大きくする。
なお、アルファブレンド量は0以上1以下の値をとるものであり、アルファブレンド量が大きいほど透明度が低く、アルファブレンド量が小さいほど透明度が高い。例えば、アルファブレンド量が1である場合、そのアルファブレンド量に対応する画像データは完全不透過で合成される。また、アルファブレンド量が0である場合、そのアルファブレンド量に対応する画像データは完全透明で合成される。
従って、ステップS14の処理の結果、左目用字幕プレーンおよび右目用字幕プレーンの透明度は低くなる。これにより、字幕が主画像に対して明瞭に見えるようになり、視覚的な印象が強くなる。
ステップS15において、字幕デコーダ12は、デコード処理の結果得られる左目用の字幕データに含まれる表示位置(Lx,Ly)を、音量情報Vに対応するシフト量shiftだけ水平方向にずらして表示位置(Lx+shift,Ly)とし、右目用の字幕データに含まれる表示位置(Rx,Ry)をシフト量-shiftだけ水平方向にずらして表示位置(Rx-shift,Ry)とする。即ち、字幕デコーダ12は、左目用の字幕画像の表示位置と右目用の字幕画像の表示位置をより引き離す。これにより、ユーザは、よりユーザ側に飛び出た3Dの字幕を見ることができる。ステップS15の処理後、処理はステップS16に進む。
一方、ステップS11で音量情報Vが閾値Vthより大きくはないと判定された場合、処理はステップS16に進む。即ち、この場合、ステップS13乃至S15の処理は行われず、デコード処理の結果得られる左目用の字幕データと右目用の字幕データは変更されない。
ステップS16において、字幕デコーダ12は、ステップS13乃至S15で変更された左目用の字幕データ、または、デコード処理の結果得られる字幕データに基づいて左目用字幕プレーンを生成するとともに、ステップS13乃至S15で変更された右目用の字幕データ、または、デコード処理の結果得られる字幕データに基づいて右目用字幕プレーンを生成する。
ステップS17において、オーディオデコーダ15は、3Dコンテンツデータの入力が終了したかどうか、例えば、音声データが入力されなくなったかどうかを判定する。ステップS17で3Dコンテンツデータの入力が終了していないと判定された場合、処理はステップS11に戻り、以降の処理が行われる。
一方、ステップS17で3Dコンテンツデータの入力が終了したと判定された場合、処理は終了する。
以上のように図5の字幕変換処理が行われることにより、音声の音量が大きい場合に、その音声と同時に表示される字幕がより透明度の低い赤色に変更され、ユーザ側に飛び出して表示される。即ち、音声の音量が大きくなると、字幕が強調して表示される。従って、ユーザは、音量の変化をより楽しむことができる。よって、画像処理装置10では、3Dの字幕をより効果的に表示させることができるといえる。
<第2実施の形態>
[画像処理装置の第2実施の形態の構成例]
図6は、本発明を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。
図6に示す構成のうち、図4の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図6の画像処理装置50の構成は、主に、字幕デコーダ12の代わりに字幕デコーダ51が設けられている点、および、新たにバッファ52および3D字幕生成部53が設けられている点が図4の構成と異なる。
図6の画像処理装置50には、3D表示用の字幕データではなく、オフセット量offset並びに左目用および右目用のオフセット方向がオフセット情報として付加された2D表示用の字幕データが入力される。なお、オフセット方向とは、水平方向(左右方向)の一方向であり、左目用のオフセット方向と、右目用のオフセット方向は反対の方向である。また、2D表示用の字幕データは、2D表示用の字幕画像の画像データ、2D表示用の字幕画像の画面上の表示位置、2D表示用の字幕画像のアルファブレンド量等により構成される。
字幕デコーダ51は、入力された2D表示用の字幕データに対してデコード処理を行う。字幕デコーダ51は、オーディオデコーダ15から供給される音量情報に基づいて、デコード処理の結果得られる2D表示用の字幕データ、および、その2D表示用の字幕データに付加されているオフセット情報を変更する。そして、字幕デコーダ51は、変更後の2D表示用の字幕データとオフセット情報を対応付けてバッファ52に供給する。バッファ52は、字幕デコーダ51から供給される2D表示用の字幕データとオフセット情報を対応付けて一時的に保持する。
3D字幕生成部53は、バッファ52から2D表示用の字幕データとオフセット情報を読み出す。3D字幕生成部53は、読み出された2D表示用の字幕データに含まれる表示位置を、オフセット情報に含まれる左目用のオフセット方向と右目用のオフセット方向にそれぞれオフセット量だけずらす。3D字幕生成部53は、その結果得られる表示位置に2D表示用の字幕画像を配置した画面の画像データを、左目用字幕プレーンおよび右目用字幕プレーンとして生成する。そして、3D字幕生成部53は、左目用字幕プレーンと右目用字幕プレーンを重畳部13に供給する。また、3D字幕生成部53は、2D表示用の字幕データに含まれるアルファブレンド量を、左目用および右目用のアルファブレンド量として重畳部13に供給する。
以上のように、画像処理装置50は、2D表示用の字幕データを用いて字幕の3D表示を行うので、字幕の3D表示に対応していない従来の装置と互換性がある。
なお、画像処理装置50においてバッファ52は設けられなくてもよい。
[画像処理装置の処理の説明]
図7は、図6の画像処理装置50による字幕変換処理を説明するフローチャートである。この字幕変換処理は、例えば、3Dコンテンツデータが画像処理装置50に入力されたとき開始される。
図7のステップS31およびS32の処理は、図5のステップS11およびS12の処理と同様であるので、説明は省略する。
ステップS32で音量情報Vが閾値Vthより大きいと判定された場合、ステップS33において、字幕デコーダ51は、デコード処理の結果得られる2D表示用の字幕データに含まれる字幕画像の画像データのうちの字幕の画像データを赤色の画像データに変更する。
ステップS34において、字幕デコーダ51は、デコード処理の結果得られる2D表示用の字幕データに含まれるアルファブレンド量を大きくする。
ステップS35において、字幕デコーダ51は、2D表示用の字幕データに付加されているオフセット情報に含まれるオフセット量offsetを、音量情報Vに対応するシフト量shiftだけ加算してオフセット量offset+shiftにする。即ち、字幕デコーダ51は、左目用の字幕画像の表示位置と右目用の字幕画像の表示位置をシフト量shiftだけ各目用のオフセット方向にずらす。そして、字幕デコーダ51は、ステップS33およびS34で変更された2D表示用の字幕データとオフセット量offsetがオフセット量offset+shiftに変更されたオフセット情報をバッファ52に供給して、保持させる。
ステップS36において、3D字幕生成部53は、バッファ52から2D表示用の字幕データとオフセット情報を読み出し、その2D表示用の字幕データに含まれる表示位置(x,y)を、オフセット情報に含まれるオフセット量offset+shiftだけオフセット方向にずらした表示位置(x+(offset+shift),y)に字幕画像を配置した画面の画像データを、左目用字幕プレーンとして生成する。
また、3D字幕生成部53は、表示位置(x,y)をオフセット情報に含まれるオフセット量offset+shiftだけオフセット方向にずらした表示位置(x-(offset+shift),y)に字幕画像を配置した画面の画像データを、右目用字幕プレーンとして生成する。そして、3D字幕生成部53は、左目用字幕プレーンと右目用字幕プレーンを重畳部13に供給するとともに、2D表示用の字幕データに含まれ、ステップS34で変更されたアルファブレンド量を左目用および右目用のアルファブレンド量として重畳部13に供給する。
一方、ステップS32で音量情報Vが閾値Vthより大きくはないと判定された場合、ステップS37において、3D字幕生成部53は、バッファ52から2D表示用の字幕データとオフセット情報を読み出し、その2D表示用の字幕データに含まれる表示位置(x,y)を、オフセット情報に含まれるオフセット量offsetだけオフセット方向にずらした表示位置(x+offset,y)に字幕画像を配置した画面の画像データを、左目用字幕プレーンとして生成する。
また、3D字幕生成部53は、表示位置(x,y)をオフセット情報に含まれるオフセット量offsetだけオフセット方向にずらした表示位置(x-offset,y)に字幕画像を配置した画面の画像データを、右目用字幕プレーンとして生成する。そして、3D字幕生成部53は、左目用字幕プレーンと右目用字幕プレーンを重畳部13に供給するとともに、2D表示用の字幕データに含まれるアルファブレンド量を左目用および右目用のアルファブレンド量として重畳部13に供給する。
ステップS36の処理後、または、ステップS32で音量情報Vが閾値Vthより大きくはないと判定された場合、処理はステップS37に進む。ステップS37の処理は、図5のステップS17の処理と同様であるので説明は省略する。
以上のように図7の字幕変換処理が行われることにより、音声の音量が大きい場合に、その音声と同時に表示される字幕がより透明度の低い赤色に変更され、ユーザ側に飛び出して表示される。即ち、音声の音量が大きくなると、字幕が強調して表示される。従って、ユーザは、音量の変化をより楽しむことができる。よって、画像処理装置50では、3Dの字幕をより効果的に表示させることができるといえる。
なお、上述した図5や図7の字幕変換処理では、音声の音量が大きい場合に、字幕の色、透明度、および奥行き方向の位置の全てが変更されたが、そのうちの少なくとも1つが変更されるようにしてもよい。また、変更後の字幕の色、透明度、および奥行き方向の位置は、上述したものに限定されない。
さらに、音声の音量が大きい場合に変更されるものは、字幕画像の表示状態であれば、字幕の色、透明度、および奥行き方向の位置に限定されない。例えば、音声の音量が大きい場合に、3Dの字幕の水平方向の位置が変更されるようにしてもよい。
また、上述した図5や図7の字幕変換処理では、音量情報Vの閾値が1つだけ設けられたが、複数設けられるようにしてもよい。この場合、音量情報Vの大きさに応じて変更後の字幕の色や透明度の変更度合いを変えることができる。例えば、音量情報Vの大きさに応じての変更後の字幕の色や透明度を段階的に変更することができる。なお、シフト量shiftは、音量情報Vに応じて設定されず、常に一定量であってもよい。
さらに、上述した説明では、音量情報Vの大きさに応じて字幕画像の表示状態が変更されたが、音量情報Vの大きさの変化に応じて字幕画像の表示状態が変更されるようにしてもよい。例えば、音量が極端に大きくなったり小さくなったりした場合に、字幕画像の表示状態が変更されるようにしてもよい。
また、字幕画像は、1画面に表示される全字幕を含む矩形領域の画像ではなく、1文字単位の字幕の画像であってもよい。
さらに、上述した説明では、オフセット情報は、2D表示用の字幕データに付加されて供給されるようにしたが、画像処理装置10(50)内の図示せぬ記憶部に予め記憶されているようにしてもよい。この場合、3Dの字幕の奥行き方向の位置は常に一定になる。
本発明は、主画像に字幕画像を合成する場合だけでなく、主画像に字幕画像以外の副画像(例えば、メニュー画像)を合成する場合にも適用できる。
[本発明を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図8は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部208やROM(Read Only Memory)202に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア211に格納(記録)しておくことができる。このようなリムーバブルメディア211は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア211としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア211からドライブ210を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部208にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)201を内蔵しており、CPU201には、バス204を介して、入出力インタフェース205が接続されている。
CPU201は、入出力インタフェース205を介して、ユーザによって、入力部206が操作等されることにより指令が入力されると、それに従って、ROM202に格納されているプログラムを実行する。あるいは、CPU201は、記憶部208に格納されたプログラムを、RAM(Random Access Memory)203にロードして実行する。
これにより、CPU201は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU201は、その処理結果を、必要に応じて、例えば、入出力インタフェース205を介して、出力部207から出力、あるいは、通信部209から送信、さらには、記憶部208に記録等させる。
なお、入力部206は、キーボードや、マウス、マイク等で構成される。また、出力部207は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
10 画像処理装置, 12 字幕デコーダ, 15 オーディオデコーダ, 50 画像処理装置, 51 字幕デコーダ

Claims (7)

  1. 3Dの主画像の画像データに対応する音声データに基づいて、前記音声データに対応する音声の音量を表す情報である音量情報を計測する計測手段と、
    前記音量情報に基づいて、前記3Dの主画像に合成される3Dの副画像の表示状態を変更する変更手段と
    を備える画像処理装置。
  2. 前記変更手段は、前記音量情報に基づいて、前記3Dの副画像を構成する左目用の副画像と右目用の副画像の画面上の表示位置を変更することにより、前記3Dの副画像の前記画面に垂直な方向である奥行き方向の位置を変更する
    請求項1に記載の画像処理装置。
  3. 前記変更手段は、前記音量情報に基づいて前記3Dの副画像の色を変更する
    請求項1に記載の画像処理装置。
  4. 前記変更手段は、前記音量情報に基づいて、前記3Dの副画像の画像データの前記3Dの主画像の画像データとの合成比率を表すアルファブレンド量を変更することにより、前記3Dの副画像の透明度を変更する
    請求項1に記載の画像処理装置。
  5. 前記変更手段は、前記音量が所定の閾値より大きい場合、前記3Dの副画像の表示状態を変更する
    請求項1に記載の画像処理装置。
  6. 画像処理装置が、
    3Dの主画像の画像データに対応する音声データに基づいて、前記音声データに対応する音声の音量を表す情報である音量情報を計測する計測ステップと、
    前記音量情報に基づいて、前記3Dの主画像に合成される3Dの副画像の表示状態を変更する変更ステップと
    を含む画像処理方法。
  7. コンピュータに、
    3Dの主画像の画像データに対応する音声データに基づいて、前記音声データに対応する音声の音量を表す情報である音量情報を計測する計測ステップと、
    前記音量情報に基づいて、前記3Dの主画像に合成される3Dの副画像の表示状態を変更する変更ステップと
    を含む処理を実行させるためのプログラム。
JP2009297546A 2009-12-28 2009-12-28 画像処理装置、画像処理方法、およびプログラム Withdrawn JP2011139261A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009297546A JP2011139261A (ja) 2009-12-28 2009-12-28 画像処理装置、画像処理方法、およびプログラム
US12/965,127 US8922622B2 (en) 2009-12-28 2010-12-10 Image processing device, image processing method, and program
CN2010106088770A CN102111631B (zh) 2009-12-28 2010-12-21 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009297546A JP2011139261A (ja) 2009-12-28 2009-12-28 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2011139261A true JP2011139261A (ja) 2011-07-14

Family

ID=44175634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009297546A Withdrawn JP2011139261A (ja) 2009-12-28 2009-12-28 画像処理装置、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US8922622B2 (ja)
JP (1) JP2011139261A (ja)
CN (1) CN102111631B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089261A (ja) * 2012-10-29 2014-05-15 Casio Comput Co Ltd 画像処理装置、プログラム及び画像処理方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141448A (ja) * 2010-12-28 2012-07-26 Toshiba Corp 画像処理装置及び表示制御方法
KR20130011506A (ko) * 2011-07-21 2013-01-30 삼성전자주식회사 3d 디스플레이 장치 및 컨텐츠 출력 방법
KR101830656B1 (ko) * 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN103281565A (zh) * 2012-11-23 2013-09-04 四度空间株式会社 插入3d广告影像并输出的3d内容提供系统和方法
CN103220500B (zh) * 2013-03-20 2015-12-02 积成电子股份有限公司 电网设备监控图像与业务分析图像叠加展示方法
US9967631B2 (en) 2015-11-11 2018-05-08 International Business Machines Corporation Automated audio-based display indicia activation based on viewer preferences
CN106101681A (zh) * 2016-06-21 2016-11-09 青岛海信电器股份有限公司 三维图像显示处理方法、信号输入设备及电视终端
KR102067446B1 (ko) * 2018-06-04 2020-01-17 주식회사 엔씨소프트 자막 생성 방법 및 시스템
CN112330707A (zh) * 2020-11-17 2021-02-05 武汉联影医疗科技有限公司 图像处理方法、装置、计算机设备和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879800A (ja) * 1994-09-06 1996-03-22 Olympus Optical Co Ltd 映像表示装置
EP2101495B1 (en) * 1996-02-28 2012-12-26 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
JP3423189B2 (ja) 1997-05-27 2003-07-07 三洋電機株式会社 ディジタル立体放送によるテロップ表示装置
KR100532105B1 (ko) * 2003-08-05 2005-11-29 삼성전자주식회사 공간분할방식 3차원 영상 신호 발생 장치
JP4669482B2 (ja) * 2006-09-29 2011-04-13 セイコーエプソン株式会社 表示装置、画像処理方法並びに電子機器
MY148196A (en) * 2008-01-17 2013-03-15 Panasonic Corp Information recording medium, device and method for playing back 3d images
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089261A (ja) * 2012-10-29 2014-05-15 Casio Comput Co Ltd 画像処理装置、プログラム及び画像処理方法

Also Published As

Publication number Publication date
US8922622B2 (en) 2014-12-30
US20110157307A1 (en) 2011-06-30
CN102111631B (zh) 2013-11-20
CN102111631A (zh) 2011-06-29

Similar Documents

Publication Publication Date Title
JP2011139261A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5616352B2 (ja) 三次元guiにおける二次元グラフィックスの拡張
TWI520566B (zh) 在三維視訊上疊加三維圖形的方法及裝置
JP5638974B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2012516069A (ja) 3dビデオ及び3dオーバレイをビデオインタフェース上で送信し、合成する方法及びシステム
JP2015187797A (ja) 画像データ生成装置および画像データ再生装置
JP2013117983A (ja) 三次元グラフィックスのデータの作成
JP5851625B2 (ja) 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US20150222890A1 (en) Dual-channel three-dimension projector
WO2013046281A1 (ja) 映像処理装置及び映像処理方法
JP5289538B2 (ja) 電子機器、表示制御方法及びプログラム
TW201042643A (en) Controlling of display parameter settings
JP2012099956A (ja) 映像再生装置及び映像再生方法
JP2011085705A (ja) 映像表示装置及び映像表示方法
JP5025768B2 (ja) 電子機器及び画像処理方法
JP2011139262A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5017445B2 (ja) 視差画像変換装置
WO2012014489A1 (ja) 映像信号処理装置及び映像信号処理方法
TW201340680A (zh) 立體影像顯示方法
WO2011083538A1 (ja) 画像処理装置
WO2011114745A1 (ja) 映像再生装置
JP2011028791A (ja) 再生装置、再生方法、およびプログラム、並びに記録媒体
KR101438447B1 (ko) 3차원 자막 표시 장치 및 그 방법
JP5362082B2 (ja) 電子機器、画像処理方法、及び画像処理プログラム
JP3173458U (ja) 擬似飛び出し映像表示装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305