JP2012141448A - 画像処理装置及び表示制御方法 - Google Patents

画像処理装置及び表示制御方法 Download PDF

Info

Publication number
JP2012141448A
JP2012141448A JP2010294063A JP2010294063A JP2012141448A JP 2012141448 A JP2012141448 A JP 2012141448A JP 2010294063 A JP2010294063 A JP 2010294063A JP 2010294063 A JP2010294063 A JP 2010294063A JP 2012141448 A JP2012141448 A JP 2012141448A
Authority
JP
Japan
Prior art keywords
images
volume level
image
character image
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2010294063A
Other languages
English (en)
Inventor
Yoshikazu Terunuma
芳和 照沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010294063A priority Critical patent/JP2012141448A/ja
Priority to US13/337,912 priority patent/US20120162397A1/en
Publication of JP2012141448A publication Critical patent/JP2012141448A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components

Abstract

【課題】映像コンテンツの音声に応じて好適な文字画像を表示することを可能とする画像処理装置及び表示制御方法の提供。
【解決手段】実施形態に係る画像処理装置は、受信手段と、出力手段とを備える。ここで受信手段は、文字画像を含む映像データと、当該映像データに対応する音声データとを受信する。そして出力手段は、受信された前記文字画像に基づいた、受信された前記音声データの音量レベルに応じた視差の第1及び第2画像を表示装置に出力する。また、実施形態に係る表示制御方法は、文字画像を含む映像データと、当該映像データに対応する音声データとを受信することと、前記文字画像に基づいた、受信された前記音声データの音量レベルに応じた視差の第1及び第2画像を表示装置に出力することとを備える。
【選択図】 図3

Description

本発明の実施形態は、画像処理装置及び表示制御方法に関する。
互いに視差のある右目用画像及び左目用画像を表示することにより、ユーザに対して3次元映像を知覚させる技術がある。この技術では、表示画面に設けられたバリアやレンズ、又はユーザが着用した3次元映像視聴用メガネ等が、表示画面に表示された右目用画像及び左目用画像を選択的に遮断する。これにより、ユーザの右目は右目用画像を、左目は左目用画像を選択的に視聴することとなり、ユーザは3次元映像を認識する。
特開平11−289555号公報
ところで、映像コンテンツにおいては、字幕領域に台詞やナレーション等の字幕が、映像領域に効果音の文字等が表示される場合がある。この場合に表示装置は、これらの文字画像を、映像コンテンツの音声に応じて好適な態様で表示できることが好ましい。
そこで本発明の実施形態は、映像コンテンツの音声に応じて好適な文字画像を表示することを可能とする画像処理装置及び表示制御方法の提供を目的とする。
上記の課題を解決するために、実施形態に係る画像処理装置は、受信手段と、出力手段とを備える。ここで受信手段は、文字画像を含む映像データと、当該映像データに対応する音声データとを受信する。そして出力手段は、前記受信手段により受信された前記文字画像に基づいた、受信された前記音声データの音量レベルに応じた視差の第1及び第2画像を表示装置に出力する。
実施形態のコンピュータの利用形態例を示す図。 実施形態のコンピュータのシステム構成例を示す図。 実施形態の映像再生プログラムの機能ブロック例を示す図。 実施形態のコンピュータによる音量判定に係る処理例を示す図。 実施形態のコンピュータによる文字画像の変換処理例を示す図。 実施形態のコンピュータによる文字画像の変換処理フロー例を示す図。
以下、図面を参照して実施形態を説明する。
本実施形態に係る表示装置は、例えばノートブックタイプのコンピュータ100として実現される。ここでコンピュータ100は、表示筐体150と本体筐体160とを備える。
表示筐体150は、薄い箱型の筐体を有し、LCD(Liquid Crystal Display)106を備える。そして表示筐体150は、本体筐体160に対して回動可能に接続されている。
本体筐体160は、薄い箱形の筐体を有している。そして本体筐体160の上面には、スピーカ114、キーボード118、タッチパッド119等が配置されている。また本体筐体160は、映像データを記憶するHDD110、光学ディスク等のメディアからデータを読み込むためのODD112、テレビ放送等の映像データを受信するチューナ115等を備えている。
コンピュータ100は、例えばODD112が読み込んだ映像データやチューナ115が受信した映像データに基づいて、例えば画面10のような映像の画面をLCD106に表示する。ここで画面10には、主画像11及び文字画像12が表示される。ここでコンピュータ100は、当該主画像11及び文字画像12を2次元映像や3次元映像として表示することができる。
そして本実施形態のコンピュータ100は、映像コンテンツの音声に応じて、文字画像を表示する奥行き位置(深さ)や、当該文字画像のサイズ(解像度)等を制御できる。
次に図2を参照して、コンピュータ100のシステム構成例を説明する。
コンピュータ100は、CPU101、ノースブリッジ102、メモリ103、GPU104、VRAM105、LCD106、サウスブリッジ107、BIOS―ROM108、LANコントローラ109、HDD110、ODD112、サウンドコントローラ113、スピーカ114、チューナ115、IEEE1394コントローラ116、EC/KBC117、キーボード118、タッチパッド119等を備える。
CPU101は、コンピュータ100の動作を制御する機能を有する。ここでCPU101は、オペレーティングシステム(OS)130、映像再生プログラム140等の各種プログラムをメモリ103に読み出して実行する。なお映像再生プログラム140の詳細については図3乃至図6を参照して後述する。
ノースブリッジ102は、CPU101とサウスブリッジ107とを接続するブリッジデバイスである。また、ノースブリッジ102には、メモリ103を制御するメモリコントローラが内蔵されている。さらにノースブリッジ102はGPU104との通信機能を有し、CPU101からの指示に応じた画像処理をGPU104に実行させる。
GPU104は、コンピュータ100の表示部であるLCD106の表示コントローラとして動作する。GPU104は、CPU101から入力された映像データを、LCD106等の表示装置で表示可能な形式の映像信号に変換して、当該映像信号をLCD106に出力する。ここでVRAM105はGPU104のグラフィックメモリとして機能し、GPU104が画像処理を実行する際のバッファ領域として使用される。そしてLDC106は、GPU104からの出力された映像信号に従って映像を表示する。
サウスブリッジ107は、PCI(Peripheral Component Interconnect)バス上の各デバイスおよびLPC(Low Pin Count)バス上の各種デバイスの制御部として機能する。またサウスブリッジ107には、BIOS−ROM108、LANコントローラ109、HDD110、ODD112が接続される。そしてサウスブリッジ107は、HDD110及びODD112を制御するIDE(Integrated Drive Electronics)コントローラを内蔵している。さらにサウスブリッジ107は、サウンドコントローラ113との通信機能も有している。
BIOS−ROM108は、コンピュータ100のハードウェアを制御するためのプログラムであるBIOS(Basic Input/Output System)を格納する。
LANコントローラ109は、コンピュータ100とLANネットワークとの通信接続を制御する。また、LANコントローラ109は、LANネットワークを介してインターネットへの接続も行う。更にLANコントローラ109は、LANネットワークを介してIPテレビ等の映像データを受信してもよい。
HDD110は、オペレーティングシステム(OS)130や、映像再生プログラム140等の各種プログラムを記憶する記憶媒体である。またHDD110は、チューナ115が受信したテレビ放送の映像データ及び音声データを録画する場合に、当該データを記憶する記憶領域として利用される。
ODD112は、DVD等の光学ディスクから対するデータの読み込み/書き込みを行う。ここでODD112は、例えば映像データを読み込む。
サウンドコントローラ113は音源デバイスであり、再生対象の音声データの信号をスピーカ114に出力する。そしてスピーカ114は、入力された音声信号の音声を出力する
チューナ115及びIEEE1394コントローラ116は、PCIバスを介してサウスブリッジ107に接続される。ここでチューナ115は、テレビ放送信号に重畳された映像データ及び音声データを受信する。なおチューナ115は、例えば2次元表示用の映像データ又は3次元表示用の映像データが重畳された映像データを受信する。なお、ここで3次元表示用の映像データとは、左目用画像と右目用画像とを含む映像データを指す。またIEEE1394コントローラ116は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。
EC/KBC117は、LPCバスを介してサウスブリッジ107に接続される。EC/KBC117は、キーボード118及びタッチパッド119を制御する。ここでキーボード118及びタッチパッド119は、ユーザからの各種操作入力を受け付ける。そしてEC/KBC117は、それらの操作入力信号をCPU101に出力する。
なおコンピュータ100は、3次元映像の表示の際に例えばシャッター方式(時分割方式とも云う)を用いてもよい。シャッター方式の3次元映像表示では、左眼用画像と右眼用画像とが夫々交互にLCD106に表示される。そしてこのときLCD106は、例えば通常のリフレッシュレート(例えば60Hz)の2倍のリフレッシュレート(例えば120Hz)で駆動される。つまり、左眼用画像のフレームデータと右眼用画像のフレームデータとは、例えば120Hzのリフレッシュレートで交互にLCD106上に表示される。
そしてユーザは、例えば液晶シャッターメガネのような3次元映像視聴用メガネを装着して表示画面を視聴することで、左眼用フレームに対応する画像を左眼で、右眼用フレームに対応する画像を右眼で視聴し、3次元映像を視聴できる。なお液晶シャッターメガネは、左眼用フレームデータ及び右眼用フレームデータそれぞれの表示タイミングを示す同期信号をコンピュータ100から受信し、当該同期信号に従って左眼用シャッター及び右眼用シャッターを開閉する。
また、コンピュータ100は、3次元映像の表示には偏光方式を用いてもよい。この場合、例えば、左眼用画像と右眼用画像とが例えば走査線単位でインタリーブされたインタリーブフレーム群が生成され、これらインタリーブフレーム群がLCD106に表示される。LCD106の画面を覆う偏向フィルタは、LCD106の画面上の例えば奇数番目のライン群に表示される左眼用画像と偶数番目のライン群に表示される右眼用画像とを異なる方向に偏光させる。そしてユーザは、偏向メガネのような3次元映像視聴用メガネを用いることにより、左眼用画像を左眼で、右眼用画像を右眼で見ることができる。
更にコンピュータ100は、バリア方式やレンズ方式の3次元映像を表示してもよい。この場合コンピュータ100の表示画面にはバリアやレンズ等が設けられ、当該バリア又はレンズが左目用画像及び右目用画像を選択的に遮断することにより、ユーザは3次元映像視聴用メガネを着用することなく3次元映像を視聴することができる。
次に図3を参照して、映像再生プログラム140の機能ブロック例を説明する。
ここで映像再生プログラム140は、分離部141、音声デコード部142、音量判定部143、サブピクチャデコード部144、サブピクチャ変換部145、ビデオデコード部146、ビデオ変換部147、合成部148等を備える。
分離部141には、LANコントローラ109、HDD110、ODD112、チューナ115等から、3次元表示用又は2次元表示用の映像コンテンツのデータが入力される。そして分離部142は、入力されたデータに含まれる、音声データと、字幕等のデータであるサブピクチャデータと、メイン画像のデータであるビデオデータとを分離する。そして分離部141は、音声データを音声デコード部142に、サブピクチャデータをサブピクチャデコード部144に、ビデオデータをビデオデコード部146に出力する。
音声デコード部142は、分離部141から入力された音声データのESを、例えばPCM等のフォーマットの音声データにデコードする。そして音声デコード部142は、デコードした音声データをサウンドコントローラ107及び音量判定部143に出力する。
音量判定部143は、音声デコード部142から入力された音声データの音量レベルを判定する。そして音量判定部143は、音量レベルに関する音量情報をサブピクチャ変換部145に出力する。なお音量判定部143は、例えばサブピクチャデコード部144から入力される字幕時間情報に応じて、字幕が表示される区間に対応する区間における音量レベルを判定する。音量判定部143による音量レベル判定処理については図6を参照して後述する。
サブピクチャデコード部144は、分離部141から入力されたサブピクチャのESをデコードして、当該デコードしたサブピクチャをサブピクチャ変換部145に出力する。またサブピクチャデコード部144は、サブピクチャのESに含まれるPTS(Presentation Time Stamp)等に基づいて、字幕が表示される時間(期間)を判定し、字幕が表示される時間についての字幕時間情報を音量判定部143に出力する。
サブピクチャ変換部145は、サブピクチャデコード部144から入力されたサブピクチャを3次元表示用のサブピクチャに変換する。ここでサブピクチャ変換部145は、音量判定部143から入力される音量レベル情報に応じた奥行き位置(深さ)になるようにサブピクチャを3次元変換する。つまり、例えば音量レベル情報が示す音量レベルが一定の閾値よりも大きい場合、サブピクチャ変換部145は、3次元表示された場合のサブピクチャの奥行き方向の位置(深さ)が、手前になるように当該サブピクチャを3次元変換する。
そしてサブピクチャ変換部145は、3次元変換した右目用及び左目用のサブピクチャを合成部148に出力する。
ビデオデコード部146は、分離部141から入力されたビデオのESをデコードする。なお、ここでビデオデコード部146には、2次元表示用のデータが入力される場合と、3次元表示用のデータが入力される場合がある。そしてビデオデコード部146は、2次元表示用のデータが入力された場合には当該データをデコードしてビデオ変換部147に出力し、3次元表示用のデータが入力された場合には当該データのデコードデータを合成部148に出力する。
ビデオ変換部147は、デコードされた2次元表示用のビデオデータを用いて3次元表示用のビデオデータを生成する。ここでビデオ変換部147は、デコードされた2次元表示用のビデオデータのフレームの夫々を解析し、例えばフレーム間の画素の動きや同一フレーム内の画素値の差分等を用いることにより、各フレームに含まれる画素毎の奥行き位置を算出する。そしてビデオ変換部147は、フレーム毎に、推定した画素毎の奥行き位置に基づいた視差の左眼用画像データと右眼用画像データとを生成する。そしてビデオ変換部147は、生成した左眼用画像データと右眼用画像データとを含む3次元表示用ビデオデータを合成部148に出力する。
合成部148は、サブピクチャ変換部145から入力されたサブピクチャと、ビデオデコード部146又はビデオ変換部147から入力されたビデオとを重畳する。そして合成部148は、当該重畳させたデータをGPU104に出力する。
なおビデオ変換部147は、入力された2次元表示用ビデオデータを必ずしも3次元表示用のビデオデータに変換しなくとも良い。つまりコンピュータ100は、主画像を2次元で表示し、字幕画像を3次元で表示しても良い。
次に図4を参照して、音量判定部143による音量レベル判定処理例を説明する。
音量判定部143は、サブピクチャデコード部144からの字幕時間情報に応じて音量レベルを判定する。
サブピクチャデコード部144は、サブピクチャをデコードして、サブピクチャのESに含まれるPTS(Presentation Time Stamp)、字幕表示停止情報、字幕位置情報等を抽出する。ここで、PTSはサブピクチャの表示を開始する時間についての情報であり、字幕表示停止情報は字幕の表示を停止する時間についての情報であり、字幕位置情報は字幕を表示する位置(座標)についての情報である。そしてサブピクチャデコード部144は、PTSや字幕表示停止情報等の字幕の表示時間に関する字幕時間情報を音量判定部143に出力する。
ここで、サブピクチャのPTSが例えば時間610、時間611及び時間612を示し、字幕表示停止情報が例えば時間620を示しているとする。すると、字幕が表示される期間は、PTSが指定する時間610から次のPTSが指定する時間611までの期間630と、PTSが指定する時間611から次のPTSが指定する時間612までの期間631と、PTSが指定する時間612から字幕表示停止情報が指定する時間620までの期間632となる。
ゲージ640は、音声サンプル6401乃至640nの音量レベルの推移を示している。ここで音量判定部143は、例えば字幕表示期間毎に音量レベルの平均値を検出する。そして音量判定部143は、音量レベルを検出した区間の時間を示す時間情報と、検出した音量レベル情報とをサブピクチャ変換部145に出力する。つまり音量判定部143は、字幕のサブピクチャが表示される区間に対応する区間の音量レベルを、サブピクチャの表示区間毎に算出し、検出した音量レベルをサブピクチャ変換部145に出力する。そしてサブピクチャ変換部145は、サブピクチャに含まれる文字画像を、サブピクチャ毎に異なる奥行き位置(深さ)に表示されるように変換する。
なお、ここで音量判定部143は、必ずしも区間における音量レベルの平均値を検出しなくてもよく、少なくとも音量レベルについての情報を検出すればよい。つまり、音量判定部143は、例えば区間における音量レベルの最大値等を検出するものであってもよい。また音量判定部143は、音声データに含まれる音声のうち、人間の発声した声の成分を抽出して、当該抽出した音の成分の音量を検出してもよい。
また音量判定部143は、夫々のサブピクチャに対応する区間毎に当該区間の音量を算出してもよいし、あるいは1のサブピクチャに対応する区間を例えば一定長の複数区間に分割して、当該分割した区間毎に音量を検出してもよい。そして音量判定部143は、検出した音量レベルと、音量レベルを検出した時間区間についての時間情報をサブピクチャ変換部145に出力する。
次に図5を参照して、コンピュータ100が表示する文字画像の表示例を説明する。
図5(A)は、サブピクチャ変換部145が3次元変換する文字画像の奥行き位置(深さ)の例を示す図である。
サブピクチャ変換部145は、音量判定部143から音量レベル情報と、当該音量レベル情報についての時間情報とが入力されると、当該時間情報が示す時間に対応するサブピクチャを、音量レベル情報に応じた奥行き位置(深さ)に表示されるように変換する。
つまり、例えば入力された音量レベル情報が閾値Th1よりも小さい値を示す場合、サブピクチャ変換部145は、当該音量レベル情報に対応する時間のサブピクチャを、ディスプレイ面よりも奥の位置(深い位置)にある表示面520に表示されるように3次元変換し、3次元の文字画像521を生成する。
また、音量レベル情報が閾値Th2よりも大きな値を示す場合、サブピクチャ変換部145は、ディスプレイ面よりも手前の位置(浅い位置)にある表示面530に表示されるようにサブピクチャを変換し、文字画像531を生成する。そしてサブピクチャ変換部145は、音量レベル情報が閾値Th1とTh2との間の値を示す場合、ディスプレイ面に表示されるようにサブピクチャを変換する。
なおサブピクチャ変換部145は、サブピクチャに含まれる文字の画像を、サブピクチャを表示する深さに応じたサイズ(解像度)に変換しても良い。つまりサブピクチャ変換部145は、サブピクチャの文字画像を奥の位置(深い位置)に表示させる場合は小さなサイズに、手前の位置(浅い位置)に表示させる場合は大きなサイズに変換しても良い。
図5(B)及び(C)は、3次元変換により得られる右目用画像及び左目用画像の位置と、ユーザが知覚する3次元映像の奥行き位置(深さ)との関係を示す図である。
表示装置のディスプレイ面に、図5(B)に示す視差で左目用画像531と右目用画像532とが表示されると、ユーザの左眼51及び右眼52には、左目用画像531及び右目用画像532が表示面520の533に位置しているように見える。つまり、左目用画像と右眼用画像とが、ユーザの両目の間隔よりも狭い間隔で、左目用画像が右目用画像の左側に位置するように2次元表示用映像を変換することで、映像をディスプレイ面よりも奥の位置(深い位置)に表示することができる。そして奥行き方向の位置(深さ)は、左目用画像と右目用画像との視差が大きくなるほど深くなる。
また、表示装置のディスプレイ面に、図5(C)に示す視差で左目用画像541と右目用画像542とが表示されると、ユーザの左眼51及び右眼52には、左目用画像541及び右目用画像542が表示面530の543に位置しているように見える。つまり、左目用画像が右目用画像の右側に位置するように2次元表示用映像を変換することで、映像をディスプレイ面よりも奥の位置(深い位置)に表示することができる。そして奥行き方向の位置(深さ)は、左目用画像と右目用画像との視差が大きくなるほど手前の奥行き位置(浅い位置)になる。
即ちサブピクチャ変換部145は、音量判定部143から音量レベル情報と、当該音量レベル情報についての時間情報とが入力されると、当該時間情報が示す時間区間に対応するサブピクチャに含まれる文字画像を、音量レベル情報に応じた視差を持つ右目用の文字画像と左目用の文字画像とに変換する。
次に図6を参照して、コンピュータ100による、文字画像の奥行き位置(深さ)の制御に係る処理フロー例を説明する。
まず映像再生プログラム140は、音声データ及びサブピクチャデータを含むデータを受信する(S601)。そして映像再生プログラム140は、受信された音声データの音量レベルを検出する(S602)。続いて映像再生プログラム140は、検出された音量が閾値Th1以上であるかを判別する(S603)。ここで、音量が閾値Th未満である場合(S603のNo)、映像再生プログラム140はサブピクチャに含まれる文字画像を、ディスプレイ面よりも奥の位置(深い位置)である表示面520に表示されるように3次元変換し、LCD106は当該変換された文字画像を表示する(S604)。
一方S603において音量が閾値Th1以上である場合(S603のYes)、次に映像再生プログラム140は、音量レベルが閾値Th2以上であるか否かを判別する(S605)。ここで音量レベルが閾値Th2以下である場合、映像再生プログラム140はサブピクチャに含まれる文字画像を3次元変換せずにLCD106に出力し、LCD106は当該文字画像をディスプレイ面に表示する(S606)。
一方、S605において音量が閾値Th2以上である場合(S605のYes)、映像再生プログラム140はサブピクチャに含まれる文字画像を、ディスプレイ面よりも手前の位置(浅い位置)の表示面530に表示されるように3次元変換し、LCD106は当該変換された文字画像を表示する(S607)。そして当該処理フローは完了する。
なお当該処理フローにおいて文字画像は、表示面520、ディスプレイ面、表示面530の何れかの奥行き位置(深さ)に表示されるとして説明したが、文字画像の表示される奥行き位置はこれに限るものではなく、少なくとも音量レベルに応じて奥行き位置が変化するように表示されればよい。つまり、例えば文字画像は音量レベルに応じて多段階の奥行き位置(深さ)の何れかに表示されても良い。また、映像再生プログラム140は、1のサブピクチャの文字画像を同じ奥行き位置(深さ)に変換し、他のサブピクチャの文字画像を音量レベルに応じて異なる奥行き位置に変換してもよいが、例えば1のサブピクチャの文字画像を、当該サブピクチャが表示される期間中の音量の変化に応じて表示深さが滑らかに変化するように変換してもよい。
また映像再生プログラム140は、例えば字幕やテロップ等の文字画像が主画像に埋め込まれている場合、当該埋め込まれた文字画像を抽出して、当該文字画像の奥行き位置を音量レベルに応じて制御してもよい。
そして本実施形態のコンピュータ100によれば、映像コンテンツの音声に応じた好適な文字画像を表示することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100…コンピュータ、101…CPU、102…ノースブリッジ、103…主メモリ、104…GPU、105…VRAM、106…LCD、107…サウスブリッジ、108…BIOS−ROM、109…LANコントローラ、110…HDD、112…ODD、113…サウンドコントローラ、114…スピーカ、115…チューナ、116…IEEE1396コントローラ、117…EC/KBC、118…キーボード、119…タッチパッド、130…OS、140…映像再生プログラム、141…分離部、142…音声デコード部、143…音量判定部、144…サブピクチャデコード部、145…サブピクチャ変換部、146…ビデオデコード部、147…ビデオ変換部、148…合成部

Claims (10)

  1. 文字画像を含む映像データと、当該映像データに対応する音声データとを受信する受信手段と、
    受信された前記文字画像に基づいた、受信された前記音声データの音量レベルに応じた視差の第1及び第2画像を表示装置に出力する出力手段と
    を備える画像処理装置。
  2. 前記出力手段は、前記音声データの、前記文字画像に対応する区間の音量レベルに応じた視差の前記第1及び第2画像を前記表示装置に出力する、請求項1記載の画像処理装置。
  3. 前記出力手段は、前記音声データの音量レベルに応じたサイズの前記第1及び第2画像を前記表示装置に出力する、請求項1記載の画像処理装置。
  4. 前記出力手段は、受信された前記音声データに含まれる声の成分の音量レベルに応じた視差の前記第1及び第2画像を前記表示装置に出力する、請求項1記載の画像処理装置。
  5. 前記受信手段は、複数の前記文字画像を含む前記映像データを受信し、
    前記出力手段は、前記複数の文字画像の夫々に基づいた、当該複数の文字画像毎に異なる視差の前記第1及び第2画像を前記表示装置に出力する、請求項2記載の画像処理装置。
  6. 前記出力手段は、1の前記文字画像に基づいた、当該1の文字画像に対応する区間の音量レベルの変化に応じて視差が変化する前記第1及び第2画像を前記表示装置に出力する、請求項2記載の画像処理装置。
  7. 前記出力手段は、前記1の文字画像に基づいた、当該1の文字画像に対応する一定長の区間毎の音量レベルに応じた視差の前記第1及び第2画像を前記表示装置に出力する、請求項6記載の画像処理装置。
  8. 出力された前記第1及び第2画像を表示する前記表示装置を更に備える、請求項1記載の画像処理装置。
  9. 文字画像を含む映像データと、当該映像データに対応する音声データとを受信する受信手段と、
    前記文字画像を、受信された前記音声データの音量レベルに応じた奥行き位置の3次元画像として表示装置に表示させる表示制御手段と
    を備える画像処理装置。
  10. 文字画像を含む映像データと、当該映像データに対応する音声データとを受信することと、
    前記文字画像に基づいた、受信された前記音声データの音量レベルに応じた視差の第1及び第2画像を表示装置に出力することと
    を備える表示制御方法。
JP2010294063A 2010-12-28 2010-12-28 画像処理装置及び表示制御方法 Abandoned JP2012141448A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010294063A JP2012141448A (ja) 2010-12-28 2010-12-28 画像処理装置及び表示制御方法
US13/337,912 US20120162397A1 (en) 2010-12-28 2011-12-27 Image processing apparatus and display controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010294063A JP2012141448A (ja) 2010-12-28 2010-12-28 画像処理装置及び表示制御方法

Publications (1)

Publication Number Publication Date
JP2012141448A true JP2012141448A (ja) 2012-07-26

Family

ID=46316206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010294063A Abandoned JP2012141448A (ja) 2010-12-28 2010-12-28 画像処理装置及び表示制御方法

Country Status (2)

Country Link
US (1) US20120162397A1 (ja)
JP (1) JP2012141448A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9939637B2 (en) 2014-03-27 2018-04-10 Panasonic Intellectual Property Management Co., Ltd. Virtual image display device, head-up display system, and vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9943762B2 (en) * 2014-10-24 2018-04-17 Big Fish Games, Inc. Game rewards based on device characteristics

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318325A (ja) * 2003-04-14 2004-11-11 Dainippon Printing Co Ltd 情報入力装置およびそのプログラムならびに電子フォーム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010010709A1 (ja) * 2008-07-24 2010-01-28 パナソニック株式会社 立体視再生が可能な再生装置、再生方法、プログラム
KR20100044477A (ko) * 2008-10-22 2010-04-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP2011139261A (ja) * 2009-12-28 2011-07-14 Sony Corp 画像処理装置、画像処理方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318325A (ja) * 2003-04-14 2004-11-11 Dainippon Printing Co Ltd 情報入力装置およびそのプログラムならびに電子フォーム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9939637B2 (en) 2014-03-27 2018-04-10 Panasonic Intellectual Property Management Co., Ltd. Virtual image display device, head-up display system, and vehicle

Also Published As

Publication number Publication date
US20120162397A1 (en) 2012-06-28

Similar Documents

Publication Publication Date Title
JP6846130B2 (ja) 3dビデオ上に3dグラフィックスをオーバレイするための方法及び装置
JP5369952B2 (ja) 情報処理装置および情報処理方法
WO2011135857A1 (ja) 画像変換装置
KR20100002031A (ko) 3차원 비디오 영상 처리 방법 및 장치
JP2011228959A (ja) 3次元映像再生方法、および3次元映像再生装置
JP2012054877A (ja) 立体動画像再生装置及びその制御方法
JP2011216965A (ja) 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
US20120224035A1 (en) Electronic apparatus and image processing method
JP2012141448A (ja) 画像処理装置及び表示制御方法
JP5039194B2 (ja) 表示装置及び録画方法
JP2011211657A (ja) 電子機器及び画像出力方法
JP5025768B2 (ja) 電子機器及び画像処理方法
JP5166567B2 (ja) 電子機器、映像データの表示制御方法、およびプログラム
US8736668B2 (en) Electronic apparatus and image processing method
JP2011035858A (ja) 映像処理装置
JP2011077984A (ja) 映像処理装置
JP5362082B2 (ja) 電子機器、画像処理方法、及び画像処理プログラム
JP2012099905A (ja) 立体映像再生装置
KR101804912B1 (ko) 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법
JP2013238975A (ja) 画像処理装置、画像処理方法およびプログラム
JP2012080288A (ja) 表示装置及び表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120523

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20120709