JP2012227806A - 映像表示装置、映像表示方法 - Google Patents
映像表示装置、映像表示方法 Download PDFInfo
- Publication number
- JP2012227806A JP2012227806A JP2011094890A JP2011094890A JP2012227806A JP 2012227806 A JP2012227806 A JP 2012227806A JP 2011094890 A JP2011094890 A JP 2011094890A JP 2011094890 A JP2011094890 A JP 2011094890A JP 2012227806 A JP2012227806 A JP 2012227806A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- video
- video content
- video display
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereophonic System (AREA)
- Television Receiver Circuits (AREA)
Abstract
【課題】映像表示装置に表示された映像コンテンツのどの人物から音声が発生しているのかがわかりにくい場合があり、これをわかりやすく表示することが可能な映像表示装置の提供が課題になっていた。
【解決手段】実施形態の映像表示装置は、映像コンテンツに係る音声信号から前記映像コンテンツにおける音の発生源の位置を検出する位置検出部を備える。また、前記映像コンテンツにおける位置が検出された前記音の発生源の奥行きの表示にかかるデータを取得する奥行きデータ取得部を備える。また、前記取得された奥行きの表示にかかるデータに応じ、前記音の発生源における3D効果を強調した音を前記映像コンテンツと共に出力する出力部を備える。
【選択図】 図2
【解決手段】実施形態の映像表示装置は、映像コンテンツに係る音声信号から前記映像コンテンツにおける音の発生源の位置を検出する位置検出部を備える。また、前記映像コンテンツにおける位置が検出された前記音の発生源の奥行きの表示にかかるデータを取得する奥行きデータ取得部を備える。また、前記取得された奥行きの表示にかかるデータに応じ、前記音の発生源における3D効果を強調した音を前記映像コンテンツと共に出力する出力部を備える。
【選択図】 図2
Description
本発明の実施形態は、映像表示装置、映像表示方法に関する。
近年、映像を3D(3次元)で表示可能な3DTV等の映像表示装置が普及しつつある。これらの映像表示装置においては、映像コンテンツを3D映像で視聴することが可能である。
また近年、字幕放送の表示等が普及し、例えば、音声を聴くことができない人も字幕放送を見ることによって、映像表示装置に表示された映像コンテンツの内容を視覚的に確認することが可能になってきている。
しかし、映像表示装置に表示された映像コンテンツのどの人物(またはどの物)から音声が発生しているのかがわかりにくい場合があった。また、例えば、字幕放送においては、映像コンテンツにおける話中の人物と字幕放送の表示のタイミングが一致しない場合があり、同様に、どの人物(またはどの物)から音声が発生しているのかがわかりにくい場合があった。
このため、映像コンテンツのどの人物(またはどの物)から音声が発生しているのかをわかりやすく表示することが可能な映像表示装置を提供することが課題になっていた。
映像表示装置に表示された映像コンテンツのどの人物から音声が発生しているのかがわかりにくい場合があった。このため、映像コンテンツのどの人物(またはどの物)から音声が発生しているのかをわかりやすく表示することが可能な映像表示装置を提供することが課題になっていた。
実施形態の映像表示装置は、映像コンテンツに係る音声信号から前記映像コンテンツにおける音の発生源の位置を検出する位置検出部を備える。
また、前記映像コンテンツにおける位置が検出された前記音の発生源の奥行きの表示にかかるデータを取得する奥行きデータ取得部を備える。
また、前記取得された奥行きの表示にかかるデータに応じ、前記音の発生源における3D効果を強調した音を前記映像コンテンツと共に出力する出力部を備える。
また、前記映像コンテンツにおける位置が検出された前記音の発生源の奥行きの表示にかかるデータを取得する奥行きデータ取得部を備える。
また、前記取得された奥行きの表示にかかるデータに応じ、前記音の発生源における3D効果を強調した音を前記映像コンテンツと共に出力する出力部を備える。
以下、図面を参照し、実施の形態を説明する。
図1は、実施形態に係わる映像表示装置を示すブロック図である。
符号1は映像表示装置であり、ここではテレビ(TV)である。符号2はアンテナ、符号3はチューナ、符号4は信号処理部、符号5は映像処理部、符号6は音声処理部、符号7は表示装置、符号8は表示画面(映像表示部)、符号9はスピーカ、符号10はバス、符号11は制御部、符号12はMPU、符号13はRAM、符号14はROM、符号15はフラッシュメモリ、符号16は記憶部、符号17は内部記録装置、符号18は外部インターフェース、符号19は外部記憶装置、符号20は操作受信部、符号21はリモコン、符号22は送受信部(ネットワークインターフェース)、符号25は放送局、符号26はネットワーク(インターネット)、符号27はサーバである。
図1は、実施形態に係わる映像表示装置を示すブロック図である。
符号1は映像表示装置であり、ここではテレビ(TV)である。符号2はアンテナ、符号3はチューナ、符号4は信号処理部、符号5は映像処理部、符号6は音声処理部、符号7は表示装置、符号8は表示画面(映像表示部)、符号9はスピーカ、符号10はバス、符号11は制御部、符号12はMPU、符号13はRAM、符号14はROM、符号15はフラッシュメモリ、符号16は記憶部、符号17は内部記録装置、符号18は外部インターフェース、符号19は外部記憶装置、符号20は操作受信部、符号21はリモコン、符号22は送受信部(ネットワークインターフェース)、符号25は放送局、符号26はネットワーク(インターネット)、符号27はサーバである。
ここでは、制御部11はMPU(12)を備え、映像表示装置1を制御する。RAM(13)、ROM(14)、フラッシュメモリ15は、例えば制御部11で行われる処理に利用される。
例えば、放送局25からデジタル放送で映像コンテンツが放送される。放送局25から放送されたデジタル放送はチューナ3で受信され、選局処理が行われ、デジタル信号の映像コンテンツが信号処理部4に送信される。
信号処理部4で受信されたデジタル信号の映像コンテンツは信号処理が施され、音声処理部6および映像処理部5に送信される。
音声処理部6は信号処理が施された映像コンテンツを受信し、音声処理を施した信号をスピーカ9に送信する。
スピーカ9は音声処理が施された信号を受信し、音声を出力する。
また、映像処理部5は信号処理が施された映像コンテンツを受信し、映像処理を施した信号を表示装置7に送信する。
表示装置7は映像処理が施された信号を受信し、LCDパネル等で構成される表示画面(映像表示部)8に映像を表示する。
また、この実施の形態においては、映像表示装置1は内部記憶装置17を備え、上記受信された映像コンテンツを記録することが可能である。
また、この実施の形態においては、映像表示装置1は上記のようにUSB接続やLAN接続される外部記憶機器19を備えている。上記受信された映像コンテンツはこの外部記憶機器19に記録することも可能である。
音声処理部6は信号処理が施された映像コンテンツを受信し、音声処理を施した信号をスピーカ9に送信する。
スピーカ9は音声処理が施された信号を受信し、音声を出力する。
また、映像処理部5は信号処理が施された映像コンテンツを受信し、映像処理を施した信号を表示装置7に送信する。
表示装置7は映像処理が施された信号を受信し、LCDパネル等で構成される表示画面(映像表示部)8に映像を表示する。
また、この実施の形態においては、映像表示装置1は内部記憶装置17を備え、上記受信された映像コンテンツを記録することが可能である。
また、この実施の形態においては、映像表示装置1は上記のようにUSB接続やLAN接続される外部記憶機器19を備えている。上記受信された映像コンテンツはこの外部記憶機器19に記録することも可能である。
また、映像表示装置1に対するユーザの操作は、例えばリモコン(リモートコントローラ)21等の操作機器によって指示される。
これらの処理は、制御部11に制御される。
また、上記のように、映像表示装置1は送受信部(ネットワークインターフェース)22を介してサーバ27に接続され、例えばウェッブページを受信してブラウジングすることが可能である。
これらの処理は、制御部11に制御される。
また、上記のように、映像表示装置1は送受信部(ネットワークインターフェース)22を介してサーバ27に接続され、例えばウェッブページを受信してブラウジングすることが可能である。
また、この実施の形態においては、後述するように、例えば、上記音声処理部6において、映像コンテンツに係る音声信号から映像コンテンツにおける音の発生源の位置を検出する処理が行われる。
また、例えば、上記映像処理部5において、上記映像コンテンツにおける位置が検出された音の発生源の、奥行きの表示にかかるデータを取得する処理が行われる。
そして、制御部11に制御され、上記取得された奥行きの表示にかかるデータに応じ、例えば、上記音の発生源における3D効果を強調した音を、映像コンテンツと共に映像表示部(画面)8に出力する処理が行われる。
そして、制御部11に制御され、上記取得された奥行きの表示にかかるデータに応じ、例えば、上記音の発生源における3D効果を強調した音を、映像コンテンツと共に映像表示部(画面)8に出力する処理が行われる。
図2は、実施形態に係わる映像表示装置において、3D効果音声出力のON/OFFを入力する入力画面の表示例を示す図である。
この実施の形態においては、ユーザがリモコン21を操作し、例えば、図2に示す、3D効果音声出力のON/OFFを入力する入力画面が表示される。
ここで、この実施の形態に係る「3D効果音声」について説明する。
現在、上記のように、映像コンテンツを3D表示可能な映像表示装置が普及しつつある。
そして、一般に、音声はサラウンド(ステレオ)方式で出力されている。
サラウンド(ステレオ)方式は、例えば、人の周りにスピーカを配置し、臨場感を演出することが可能である。例えば、映画館等で行なうと、非常に効果が高い3D音声を出力することが可能である。
この実施の形態においては、ユーザがリモコン21を操作し、例えば、図2に示す、3D効果音声出力のON/OFFを入力する入力画面が表示される。
ここで、この実施の形態に係る「3D効果音声」について説明する。
現在、上記のように、映像コンテンツを3D表示可能な映像表示装置が普及しつつある。
そして、一般に、音声はサラウンド(ステレオ)方式で出力されている。
サラウンド(ステレオ)方式は、例えば、人の周りにスピーカを配置し、臨場感を演出することが可能である。例えば、映画館等で行なうと、非常に効果が高い3D音声を出力することが可能である。
しかし、一般的な映像表示装置においては、7.1ch等のシステムを構成しない限り、このようなスピーカは備えていない。このため、実際には、音声は映像表示装置1から出力されており、音声の3D効果という点では十分ではない。
また、現在、3DTVでは、映像の奥行き方向に3D効果が出るように演出されているが、一般に、音声はサラウンド(ステレオ)方式で出力されている。
そこで、この実施の形態においては、例えば、3D映像の奥行きの表示にかかるデータに応じ、音の発生源における3D効果を強調した音を「3D効果音声」として出力する。
そこで、この実施の形態においては、例えば、3D映像の奥行きの表示にかかるデータに応じ、音の発生源における3D効果を強調した音を「3D効果音声」として出力する。
ここでは、映像表示装置8に、「3D効果音声出力をONにしますか?」と表示される。また、例えば、ユーザが入力を行なう選択肢である「はい」と「いいえ」が表示される。
そして、例えば、ユーザが3D効果音声出力をONにする場合は「はい」が入力され、映像表示部1のフラッシュメモリ15の記憶部16に記憶される。また、3D効果音声出力をOFFにする場合は、「いいえ」が入力され、同様に、映像表示部1のフラッシュメモリ15の記憶部16に記憶される。
図3は、実施形態に係わる映像表示装置において、映像コンテンツにおける音の発生源の位置を検出するようすを示す図である。
この実施の形態においては、映像コンテンツにおける音の発生源(人を含む)の位置検出において、映像コンテンツに含まれる音声信号を用いる。この音声信号は例えば、サラウンド(ステレオ)方式の音声である。
この実施の形態においては、映像コンテンツにおける音の発生源(人を含む)の位置検出において、映像コンテンツに含まれる音声信号を用いる。この音声信号は例えば、サラウンド(ステレオ)方式の音声である。
そして、音声処理部6において、音の発生源の位置を検出する。この位置検出は、例えば、画面に向かって左側かあるいは画面に向かって右側かという左右の位置検出が行われる。あるいは、これに中央の位置検出を含め、画面に向かって左側、画面に向かって右側、あるいは中央付近という位置検出が行われる。
この位置検出におけるステレオ音声の解析は、例えば、音声信号の左右の時間差を検出する。
この実施の形態においては、図3に示すように、この映像コンテンツには人物A31と人物B32が表示されている。そして、例えば、コンテンツ中心線30がこの映像コンテンツの中心を仮想している。
この実施の形態においては、図3に示すように、この映像コンテンツには人物A31と人物B32が表示されている。そして、例えば、コンテンツ中心線30がこの映像コンテンツの中心を仮想している。
ここでは、人物A31は無発声であり、人物B32が発声を行なっている。
そして、ここでは、映像表示装置1は、この映像コンテンツの音声信号(ステレオ音声)を解析し、この音声信号の左右の時間差が検出される。そして、この音声信号の左右の時間差から、例えば、音が、このコンテンツ中心線30の映像表示部8に向かって右側から発生しているか、左側から発生しているか(すなわち、音の発生源が少なくとも第1の位置または第2の位置にあるか)が検出される。ここでは、音が、このコンテンツ中心線30の映像表示部8に向かって右側から発生していることが検出される。これにより、音の発生源が人物B32であると検出される。
そして、ここでは、映像表示装置1は、この映像コンテンツの音声信号(ステレオ音声)を解析し、この音声信号の左右の時間差が検出される。そして、この音声信号の左右の時間差から、例えば、音が、このコンテンツ中心線30の映像表示部8に向かって右側から発生しているか、左側から発生しているか(すなわち、音の発生源が少なくとも第1の位置または第2の位置にあるか)が検出される。ここでは、音が、このコンテンツ中心線30の映像表示部8に向かって右側から発生していることが検出される。これにより、音の発生源が人物B32であると検出される。
また、人物の検出は、例えば、画像認識により人の顔を認識し、その唇が動いた人が話中の人であるとして検出することも可能である。
また、この実施の形態においては、例えば、映像表示装置1の上記映像処理部5において、上記映像コンテンツにおける位置が検出された音の発生源(ここでは人物B32)の、奥行きの表示にかかるデータが取得される。
また、この実施の形態においては、例えば、映像表示装置1の上記映像処理部5において、上記映像コンテンツにおける位置が検出された音の発生源(ここでは人物B32)の、奥行きの表示にかかるデータが取得される。
そして、例えば、映像表示装置1の制御部11に制御され、上記取得された音の発生源(人物B32)の奥行きの表示にかかるデータに応じ、上記音の発生源(人物B32)における3D効果音声(3D効果を強調した音)を、この人物A31と人物B32が表示される映像コンテンツと共に映像表示部(画面)8に出力する。
この3D効果音声(3D効果を強調した音)は、上記奥行きデータに応じ、例えば、奥行きが浅い場合は大きく、奥行きが深い場合は小さくというように、強弱をつけた音が出力される。
また、この実施の形態においては、この3D効果音声(3D効果を強調した音)は、例えば、スピーカ9a、スピーカ9bを制御し、上記発声を行なっていることが検出された人物B32の口の高さから出力されるようにしても良い。
図4は、実施形態に係わる映像表示装置において、スピーカを4つ構成する例の外観を示す図である。
この実施の形態においては、例えば、映像表示装置1には、図4に示すように、スピーカ9a、スピーカ9b、スピーカ9c、スピーカ9dの4つのスピーカが構成される。
この実施の形態においては、例えば、映像表示装置1には、図4に示すように、スピーカ9a、スピーカ9b、スピーカ9c、スピーカ9dの4つのスピーカが構成される。
そして、例えば、上記のように、スピーカ9a、スピーカ9b、スピーカ9c、スピーカ9dの4つのスピーカを制御し、3D効果音声(3D効果を強調した音)が、上記発声を行なっていることが検出された人物B32の口の高さから出力される効果が得られるようにしている。
これにより、例えば、映像表示部(表示画面)8において、音の発生物(人物B32)の位置に近いところから音が発生しているような3D効果音声を出力することが可能になる。
図5は、実施形態に係わる映像表示装置の動作の一例を示すフローチャートである。
符号S100はここでの開始ステップである。続いて、ステップS101に進む。
ステップS101は、映像表示装置1の電源をONにするステップである。続いて、ステップS102に進む。
ステップS102は、例えば、ユーザによって図2に示す入力画面から3D効果音声出力のONまたはOFFが入力されている場合に、「3D効果音声出力」はONかを判別するステップである。「3D効果音声出力」はONであると判別される場合は、ステップS103に進む(ステップS102のYes)。「3D効果音声出力」はOFFであると判別される場合は、ステップS104に進む(ステップS102のNo)。
符号S100はここでの開始ステップである。続いて、ステップS101に進む。
ステップS101は、映像表示装置1の電源をONにするステップである。続いて、ステップS102に進む。
ステップS102は、例えば、ユーザによって図2に示す入力画面から3D効果音声出力のONまたはOFFが入力されている場合に、「3D効果音声出力」はONかを判別するステップである。「3D効果音声出力」はONであると判別される場合は、ステップS103に進む(ステップS102のYes)。「3D効果音声出力」はOFFであると判別される場合は、ステップS104に進む(ステップS102のNo)。
ステップS103は、例えば、音声処理部6において、上記映像コンテンツの音声信号を用いて左右の音の差を解析し、3D音声効果を強調したい音(声)の発生源(人物含む)が、ここで表示される映像コンテンツのどの位置にあるかを検出するステップである。この位置の検出は、例えば、向かって左、向かって右、中央部等のように検出される。続いて、ステップS105に進む。
ステップS104は、3D効果音声をOFF出力、すなわち、3D効果音声は出力しないステップである。続いて、ステップS102に進み、上記処理を繰り返す。
ステップS105は、音(声)の発生源はここで表示される映像コンテンツにおいて、映像表示部8に向かって左側にあるかを判別するステップである。音(声)の発生源がここで表示される映像コンテンツにおいて、映像表示部8に向かって左側にあると判別される場合はステップS106に進む(ステップS105のYes)。音(声)の発生源が映像表示部8に向かって左側にはないと判別される場合はステップS107に進む(ステップS105のNo)。
ステップS105は、音(声)の発生源はここで表示される映像コンテンツにおいて、映像表示部8に向かって左側にあるかを判別するステップである。音(声)の発生源がここで表示される映像コンテンツにおいて、映像表示部8に向かって左側にあると判別される場合はステップS106に進む(ステップS105のYes)。音(声)の発生源が映像表示部8に向かって左側にはないと判別される場合はステップS107に進む(ステップS105のNo)。
ステップS106は、映像コンテンツの映像信号から向かって左の音(声)の発生源(人物含む)を検出し、この発生源(人物含む)における例えば奥行きの深さに関する3Dデータを取得するステップである。続いて、ステップS110に進む。
ステップS107は、音(声)の発生源は映像表示部8に向かって右側にあるかを判別するステップである。音(声)の発生源が映像表示部8に向かって右側にあると判別される場合は、ステップS108に進む(ステップS107のYes)。音(声)の発生源が映像表示部8に向かって右側にはないと判別される場合は、ステップS109に進む(ステップS107のNo)。
ステップS108は、映像コンテンツの映像信号から、上記映像コンテンツにおいて向かって右側にある音(声)の発生源(人物含む)を検出し、例えばこの音(声)の発生源(人物含む)奥行きの深さに関する3Dデータを取得するステップである。続いて、ステップS110に進む。
ステップS109は、上記映像コンテンツの映像信号から、例えば中央付近に位置する発生源(人物含む)を検出し、この検出された中央付近に位置する発生源(人物含む)の奥行きの深さに関する3Dデータを取得するステップである。続いて、ステップS110に進む。
ステップS110は、3D効果音声をON出力するステップである。ここでは、上記のように取得された奥行きに関する3Dデータに応じて音の強弱をつけ、上記検出された発生源(人物含む)の奥行きの深さの位置から発生するように音(声)を出力する。続いて、ステップS105に進み、上記処理を繰り返す。
上記のように構成することによって、この実施の形態においては、3D音声効果を強調したい音(声)を、その発生源(例えば人物B32)から出力しているような効果を演出することが可能になる。
このため、映像コンテンツのどの人物(またはどの物)から音声が発生しているのかをわかりやすく表示することが可能な映像表示装置を提供することが可能になる。
図6は、他の実施形態に係わる映像表示装置の構成の一例を示すブロック図である。
ここでは、上記と同様の構成については同一の符号を付して、説明を省略する。
この実施の形態においては、上記と同様に、音声処理部6において、映像コンテンツに係る音声信号から映像コンテンツにおける音の発生源の位置を検出する処理が行われる。
ここでは、上記と同様の構成については同一の符号を付して、説明を省略する。
この実施の形態においては、上記と同様に、音声処理部6において、映像コンテンツに係る音声信号から映像コンテンツにおける音の発生源の位置を検出する処理が行われる。
そして、映像処理部5aにおいて、上記位置が検出された音の発生源を他と識別可能に表示する表示を映像コンテンツと共に出力する処理が行なわれる。
図7は、他の実施形態に係わる映像表示装置において、話中の人物の強調表示出力のON/OFFを入力する入力画面の表示例を示す図である。
この実施の形態においては、上記と同様に、ユーザがリモコン21を操作し、例えば、図7に示す、話中の人物の強調表示のON/OFFを入力する入力画面が表示される。
図7は、他の実施形態に係わる映像表示装置において、話中の人物の強調表示出力のON/OFFを入力する入力画面の表示例を示す図である。
この実施の形態においては、上記と同様に、ユーザがリモコン21を操作し、例えば、図7に示す、話中の人物の強調表示のON/OFFを入力する入力画面が表示される。
ここでは、映像表示装置8に、「話中の人物の強調表示をONにしますか?」と表示される。また、例えば、ユーザが入力を行なう選択肢である「はい」と「いいえ」が表示される。
そして、例えば、ユーザが話中の人物の強調表示をONにする場合は「はい」が入力され、映像表示部1のフラッシュメモリ15の記憶部16に記憶される。また、話中の人物の強調表示をOFFにする場合は、「いいえ」が入力され、同様に、映像表示部1のフラッシュメモリ15の記憶部16に記憶される。
図8は、他の実施形態に係わる映像表示装置において、話中の人物を強調表示出力する表示例を示す図である。
ここで、この実施の形態に係る「話中の人物の強調表示」について説明する。
現在、上記のように字幕放送の表示等が普及し、例えば、音声を聴くことができない人も字幕放送を見ることによって、映像表示装置に表示された映像コンテンツの内容を視覚的に確認することが可能になってきている。
ここで、この実施の形態に係る「話中の人物の強調表示」について説明する。
現在、上記のように字幕放送の表示等が普及し、例えば、音声を聴くことができない人も字幕放送を見ることによって、映像表示装置に表示された映像コンテンツの内容を視覚的に確認することが可能になってきている。
符号33は、字幕放送において、映像コンテンツと共に表示される字幕である。
しかし、字幕放送において、例えば、映像コンテンツにおける話中の人物と字幕放送の表示のタイミングが一致しない場合があり、どの人物(またはどの物)から音声が発生しているのかがわかりにくい場合があった。
しかし、字幕放送において、例えば、映像コンテンツにおける話中の人物と字幕放送の表示のタイミングが一致しない場合があり、どの人物(またはどの物)から音声が発生しているのかがわかりにくい場合があった。
そこで、以下に示すように、この実施の形態においては、映像コンテンツにおける話中の人物(または音を発生させている物)を検出し、この検出された話中の人物(または音を発生させている物)を他と識別可能に表示する。
この実施の形態においても、映像コンテンツにおける音の発生源(人を含む)の位置検出は、映像コンテンツに含まれる音声信号を用いる。この音声信号は例えば、ステレオ音声である。
そして、上記と同様に、音声処理部6において、音の発生源の位置を検出する。この位置検出は、例えば、画面に向かって左側かあるいは画面に向かって右側かという左右の位置検出が行われる。あるいは、これに中央の位置検出を含め、画面に向かって左側、画面に向かって右側、あるいは中央付近という位置検出が行われる。
この位置検出におけるステレオ音声の解析は、例えば、音声信号の左右の時間差を検出する。
この実施の形態においては、図8に示すように、この映像コンテンツには人物A31と人物B32が表示されている。そして、例えば、コンテンツ中心線30がこの映像コンテンツの中心を仮想している。
この実施の形態においては、図8に示すように、この映像コンテンツには人物A31と人物B32が表示されている。そして、例えば、コンテンツ中心線30がこの映像コンテンツの中心を仮想している。
ここでも、人物A31は無発声であり、人物B32が発声を行なっている。
そして、映像表示装置1は、この映像コンテンツの音声信号(ステレオ音声)を解析し、この音声信号の左右の時間差が検出される。そして、この音声信号の左右の時間差から、例えば、音が、このコンテンツ中心線30の映像表示部8に向かって右側から発生しているか、左側から発生しているか(すなわち、音の発生源が少なくとも第1の位置または第2の位置にあるか)が検出される。ここでは、音声が、このコンテンツ中心線30の映像表示部8に向かって右側から発生していることが検出される。これにより、音の発生源が人物B32であると検出される。
そして、映像表示装置1は、この映像コンテンツの音声信号(ステレオ音声)を解析し、この音声信号の左右の時間差が検出される。そして、この音声信号の左右の時間差から、例えば、音が、このコンテンツ中心線30の映像表示部8に向かって右側から発生しているか、左側から発生しているか(すなわち、音の発生源が少なくとも第1の位置または第2の位置にあるか)が検出される。ここでは、音声が、このコンテンツ中心線30の映像表示部8に向かって右側から発生していることが検出される。これにより、音の発生源が人物B32であると検出される。
また、上記と同様に、人物の検出は、例えば、画像認識により人の顔を認識し、その唇が動いた人が話中の人であるとして検出することも可能である。
このように、この実施の形態においては、音声処理部6において、映像コンテンツに係る音声信号から映像コンテンツにおける音の発生源の位置を検出する処理が行われる。
このように、この実施の形態においては、音声処理部6において、映像コンテンツに係る音声信号から映像コンテンツにおける音の発生源の位置を検出する処理が行われる。
そして、映像処理部5aにおいて、上記位置が検出された音の発生源を他と識別可能に表示する表示を映像コンテンツと共に出力する処理が行なわれる。
ここでは、人物B32の輪郭が強調され、音の発生源(人物B32)を他と識別可能に表示する表示が行われている。
このように構成することによって、この実施の形態においては、字幕放送において、例えば、映像コンテンツにおける話中の人物と字幕放送の表示のタイミングが一致しない場合においても、音の発生源(人物B32)を他と識別可能に表示し、どの人物(またはどの物)から音声が発生しているかがわかやすくなる。
ここでは、人物B32の輪郭が強調され、音の発生源(人物B32)を他と識別可能に表示する表示が行われている。
このように構成することによって、この実施の形態においては、字幕放送において、例えば、映像コンテンツにおける話中の人物と字幕放送の表示のタイミングが一致しない場合においても、音の発生源(人物B32)を他と識別可能に表示し、どの人物(またはどの物)から音声が発生しているかがわかやすくなる。
図9は、他の実施形態に係わる映像表示装置の動作の一例を示すフローチャートである。
符号S200は、ここでの開始ステップである。続いて、ステップS201に進む。
符号S201は、映像表示装置1の電源をONにするステップである。続いて、ステップS202に進む。
ステップS202は、話中の人物強調表示はONであるかを判別するステップである。ここでは、例えば、図7に示す、話中の人物強調表示がONまたはOFF設定されているかを判別する。話中の人物強調表示はONであると判別される場合は、ステップS203に進む(ステップS202のYes)。話中の人物強調表示はOFFであると判別される場合は、ステップS204に進む(ステップS202のNo)。
符号S200は、ここでの開始ステップである。続いて、ステップS201に進む。
符号S201は、映像表示装置1の電源をONにするステップである。続いて、ステップS202に進む。
ステップS202は、話中の人物強調表示はONであるかを判別するステップである。ここでは、例えば、図7に示す、話中の人物強調表示がONまたはOFF設定されているかを判別する。話中の人物強調表示はONであると判別される場合は、ステップS203に進む(ステップS202のYes)。話中の人物強調表示はOFFであると判別される場合は、ステップS204に進む(ステップS202のNo)。
ステップS203は、音声処理部6において、映像コンテンツの音声信号から左右の音の差を解析し、強調したい音(声)の発生源(人物含む)が、映像のどの位置にあるかを検出するステップである。映像の位置は、例えば、映像表示部8に向かって左、映像表示部8に向かって右、映像表示部8の中央部のどの位置にあるかを検出する。続いて、ステップS205に進む。
ステップS204は、上記話中人物の強調をOFF表示するステップである。続いて、ステップS202に進み、上記処理を繰り返す。
ステップS205は、音(声)の発生源は、映像表示部8に向かって左側にあるかを判別するステップである。音(声)の発生源は、映像表示部8に向かって左側にあると判別される場合は、ステップS206に進む(ステップS205のYes)。音(声)の発生源は、映像表示部8に向かって左側にないと判別される場合は、ステップS207に進む(ステップS205のNo)。
ステップS205は、音(声)の発生源は、映像表示部8に向かって左側にあるかを判別するステップである。音(声)の発生源は、映像表示部8に向かって左側にあると判別される場合は、ステップS206に進む(ステップS205のYes)。音(声)の発生源は、映像表示部8に向かって左側にないと判別される場合は、ステップS207に進む(ステップS205のNo)。
ステップS206は、映像コンテンツの映像信号から向かって左の音(声)の発生源(人物含む)を検出するステップである。続いて、ステップS210に進む。
ステップS207は、音(声)の発生源は、映像表示部8に向かって右側にあるかを判別するステップである。音(声)の発生源は、映像表示部8に向かって右側にあると判別される場合は、ステップS208に進む(ステップS207のYes)。音(声)の発生源は、映像表示部8に向かって右側にないと判別される場合は、ステップS209に進む(ステップS207のNo)。
ステップS207は、音(声)の発生源は、映像表示部8に向かって右側にあるかを判別するステップである。音(声)の発生源は、映像表示部8に向かって右側にあると判別される場合は、ステップS208に進む(ステップS207のYes)。音(声)の発生源は、映像表示部8に向かって右側にないと判別される場合は、ステップS209に進む(ステップS207のNo)。
ステップS208は、映像コンテンツの映像信号から映像表示部8に向かって右の音(声)の発生源(人物含む)を検出するステップである。続いて、ステップS210に進む。
ステップS209は、映像コンテンツの映像信号から中央付近の発生源(人物含む)を検出するステップである。続いて、ステップS210に進む。
ステップS210は、話中の人物強調表示をONにするステップである。ここでは、例えば、上記検出された発生源(人物含む)を強調する、輪郭を強くする、色を変更する等の強調表示を出力する。続いて、ステップS205に進み、上記処理を繰り返す。
ステップS210は、話中の人物強調表示をONにするステップである。ここでは、例えば、上記検出された発生源(人物含む)を強調する、輪郭を強くする、色を変更する等の強調表示を出力する。続いて、ステップS205に進み、上記処理を繰り返す。
上記のように構成することによって、この実施の形態においては、表示中の映像コンテンツにおける、例えば、話中の人物を強調表示することが可能になる。
このため、映像コンテンツのどの人物(またはどの物)から音声が発生しているのかをわかりやすく表示することが可能な映像表示装置を提供することが可能になる。
このため、映像コンテンツのどの人物(またはどの物)から音声が発生しているのかをわかりやすく表示することが可能な映像表示装置を提供することが可能になる。
上記説明した実施の形態においては、映像コンテンツにおける音の発生源の位置検出は、1つの音の発生源を検出する例を用いたが、この実施の形態においては、必要に応じ、複数の音の発生源を検出するように構成することも可能である。
上記のように構成することによって、この発明の実施の形態においては、映像コンテンツのどの人物(またはどの物)から音声が発生しているのかをわかりやすく表示することが可能な映像表示装置を提供することが可能になる。
なお、上記実施形態は、記述そのものに限定されるものではなく、実施段階では、その趣旨を逸脱しない範囲で、構成要素を種々変形して具体化することが可能である。
また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。
例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1…映像表示装置、2…アンテナ、3…チューナ、4…信号処理部、5…映像処理部(奥行き情報取得)、6…音声処理部(左右の位置)、7…表示装置、8…表示画面(映像表示部)、9…スピーカ、10…バス、11…制御部、12…MPU、13…RAM、14…ROM、15…フラッシュメモリ、16…記憶部、17…内部記録装置、18…外部インターフェース、25…放送局。
Claims (8)
- 映像コンテンツに係る音声信号から前記映像コンテンツにおける音の発生源の位置を検出する位置検出部と、
前記映像コンテンツにおける位置が検出された前記音の発生源の奥行きの表示にかかるデータを取得する奥行きデータ取得部と、
前記取得された奥行きの表示にかかるデータに応じ、前記音の発生源における3D効果を強調した音を前記映像コンテンツと共に出力する出力部を備える映像表示装置。 - 前記音声信号はステレオ音声であり、音の発生源の位置の検出は前記ステレオ音声を用いて行われる請求項1に記載の映像表示装置。
- 前記音の発生源の位置の検出は、前記音の発生源が少なくとも第1の位置または第2の位置にあるかを判別する処理を含む請求項1または2に記載の映像表示装置。
- 前記3D効果を強調した音は、前記奥行きに応じて強弱をつけた音を出力する請求項1乃至3のいずれかに記載の映像表示装置。
- 前記3D効果の音の出力は、設定によってONまたはOFF制御される請求項1乃至4のいずれかに記載の映像表示装置。
- 映像コンテンツに係る音声信号から前記映像コンテンツにおける音の発生源の位置を検出するステップと、
前記映像コンテンツにおける位置が検出された前記音の発生源の奥行きの表示にかかるデータを取得するステップと、
前記取得された奥行きの表示にかかるデータに応じ、前記音の発生源における3D効果を強調した音を前記映像コンテンツと共に出力するステップを備える映像表示方法。 - 映像コンテンツに係る音声信号から前記映像コンテンツにおける音の発生源の位置を検出する位置検出部と、
前記位置が検出された音の発生源を他と識別可能に表示する表示を前記映像コンテンツと共に出力する識別表示出力部を備える映像表示装置。 - 映像コンテンツに係る音声信号から前記映像コンテンツにおける音の発生源の位置を検出するステップと、
前記位置が検出された音の発生源を他と識別可能に表示する表示を前記映像コンテンツと共に出力するステップを備える映像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094890A JP2012227806A (ja) | 2011-04-21 | 2011-04-21 | 映像表示装置、映像表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094890A JP2012227806A (ja) | 2011-04-21 | 2011-04-21 | 映像表示装置、映像表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012227806A true JP2012227806A (ja) | 2012-11-15 |
Family
ID=47277497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011094890A Withdrawn JP2012227806A (ja) | 2011-04-21 | 2011-04-21 | 映像表示装置、映像表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012227806A (ja) |
-
2011
- 2011-04-21 JP JP2011094890A patent/JP2012227806A/ja not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10362433B2 (en) | Electronic device and control method thereof | |
EP2894877B1 (en) | Sound accessory device and operating method thereof | |
US20140369505A1 (en) | Audio system and audio apparatus and channel mapping method thereof | |
US12052556B2 (en) | Terminal, audio cooperative reproduction system, and content display apparatus | |
US9147396B2 (en) | Voice recognition device and voice recognition method | |
CN102714761A (zh) | 图像处理装置、图像处理方法及图像处理程序 | |
KR102454761B1 (ko) | 영상표시장치의 동작 방법 | |
CN110933485A (zh) | 一种视频字幕生成方法、系统、装置和存储介质 | |
US20120287283A1 (en) | Electronic device with voice prompt function and voice prompt method | |
JP2011170282A (ja) | 再生装置および再生方法 | |
US20110026743A1 (en) | System, method and apparatus for television speaker configuration | |
US20090304088A1 (en) | Video-sound signal processing system | |
JP2007300323A (ja) | 字幕表示制御システム | |
KR20080004311A (ko) | 멀티미디어 컨텐츠 재생 장치 및 방법 | |
KR102598367B1 (ko) | 오디오 검출을 위한 방법 및 대응하는 디바이스 | |
KR20130139074A (ko) | 오디오 신호 처리 방법 및 이를 적용한 오디오 신호 처리 장치 | |
JP6680579B2 (ja) | ショーのための情報支援システム | |
JP2012227806A (ja) | 映像表示装置、映像表示方法 | |
KR101559170B1 (ko) | 영상표시장치 및 그 제어방법 | |
WO2019234952A1 (ja) | 音声処理装置および翻訳装置 | |
JP2009260685A (ja) | 放送受信装置 | |
JP2015015728A (ja) | 制御装置、および制御方法 | |
US10142698B2 (en) | Method and system for audio data transmission | |
KR100746084B1 (ko) | 영상/음성 부분출력 차단 장치 및 방법 | |
JP2013121096A (ja) | 音声調整装置およびデジタル放送受信装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |