JP5067595B2 - 画像表示装置および方法、並びにプログラム - Google Patents

画像表示装置および方法、並びにプログラム Download PDF

Info

Publication number
JP5067595B2
JP5067595B2 JP2005301262A JP2005301262A JP5067595B2 JP 5067595 B2 JP5067595 B2 JP 5067595B2 JP 2005301262 A JP2005301262 A JP 2005301262A JP 2005301262 A JP2005301262 A JP 2005301262A JP 5067595 B2 JP5067595 B2 JP 5067595B2
Authority
JP
Japan
Prior art keywords
sound
output
unit
image
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005301262A
Other languages
English (en)
Other versions
JP2007110582A (ja
Inventor
哲二郎 近藤
義教 渡邊
直秀 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005301262A priority Critical patent/JP5067595B2/ja
Priority to US11/580,917 priority patent/US8483414B2/en
Priority to CNB2006100644729A priority patent/CN100477762C/zh
Priority to CN200810168703XA priority patent/CN101370108B/zh
Priority to CN2008101687025A priority patent/CN101370107B/zh
Priority to KR1020060100762A priority patent/KR20070042104A/ko
Publication of JP2007110582A publication Critical patent/JP2007110582A/ja
Application granted granted Critical
Publication of JP5067595B2 publication Critical patent/JP5067595B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/03Connection circuits to selectively connect loudspeakers or headphones to amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereophonic System (AREA)
  • Television Receiver Circuits (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

本発明は、画像表示装置および方法、並びにプログラムに関し、特に、表示する画像に対応する音声を、より臨場感を高めるように出力することができるようにした画像表示装置および方法、並びにプログラムに関する。
従来のテレビジョン受像機は、放送局より放送されるテレビジョン信号を受信し、テレビジョン放送番組としての画像を表示したり、音声を出力したりする。
例えば、図1に示されるテレビジョン受像機1が受信するテレビジョン信号に含まれる音声がモノラル方式である場合、テレビジョン受像機1のスピーカ2Aおよびスピーカ2Bの両方から同じ音声が出力される。従って、例えば、画面上において人物3A乃至人物3Cの誰が発話するときでも、音声が出力されるスピーカ(スピーカ2Aおよびスピーカ2B)が変化しない。さらに、モノラル方式の場合、左右より同じ音声が出力されるため、視聴者であるユーザは、人物3A乃至人物3Cのいずれの音声も同じ方向から聞こえてしまい、臨場感が低減してしまう恐れがある。
これに対して、図1に示されるテレビジョン受像機1が受信するテレビジョン信号に含まれる音声がステレオ方式である場合、左右の音声の音量の違いにより、ユーザが体感する、人物3A乃至人物3Cの音声の発生方向(ユーザから見た音声の発生場所の向き)を互いに変化させることができる。
しかしながら、このステレオ方式の場合であっても、音声が出力されるスピーカは、スピーカ2Aおよびスピーカ2Bであり変化しないので、音声の発生方向を極端に変更させることが困難であり、そのため臨場感が低減してしまう恐れがある。
また、一般的に、放送局側においては、視聴者がそれぞれ、どのようなテレビジョン受像機を用いて番組を視聴するかを想定することは不可能である。しかしながら、左右スピーカの位置関係、スピーカの特性、ユーザの位置、テレビジョン受像機の設置場所等、ユーザの視聴環境は、ユーザ毎に異なる。従って、ユーザの視聴環境によっては、テレビジョン信号に含まれるステレオ方式の音声信号が生成されるときに想定されていた環境と大きく異なり、放送局側において意図した臨場感をユーザが得ることが困難になる恐れがあった。
これに対して、予め特定音源からの音を取得して音響信号を生成し、その音響信号、映像信号、および位置信号検出部から情報信号を生成し、記録することで、再生時に、画像の表示位置に対応した音響出力を行うようにする方法が考えられる(例えば、特許文献1参照)。
特開2003−264900号公報
しかしながら、この場合、予め特定音源から音を取得し、情報信号を生成する必要があり、一般的な従来のテレビジョン放送等を受信して表示させるのに適用するのは困難であった。
本発明は、このような状況に鑑みてなされたものであり、表示する画像に対応する音声を、より臨場感を高めるように出力することができるようにするものである。
本発明の一側面の画像表示装置は、画像を表示する画像表示装置であって、画像を表示する画像表示手段と、前記画像表示手段により表示される前記画像に対応する複数チャンネルの音声を複数の位置より出力する音声出力手段と、前記音声出力手段の配置位置に応じて、前記画像表示手段の表示画面の分割方法の設定を行う領域設定手段と、前記画像表示手段の表示画面に対して、前記領域設定手段により設定された方法で分割した領域を設定する画面領域分割手段と、前記画面領域分割手段により分割された領域毎に、画素値が予め定められた所定の特徴を有する各画素の輝度値のフレーム間の差分平均値を算出する差分平均値算出手段と、前記複数チャンネルのそれぞれの音量を確認し、音声が出力される領域を特定する音量確認手段と、前記音量確認手段により音量を確認されて特定された音声が出力される領域に基づいて、前記差分平均値算出手段により算出された前記差分平均値を補正する差分平均値補正手段とを備え、声出力制御手段は、前記差分平均値補正手段により補正された差分平均値に基づいて、前記音声出力手段を制御し、前記音声を出力させる位置を選択する。
前記音声出力手段は、複数のスピーカを有し、前記音声出力制御手段は、前記音声出力手段を制御し、前記音声を出力させるスピーカを選択するようにすることができる。
前記音声出力手段は、前記音声の出力タイミングを制御することにより、仮想的に前記音声の出力位置を制御可能であり、前記音声出力制御手段は、前記音声出力手段を制御し、前記出力タイミングを選択することにより、前記音声を出力させる仮想的な位置を制御するようにすることができる。
前記画像および前記音声を視聴するユーザの位置を検出し、前記ユーザの位置に応じて、前記音声出力手段による前記音声の出力タイミングの遅延量を制御するユーザ位置対応処理手段をさらに備えるようにすることができる。
本発明の一側面の画像表示方法は、画像を表示する画像表示装置の画像表示方法であって、画像を表示し、前記画像に対応する複数チャンネルの音声を複数の位置より出力する音声出力手段の配置位置に応じて、表示画面の分割方法の設定を行い、前記表示画面に対して、設定された方法で分割した領域を設定し、分割された領域毎に、画素値が予め定められた所定の特徴を有する各画素の輝度値のフレーム間の差分平均値を算出し、複数チャンネルのそれぞれの音量を確認し、音声が出力される領域を特定し、特定された音声が出力される領域に基づいて、算出された前記差分平均値を補正し、補正された前記差分平均値に基づいて、前記音声を出力させる位置を選択し、選択された位置より前記音声を出力するステップを含む。
本発明の一側面のプログラムは、画像を表示する処理をコンピュータに行わせるプログラムであって、画像を表示し、前記画像に対応する複数チャンネルの音声を複数の位置より出力する音声出力手段の配置位置に応じて、表示画面の分割方法の設定を行い、前記表示画面に対して、設定された方法で分割した領域を設定し、分割された領域毎に、画素値が予め定められた所定の特徴を有する各画素の輝度値のフレーム間の差分平均値を算出し、複数チャンネルのそれぞれの音量を確認し、音声が出力される領域を特定し、特定された音声が出力される領域に基づいて、算出された前記差分平均値を補正し、補正された前記差分平均値に基づいて、前記音声を出力させる位置を選択し、選択された位置より前記音声を出力するステップを含む。
本発明の一側面においては、画像が表示され、その画像に対応する複数チャンネルの音声を複数の位置より出力する音声出力手段の配置位置に応じて、表示画面の分割方法の設定が行われ、表示画面に対して、設定された方法で分割した領域が設定され、分割された領域毎に、画素値が予め定められた所定の特徴を有する各画素の輝度値のフレーム間の差分平均値が算出され、複数チャンネルのそれぞれの音量が確認されて音声が出力される領域が特定され、特定された音声が出力される領域に基づいて、算出された差分平均値が補正され、補正された差分平均値に基づいて、音声を出力させる位置が選択され、選択された位置より音声が出力される。
本発明の一側面によれば、本発明の一側面によれば、画像を表示するとともに音声を出力することができる。特に、表示する画像に対応する音声を、より臨場感を高めるように出力することができる。
以下、本発明の実施の形態について図を参照して説明する。
図2は、本発明を適用した表示装置の外観の構成例を示す図である。図2において、表示装置10は、3台のスピーカ(スピーカ11乃至スピーカ13)を、画像を表示する領域の下側に有している。表示装置10は、テレビジョン信号を受信したり、外部入力を介してコンテンツデータを取得することにより、画像データや音声データを取得し、その画像データに対応する画像を表示画像20としてモニタに表示したり、その表示画像20に対応する音声をスピーカ11乃至スピーカ13より出力したりする。
例えば、表示画像20において人物21乃至人物23の3名が会話をしているような場合、表示装置10は、表示画像20を解析し、左端にいる人物21の音声を、左端に配置されたスピーカ11より出力し、中央にいる人物22の音声を、中央に配置されたスピーカ12より出力し、右端にいる人物23の音声を、右端に配置されたスピーカ11より出力する。このように表示画像20の内容に応じて、音声出力位置を制御することにより、表示装置10は、より臨場感を高めるように表示画像20に対応する音声を出力することができる。
図3は、その表示装置10の内部の構成例を示すブロック図である。
図3において、表示装置10は、アンテナ31、チューナ32、外部入力受付部33、入力制御部34、画像処理部35、音声処理部36、音声出力位置制御部37、表示部38、音声出力部39、制御部41、およびユーザ指示受付部42を有している。
チューナ31は、ユーザが所望する放送を選択(選局)し、アンテナ31を介して、その選択したテレビジョン信号を受信し、その受信したテレビジョン信号を入力制御部34に供給する。外部入力受付部は、映像や音声等のコンテンツデータを外部より取得する外部入力端子を有しており、その外部入力端子に接続されたケーブルを介して供給す荒れるコンテンツデータを取得し、それを入力制御部34に供給する。
入力制御部34は、ユーザ指示等に基づいて、テレビジョン信号やコンテンツデータの入力に関する処理を行い、例えば、テレビジョン信号やコンテンツデータより画像データと音声データを抽出して分離する等の処理を行う。また、入力制御部34は、出力する画像データを画像処理部35に供給し、出力する音声データを音声処理部36に供給する。
画像処理部35は、入力制御部34より供給される画像データに対して、例えばデータ形式の変換を行ったり、明度や彩度の調整等、画像を加工する画像処理等を行ったりし、処理後の画像データを表示部38に供給して画像を表示させる。また、画像処理部35は、処理後の画像データを音声出力位置制御部37にも供給する。
音声処理部36は、入力制御部34より供給される音声データに対して、エフェクト処理等の音声処理を施し、処理後の音声データを音声出力位置制御部37に供給する。なお、ここでは、音声データはモノラル方式の(単チャンネル)の情報であるものとする。ステレオ方式の(多チャンネル)音声データについては後述する。
音声出力位置制御部37は、画像処理部35より供給される画像データの画像を解析し、人物が発話する場面であれば、音声処理部36より供給される音声データの出力先を制御して、その音声を発話者の位置に近いスピーカより出力するように、音声データを音声出力部39に供給する。
表示部38は、画像を表示するモニタ(図示せず)を有しており、画像処理部35より供給される画像データに対応する画像をそのモニタに表示する。
音声出力部39は、図2のスピーカ11乃至スピーカ13を有しており、音声出力位置制御部37より供給される音声データを、音声出力位置制御部37に指定されたスピーカ(スピーカ11乃至スピーカ13のいずれか)より出力する。
例えば、音声出力部39のスピーカ11乃至スピーカ13のそれぞれと音声出力位置制御部37が互いに異なるバスで接続されており、音声出力位置制御部37は、音声データを出力するバスを選択することにより、音声データを出力するスピーカを選択する。音声出力部39では、音声データが供給されたスピーカより音声を出力する。
なお、音声出力部39が、出力先を切り替えるスイッチング機能を有し、音声出力位置制御部37が、いずれのスピーカより出力する際も使用される共通のバスを介して音声データを音声出力部39に供給するとともに、音声データの出力先を示す制御情報を音声出力部39に供給し、音声出力部39が、その制御情報に基づいてスイッチを切り替え、音声出力位置制御部37に選択されたスピーカより音声データを出力するようにしてもよい。
制御部41は、例えば、ユーザ指示受付部42により受け付けられたユーザ指示に基づく等して、チューナ32、外部入力受付部33、入力制御部34、画像処理部35、音声処理部36、音声出力位置制御部37、表示部38、および音声出力部39等を含む表示装置10全体を制御する。
ユーザ指示受付部42は、例えば、ユーザが操作する入力デバイスであるリモートコマンダより出力される赤外光を受光することにより、ユーザ指示を含む赤外線信号を受信する受光部を有しており、供給されたユーザ指示を取得するとそれを制御部41に供給する。なお、ユーザ指示受付部42は、例えば、ボタンやスイッチ、または、キーボードやマウス等の入力デバイスを有するようにしてもよい。
図4は、音声出力位置制御部37の詳細な構成例を示すブロック図である。
図4において、音声出力位置制御部37は、画面領域分割部51、差分平均値算出部52、判定部53、および音声出力制御部54を有している。
画面領域分割部51は、表示画面をスピーカの配置に応じて複数の領域に分割し、画像処理部35より供給される画像データの各フレーム画像に対して、その複数の領域を割り当てる。
図5に領域分割の例を示す。図5に示されるように、表示装置10は、水平方向に並べられた3台のスピーカ(スピーカ11乃至スピーカ13)を有している。したがって、画面領域分割部51は、表示画像20を水平方向に3分割した領域61乃至領域63の3つの領域に分割する。図5においては、この分割により、表示画像20に含まれる人物21乃至人物23の画像が、それぞれ、領域61乃至領域63に割り当てられている。
図4に戻り、差分平均値算出部52は、画像データの各フレーム画像において、予め定められた所定の特徴を示す部分を特定し、その部分の輝度値をフレーム間で差分を算出することにより、特徴部分の輝度値のフレーム間変動量を測定する。そして、差分平均値算出部52は、そのフレーム間変動量の平均値を領域毎に算出する。差分平均値算出部52の詳細な構成例については後述する。差分平均値算出部52は、算出した差分平均値を判定部53に供給する。
判定部53は、差分平均値の値に基づいて、音声出力位置制御を行うか否かを判定し、その判定結果を音声出力制御部54に通知する。音声出力制御部54は、判定部53の判定結果に基づいて、供給された音声データの出力位置を制御し、音声データを音声出力部39のスピーカ11乃至スピーカ13のいずれかに供給する。音声データの出力位置を制御しない場合、音声出力制御部54は、音声データを、音声出力部39のスピーカ11乃至スピーカ13の全てに供給する。
図6は、図4の差分平均値算出部52の詳細な構成例を示すブロック図である。図6において、差分平均値算出部52は、画素値変換部71、フレームメモリ72、特徴画素抽出部53、変数管理部74、差分算出部75、判定部76、差分平均算出部77、および差分平均値記憶部78を有している。
画素値変換部71は、画面領域分割部51より供給される画像データおよび領域情報を取得すると、画像データを所定のデータ形式に画素毎に変換し、それをフレームメモリ72に供給して保持させる。フレームメモリ72は、フレーム単位で画像データを1フレーム分保持する。つまり、フレームメモリ72は、そのフレーム画像のデータを、次のフレーム画像に対する処理が開始されるまで保持する。また画素値変換部71は、その画像データや領域情報を特徴画素抽出部73に供給する。
特徴画素抽出部73は、画像データに含まれる、予め定められた所定の特徴を有する画素である特徴画素を抽出する。例えば、特徴画素抽出部73は、供給された画像データの各画素について、色相、彩度、明度、輝度値、またはRGBの値等に基づいて、人物の特徴を示す特徴画素(所定の色値範囲に含まれる画素)を抽出する。特徴画素抽出部73は、特徴画素を抽出する度に、変数管理部74に保持されて管理されている変数である領域内特徴画素数81をインクリメントさせる。
変数管理部74は、特徴画素の数を領域毎にカウントするための変数である領域内特徴画素数81、および、特徴画素のフレーム間の輝度値の差分値を領域毎に合計するための変数である領域内差分値総和82を記憶し、その値の更新や入出力を管理する。例えば、変数管理部74は、特徴画素抽出部73が特徴画素を抽出する度に、領域内特徴画素数81をインクリメントする。また、変数管理部74は、例えば、差分算出部75より供給される、特徴画素における輝度値のフレーム間の差分値を取得し、その差分値を領域内差分値総和82に加算する。さらに変数管理部74は、例えば、領域内特徴画素数81や領域内差分値総和82を必要に応じて差分平均値算出部77に提供する。
差分算出部75は、フレームメモリ72に保持されている1フレーム前の画像データを取得すると、特徴画素抽出部73により抽出された特徴画素について、1フレーム前の輝度値と現在のフレームの輝度値の差分値を算出する。差分算出部75は、算出した差分値を変数管理部74に供給する。
判定部76は、その処理結果を受けて、領域内の全ての画素について処理を行ったか否かを判定し、領域内の画素の処理が全て終了すると、その旨を差分平均値算出部77に通知する。
差分平均値算出部77は、変数管理部74に保持されている領域内特徴画素数81および領域内差分値総和を取得し、それらを用いて領域毎の差分値の平均値である差分平均値を算出する。差分平均値記憶部78は、差分平均値算出部77により算出された差分平均値を記憶する。また、差分平均値記憶部78は、全領域について差分平均値を記憶すると、その差分平均値を判定部53に供給する。
次に、各部の具体的な処理の流れを説明する。
最初に、表示装置10により実行される画像表示処理の流れの例を図7のフローチャートを参照して説明する。
ステップS1において、入力制御部34は、チューナ32を介してテレビジョン信号を受信し、受信したテレビジョン信号より画像データや音声データを抽出する。ステップS2において、画像処理部35は、画像データに対して画像処理を行う。ステップS3において、音声処理部36は、音声データに対して音声処理を行う。ステップS4において、音声出力位置制御部37は、画像データの画像に応じて、音声データの音声を出力するスピーカ(音声出力位置)を制御する。この音声出力位置制御処理の詳細については後述する。
ステップS5において、表示部38は、供給された画像データの画像を表示する。ステップS6において、音声出力部39は、供給された音声データの音声を、音声出力位置制御部37の制御に基づくスピーカ(位置)より出力する。
ステップS7において、制御部41は、画像表示処理を終了するか否かを判定し、終了しないと判定した場合、処理をステップS1に戻し、それ以降の処理を繰り返す。また、ステップS7において、画像表示処理を終了すると判定した場合、制御部41は、処理をステップS8に進め、電源を切断する等の終了処理を行い、画像表示処理を終了する。
次に、図7のステップS4において実行される音声出力位置制御処理の詳細な流れの例を図8のフローチャートを参照して説明する。
音声出力位置制御処理が開始されると、画面領域分割部51は、ステップS21において、画面領域をスピーカ配置に対応する複数の領域に分割する。ステップS22において、差分平均値算出部52は、分割された各領域において、所定の特徴を示す画素(特徴画素)の差分平均値を算出する。特徴画素差分平均値算出処理の詳細については後述する。
ステップS23において、判定部53は、全ての領域で差分平均値が予め定められた所定の閾値以下であるか否かを判定する。1つでも差分平均値が閾値以上であると判定した場合、判定部53は、処理をステップS24に進める。ステップS24において、音声出力制御部54は、差分平均値が最も大きい領域、すなわち、例えば口等の特徴を示す画像の動きが最も激しい領域を特定し、その領域に喋る人物が存在すると判定し、その領域に対応するスピーカを、音声を出力するスピーカとして選択し、ステップS25において、その選択に基づいて音声データを音声出力部39に供給し、その差分平均値が最も大きい領域に対応するスピーカより音声を出力させる。音声出力制御部54は、ステップS25の処理を終了すると、ステップS27に処理を進める。
また、ステップS23において、全ての領域で差分平均値が閾値以下であると判定した場合、判定部53は、処理をステップS26に進める。ステップS26において、音声出力制御部54は、音声データを全てのスピーカに供給し、全てのスピーカより音声を出力させる。ステップS26の処理を終了すると音声出力制御部54は、処理をステップS27に進める。
ステップS27において、音声出力制御部54は、音声出力位置制御処理を終了するか否かを判定し、終了しないと判定した場合、処理をステップS22に戻し、それ以降の処理を繰り返させる。また、ステップS27において、音声出力位置制御処理を終了すると判定した場合、音声出力制御部54は、処理をステップS28に進め、終了処理を行い、音声出力位置制御処理を終了し、処理を図7のステップS4に処理を戻し、ステップS5以降の処理を実行させる。
次に、図9のフローチャートを参照して、図8のステップS22において実行される特徴画素差分平均値算出処理の詳細な流れの例を説明する。
ステップS41において、変数管理部74は、領域内特徴画素数81および領域内差分値総和82等の変数を初期化する。ステップS42において、画素値変換部71は、画素値を変換する。特徴画素抽出部73は、ステップS43において、画素値変換部71により画素値が変換された画素が、人物の画像の特徴を有する特徴画素であるか否かを判定し、特徴画素であると判定した場合、処理をステップS44に進める。
ステップS44において、変数管理部74は、領域内特徴画素81に「+1」を加算する。ステップS45において、差分算出部75は、前フレームと輝度値の差分を算出する。ステップS46において、変数管理部74は、領域内差分値総和82に差分値を加算する。ステップS46の処理を終了すると、変数管理部74は、処理をステップS47に進める。また、ステップS43において、特徴画素でないと判定した場合、特徴画素抽出部73は、処理をステップS47に進める。
ステップS47において、判定部76は、領域内の全ての画素を処理したか否かを判定し、処理していないと判定した場合、処理をステップS42に戻し、次の画素についてそれ以降の処理を繰り返させる。また、ステップS47において、領域内の全ての画素を処理したと判定した場合、判定部76は、処理をステップS48に進める。
ステップS48において、差分平均値算出部77は、領域内特徴画素数81と領域内差分値総和82の値に基づいて、領域内の差分平均値を算出する。差分平均値記憶部78は、ステップS49において、算出された差分平均値を記憶し、ステップS50において、全領域について処理が終了したか否かを判定し、未処理の領域が存在すると判定した場合、処理をステップS41に戻し、次の領域に対してそれ以降の処理を繰り返させる。
また、ステップS50において、全領域について処理したと判定した場合、差分平均値記憶部78は、特徴画素差分平均値算出処理を終了し、処理を図8のステップS22に戻し、ステップS23以降の処理を実行させる。
以上のような各処理を行い、表示装置10は、図2に示されるような表示画像20に対して、表示画像20を解析することにより、画素値の特徴から人物21乃至人物23を特定するだけでなく、フレーム間の差分平均値を用いて人物21乃至人物23の誰が喋っているかを特定し、例えば、人物21の音声をスピーカ11より出力し、人物22の音声をスピーカ12より出力し、人物23の音声をスピーカ13より出力するように、表示画像20の内容に応じて音声の出力位置を制御する。
このようにすることにより、表示装置10は、表示する画像に対応する音声を、より臨場感を高めるように出力することができる。
なお、スピーカの数は任意であり、その配置も任意である。また、領域とスピーカは、1対1で関連付けられていなくてもよく、1つのスピーカが複数の領域に対応するようにしてもよいし、1つの領域に複数のスピーカが対応するようにしてもよい。例えば、図10Aに示されるように、表示装置10が、表示画像20を囲むように14個のスピーカ(スピーカ91A乃至スピーカ91P)を有するようにしてもよい。その場合、表示画像20は、図10Bに示されるように、縦方向に3つ、横方向に4つの合計12個の領域(領域101乃至領域112)に分割される。
このとき、例えば、領域101にはスピーカ91Aおよびスピーカ91Pが対応し、領域102にはスピーカ91Bが対応し、領域103にはスピーカ91Cが対応し、領域104にはスピーカ91Dおよびスピーカ91Eが対応し、領域105にはスピーカ91Nが対応し、領域106にはスピーカ91B、スピーカ91F、スピーカ91K、およびスピーカ91Nが対応し、領域107にはスピーカ91C、スピーカ91F、スピーカ91J、およびスピーカ91Nが対応し、領域108にはスピーカ91Fが対応し、領域109にはスピーカ91Lおよびスピーカ91Mが対応し、領域110にはスピーカ91Kが対応し、領域111にはスピーカ91Jが対応し、領域112にはスピーカ91Gおよびスピーカ91Hが対応するようにする。もちろん、その他の方法で対応付けるようにしてもよい。
なお、本発明は画像を表示するとともに、その画像に対応する音声を出力するものであればどのようなものであってもよい。例えば、図11に示されるようにプロジェクタを利用するシステムであってもよい。図11の場合、スクリーン121の奥側にプロジェクタ122が存在し、そのプロジェクタ122が、スクリーン121の裏側に画像を投影している。スクリーン121の手前側には、奥側に向かってスピーカ131乃至スピーカ142が並べて配置されており、プロジェクタ122が投影する画像123に対応する音声がそれらのスピーカより出力されるようになされている。すなわち、スピーカ131乃至スピーカ142は、プロジェクタ122がスクリーン122に投影した画像123の裏側から音声を出力する。
このようなシステムにおいて、上述したように、投影された画像123の内容に応じて、音声ををスピーカ131乃至スピーカ142の中から選択して出力することにより、例えば、喋る人物の真裏のスピーカよりその人物の音声を出力させることができる。従って、図11のシステムは、表示する画像に対応する音声を、より臨場感を高めるように出力することができる。
なお、音声を出力するスピーカを選択するのではなく、各スピーカより出力される音量を制御するようにしてもよい。つまり、各スピーカより音声を出力するか否かを制御するのではなく、上述したように選択された領域に対応するスピーカより主に出力するようにし、それ以外の領域に対応するスピーカより出力する音声の音量を小さくするようにしてもよい。
また、音声データのチャンネル数は複数であってもよく、例えば、BGMのように、表示画像20において音声の出力位置が特定できない音声と、人物の声のように、表示画像20において音声の出力位置が特定可能な音声とを互いに異なるチャンネルに分けられている音声データを処理するようにしてもよい。
図12は、そのような場合の表示装置の構成例を示すブロック図である。図12において、表示装置150は、基本的に表示装置10と同様の構成を有するが、音声処理部151は、音声処理部36と異なり、入力された音声データの各チャンネルの音声を分割して出力する。BGMのように音声の出力位置が特定できない音声は、直接音声出力部152に供給され、音声出力位置制御部37は、人物の声のように音声の出力位置が特定可能な音声のみを処理する。音声出力部152は、各チャンネルの音声データを取得して、スピーカ毎に各チャンネルを合成して音声を出力する。
以上のように、表示装置は、一部のチャンネルの音声のみを、出力位置制御するようにしてもよい。なお、各チャンネルの音声を、互いに独立して出力位置制御するようにしてもよい。
さらに、表示装置が、ステレオ方式のように、左右2チャンネルの音声データの出力位置を制御するようにしてももちろんよい。その場合、図13に示されるように、左右2チャンネルのスピーカを1組として、上述したモノラル方式の音声データと同様に処理するようにしてもよい。
例えば、図13の場合、表示装置160は、水平方向に並ぶように配置された3つのステレオスピーカ(ステレオスピーカ161乃至ステレオスピーカ163)を有している。ステレオスピーカ161は、左スピーカ161Aと右スピーカ161Bを有し、左右2チャンネルの音声を出力することができる。ステレオスピーカ162も同様に、左スピーカ162Aと右スピーカ162Bを有し、左右2チャンネルの音声を出力することができる。ステレオスピーカ163も同様に、左スピーカ163Aと右スピーカ163Bを有し、左右2チャンネルの音声を出力することができる。
表示装置160は、モノラル方式の場合と同様に、表示画像20に基づいて、左右2チャンネルの音声を出力するステレオスピーカをステレオスピーカ161乃至ステレオスピーカ163の中から選択し、その選択したステレオスピーカ(の左スピーカおよび右スピーカ)より左右2チャンネルの音声を出力する。なお、このとき、ステレオ音声の左右チャンネルの音量差を用いて、画像に基づいて行う出力位置の制御を補正することもできる。
また、音声の出力位置を制御しない場合は、表示装置160は、ステレオスピーカ161乃至ステレオスピーカ163を1つのステレオスピーカとして使用し、1方向からステレオ音声を出力する。例えば、ステレオスピーカ162からの音声出力を停止し、ステレオスピーカ161(左スピーカ161Aおよび右スピーカ161Bの両方)より左チャンネルの音声を出力させ、ステレオスピーカ163(左スピーカ163Aおよび右スピーカ163Bの両方)より右チャンネルの音声を出力させる。
このような音声出力位置制御処理の流れの例を図14のフローチャートを参照して説明する。
音声出力位置制御処理が開始されると、画面領域分割部51は、ステップS71において、画面領域をスピーカ配置に対応する複数の領域に分割する。ステップS72において、差分平均値算出部52は、分割された各領域において、図9のフローチャートを参照して説明したように、所定の特徴を示す画素(特徴画素)の差分平均値を算出する。
ステップS73において、判定部53は、全ての領域で差分平均値が予め定められた所定の閾値以下であるか否かを判定し、1つでも差分平均値が閾値以上であると判定した場合、処理をステップS74に進める。ステップS74において、音声出力制御部54は、差分平均値および音声データに基づいて音声の出力を制御する。ステップS74の処理を終了すると、音声出力制御部54は、処理をステップS76に進める。
また、ステップS73において、全ての領域で差分平均値が閾値以下であると判定した場合、判定部53は、処理をステップS75に進める。ステップS75において、音声出力制御部54は、全てのスピーカをステレオスピーカとして制御し、音声を出力させる。ステップS75の処理を終了すると音声出力制御部54は、処理をステップS76に進める。
ステップS76において、音声出力制御部54は、音声出力位置制御処理を終了するか否かを判定し、終了しないと判定した場合、処理をステップS72に戻し、それ以降の処理を繰り返させる。また、ステップS76において、音声出力位置制御処理を終了すると判定した場合、音声出力制御部54は、処理をステップS77に進め、終了処理を行い、音声出力位置制御処理を終了し、処理を図7のステップS4に処理を戻し、ステップS5以降の処理を実行させる。
以上のようにすることにより、表示装置は、音声データが多チャンネルの場合も、表示する画像に対応する音声を、より臨場感を高めるように出力することができる。
なお、音声出力制御部54は、ステレオ音声の左右チャンネルの音量差を用いて、差分平均値を補正することにより、画像に基づいて行う出力位置の制御を補正するようにしてもよい。その場合の音声出力制御部54の詳細な構成例を図15に示す。
図15において、音声出力制御部54は、音量確認部171、差分平均値補正部172、領域特定部173、および出力制御部174を有している。
音量確認部171は、音声データの左右チャンネルの音量差を確認し、主に左右方向のどの方向から音声が出力されているかを確認し、その確認結果を差分平均値補正部172に供給する。差分平均値補正部172は、その確認結果に基づいて各領域の差分平均値の値を所定の割合で補正し、その補正後の差分平均値を領域特定部173に供給する。領域特定部173は、補正された差分平均値に基づいて、音声が出力される領域を特定し、その特定結果を出力制御部174に供給する。出力制御部174は、特定結果に基づいて、音声が出力される領域に対応するスピーカより音声が出力されるように、音声データを音声出力部39に供給する。
次に、この音声出力制御部54により、図14のステップS74において実行される音声出力制御処理の流れの例を図16のフローチャートを参照して説明する。
最初に、ステップS91において、音声確認部171は、音声データの各チャンネルの音量に基づいて音声が出力される領域である音声出力領域を特定する。ステップS92において、差分平均値補正部172は、ステップS91において特定された音声出力領域に基づいて、各領域の差分平均値を補正する。例えば、差分平均値補正部172は、音声出力領域の差分平均値を10%増加させ、それ以外の領域の差分平均値を10%低下させる等して、音声出力領域の差分平均値が大きくなるように補正する。
ステップS93において、領域特定部93は、その補正後の差分平均値が最も大きい領域を特定する。ステップS94において、出力制御部174は、差分平均値が最も大きい領域に対応するスピーカより音声を出力させるように出力を制御する。ステップS94の処理を終了すると、音声出力制御部54は、音声出力制御処理を終了し、図14のステップS74に処理を戻し、ステップS76以降の処理を実行させる。
なお、これ以外の方法で音声データを用いて音声出力制御を補正するようにしてもよい。例えば、表示画像の内容に基づいて、音声を出力するスピーカの切り替えを制御するのではなく、各スピーカより出力される音声の音量の大小を制御する場合、表示装置が、その表示画像の内容に基づいて決定された各スピーカの音量を、音声データの左右チャンネルの音量に基づいて補正するようにしてもよい。
その場合の音声出力制御部54の詳細な構成例を図17に示す。
図17において、音声出力制御部54は、領域特定部181、音量調整部182、音量確認部183、比較部184、調整量補正部185、および出力制御部186を有している。
領域特定部181は、差分平均値が最も大きい領域を特定し、その結果を音量調整部182と比較部184に供給する。音量調整部182は、その結果に基づいて、各領域に対応するスピーカより出力する音量を調整する制御情報を生成し、その制御情報を調整量補正部185に供給する。音量確認部183は、音声データの左右チャンネルの音量差に基づいて、表示画像において音声が出力されている領域を特定し、その結果を比較部184に供給する。比較部184は、領域特定部181より供給された情報と、音量確認部183より供給された情報を比較し、両者が指定する領域が一致するか否かを判定し、その判定結果を調整量補正部185に供給する。
調整量補正部185は、その判定結果に基づいて、領域特定部181が特定した差分平均値が最も大きい領域と、音量確認部183が特定した音声が出力されている領域が一致する場合、音声出力位置の偏りが強く、かつ、その領域の特定の精度が高いと推定されるので、音量調整部182により生成された制御情報を補正し、領域間の音量差(各スピーカの音量差)が大きくなるように再調整する。逆に、領域特定部181が特定した差分平均値が最も大きい領域と、音量確認部183が特定した音声が出力されている領域が一致しない場合、音声出力位置の偏りが弱く、かつ、その領域の特定の精度が低いと推定されるので、調整量補正部185は、音量調整部182により生成された制御情報を補正し、領域間の音量差(各スピーカの音量差)が小さくなるように再調整する。
調整量補正部185は、調整量を補正した制御情報を出力制御部186に供給する。出力制御部186は、供給された制御情報に基づいて、各スピーカの音声データを出力する音量を制御する。
次に、この音声出力制御部54により、図14のステップS74において実行される音声出力制御処理の流れの例を図18のフローチャートを参照して説明する。
ステップS111において、領域特定部181は、供給された領域毎の差分平均値を参照し、差分平均値が最も大きい領域を特定する。ステップS112において、音量調整部182は、ステップS111の処理の特定結果に基づいて、スピーカ間で出力音声の音量差が生じるように出力音声を調整する制御情報を生成する。
ステップS113において、音量確認部183は、音声データの各チャンネルの音量に基づいて、音声出力領域を特定する。ステップS114において、比較部184は、ステップS111の処理において特定された、差分平均値が最も大きい領域と、ステップS113の処理において特定された音声出力領域を比較する。
ステップS115において、比較部184は、この2つの領域が一致するか否かを判定し、一致すると判定した場合、処理をステップS116に進める。ステップS116において、調整量補正部185は、音量差がステップS112において設定されたデフォルト値より大きくなるように調整量を補正する。ステップS116の処理を終了すると調整量補正部185は、処理をステップS118に進める。
また、ステップS115において、2つの領域が一致しないと判定した場合、比較部184は、処理をステップS117に進める。ステップS117において、調整量補正部185は、音量差がステップS112において設定されたデフォルト値より小さくなるように調整量を補正する。ステップS117の処理を終了すると調整量補正部185は、処理をステップS118に進める。
ステップS118において、出力制御部186は、調整量が補正された制御情報に基づいて各スピーカの出力音声の音量を調整し、音声を出力させる。ステップS118の処理を終了すると、音声出力制御部54は、音声出力制御処理を終了し、図14のステップS74に処理を戻し、ステップS76以降の処理を実行させる。
以上のように、表示画像を解析することにより決定する音声の出力制御を、音声データの解析を用いて補正することにより、表示装置は、より正確に音声の出力制御を行うことができ、より臨場感を高めるように音声を出力することができる。
なお、表示装置は、音声を出力させるスピーカを切り替えるだけでなく、音声処理により擬似的に音声の出力位置を制御するようにしてもよい。このようにすることにより、表示装置は、音声の出力位置をスピーカの配置場所や個数の制限を受けることなく、ユーザに、任意の位置より音声が出力されていると感じさせることができる。
また、コンテンツを視聴するユーザの、表示装置に対する位置に応じて、各スピーカの音声の出力タイミング(遅延量)を制御することにより、仮想的に出力位置を変更する(ユーザが感じる音声出力位置を変更する)ことができる。
図19は、その場合の表示装置の構成例を示すブロック図である。
図19において、表示装置200は、表示装置10の構成に加えて、ユーザ位置対応処理部201を有している。ユーザ位置対応処理部201には、ユーザ指示受付部42を介してリモートコマンダよりユーザ指示コマンドと共に供給される、リモートコマンダに設けられている位置センサの出力情報であるリモートコマンダの位置情報が供給される。ユーザ位置対応処理部201は、その位置情報に基づいてリモートコマンダの表示装置200を基準とする位置を検出し、それをユーザ位置とする。そして、ユーザ位置対応処理部201は、そのユーザ位置に基づいて、各スピーカの音声出力の遅延量を演算し、その遅延量分だけ音声出力位置制御部37より供給される音声データを遅延させてから、音声出力部39に供給し音声出力させる。つまり、ユーザ位置対応処理部201は、ユーザ位置(ユーザの表示装置からの相対位置)に基づいて音声出力を遅延させる。
図20は、ユーザ位置対応処理部201の詳細な構成例を示すブロック図である。図20において、ユーザ位置対応処理部201は、リモートコマンダ位置検出部211、遅延量演算部212、および遅延量制御部213を有している。
リモートコマンダ位置検出部211は、リモートコマンダより供給される位置センサの出力情報に基づいてリモートコマンダの位置をユーザ位置として検出し、その情報を遅延量演算部212に供給する。遅延量演算部212は、リモートコマンダ位置検出部211より供給されるユーザ位置の情報に基づいて、各スピーカの音声出力の遅延量を演算し、それを遅延制御部213に供給する。遅延制御部213は、音声出力位置制御部37より供給される各スピーカ用の音声データの出力タイミングを遅延量の分だけ遅延させてから音声出力部39に供給し、音声を出力させる。
次に、この具体的な処理の流れの例として、ユーザ位置対応処理部201により実行されるユーザ位置対応処理の流れの例を図21のフローチャートを参照して説明する。
ステップS131において、リモートコマンダ位置検出部211は、リモートコマンダの位置を検出することによりユーザ位置を検出する。ステップS132において、遅延量演算部212は、ユーザ位置に基づいて、各スピーカの音声出力の遅延量を演算する。ステップS133において、遅延制御部213は、算出された遅延量の分だけ、各スピーカの音声出力を遅延させる。ステップS134において、ユーザ位置対応処理部201は、ユーザ位置対応処理を終了するか否かを判定し、終了しないと判定した場合、処理をステップS131に戻し、それ以降の処理を繰り返させる。また、ステップS134において、ユーザ位置対応処理を終了すると判定した場合、ユーザ位置対応処理部201は、ユーザ位置対応処理を終了する。
以上のように、ユーザ位置に応じて音声出力のタイミングを制御することにより、表示装置は、表示画像の対応する位置から音声が出力されているように、ユーザにより強く感じさせることができ、より臨場感を高めるように音声を出力することができる。
また、表示装置が有するスピーカは、表示装置より着脱可能であるようにしてもよい。図22は、スピーカが着脱可能な表示装置の例を示す斜視図である。
図22において、表示装置231は、画像表示面を正面としたときの上下左右の4側面に、スピーカを装着するための複数の凹部が設けられている。スピーカ233Aおよびスピーカ233Bは、この表示装置231に着脱可能なスピーカである。スピーカ233Aおよびスピーカ233Bを互いに区別して説明する必要のない場合は、スピーカ233と称する。スピーカ233には、スピーカ233Bに示されるように凸部234が設けられている。この凸部234は、表示装置231の凹部232に対応しており、ユーザは、この凸部234を表示装置231の凹部232に嵌合するようにスピーカ233を表示装置231に装着することにより、スピーカ233を表示装置231の側面に固定することができる。
また、ユーザは、表示装置231に固定されているスピーカ233を、表示装置231より離すように引っ張ることにより、表示装置231から分離することができる。
なお、凹部232および凸部234にはそれぞれ対応する位置に電極が設けられており、スピーカ233が表示装置231に固定された状態において、表示装置231の内部回路とスピーカ233が電気的に接続され、表示装置231が出力する音声信号をスピーカ233が取得し、その音声信号に対応する音声を出力することができるようになされている。
さらに、表示装置231に複数設けられた凹部232は、いずれも同じ形状であり、スピーカ233は、任意の凹部232に装着可能である。つまり、表示装置231には、スピーカ233を、凹部232の個数分装着することができる。
また、表示装置231は、図23に示されるように、スピーカの配置の設定の入力を案内するメニュー画面を表示する。図23に示される表示装置231は、入力案内画像241が表示されている。ユーザは、この入力案内画像241に従って、実際に設置したスピーカの配置を入力したり、若しくは、予め用意されたパターンの中から実際の配置に最も近いパターンを選択したりする。表示装置231は、入力されたスピーカの配置に関する情報に基づいて、表示画像の領域の分割方法を決定し、その設定を記憶しておき、その設定を音声出力位置制御に利用する。
図24は、その場合の表示装置231の内部の構成例を示すブロック図である。図24において、表示装置231は、表示装置10と基本的に同様の構成を有するが、表示装置10の構成に加え、さらに、領域設定部251を有する。
領域設定部251は、画像処理部35に入力案内画像241の画像データを供給し、表示部38に表示させる。ユーザは、その入力案内画像241に基づいてリモートコマンダを操作し、スピーカの配置に関する情報を入力する。ユーザ指示受付部42は、そのユーザ指示を取得すると、それを領域設定部251に供給する。領域設定部251は、ユーザに入力されたスピーカ配置に関する情報に基づいて、領域の設定を行い、その設定情報を音声出力位置制御部37に供給する。音声出力位置制御部37は、その設定に基づいて表示画像を、スピーカ配置に対応する複数の領域に分割する。
図25は、その領域設定部251の詳細な構成例を示すブロック図である。図25において、領域設定部251は、入力案内画像表示制御部261、ユーザ入力受付処理部262、領域設定選択部263、および分割テーブル記憶部264を有している。
入力案内画像表示制御部261は、入力案内画像241を画像処理部35に供給する。ユーザ入力受付処理部262は、その入力案内画像241に従って入力されたユーザ入力を、ユーザ指示受付部42を介して取得すると、そのユーザ入力よりスピーカの配置に関する情報であるスピーカ位置情報を抽出し、それを領域設定選択部263に供給する。領域設定選択部263は、分割テーブル記憶部264に記憶されている、スピーカの配置パターンと領域の分割パターンとを関連付ける分割テーブルに基づいて、供給されたスピーカ位置情報に対応する領域の分割パターンを選択し、それを領域設定として音声出力位置制御部37に供給する。
この領域設定部251により実行される領域設定処理の具体的な処理の流れの例を図26のフローチャートを参照して説明する。
ステップS151において、入力案内画像表示制御部261は、入力案内画像241を表示部38に表示させる。ステップS152において、ユーザ入力受付処理部262は、ユーザ入力を受け付ける。ユーザ入力受付処理部262は、ステップS153において、ユーザ入力を受け付けたか否かを判定し、受け付けたと判定するまで、処理をステップS152に戻し、それ以降の処理を繰返し実行する。ステップS153において、ユーザ入力を受け付けたと判定した場合、ユーザ入力受付処理部262は、処理をステップS154に進める。ステップS154において、領域設定選択部263は、スピーカ位置および分割テーブルに基づいて最適な領域設定を選択する。ステップS154の処理が終了すると、領域設定部251は、領域設定処理を終了する。
以上のように領域を設定することにより、表示装置は、任意の位置に任意の個数のスピーカを配置しても、表示する画像に対応する音声を、より臨場感を高めるように出力することができる。
なお、表示装置231の凹部232のそれぞれに設けられたスピーカ接続端子の接続状況を確認することにより、表示装置231が、スピーカ233の配置を、図23に示されるようなユーザ入力無しに自動的に把握することができるようにしてもよい。
図27は、そのような場合の表示装置231の内部の構成例を示すブロック図である。
図27において、表示装置231は、表示装置10と基本的に同様の構成を有するが、表示装置10の構成に加えて、さらに、領域設定部301を有する。
領域設定部301は、音声出力部39よりスピーカ233が接続されたことを示す接続情報を取得する。例えば、領域設定部301が各凹部232に設けられたスピーカ接続端子に所定の信号を送信したり、スピーカ接続端子の電圧を測定したりして、応答信号や電圧等に基づいてスピーカの接続状況を確認する。そして、領域設定部301は、検出されたスピーカの配置に基づいて領域の設定を行い、その領域設定の情報を音声出力位置制御部37に供給する。音声出力位置制御部37は、その設定に基づいて表示画像を、スピーカ配置に対応する複数の領域に分割する。
図28は、領域設定部301の詳細な構成例を示すブロック図である。図28において、領域設定部301は、接続確認部311、スピーカ位置記憶部312、領域設定選択部313、および分割テーブル記憶部314を有する。
接続確認部311は、各スピーカ接続端子より接続情報を取得し、スピーカの接続状況を確認する。そして接続確認部311は、スピーカを検出すると、その位置を示すスピーカ位置情報をスピーカ位置記憶部312に供給する。スピーカ位置記憶部312は、検出されたスピーカの位置を全て記憶し、必要に応じて、その位置情報を領域設定選択部313に供給する。
領域設定選択部313は、接続確認部311が全てのスピーカ接続端子について接続を確認すると、スピーカ位置記憶部312より、検出されたスピーカの位置を示すスピーカ位置情報を取得し、分割テーブル記憶部314より、スピーカの配置パターンと領域の分割パターンとを関連付ける分割テーブルを取得する。領域設定選択部313は、この分割テーブルを用いて、スピーカの配置に対応する分割パターンを選択し、それを領域設定として音声出力位置制御部37に供給する。
この領域設定部301により実行される領域設定処理の具体的な処理の流れを図29のフローチャートを参照して説明する。
ステップS171において、接続確認部311は、未処理のスピーカ接続端子を選択する。ステップS172において、接続確認部311は、選択したスピーカ接続端子について、スピーカ接続を確認する。ステップS173において接続確認部311は、スピーカが検出されたか否かを判定し、検出されたと判定した場合、処理をステップS174に進める。ステップS174において、スピーカ位置記憶部312は、検出されたスピーカの位置を記憶し、処理をステップS175に進める。また、ステップS173において、スピーカが検出されなかったと判定した場合、接続確認部311は、ステップS174の処理を省略し、ステップS175に処理を進める。ステップS175において、接続確認部311は、全てのスピーカ接続端子を確認したか否かを判定し、未処理のスピーカ接続端子が存在すると判定した場合、処理をステップS171に戻し、それ以降の処理を繰り返す。また、ステップS175において、全ての接続端子を確認したと判定した場合、接続確認部311は、処理をステップS176に進める。ステップS176において、領域設定選択部313は、スピーカ位置および分割テーブルに基づいて領域設定を選択し、それを音声出力位置制御部37に供給すると、領域設定処理を終了する。
以上のように表示装置がスピーカを検出し、領域を設定することにより、ユーザはより容易に領域の設定を行うことができる。つまり、表示装置は、ユーザによる煩雑な作業を伴わずに、表示する画像に対応する音声を、より臨場感を高めるように出力することができる。
なお、接続されたスピーカを検出するために、表示装置231の凹部232のそれぞれにスピーカ233が接続されたことを検出するセンサやスイッチを設けるようにしてもよい。その場合、領域設定部301は、それらのセンサやスイッチからの出力情報を取得し、スピーカを検出する。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、音声出力位置制御部37、ユーザ位置対応処理部201、領域設定部251、または領域設定部301は、図30に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
図30において、パーソナルコンピュータ400のCPU(Central Processing Unit)401は、ROM(Read Only Memory)402に記憶されているプログラム、または記憶部413からRAM(Random Access Memory)403にロードされたプログラムに従って各種の処理を実行する。RAM403にはまた、CPU401が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU401、ROM402、およびRAM403は、バス404を介して相互に接続されている。このバス404にはまた、入出力インタフェース410も接続されている。
入出力インタフェース410には、キーボード、マウスなどよりなる入力部411、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部412、ハードディスクなどより構成される記憶部413、モデムなどより構成される通信部414が接続されている。通信部414は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース410にはまた、必要に応じてドライブ415が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア421が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部413にインストールされる。
上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図30に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア421により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM402や、記憶部413に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
従来のテレビジョン受像機を示す斜視図である。 本発明を適用した表示装置の外観の構成例を示す図である。 図2の表示装置の内部の構成例を示すブロック図である。 図3の音声出力位置制御部の詳細な構成例を示すブロック図である。 領域分割の例を示す模式図である。 図4の差分平均値算出部の詳細な構成例を示すブロック図である。 画像表示処理の流れの例を説明するフローチャートである。 音声出力位置制御処理の流れの例を説明するフローチャートである。 特徴画素差分平均値算出処理の流れの例を説明するフローチャートである。 表示装置の外観の、他の構成例を示す図である。 本発明を適用したプロジェクションシステムの構成例を示す図である。 表示装置の他の構成例を示すブロック図である。 表示装置の外観の、さらに他の構成例を示す図である。 音声出力位置制御処理の流れの、他の例を説明するフローチャートである。 音声出力制御部の詳細な構成例を示すブロック図である。 音声出力制御処理の流れの例を説明するフローチャートである。 音声出力制御部の詳細な、他の構成例を示すブロック図である。 音声出力制御処理の流れの、他の例を説明するフローチャートである。 表示装置のさらに他の構成例を示すブロック図である。 図19のユーザ位置対応処理部の詳細な構成例を示すブロック図である。 ユーザ位置対応処理の流れの例を説明するフローチャートである。 表示装置の外観の、さらに他の構成例を示す図である。 入力案内画像の表示例を示す模式図である。 表示装置のさらに他の構成例を示すブロック図である。 図24の領域設定部の詳細な構成例を示すブロック図である。 領域設定処理の流れの例を説明するフローチャートである。 表示装置のさらに他の構成例を示すブロック図である。 図27の領域設定部の詳細な構成例を示すブロック図である。 領域設定処理の流れの、他の例を説明するフローチャートである。 本発明の一実施形態を適用したパーソナルコンピュータの構成例を示す図である。
符号の説明
10 表示装置, 11乃至13 スピーカ, 20 表示画像, 21乃至23 人物, 37 音声出力位置制御部, 39 音声出力部, 51 画面領域分割部, 52 差分平均値算出部, 53 音声出力制御部, 73 特徴画素抽出部, 74 変数管理部, 75 差分算出部, 77 差分平均値算出部, 78 差分平均値記憶部, 81 領域内特徴画素数, 82 領域内差分値総和, 171 音量確認部, 172 差分平均値補正部, 173 領域特定部, 174 出力制御部, 181 領域特定部, 182 音量調整部, 183 音量確認部, 184 比較部, 185 調整量補正部, 186 出力制御部, 201 ユーザ位置対応処理部, 211 リモートコマンダ位置検出部, 212 遅延量演算部, 213 遅延制御部, 251 領域設定部, 261 入力案内画像表示制御部, 262 ユーザ入力受付処理部, 263 領域設定選択部, 264 分割テーブル記憶部, 301 領域設定部, 311 接続確認部, 312 スピーカ位置記憶部, 313 領域設定選択部, 314 分割テーブル記憶部

Claims (6)

  1. 画像を表示する画像表示手段と、
    前記画像表示手段により表示される前記画像に対応する複数チャンネルの音声を複数の位置より出力する音声出力手段と、
    前記音声出力手段の配置位置に応じて、前記画像表示手段の表示画面の分割方法の設定を行う領域設定手段と、
    前記画像表示手段の表示画面に対して、前記領域設定手段により設定された方法で分割した領域を設定する画面領域分割手段と、
    前記画面領域分割手段により分割された領域毎に、画素値が予め定められた所定の特徴を有する各画素の輝度値のフレーム間の差分平均値を算出する差分平均値算出手段と、
    前記複数チャンネルのそれぞれの音量を確認し、音声が出力される領域を特定する音量確認手段と、
    前記音量確認手段により音量を確認されて特定された音声が出力される領域に基づいて、前記差分平均値算出手段により算出された前記差分平均値を補正する差分平均値補正手段と
    を備え、
    声出力制御手段は、前記差分平均値補正手段により補正された差分平均値に基づいて、前記音声出力手段を制御し、前記音声を出力させる位置を選択する
    画像表示装置。
  2. 前記音声出力手段は、複数のスピーカを有し、
    前記音声出力制御手段は、前記音声出力手段を制御し、前記音声を出力させるスピーカを選択する
    請求項1に記載の画像表示装置。
  3. 前記音声出力手段は、前記音声の出力タイミングを制御することにより、仮想的に前記音声の出力位置を制御可能であり、
    前記音声出力制御手段は、前記音声出力手段を制御し、前記出力タイミングを選択することにより、前記音声を出力させる仮想的な位置を制御する
    請求項1に記載の画像表示装置。
  4. 前記画像および前記音声を視聴するユーザの位置を検出し、前記ユーザの位置に応じて、前記音声出力手段による前記音声の出力タイミングの遅延量を制御するユーザ位置対応処理手段をさらに備える
    請求項1に記載の画像表示装置。
  5. 画像を表示する画像表示装置の画像表示方法であって、
    画像を表示し、
    前記画像に対応する複数チャンネルの音声を複数の位置より出力する音声出力手段の配置位置に応じて、表示画面の分割方法の設定を行い、
    前記表示画面に対して、設定された方法で分割した領域を設定し、
    分割された領域毎に、画素値が予め定められた所定の特徴を有する各画素の輝度値のフレーム間の差分平均値を算出し、
    複数チャンネルのそれぞれの音量を確認し、音声が出力される領域を特定し、
    特定された音声が出力される領域に基づいて、算出された前記差分平均値を補正し、
    補正された前記差分平均値に基づいて、前記音声を出力させる位置を選択し、
    選択された位置より前記音声を出力する
    ステップを含む画像処理方法。
  6. 画像を表示する処理をコンピュータに行わせるプログラムであって、
    画像を表示し、
    前記画像に対応する複数チャンネルの音声を複数の位置より出力する音声出力手段の配置位置に応じて、表示画面の分割方法の設定を行い、
    前記表示画面に対して、設定された方法で分割した領域を設定し、
    分割された領域毎に、画素値が予め定められた所定の特徴を有する各画素の輝度値のフレーム間の差分平均値を算出し、
    複数チャンネルのそれぞれの音量を確認し、音声が出力される領域を特定し、
    特定された音声が出力される領域に基づいて、算出された前記差分平均値を補正し、
    補正された前記差分平均値に基づいて、前記音声を出力させる位置を選択し、
    選択された位置より前記音声を出力する
    ステップを含むプログラム。
JP2005301262A 2005-10-17 2005-10-17 画像表示装置および方法、並びにプログラム Expired - Fee Related JP5067595B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005301262A JP5067595B2 (ja) 2005-10-17 2005-10-17 画像表示装置および方法、並びにプログラム
US11/580,917 US8483414B2 (en) 2005-10-17 2006-10-16 Image display device and method for determining an audio output position based on a displayed image
CNB2006100644729A CN100477762C (zh) 2005-10-17 2006-10-17 图像显示装置和方法
CN200810168703XA CN101370108B (zh) 2005-10-17 2006-10-17 图像显示装置和方法
CN2008101687025A CN101370107B (zh) 2005-10-17 2006-10-17 图像显示装置、方法
KR1020060100762A KR20070042104A (ko) 2005-10-17 2006-10-17 화상 표시 장치 및 방법, 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005301262A JP5067595B2 (ja) 2005-10-17 2005-10-17 画像表示装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007110582A JP2007110582A (ja) 2007-04-26
JP5067595B2 true JP5067595B2 (ja) 2012-11-07

Family

ID=38003783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005301262A Expired - Fee Related JP5067595B2 (ja) 2005-10-17 2005-10-17 画像表示装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US8483414B2 (ja)
JP (1) JP5067595B2 (ja)
KR (1) KR20070042104A (ja)
CN (3) CN101370108B (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4932694B2 (ja) * 2007-12-26 2012-05-16 シャープ株式会社 音声再生装置、音声再生方法、音声再生システム、制御プログラム、および、コンピュータ読み取り可能な記録媒体
WO2009104117A1 (en) * 2008-02-18 2009-08-27 Koninklijke Philips Electronics N.V. Light controlled audio transducer
JP4937942B2 (ja) * 2008-02-27 2012-05-23 シャープ株式会社 音声再生装置、音声再生方法、音声再生システム、制御プログラム、および、コンピュータ読み取り可能な記録媒体
KR101542233B1 (ko) * 2008-11-04 2015-08-05 삼성전자 주식회사 화면음원 정위장치, 화면음원 정위를 위한 스피커 셋 정보 생성방법 및 정위된 화면음원 재생방법
KR101517592B1 (ko) * 2008-11-11 2015-05-04 삼성전자 주식회사 고분해능을 가진 화면음원 위치장치 및 재생방법
US8209609B2 (en) * 2008-12-23 2012-06-26 Intel Corporation Audio-visual search and browse interface (AVSBI)
WO2010140088A1 (en) * 2009-06-03 2010-12-09 Koninklijke Philips Electronics N.V. Estimation of loudspeaker positions
JP5448611B2 (ja) * 2009-07-02 2014-03-19 キヤノン株式会社 表示制御装置及び制御方法
KR101268779B1 (ko) * 2009-12-09 2013-05-29 한국전자통신연구원 라우드 스피커 어레이를 사용한 음장 재생 장치 및 방법
JP2011199707A (ja) * 2010-03-23 2011-10-06 Sharp Corp 音声データ再生装置及び音声データ再生方法
CN108989721B (zh) 2010-03-23 2021-04-16 杜比实验室特许公司 用于局域化感知音频的技术
US10158958B2 (en) 2010-03-23 2018-12-18 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
JP5705470B2 (ja) * 2010-07-02 2015-04-22 ラピスセミコンダクタ株式会社 画像処理システム、及び画像処理プログラム
DE102010052527A1 (de) 2010-11-25 2012-05-31 Institut für Rundfunktechnik GmbH Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung
JP5852325B2 (ja) * 2011-05-10 2016-02-03 日本放送協会 音像定位改善装置
CN103716729B (zh) * 2012-09-29 2017-12-29 联想(北京)有限公司 输出音频的方法及电子设备
GB2507106A (en) * 2012-10-19 2014-04-23 Sony Europe Ltd Directional sound apparatus for providing personalised audio data to different users
KR102014982B1 (ko) * 2013-03-15 2019-08-27 삼성전자주식회사 시각 청각 다중 분할 디스플레이 장치
EP3036918B1 (en) * 2013-08-21 2017-05-31 Thomson Licensing Video display having audio controlled by viewing direction
US9841879B1 (en) * 2013-12-20 2017-12-12 Amazon Technologies, Inc. Adjusting graphical characteristics for indicating time progression
CN104036789B (zh) * 2014-01-03 2018-02-02 北京智谷睿拓技术服务有限公司 多媒体处理方法及多媒体装置
CN103905810B (zh) * 2014-03-17 2017-12-12 北京智谷睿拓技术服务有限公司 多媒体处理方法及多媒体处理装置
KR102222318B1 (ko) * 2014-03-18 2021-03-03 삼성전자주식회사 사용자 인식 방법 및 장치
JP6420077B2 (ja) * 2014-06-30 2018-11-07 株式会社バンダイナムコエンターテインメント ゲームシステム
JP6456163B2 (ja) * 2015-01-28 2019-01-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報処理装置、音声出力方法及びコンピュータプログラム
CN105989845B (zh) 2015-02-25 2020-12-08 杜比实验室特许公司 视频内容协助的音频对象提取
CN106293596A (zh) * 2015-06-10 2017-01-04 联想(北京)有限公司 一种控制方法及电子设备
KR20170039379A (ko) * 2015-10-01 2017-04-11 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR20180102552A (ko) * 2015-11-25 2018-09-17 토마스 미첼 다이르 수직으로-배향되는 콘텐츠에 대한 서라운드 사운드 애플리케이션들 및 디바이스들
EP3249909B1 (en) * 2016-05-23 2020-01-01 Funai Electric Co., Ltd. Display device
CN106162447A (zh) * 2016-06-24 2016-11-23 维沃移动通信有限公司 一种音频播放的方法和终端
CN105979469B (zh) * 2016-06-29 2020-01-31 维沃移动通信有限公司 一种录音处理方法及终端
JP2020030223A (ja) * 2016-12-09 2020-02-27 村上 知広 連携表示システム
JP6662334B2 (ja) * 2017-03-22 2020-03-11 ヤマハ株式会社 音響処理装置
EP3435683B1 (en) * 2017-07-27 2020-04-08 Vestel Elektronik Sanayi ve Ticaret A.S. Audio system, a television comprising the audio system and a method for generating an audio depth effect
CN111801952A (zh) * 2018-03-08 2020-10-20 索尼公司 信息处理装置、信息处理方法、信息处理系统和程序
EP3721428A4 (en) * 2018-03-08 2021-01-27 Samsung Electronics Co., Ltd. INTERACTIVE RESPONSE PROCESS BASED ON INTENTIONS, AND ASSOCIATED ELECTRONIC DEVICE
CN109194999B (zh) * 2018-09-07 2021-07-09 深圳创维-Rgb电子有限公司 一种实现声音与图像同位的方法、装置、设备及介质
CN109302664A (zh) * 2018-11-21 2019-02-01 京东方科技集团股份有限公司 显示屏及其声音输出位置控制方法和装置
DE102020104879A1 (de) * 2019-02-28 2020-09-03 Lg Display Co., Ltd. Anzeigevorrichtung
JPWO2020213375A1 (ja) * 2019-04-16 2020-10-22
CN114747196A (zh) * 2020-08-21 2022-07-12 Lg电子株式会社 使用多个音频装置来输出多声道音频的终端和方法
CN112561585B (zh) * 2020-12-16 2024-06-28 中国人寿保险股份有限公司 一种基于图形的信息服务系统及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04104673A (ja) * 1990-08-24 1992-04-07 Fujitsu General Ltd テレビ受像機の疑似サラウンド方式
EP0695109B1 (en) * 1994-02-14 2011-07-27 Sony Corporation Device for reproducing video signal and audio signal
JPH08125760A (ja) * 1994-10-28 1996-05-17 Hitachi Ltd 情報処理装置
JP3711418B2 (ja) * 1996-02-21 2005-11-02 カシオ計算機株式会社 顔画像表示装置及び顔画像通信システム
DE19646055A1 (de) * 1996-11-07 1998-05-14 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Abbildung von Schallquellen auf Lautsprecher
JPH11313272A (ja) * 1998-04-27 1999-11-09 Sharp Corp 映像音声出力装置
JP3753540B2 (ja) * 1998-06-19 2006-03-08 富士通株式会社 複数のスピーカの接続が可能なコンピュータ及び、記録媒体
JP2001057699A (ja) * 1999-06-11 2001-02-27 Pioneer Electronic Corp オーディオ装置
US6754373B1 (en) * 2000-07-14 2004-06-22 International Business Machines Corporation System and method for microphone activation using visual speech cues
JP2002199500A (ja) * 2000-12-25 2002-07-12 Sony Corp 仮想音像定位処理装置、仮想音像定位処理方法および記録媒体
US6829018B2 (en) * 2001-09-17 2004-12-07 Koninklijke Philips Electronics N.V. Three-dimensional sound creation assisted by visual information
JP4010161B2 (ja) 2002-03-07 2007-11-21 ソニー株式会社 音響提示システムと音響再生装置及びその方法並びにコンピュータ読み取り可能な記録媒体と音響提示プログラム。
JP2004120459A (ja) * 2002-09-27 2004-04-15 Mitsubishi Electric Corp 音声出力装置
JP4521671B2 (ja) * 2002-11-20 2010-08-11 小野里 春彦 音源映像の表示領域からその音声を出力させる映像音声再生方法
JP3997952B2 (ja) * 2003-06-16 2007-10-24 コニカミノルタホールディングス株式会社 画像表示装置
CN100348020C (zh) * 2004-09-14 2007-11-07 南京Lg新港显示有限公司 根据画面上说话人的位置控制音量的图像显示设备及方法
US20060140420A1 (en) * 2004-12-23 2006-06-29 Akihiro Machida Eye-based control of directed sound generation

Also Published As

Publication number Publication date
US8483414B2 (en) 2013-07-09
JP2007110582A (ja) 2007-04-26
US20070104341A1 (en) 2007-05-10
CN101370108B (zh) 2010-06-16
CN101370107A (zh) 2009-02-18
CN101009792A (zh) 2007-08-01
CN101370108A (zh) 2009-02-18
KR20070042104A (ko) 2007-04-20
CN101370107B (zh) 2011-10-19
CN100477762C (zh) 2009-04-08

Similar Documents

Publication Publication Date Title
JP5067595B2 (ja) 画像表示装置および方法、並びにプログラム
EP3467823B1 (en) Video sound processing device, video sound processing method, and program
US10206030B2 (en) Microphone array system and microphone array control method
EP3094115B1 (en) Method and apparatus for calibrating an audio playback system
US8571192B2 (en) Method and apparatus for improved matching of auditory space to visual space in video teleconferencing applications using window-based displays
EP2323425B1 (en) Method and device for generating audio signals
US20100302401A1 (en) Image Audio Processing Apparatus And Image Sensing Apparatus
US20100328419A1 (en) Method and apparatus for improved matching of auditory space to visual space in video viewing applications
CN103002378A (zh) 音频处理装置、音频处理方法以及音频输出装置
US20170324931A1 (en) Adjusting Spatial Congruency in a Video Conferencing System
US20120230525A1 (en) Audio device and audio system
KR20150001521A (ko) 입체 음향 서비스를 제공하는 디스플레이 장치 및 방법
KR20130013248A (ko) 3d 영상 재생 기기 및 그 3d 영상 제어 방법
US8155358B2 (en) Method of simultaneously establishing the call connection among multi-users using virtual sound field and computer-readable recording medium for implementing the same
KR20180060793A (ko) 전자장치 및 그 제어방법
KR20180006798A (ko) 디스플레이장치와, 기록매체
KR20180134647A (ko) 표시장치 및 그 구동 방법
JP2007251355A (ja) 対話システム用中継装置、対話システム、対話方法
WO2018173139A1 (ja) 撮影収音装置、収音制御システム、撮影収音装置の制御方法、及び収音制御システムの制御方法
JP2011234139A (ja) 3次元音声信号生成装置
JP6664456B2 (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP2012090094A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2020167471A (ja) 情報処理装置、情報処理方法、及びプログラム
EP4277301A1 (en) Information processing apparatus, information processing method, and computer program product
US12126983B2 (en) Control device, processing method for control device, and storage medium storing program for processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees