JP7447808B2 - 音声出力装置、音声出力方法 - Google Patents
音声出力装置、音声出力方法 Download PDFInfo
- Publication number
- JP7447808B2 JP7447808B2 JP2020565599A JP2020565599A JP7447808B2 JP 7447808 B2 JP7447808 B2 JP 7447808B2 JP 2020565599 A JP2020565599 A JP 2020565599A JP 2020565599 A JP2020565599 A JP 2020565599A JP 7447808 B2 JP7447808 B2 JP 7447808B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- audio output
- vibration
- output
- display panel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 230000005236 sound signal Effects 0.000 claims description 234
- 238000012545 processing Methods 0.000 claims description 181
- 230000004807 localization Effects 0.000 claims description 67
- 230000004044 response Effects 0.000 claims description 29
- 239000003795 chemical substances by application Substances 0.000 description 226
- 230000005284 excitation Effects 0.000 description 34
- 238000004458 analytical method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 10
- 230000003321 amplification Effects 0.000 description 10
- 238000003199 nucleic acid amplification method Methods 0.000 description 10
- 238000013016 damping Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000002360 preparation method Methods 0.000 description 5
- 239000000758 substrate Substances 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 101100428553 Arabidopsis thaliana VIL2 gene Proteins 0.000 description 3
- 101100209899 Arabidopsis thaliana VIL3 gene Proteins 0.000 description 3
- 101150065932 VEL1 gene Proteins 0.000 description 3
- 101150003646 VEL2 gene Proteins 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 101150116173 ver-1 gene Proteins 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000012790 adhesive layer Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
- H04N5/642—Disposition of sound reproducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R7/00—Diaphragms for electromechanical transducers; Cones
- H04R7/02—Diaphragms for electromechanical transducers; Cones characterised by the construction
- H04R7/04—Plane diaphragms
- H04R7/045—Plane diaphragms using the distributed mode principle, i.e. whereby the acoustic radiation is emanated from uniformly distributed free bending wave vibration induced in a stiff panel and not from pistonic motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/301—Automatic calibration of stereophonic sound system, e.g. with test microphone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1601—Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
- G06F1/1605—Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K9/00—Devices in which sound is produced by vibrating a diaphragm or analogous element, e.g. fog horns, vehicle hooters or buzzers
- G10K9/12—Devices in which sound is produced by vibrating a diaphragm or analogous element, e.g. fog horns, vehicle hooters or buzzers electrically operated
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/13—Application of wave-field synthesis in stereophonic audio systems
Description
その場合、コンテンツ音声と応答音声が混在して聞こえてしまい、ユーザにとって聞き取りづらい状況が発生する。
そこで本技術は、コンテンツ音声とともに他の音声を出力する場合に、ユーザが聞き取りやすくすることを目的とする。
例えばテレビジョン装置などのように表示パネルを備えた機器において、表示パネルを振動させて音声出力を行う。第1の音声信号は表示する映像に対応する音声である。この場合に、表示している映像コンテンツの音声ではない第2の音声信号による音声出力のための第2の音声出力駆動部が設けられるようにする。
即ち1つの表示パネルの全面又は一部の面には、複数の振動領域が設けられる。この場合に、1つの振動領域には1つの音声出力駆動部が対応されるようにする。
例えばエージェント装置としてユーザが入力した音声等による要求に対応して生成された応答音声(質問に対する回答の音声など)である。
即ちユーザにとっては映像表示が行われている表示面以外の位置から第2の音声信号による音声が聞こえてくるようにする。
即ち第2の音声出力駆動部としては、特定の音声出力駆動部を割り当てる。
1つの表示パネルの全面又は一部の面には、複数の振動領域が設けられる。この場合に、1つの振動領域には1つの音声出力駆動部が対応されるようにする。
即ち少なくとも左右の位置関係となるように配置される2つの振動領域が、それぞれ第2の音声出力駆動部によって駆動される。
即ち少なくとも上下の位置関係となるように配置される2つの振動領域が、それぞれ第2の音声出力駆動部によって駆動される。
1つの表示パネルの全面又は一部の面には、複数の振動領域が設けられ、それぞれに音声出力駆動部が対応される。この場合に、一部の音声出力駆動部は、第1の音声信号の出力用途と第2の音声信号の出力用途とで切替使用される。
1つの表示パネルの全面又は一部の面には、複数の振動領域が設けられる。この場合に、1つの振動領域には1つの音声出力駆動部が対応されるようにする。
つまり複数の振動領域と音声出力駆動部の組のうちで、第2の音声信号の出力用に切り換えて使用する振動領域及び音声出力駆動部を固定せず選択するようにする。
つまり複数の振動領域と音声出力駆動部の組のうちで、そのときの出力状況に応じて、第2の音声信号の出力用に切り換えて使用する振動領域及び音声出力駆動部を選択するようにする。
例えば第2の音声信号の出力機会の都度、表示画面の中央以外の振動領域と音声出力駆動部の組のうちで、第2の音声信号についての音声出力に切り換える組を、それぞれの出力レベルに応じて選択する。
即ち本技術をテレビジョン装置の表示パネルを用いて音声再生を行う場合に採用する。
これにより第2の音声信号は映像コンテンツの音声信号の音声出力駆動部とは異なる音声出力駆動部により所定の定位で出力される。
<1.システム構成例>
<2.テレビジョン装置の構成例>
<3.表示パネル構成>
<4.比較例>
<5.第1の実施の形態>
<6.第2の実施の形態>
<7.第3の実施の形態>
<8.第4の実施の形態>
<9.第5の実施の形態>
<10.第6の実施の形態>
<11.第7の実施の形態>
<12.第8の実施の形態>
<13.第9の実施の形態>
<14.第10の実施の形態>
<15.まとめ及び変形例>
まず実施の形態としてエージェント装置1を有するテレビジョン装置2を含むシステム構成例を説明する。
特に本実施の形態の場合、エージェント装置1がテレビジョン装置2に内蔵される例を挙げるが、エージェント装置1は、マイクロホンにより収音されたユーザの音声に対応して応答音声をテレビジョン装置2のスピーカを用いて出力するものとする。
なおエージェント装置1は、必ずしもテレビジョン装置2に内蔵されるものに限らず、別体のものであってもよい。
コンテンツ音声とは、テレビジョン装置2で出力される映像コンテンツに付随する音声であり、エージェント音声とは、エージェント装置1によるユーザに対する応答等の音声を指すこととする。
なお、音声出力装置を備えた機器をテレビジョン装置2とすることは一例で、例えばオーディオ装置、対話装置、ロボット、パーソナルコンピュータ装置、端末装置等、各種の装置がエージェント装置1と連携する音声出力装置として想定される。実施の形態の説明におけるテレビジョン装置2の動作はこれら各種の出力機器においても同様に適用できる。
エージェント装置1は、テレビジョン装置2に内蔵されるとともに、例えばテレビジョン装置2に取り付けられているマイクロホン4による音声を入力する。
またエージェント装置1はネットワーク3を介して外部の解析エンジン6と通信可能とされている。
またエージェント装置1は例えばテレビジョン装置2が備えるスピーカ5を用いて音声出力を行う。
解析エンジン6は例えばAI(artificial intelligence)エンジンとされ、入力された解析用のデータに基づいて適切な情報をエージェント装置1に送信できる。
例えば解析エンジン6は、処理機能として、音声認識部10、自然言語理解部11、アクション部12、音声合成部13を有している。
エージェント装置1は、例えばマイクロホン4から入力されたユーザの音声に基づく音声信号を、ネットワーク3を介して解析エンジン6に送信する。
解析エンジン6では、エージェント装置1から送信されてきた音声信号を音声認識部10で認識し、テキストデータに変換する。テキストデータについて自然言語理解部11で言語解析を行い、テキストから命令を抜き出し、命令内容に応じた指示をアクション部12に伝える。アクション部12では命令に応じたアクションを行う。
例えば命令が、明日の天気などの問い合わせの場合は、その結果(たとえば“明日の天気は晴れです”等)をテキストデータとして生成する。このテキストデータは音声合成部13により音声信号に変換されてエージェント装置1に送信される。
エージェント装置1は、音声信号を受信したら、その音声信号をスピーカ5に供給して音声出力を実行させる。以上により、ユーザの発した音声に対する応答が出力されることになる。
エージェント装置1は、例えばマイクロホン4から入力されたユーザの音声を音声認識部10で認識し、テキストデータに変換する。テキストデータについて自然言語理解部11で言語解析を行い、テキストから命令を抜き出し、命令内容に応じた指示をアクション部12に伝える。アクション部12では命令に応じたアクションを行う。アクション部12は応答としてのテキストデータを生成し、このテキストデータが音声合成部13により音声信号に変換される。エージェント装置1は、その音声信号をスピーカ5に供給して音声出力を実行させる。
以下、図3では図1のシステム構成に応じたテレビジョン装置2の構成例を、図4では図2のシステム構成に応じたテレビジョン装置2の構成例を示す。
まず図3により、外部の解析エンジン6を用いる構成例を説明する。
演算部15は例えばマイクロコンピュータ等の情報処置装置により構成される。
この演算部15は入力管理部70、解析情報取得部71としての機能を備える。これらの機能は例えばマイクロコンピュータ等の処理を規定するソフトウエアによって発現される。これらの機能に基づいて演算部15が必要な処理を実行する。
メモリ部17は演算部15が演算処理に必要なワーク領域を提供したり、演算処理に用いる係数、データ、テーブル、データベース等を記憶する。
演算部15は、入力管理部70としての機能により、音声信号を取得するとともに、解析エンジン6に送信する情報であるか否かの判断等を行う。
デマルチプレクサ23は復調信号における音声信号を音声処理部24に供給し、映像信号を映像処理部26に供給する。
また、ネットワーク3を介して図示しないコンテンツサーバから例えばストリーミング映像などとしての映像コンテンツが受信される場合も、デマルチプレクサ23はその映像コンテンツの音声信号を音声処理部24に供給し、映像信号を映像処理部26に供給する。
またエージェント装置1からの音声信号が音声処理部24に供給される場合は、その音声信号もスピーカ5から出力される。
映像出力部27は、例えば供給された映像信号により表示部31の表示駆動を行う。これにより表示部31で映像コンテンツの表示出力が行われる。
入力部34は例えばユーザ操作の入力部であり、操作子や、リモートコントローラの受信部として構成される。
制御部32は入力部34からのユーザ操作情報に基づいて、チューナ22の受信設定、デマルチプレクサ23の動作制御、音声処理部24や音声出力部25での音声処理の設定制御、映像処理部26や映像出力部27での映像の出力設定処理の制御等を行う。
メモリ33は制御部32が制御に必要な情報が記憶されている。例えば各種の映像設定、音声設定に応じた実際の設定値もメモリ33に記憶され、制御部32が読み出せるようにしている。
制御部32がエージェント装置1から受信した出力設定に従って音声処理部24や映像処理部26の信号処理の制御を行うことで、テレビジョン装置2において、エージェント装置1が設定した出力設定による映像及び音声の出力が実現される。
図4において図3と異なるのはエージェント装置1が解析部72としての機能を備え、外部の解析エンジン6と通信をすることなく、応答音声を生成できるようにしていることである。
これによりスピーカ5によって応答音声が出力される。
内蔵又は別体のエージェント装置1はハードウエア構成としては、例えば図5のようなコンピュータ装置170により実現できる。
CPU171、ROM172、およびRAM173は、バス174を介して相互に接続されている。このバス174にはまた、入出力インタフェース175も接続されている。
また入出力インタフェース175には、LCD(Liquid Crystal Display)或いは有機EL(Electro-Luminescence)パネルなどよりなるディスプレイ、並びにスピーカなどよりなる出力部177が接続される場合も考えられる。
入出力インタフェース175には、ハードディスクなどより構成される記憶部178、モデムなどより構成される通信部179が接続される場合もある。
通信部179は、ネットワーク3として示したインターネット等の伝送路を介しての通信処理を行ったり、テレビジョン装置2との有線/無線通信、バス通信などによる通信を行う。
この記録媒体は、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク、光ディスク、光磁気ディスク、若しくは半導体メモリなどよりなるリムーバブルメディア181により構成される。或いは、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM172や、記憶部178に含まれるハードディスクなどでも構成される。
本実施の形態のスピーカ5は、テレビジョン装置2の表示面を振動板とする構造とされる。テレビジョン装置2の映像表示面110Aを加振部120とする構成を以下説明する。
テレビジョン装置2は、さらに、例えば、加振部120を制御する信号処理部130と、パネル部110を、回動部150を介して支持する支持部140とを備えている。信号処理部130は例えば上述の音声出力部25の全部又は一部を構成する回路基板等を含む。
回動部150は、支持部140によってパネル部110の裏面を支持するときのパネル部110の傾斜角を調整するためのものであり、例えば、パネル部110および支持部140を回動可能に支持するヒンジによって構成されている。
図9は、図8のB-B線での断面構成例を表したものである。図9には、後述のアクチュエータ(加振器)121aの断面構成が例示されているが、この断面構成は、他のアクチュエータ(例えば図8に示すアクチュエータ121b,121c)の断面構成と同様の断面構成となっているものとする。
バックシャーシ113は、例えば、ガラス基板によって構成されている。なお、バックシャーシ113の代わりに、バックシャーシ113と同等の剛性を有する金属基板または樹脂基板が設けられていてもよい。
この例ではアクチュエータ121a,121b,121cは、例えば、表示セル111の上下方向において中央よりもやや上寄りの高さ位置において左右方向に一列に並んで配置されているが、これは一例である。
アクチュエータ121a,121b,121cは、それぞれ、例えばボイスコイルとボイスコイルボビンと磁気回路とを有し、振動源となるスピーカ用アクチュエータである。
アクチュエータ121a,121b,121cは、それぞれ、ボイスコイルに電気信号の音声電流が流れると、電磁作用の原理に従ってボイスコイルに駆動力を発生させる。この駆動力が振動伝達部材124を介して表示セル111に伝達され、表示セル111に音声電流の変化に応じた振動を発生させ、空気が振動して音圧が変化する。
固定部123は、例えば、アクチュエータ121a,121b,121cを挿通させた状態で固定する開口を有している。各アクチュエータ121a,121b,121cは、例えば、固定部123を介して、インナープレート112に固定されている。
振動伝達部材124は、例えば、表示セル111の裏面と、アクチュエータ121a,121b,121cのボビンとに接しており、表示セル111の裏面と、アクチュエータ121a,121b,121cのボビンとに固定されている。振動伝達部材24は、少なくとも、音波領域(20Hz以上)では反発する特性を有する部材によって構成されている。
制振部材116は、表示セル111とインナープレート112との間隙、つまり、空隙115の中に配置されている。制振部材116は、表示セル111の裏面およびインナープレート112の表面のうち、少なくとも表示セル111の裏面に固定されている。制振部材116は、例えば、インナープレート112の表面に接している。
このとき、制振部材116は、表示セル111の裏面を、加振点P1を含む振動領域AR1、加振点P2を含む振動領域AR2、加振点P3を含む振動領域AR3に区画する。
各振動領域AR1,AR2,AR3は、物理的に離間して独立して振動する領域とされている。
つまり各振動領域AR1,AR2,AR3は、それぞれアクチュエータ121a,121b,121cにより互いに独立して振動される。換言すれば、各振動領域AR1,AR2,AR3は、互いに独立したスピーカユニットを構成することになる。
またこのように分割された各振動領域AR1,AR2,AR3は、視覚上は離間しておらず、ユーザが映像を視認する表示面としては、パネル部110の全体で1つの表示パネルと認識されるようにされている。
以上の構成のテレビジョン装置2において、コンテンツ音声とエージェント音声を共にスピーカ5を用いて出力することを考える。
図11は、そのような場合に想定される構成例として、音声処理部24、音声出力部25、アクチュエータ121(121L、121R)、パネル部110を示している。
なお「アクチュエータ121」は、スピーカユニットを構成する加振器としてのアクチュエータを総称する場合の表記である。
L音声処理部41は音声信号Lsに対して音量・音質処理(例えば音量レベル調整や、低域強調処理、高域強調処理、イコライジング処理等)、ノイズキャンセル処理等の各種の処理を行う。
R音声処理部42は音声信号Rsに対して音量・音質処理、ノイズキャンセル処理等の各種の処理を行う。
これにより、アクチュエータ121L、121Rによってパネル部110が加振され、映像コンテンツについてのL、Rチャネルのステレオ音声が出力される。
これによりエージェント音声がコンテンツ音声にミックスされ、アクチュエータ121L、121Rによって音声としてパネル部110から出力されることになる。
このため、エージェント音声の出力の際に、コンテンツ音声のボリュームを下げたりミュートしたりするなどの対応が必要である。また、エージェント音声の音像位置とコンテンツ音声の音像位置が重なっている場合、コンテンツ音声のボリュームを下げても、聞き取りにくい状態のままということにもなる。
またコンテンツ音声を大きく下げることで、コンテンツ視聴を妨げてしまうことにもなる。
これによりコンテンツ音声については映像とマッチした再生を行う一方で、エージェント音声は異なる定位で、例えばテレビジョン装置2とは別の位置から聞こえるようにし、ユーザにとってエージェント音声とコンテンツ音声を分離して聞こえやすくなるようにする。
第1の実施の形態の構成を図12に示す。なお、以下説明していく各実施の形態の構成では、図1から図10で説明したようなテレビジョン装置2の構成における音声処理部24、音声出力部25、スピーカ5を構成するアクチュエータ121(121L、121R)及びパネル部110を抽出して示すものである。記述の部位については、同一符号を付して重複説明を避ける。
アクチュエータ121Lはパネル部110の振動領域AR1を加振するように配置されており、振動領域AR1から音声信号Lsに応じた音声出力が行われる。つまりアクチュエータ121L及び振動領域AR1がコンテンツ音声用のLチャネルスピーカとなる。
アクチュエータ121Rはパネル部110の振動領域AR2を加振するように配置されており、振動領域AR2から音声信号Rsに応じた音声出力が行われる。つまりアクチュエータ121R及び振動領域AR2がコンテンツ音声用のRチャネルスピーカとなる。
音声信号VELは、音声出力部25におけるエージェント音出力部54に供給される。エージェント音出力部54はでは音声信号VELについてD/A変換や増幅処理を行ない、Lチャネルのエージェント音声用のアクチュエータ121ALにスピーカ駆動信号を供給する。
アクチュエータ121ALはパネル部110の振動領域AR3を加振するように配置されており、振動領域AR3から音声信号VELに応じた音声出力が行われる。つまりアクチュエータ121AL及び振動領域AR3がエージェント音声用のLチャネルスピーカとなる。
アクチュエータ121ARはパネル部110の振動領域AR4を加振するように配置されており、振動領域AR4から音声信号VERに応じた音声出力が行われる。つまりアクチュエータ121AR及び振動領域AR4がエージェント音声用のRチャネルスピーカとなる。
以下、「スピーカユニット」とは、振動領域ARと対応するアクチュエータ121の組を指すものとして説明する。
なお、音声/定位処理部45は、例えばL音声処理部41,R音声処理部42を制御して、エージェント音声を出力する期間にコンテンツ音声の音量を下げるようにしてもよい。
これにより図13A、図13Bに示すような再生環境が実現される。
アクチュエータ121L及び振動領域AR1の組によるスピーカユニットと、アクチュエータ121R及び振動領域AR2の組によるスピーカユニットにより、L、Rステレオ音声としてコンテンツ音声(SL、SR)が再生されている。
引き続きアクチュエータ121L及び振動領域AR1の組によるスピーカユニットと、アクチュエータ121R及び振動領域AR2の組によるスピーカユニットにより、L、Rステレオ音声としてコンテンツ音声(SL、SR)が再生されている。
さらにアクチュエータ121AL及び振動領域AR3の組によるスピーカユニットと、アクチュエータ121AR及び振動領域AR4の組によるスピーカユニットにより、L、Rステレオ音声としてエージェント音声が再生される。但し、定位処理によって、エージェント音声SAは、パネル外となる仮想スピーカVSPの位置から発せられているようにユーザに聞こえることになる。
各図はパネル部110の正面からみたときの振動領域AR1の分割設定と、加振点、つまり背後のアクチュエータ121の配置位置を示している。
加振点P1,P2,P3,P4は、それぞれアクチュエータ121L、121R、121AL、121ARによる加振点である。
なお、図ではエージェント音声用のアクチュエータ121による加振点(第1の実施の形態の場合は加振点P3,P4)には斜線を付して、コンテンツ音声用の加振点(第1の実施の形態の場合は加振点P1,P2)と区別している。
またエージェント音声は、応答音声等であって、さほどの再生能力を必要としない。例えば低域も300Hzから400Hz程度までが出力できれば十分である。そのため狭い振動領域でも十分に機能できる。また振動の変位量が少なくてすむので画揺れにも強い。
そして、エージェント音声用の振動領域AR3、AR4を狭くすることで、パネル部110の広い範囲をコンテンツ音声用とし、迫力のある音声再生を実現できる。例えば低域を100Hzから200Hzまで再生するコンテンツ音声用のスピーカユニットを形成できる。
図14Cは、パネル面を中央で左右に分けた上で、比較的広い領域として振動領域AR1、AR2を設け、下方に比較的狭い領域として振動領域AR3,AR4を設ける例である。
いずれの例も、各振動領域AR1,AR2,AR3,AR4には、それらの略中央に加振点P1,P2,P3,P4を設定する。
加振点P1,P2,P3,P4は、それぞれ各振動領域ARの略中央としたが、それは一例であり、中央より変位した位置、あるいは振動領域ARの隅の部分などとしてもよい。
第2の実施の形態を図15,図16で説明する。
これは、エージェント音声用に4つのスピーカユニットを形成した例である。
これらの音声信号VEL1,VER1,VEL2,VER2は、それぞれエージェント音出力部54,55,56,57で出力処理され、音声信号VEL1,VER1,VEL2,VER2に応じたスピーカ駆動信号が、それぞれアクチュエータ121AL1,121AR1,121AL2,121AR2に供給される。アクチュエータ121AL1,121AR1,121AL2,121AR2は、それぞれ振動領域AR3,AR4,AR5,AR6に1対1で対応して加振する。
図16Aの例は、パネル面を中央で左右に分けた上で、比較的広い領域として振動領域AR1、AR2を設ける。そしてその上方及び下方に比較的狭い領域として振動領域AR3,AR4,AR5,AR6を設ける。振動領域AR3,AR4,AR5,AR6における加振点P3,P4,P5,P6は、それぞれアクチュエータ121AL1,121AR1,121AL2,121AR2による加振点であり、この場合、それぞれ対応する振動領域ARの略中央に設けられている。
アクチュエータ121AL1,121AR1,121AL2,121AR2による加振点P3,P4,P5,P6は、それぞれパネルの隅に偏った位置とされた例としている。
第3の実施の形態を図17で説明する。
これは1つの振動領域AR1に複数のアクチュエータ121を配置する例である。
そして振動領域AR1には、略中央にコンテンツ音声用の加振点P1を配置し、その上方にエージェント音声用の加振点P3を配置する。
また振動領域AR2には、略中央にコンテンツ音声用の加振点P2を配置し、その上方にエージェント音声用の加振点P4を配置する。
そして振動領域AR1には、略中央にコンテンツ音声用の加振点P1を配置し、その左隅にエージェント音声用の加振点P3を配置する。
また振動領域AR2には、略中央にコンテンツ音声用の加振点P2を配置し、その右隅にエージェント音声用の加振点P4を配置する。
これらの場合、エージェント音声についても左右のスピーカユニットにより出力されるため、左右方向にパネル外となる位置における仮想スピーカ位置の設定が容易化される。
また振動領域AR2には、略中央にコンテンツ音声用の加振点P2を配置し、その上方及び下方にエージェント音声用の加振点P4、P6を配置する。
また振動領域AR2には、略中央にコンテンツ音声用の加振点P2を配置し、その右上隅及び右下隅にエージェント音声用の加振点P4、P6を配置する。
これらの場合、エージェント音声についても左右上下のスピーカユニットにより出力されるため、左右方向及び上下方向にパネル外となる位置における仮想スピーカ位置の設定が容易化される。
第4の実施の形態を図18,図19で説明する。
これはコンテンツ音声をL、R、センター(C)の3チャネルで出力するようにした例である。
アクチュエータ121Cはパネル部110の振動領域AR3を加振するように配置されており、振動領域AR3から音声信号Csに応じた音声出力が行われる。つまりアクチュエータ121C及び振動領域AR3がコンテンツ音声用のセンターチャネルスピーカとなる。
図19A、図19B、図19Cにおいて加振点P1,P2,P3,P4,P5は、それぞれ図18のアクチュエータ121L、121R、121C、121AL、121ARによる加振点である。
なお、以上の図19A、図19B、図19Cでは、加振点P1,P2,P3,P4,P5は、それぞれ対応する振動領域ARの略中央に設けられているものとしたが、これに限られない。
第5の実施の形態として、コンテンツ音声をL、R、センターのチャネルで出力し、エージェント音声を4チャネルで出力する場合を説明する。音声処理部24、音声出力部25の構成は、図18のコンテンツ音声系と、図15のエージェント音声系を合わせたものとなる。
図20A、図20B、図20Cにおいて加振点P1,P2,P3は、図18のようなコンテンツ音声用のアクチュエータ121L、121R、121Cによる加振点で、加振点P4,P5,P6,P7は、それぞれ図15のようなエージェント音声用のアクチュエータ121AL1、121AR1、121AL2、121AR2による加振点とする。
そして振動領域AR1の上下に比較的狭い領域として振動エージェント音声用の振動領域AR4,AR6を設け、振動領域AR2の上下にも比較的狭い領域としてエージェント音声用の振動領域AR5、AR7を設ける。
そして振動領域AR1の左上隅及び右上隅に比較的狭い領域としてエージェント音声用の振動領域AR4、AR6を設け、振動領域AR2の右上隅及び右下隅にも比較的狭い領域としてエージェント音声用の振動領域AR5、AR7を設ける。
そしてパネル部110の上端側となる領域を左右に分け、左右に比較的狭い領域としてエージェント音声用の振動領域AR4、AR5を設ける。
またパネル部110の下端側となる領域も左右に分け、左右に比較的狭い領域としてエージェント音声用の振動領域AR6、AR7を設ける。
第6の実施の形態は、上記第4,第5の実施の形態において振動面を共有した例である。
図21Aは、図19Aにおける加振点P1,P4を1つの振動領域AR1に設け、加振点P2,P5を1つの振動領域AR2に設けた例である。
図21Bは、図19Bにおける加振点P1,P4を1つの振動領域AR1に設け、加振点P2,P5を1つの振動領域AR2に設けた例である。
図21Dは、図20Bにおける加振点P1,P4,P6を1つの振動領域AR1に設け、加振点P2,P5,P7を1つの振動領域AR2に設けた例である。
特に振動領域ARの面積が広い場合は、領域内の各部分(加振点の周辺毎)に鳴り分けが生じるため、それぞれの音が明瞭に聞き分けられやすい。
以下の第7,第8,第9,第10に実施の形態では、図22のように振動領域ARが9分割されている例に沿って説明する。パネル部110の左上から右下に向かって振動領域AR1,AR2,AR3,AR4,AR5,AR6,AR7,AR8,AR9とする。各振動領域ARは同じ面積であるとする。
そして全部又は一部の振動領域ARは、コンテンツ音声用とエージェント音声用に切り替えて用いられるようにする。
音声処理部24においては、L、R、センターの3チャネルの音声信号Ls,Rs,Csについて処理を行い、チャネル選択部46に供給する。
また音声処理部24においては、L、R、センターの3チャネルの音声信号Ls,Rs,Csについて処理を行い、音声/定位処理部45はエージェント音声信号としてL、Rの2チャネルの音声信号VEL,VERを生成し、チャネル選択部46に供給する。
端子T1,T2,T3,T4,T5,T6,T7,T8,T9は、それぞれ出力部61,62,63,64,65,66,67,68,69に音声信号を供給する端子である。
音声信号VELはスイッチ47の端子taに供給される。
音声信号VERはスイッチ48の端子taに供給される。
音声信号Lsは、スイッチ47の端子tcと、端子T4と、端子T7に供給される。
音声信号Csは、端子tcと、端子T4と、端子T8に供給される。
音声信号Rsは、スイッチ48の端子tcと、端子T6と、端子T9に供給される。
そしてスイッチ47,48は、制御信号CNTによって、エージェント音声が出力される期間(コンテンツ音声に加えてエージェント音声が出力される期間)は端子taが選択され、それ以外、つまりエージェント音声が出力されずコンテンツ音声のみが出力される期間は端子tcが選択される。
また振動領域AR3,AR6,AR9がRチャネルのスピーカとして使用され、振動領域AR2,AR5,AR8がセンターチャネル(Cチャネル)のスピーカとして使用される。
なお、加振点P1からP9は、アクチュエータ121-1から121-9のそれぞれによる加振点である。
また一部のスピーカユニットをエージェント音声に切り替えることで、自然にコンテンツ音声出力を抑えながら、エージェント音声を所定の定位で出力できる。
またこの場合、センタースピーカとしては振動領域AR2,AR5,AR8が常時使用される。これはセンターチャネルが重要な音声となることが多いコンテンツ音声の出力に適している。
例えば図26A、図26Bでは、4つのスピーカユニットをエージェント音声に用いる例を示している。
コンテンツ音声のみを出力する期間は、図26Aのように全ての振動領域ARをコンテンツ音声用とする(図24Aと同様)。
エージェント音声を出力する期間は、図26Bのように、振動領域AR4がLチャネルのスピーカとして使用され、振動領域AR6がRチャネルのスピーカとして使用され、振動領域AR2,AR5,AR8がセンターチャネル(Cチャネル)のスピーカとして使用される。
斜線を付した振動領域AR1、AR7は、エージェント音声の左チャネルのスピーカとして使用され、振動領域AR3、AR9は、エージェント音声の右チャネルのスピーカとして使用されるようにする。
もちろんこれ以外にも各種の例が考えられる。中央の振動領域AR2,AR5,AR8をエージェント音声に切り替えるようにしてもよい。
第8の実施の形態は、例えばコンテンツ音声を9チャネルで出力する例である。
図27に示すように、コンテンツ音声としての音声信号Ls,Rs,Csはマルチチャネル処理部49において9チャネル化処理される。そして9チャネルの音声信号Sch1,Sch2,Sch3,Sch4,Sch5,Sch6,Sch7,Sch8,Sch9として出力される。
これら音声信号Sch1,Sch2,Sch3,Sch4,Sch5,Sch6,Sch7,Sch8,Sch9は、それぞれ振動領域AR1,AR2,AR3,AR4,AR5,AR6,AR7,AR8,AR9を加振するための音声信号であるとする。
音声信号VELはスイッチ47の端子taに供給される。
音声信号VERはスイッチ48の端子taに供給される。
音声信号Sch1は、スイッチ47の端子tcに供給される。
音声信号Sch3は、スイッチ48の端子tcに供給される。
スイッチ47の出力は端子T1に供給され、スイッチ48の出力は端子T3に供給される。
音声信号Sch2,Sch4,Sch5,Sch6,Sch7,Sch8,Sch9は、それぞれ端子T2,T4,T5,T6,T7,T8,T9に供給される。
第9の実施の形態は、上記のようにコンテンツ音声用とエージェント音声用とに切替使用するスピーカユニット(振動領域AR及びアクチュエータ121の組)を、そのときの状況に応じて選択する例である。
ただし、チャネル選択部46は、画面の左側となる振動領域AR1,AR4,AR7のいずれかにおいてエージェント音声としての音声信号VELに基づく音声出力が実行可能で、また画面の右側となる振動領域AR3,AR6,AR9のいずれかにおいてエージェント音声としての音声信号VERに基づく音声出力を実行可能となるように構成されている。
またチャネル選択部は、出力部63に供給する信号として音声信号Sch3と音声信号VERを選択可能とし、出力部66に供給する信号として音声信号Sch6と音声信号VERを選択可能とし、出力部69に供給する信号として音声信号Sch9と音声信号VERを選択可能とする構成を有している。
即ち、コンテンツ音声のみを出力する期間では、図29Aのように、振動領域AR1からAR9により、音声信号Sch1からSch9により9チャネルのスピーカ出力が実行される。
なお、加振点P1からP9は、図27のアクチュエータ121-1から121-9のそれぞれによる加振点である。
斜線を付していない他の振動領域AR2,AR4,AR5,AR6,AR7,AR8、AR9は、それぞれ音声信号Sch2,Sch4,Sch5,Sch6,Sch7,Sch8,Sch9に対応するスピーカとして使用される。
斜線を付していない他の振動領域AR1,AR2,AR3,AR5,AR6,AR7,AR8は、それぞれ音声信号Sch1,Sch2,Sch3,Sch5,Sch6,Sch7,Sch8に対応するスピーカとして使用される。
例えばエージェント音声を出力する際に、振動領域AR1,AR4,AR7のうちで最も音量レベルの低い振動領域ARをエージェント音声の左チャネル用に選択する。また振動領域AR3,AR6,AR9のうちで音量レベルの低い振動領域ARをエージェント音声の右チャネル用に選択する。
ステップS101でチャネル選択部46は、エージェント音声の出力準備タイミングであるか否かを判定する。例えばチャネル選択部46は、音声/定位処理部45からの制御信号CNTにより、出力準備タイミングを認識する。
この出力準備タイミングは、エージェント音声の出力を開始する直前のタイミングである。
ステップS103でチャネル選択部46は出力レベル(信号レベル)が最小のチャネルを判定し、ステップS104で、当該判定したチャネルを、エージェント音声(音声信号VEL)のL(左)チャネルとして用いるチャネルに設定する。
音声/定位処理部45では、チャネル選択部46の選択に応じて定位処理のパラメータ設定を変更し、スピーカ位置の変化によらずに仮想スピーカ位置が一定の位置になるようにする。
エージェント音声の出力終了タイミングとなったら、ステップS111で信号経路を元の状態に戻す。即ち音声信号Sch1からSch9がそれぞれ出力部61から出力部69に供給される状態とする。
なお、この例の場合、中央のスピーカユニット、つまり振動領域AR2,AR5,AR8はエージェント音声用に選択されない。これによりコンテンツ音声の中で主たる音声が聞き取りにくくなることがないようにしている。
第10の実施の形態は、中央のスピーカユニットも含めて、エージェント音声用に選択されることがあるようにした例である。但し、エージェント音声としての音声信号VEL,VERに基づく音声は、必ず左右の位置関係で出力されるようにする。
ただし、チャネル選択部46は、画面の左側及び中央となる振動領域AR1,AR2,AR4,AR5,AR7,AR8のいずれかにおいてエージェント音声としての音声信号VELに基づく音声出力が実行可能とする。また画面の中央及び右側となる振動領域AR2,AR3,AR5,AR6,AR8,AR9のいずれかにおいてエージェント音声としての音声信号VERに基づく音声出力を実行可能となるように構成されている。
またチャネル選択部は、出力部63に供給する信号として音声信号Sch3と音声信号VERを選択可能とし、出力部66に供給する信号として音声信号Sch6と音声信号VERを選択可能とし、出力部69に供給する信号として音声信号Sch9と音声信号VERを選択可能とする構成を有している。
さらにチャネル選択部46は、出力部62に供給する信号として音声信号Sch2、音声信号VEL、音声信号VERを選択可能とし、出力部65に供給する信号として音声信号Sch5、音声信号VEL、音声信号VERを選択可能とし、出力部68に供給する信号として音声信号Sch8、音声信号VEL、音声信号VERを選択可能とする構成を有している。
但し、中央のスピーカユニットも用いられながら、エージェント音声用の左右のスピーカユニットが選択されるため、次のような選択のバリエーションが生ずる。
即ち左右のスピーカユニットとして、次に列挙する各組み合わせが選択される可能性がある。
振動領域AR1とAR2、振動領域AR1とAR3、振動領域AR1とAR5、振動領域AR1とAR6、振動領域AR1とAR8、振動領域AR1とAR9、振動領域AR2とAR3、振動領域AR2とAR6、振動領域AR2とAR9、振動領域AR4とAR2、振動領域AR4とAR3、振動領域AR4とAR5、振動領域AR4とAR6、振動領域AR4とAR8、振動領域AR4とAR9、振動領域AR5とAR3、振動領域AR5とAR6、振動領域AR5とAR9、振動領域AR7とAR2、振動領域AR7とAR3、振動領域AR7とAR5、振動領域AR7とAR6、振動領域AR7とAR8、振動領域AR7とAR9、振動領域AR8とAR3、振動領域AR8とAR6、振動領域AR8とAR9。
ステップS101でチャネル選択部46は、図30の例と同様にエージェント音声の出力準備タイミングであるか否かを判定する。
ステップS122でチャネル選択部46は全チャネルのうちで出力レベル(信号レベル)が最小のチャネルを判定する。
そして判定したチャネルが、左側チャネル、中央チャネル、右側チャネルのいずれかで処理を分岐する。
そしてステップS128でチャネル選択部46は、チャネル設定に従い、信号経路の切替を行う。
そして判定したチャネルが左側のチャネルであったらステップS143からS144に進み、チャネル選択部46は、中央の最小レベルのチャネルをエージェント音声の音声信号VERに用いるチャネルに設定し、左側の最小レベルのチャネルを、エージェント音声の音声信号VELに用いるチャネルに設定する。
そしてステップS127,S128の処理を行う。
そしてステップS127,S128の処理を行う。
そしてステップS127,S128の処理を行う。
エージェント音声の出力終了タイミングとなったら、ステップS111で信号経路を元の状態に戻す。即ち音声信号Sch1からSch9がそれぞれ出力部61から出力部69に供給される状態とする。
以上の実施の形態では次のような効果が得られる。
実施の形態のテレビジョン装置2は、映像コンテンツの表示を行うパネル部110と、パネル部110で表示する映像コンテンツの音声信号である第1の音声信号に基づいてパネル部110を加振して音声再生を実行させる1又は複数の第1のアクチュエータ121(第1の音声出力駆動部)と、第1の音声信号とは異なる第2の音声信号に基づいてパネル部110を加振して音声再生を実行させる複数のアクチュエータ121(第2の音声出力駆動部)とを有する。またテレビジョン装置2は、第2の音声信号についての信号処理により複数の第2の音声出力駆動部によって出力される音声の定位を設定する音声/定位処理部45(定位処理部)を備える。
この場合、少なくとも第2の音声信号によるエージェント音声が出力されるときは、コンテンツ音声の出力に用いるアクチュエータ121(第1の音声出力駆動部)とは別個のアクチュエータ121(第2の音声出力駆動部)によってエージェント音声の再生が行われる。さらに、エージェント音声は、定位処理によって或る位置に定位した状態でユーザに聴取される。
これらにより、ユーザにとっては、コンテンツ音とエージェント音を容易に聞き分けることができる。従ってテレビジョン視聴時などにエージェント音声を的確に聞き取って理解できる。
また、実施の形態ではコンテンツ音声とエージェント音声の例で説明したが、第2の音声信号はエージェント音声に限られない。例えばテレビジョン装置2のガイド音声、他の音声出力機器(オーディオ機器、情報処理装置等)からの音声などであってもよい。
一方、エージェント音声を再生する第2の音声出力駆動部としてのアクチュエータ121は、エージェント音声を望ましい位置に定位させるために、2以上であることが適切である。
但し、1つのアクチュエータ121のみを用いてエージェント音声の出力を行うことも考えられる。例えば画面の隅における振動領域ARとアクチュエータ121の組を1つ用いてエージェント音声の出力を行うようにすることで、ある程度、コンテンツ音声とは異なる定位状態をユーザに感じさせることは可能である。
これにより、各振動領域ARは、それぞれ1つのアクチュエータ121によって加振される。即ち各振動領域ARがそれぞれ独立したスピーカユニットとして機能することになる。これによって各出力音が明瞭に出力され、コンテンツ音声とエージェント音声を共に聴取し易い音とすることができる。
またエージェント音声をコンテンツ音声の影響を受けずに出力させることができるため、仮想スピーカ位置に的確に定位させることが容易となる。
このようにエージェント音声を対象とすることで、エージェントシステムをテレビジョン装置2に組み込んだ場合の使用性を向上させることができる。
即ちユーザにとっては映像表示が行われているパネル部110の表示面範囲より外の仮想スピーカ位置からエージェント音声が聞こえてくるようにしている。
これにより、ユーザにとってはエージェント音声がコンテンツ音声と明確に分離され、非常に聞き取りやすいものとなる。
また仮想スピーカ位置は、常に一定の位置になるようにしておくことが望ましい。例えば定位処理で設定する仮想スピーカ位置は常にテレビジョン装置2の左上の位置などとする。すると、ユーザにとっては、エージェント音声は常にテレビジョン装置2の左上から聞こえてくるというように認識でき、エージェント音声に対する認知性が高まる。
また仮想スピーカ位置はパネル外の位置に限らず、パネル部110の前面に相当する所定の位置としてもよい。
パネル部110には複数のアクチュエータ121が配置されるが、そのうちの特定のアクチュエータ121(例えば図12のアクチュエータ121AL、121ARなど)をエージェント音声用の音声出力駆動部とする。このようにエージェント音声用に専用のアクチュエータ121を設けることで、音声信号処理部24,音声出力部25の構成もシンプルなものとすることができる。
また常に同じ振動領域AR(例えば図12,図13,図14の場合では振動領域AR3,AR4)によってエージェント音声が出力されるため、音声/定位処理部45の定位処理を動的に変化させなくてよく、処理負担が軽減される。
このような画面の中央に位置する振動領域ARはコンテンツ音声の再生にあてる。一般にコンテンツ音声は中央の音声が主たる音声となる。従ってコンテンツ音声を中央の振動領域ARを用いて出力することで、ユーザにとって良好なコンテンツ視聴環境を形成できる。例えば図14A、図14B、図14C、図16A、図16Bの例では、パネル部110の中央を含む振動領域は振動領域AR1,AR2である。図19A、図19B、図19C、図20A、図20B、図20C例では、パネル部110の中央を含む振動領域は振動領域AR3である。これらの振動領域ARはコンテンツ音声用に用いられている。
一方でエージェント音声は仮想スピーカ位置での定位を実現するものであるため、中央の振動領域ARを用いる必要はない。
即ち少なくとも左右の位置関係となるように配置される2つの振動領域ARが、それぞれエージェント音声用のアクチュエータ121によって駆動される。
左右の位置関係に配置される2つの振動領域ARをエージェント音声の再生にあてることで、左右方向(水平方向)において仮想スピーカ位置を設定し易いものとすることができる。
即ち少なくとも上下の位置関係となるように配置される2つの振動領域ARが、それぞれエージェント音声用のアクチュエータ121によって駆動される。
上下の位置関係に配置される2つの振動領域ARをエージェント音声の再生にあてることで、上下方向(垂直方向)において仮想スピーカ位置を設定し易いものとすることができる。
更に例えば上下左右の位置関係となる3以上の振動領域ARをそれぞれアクチュエータ121でエージェント音声を出力するようにすることで、仮想スピーカ位置をより柔軟に設定し易くすることができる。例えば図16、図20では、4つの振動領域ARをエージェント音声用に用いているが、この場合、パネル部110の表示面から延長する仮想面上で、仮想スピーカ位置を選択することが容易になる。
つまり一部のアクチュエータ121及び振動領域ARは、コンテンツ音声用とエージェント音声用とで切替使用される。
コンテンツ音声のみを再生するときは、全ての振動領域ARを用いることで、複数のアクチュエータ121を備えたパネル部110の音声再生能力を活用した音声出力ができる。例えば、より大音量で迫力のある音声再生も可能となる。
一方で、エージェント音声を再生する場合は、一部の振動領域ARを切り換えて使用することで対応できる。
また図22の例では各振動領域ARは同じ形状、面積としたが、異なる面積や形状の振動領域ARが設けられてもよい。
画面の中央に位置する振動領域ARは常にコンテンツ音声の再生にあてる。コンテンツ音声は中央の音声が主たる音声となるため、コンテンツ音声については常に中央の振動領域ARを用いて出力することで、エージェント音声出力時でもユーザにとって違和感の少ないコンテンツ視聴環境を形成できる。
一方でエージェント音声は仮想スピーカ位置での定位を実現するものであるため、中央の振動領域ARを用いる必要はなく、他の振動領域ARを、コンテンツ音声用途に切り換えることとする。
つまりコンテンツ音声のみを再生するときは、全てのアクチュエータ121と振動領域ARの組をコンテンツ音声出力に用いる一方、エージェント音声を出力するときには、複数のアクチュエータ121のうちで例えば2つの組を選択する。これにより状況に応じて適切なアクチュエータ121と振動領域ARの組を用いてエージェント音声の出力ができる。
選択は音声出力レベル以外の要素に基づいて行っても良い。例えばテレビジョン装置2の周囲の環境条件、視聴者の位置、人数などに応じて選択することも考えられる。
つまり複数の振動領域ARとアクチュエータ121の組のうちで、そのときの出力状況に応じて、エージェント音声用に切り換えて使用する組を選択するようにする。
これにより、例えば出力レベルの低いアクチュエータ121を選択することなどが行われ、コンテンツ音声の再生に影響の少ない状態でエージェント音声を出力することができる。
これにより、中央の振動領域ARはエージェント音声の使用に用いられない。従って、よりコンテンツ音声の再生に影響の少ない状態でエージェント音声を出力することができる。
もちろん先に挙げたようなテレビジョン装置2以外の機器にも実施の形態の技術は適用できる。
(1)
映像コンテンツの表示を行う表示パネルと、
前記表示パネルで表示する映像コンテンツの音声信号である第1の音声信号に基づいて前記表示パネルを加振して音声再生を実行させる1又は複数の第1の音声出力駆動部と、
前記第1の音声信号とは異なる第2の音声信号に基づいて前記表示パネルを加振して音声再生を実行させる複数の第2の音声出力駆動部と、
前記第2の音声信号についての信号処理により複数の前記第2の音声出力駆動部によって出力される音声の定位を設定する定位処理部と、を備えた
音声出力装置。
(2)
前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第1の音声出力駆動部又は前記第2の音声出力駆動部とされる音声出力駆動部は、各振動領域に対して1つずつ配置されている
上記(1)に記載の音声出力装置。
(3)
前記第2の音声信号は、要求に応じて生成された応答音声の音声信号である
上記(1)又は(2)に記載の音声出力装置。
(4)
前記定位処理部は、前記第2の音声信号による音声が、前記表示パネルの表示面範囲より外の位置に定位させる定位処理を行う
上記(1)から(3)のいずれかに記載の音声出力装置。
(5)
前記表示パネルに対して配置された複数の音声出力駆動部のうち、特定の音声出力駆動部が、前記第2の音声出力駆動部とされている
上記(1)から(4)のいずれかに記載の音声出力装置。
(6)
前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第2の音声出力駆動部は、前記表示パネルの中央を含む振動領域以外の振動領域に対して配置されている
上記(1)から(5)のいずれかに記載の音声出力装置。
(7)
前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第2の音声出力駆動部は、少なくとも表示パネルの左右方向に位置する2つの振動領域に対してそれぞれ配置されている
上記(1)から(6)のいずれかに記載の音声出力装置。
(8)
前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第2の音声出力駆動部は、少なくとも表示パネルの上下方向に位置する2つの振動領域に対してそれぞれ配置されている
上記(1)から(7)のいずれかに記載の音声出力装置。
(9)
前記表示パネルは、独立して振動する複数の振動領域に分割されており、
各振動領域に対して音声出力駆動部が設けられ、
前記第2の音声信号に基づく音声出力を行わないときは、全ての音声出力駆動部は、前記第1の音声出力駆動部として用いられ、
一部の音声出力駆動部は、前記第2の音声信号に基づく音声出力を行う場合に前記第2の音声出力駆動部として用いられる
上記(1)から(4)のいずれかに記載の音声出力装置。
(10)
前記表示パネルの中央を含む振動領域以外の振動領域に対する音声出力駆動部が、前記一部の音声出力駆動部とされる
上記(9)に記載の音声出力装置。
(11)
前記第2の音声信号による再生音声を出力する場合に、前記第2の音声出力駆動部として用いる音声出力駆動部を選択する処理を行う
上記(9)に記載の音声出力装置。
(12)
前記第2の音声信号による再生音声を出力する場合に、複数の音声出力駆動部による音声出力レベルの検出を行い、各音声出力駆動部の出力レベルに応じて、前記第2の音声出力駆動部として用いる音声出力駆動部を選択する
上記(9)又は(11)に記載の音声出力装置。
(13)
前記表示パネルの中央を含む振動領域以外の振動領域に対する音声出力駆動部について、音声出力レベルの検出を行い、検出した出力レベルに応じて、前記第2の音声出力駆動部として用いる音声出力駆動部を選択する
上記(12)に記載の音声出力装置。
(14)
テレビジョン装置に内蔵される
上記(1)から(13)のいずれかに記載の音声出力装置。
(15)
映像コンテンツの表示を行う表示パネルで表示する映像コンテンツの音声信号である第1の音声信号に基づいて1又は複数の第1の音声出力駆動部により前記表示パネルを加振して音声再生を実行させるとともに、
前記第1の音声信号とは異なる第2の音声信号について、定位を設定する信号処理を行ったうえで、該第2の音声信号について複数の第2の音声出力駆動部により前記表示パネルを加振して音声再生を実行させる
音声出力方法。
Claims (15)
- 映像コンテンツの表示を行う表示パネルと、
前記表示パネルで表示する映像コンテンツの音声信号である第1の音声信号に基づいて前記表示パネルを加振して音声再生を実行させる1又は複数の第1の音声出力駆動部と、
前記第1の音声信号とは異なる第2の音声信号に基づいて前記表示パネルを加振して音声再生を実行させる複数の第2の音声出力駆動部と、
前記第2の音声信号についての信号処理により複数の前記第2の音声出力駆動部によって出力される音声の定位を設定する定位処理部と、
を備え、
前記表示パネルは、独立して振動する複数の振動領域に分割されており、
各振動領域に対して音声出力駆動部が設けられ、
前記第2の音声信号に基づく音声出力を行わないときは、全ての音声出力駆動部は、前記第1の音声出力駆動部として用いられ、
一部の音声出力駆動部は、前記第2の音声信号に基づく音声出力を行う場合に前記第2の音声出力駆動部として用いられる
音声出力装置。 - 前記表示パネルの中央を含む振動領域以外の振動領域に対する音声出力駆動部が、前記一部の音声出力駆動部とされる
請求項1に記載の音声出力装置。 - 前記第2の音声信号による再生音声を出力する場合に、前記第2の音声出力駆動部として用いる音声出力駆動部を選択する処理を行う
請求項1に記載の音声出力装置。 - 前記第2の音声信号による再生音声を出力する場合に、複数の音声出力駆動部による音声出力レベルの検出を行い、各音声出力駆動部の出力レベルに応じて、前記第2の音声出力駆動部として用いる音声出力駆動部を選択する
請求項1又は請求項3に記載の音声出力装置。 - 前記表示パネルの中央を含む振動領域以外の振動領域に対する音声出力駆動部について、音声出力レベルの検出を行い、検出した出力レベルに応じて、前記第2の音声出力駆動部として用いる音声出力駆動部を選択する
請求項4に記載の音声出力装置。 - 映像コンテンツの表示を行う表示パネルと、
前記表示パネルで表示する映像コンテンツの音声信号である第1の音声信号に基づいて前記表示パネルを加振して音声再生を実行させる1又は複数の第1の音声出力駆動部と、
前記第1の音声信号とは異なる第2の音声信号に基づいて前記表示パネルを加振して音声再生を実行させる複数の第2の音声出力駆動部と、
前記第2の音声信号についての信号処理により複数の前記第2の音声出力駆動部によって出力される音声の定位を設定するとともに、前記第2の音声信号による音声を出力するときに前記第1の音声信号による出力音声の音量を低下させる制御を行う定位処理部と、を備え、
前記第2の音声信号は、要求に応じて生成された応答音声の音声信号であり、
前記定位処理部は、前記第2の音声信号による音声が、前記表示パネルの表示面範囲より外の位置に定位させる定位処理を行う
音声出力装置。 - 前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第1の音声出力駆動部又は前記第2の音声出力駆動部とされる音声出力駆動部は、各振動領域に対して1つずつ配置されている
請求項6に記載の音声出力装置。 - 前記表示パネルに対して配置された複数の音声出力駆動部のうち、特定の音声出力駆動部が、前記第2の音声出力駆動部とされている
請求項6に記載の音声出力装置。 - 前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第2の音声出力駆動部は、前記表示パネルの中央を含む振動領域以外の振動領域に対して配置されている
請求項6に記載の音声出力装置。 - 前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第2の音声出力駆動部は、少なくとも表示パネルの左右方向に位置する2つの振動領域に対してそれぞれ配置されている
請求項6に記載の音声出力装置。 - 前記表示パネルは、独立して振動する複数の振動領域に分割されており、
前記第2の音声出力駆動部は、少なくとも表示パネルの上下方向に位置する2つの振動領域に対してそれぞれ配置されている
請求項6に記載の音声出力装置。 - 前記第2の音声信号は、要求に応じて生成された応答音声の音声信号である
請求項1から請求項5のいずれかに記載の音声出力装置。 - 前記定位処理部は、前記第2の音声信号による音声が、前記表示パネルの表示面範囲より外の位置に定位させる定位処理を行う
請求項1から請求項5のいずれかに記載の音声出力装置。 - テレビジョン装置に内蔵される
請求項1から請求項13のいずれかに記載の音声出力装置。 - 映像コンテンツの表示を行う表示パネルが、独立して振動する複数の振動領域に分割されており、各振動領域に対して音声出力駆動部が設けられる音声出力装置が、
前記表示パネルで表示する映像コンテンツの音声信号である第1の音声信号に基づいて1又は複数の第1の音声出力駆動部により前記表示パネルを加振して音声再生を実行させ、
前記第1の音声信号とは異なる第2の音声信号について、定位を設定する信号処理を行ったうえで、該第2の音声信号について複数の第2の音声出力駆動部により前記表示パネルを加振して音声再生を実行させるとともに、
前記第2の音声信号に基づく音声出力を行わないときは、全ての音声出力駆動部を前記第1の音声出力駆動部として用い、
一部の音声出力駆動部を、前記第2の音声信号に基づく音声出力を行う場合に前記第2の音声出力駆動部として用いる
音声出力方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001731 | 2019-01-09 | ||
JP2019001731 | 2019-01-09 | ||
PCT/JP2019/044877 WO2020144938A1 (ja) | 2019-01-09 | 2019-11-15 | 音声出力装置、音声出力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020144938A1 JPWO2020144938A1 (ja) | 2021-11-25 |
JP7447808B2 true JP7447808B2 (ja) | 2024-03-12 |
Family
ID=71520778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020565599A Active JP7447808B2 (ja) | 2019-01-09 | 2019-11-15 | 音声出力装置、音声出力方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220095054A1 (ja) |
JP (1) | JP7447808B2 (ja) |
KR (1) | KR20210113174A (ja) |
CN (1) | CN113261309B (ja) |
DE (1) | DE112019006599T5 (ja) |
WO (1) | WO2020144938A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI20215810A1 (fi) * | 2021-07-15 | 2021-07-15 | Ps Audio Design Oy | Pinta-audiolaite reunaherätteellä |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001078282A (ja) | 1999-09-08 | 2001-03-23 | Nippon Mitsubishi Oil Corp | 情報伝達システム |
JP2001136594A (ja) | 1999-11-09 | 2001-05-18 | Yamaha Corp | 音響放射体 |
JP2004187288A (ja) | 2002-11-20 | 2004-07-02 | Haruhiko Onozato | 音源映像の表示領域からその音声を出力させる映像音声再生方法 |
JP2009038605A (ja) | 2007-08-01 | 2009-02-19 | Sony Corp | 音声信号生成装置、音声信号生成方法、音声信号生成プログラム並びに音声信号を記録した記録媒体 |
JP2010034755A (ja) | 2008-07-28 | 2010-02-12 | Sony Corp | 音響処理装置および音響処理方法 |
JP2013521725A (ja) | 2010-03-23 | 2013-06-10 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 音声を定位知覚する技術 |
JP2017123564A (ja) | 2016-01-07 | 2017-07-13 | ソニー株式会社 | 制御装置、表示装置、方法及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4397333B2 (ja) * | 2005-02-04 | 2010-01-13 | シャープ株式会社 | スピーカ付き画像表示装置 |
JP4973919B2 (ja) * | 2006-10-23 | 2012-07-11 | ソニー株式会社 | 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム |
JP2015211418A (ja) | 2014-04-30 | 2015-11-24 | ソニー株式会社 | 音響信号処理装置、音響信号処理方法、および、プログラム |
KR102229137B1 (ko) * | 2014-05-20 | 2021-03-18 | 삼성디스플레이 주식회사 | 표시장치 |
CN106856582B (zh) * | 2017-01-23 | 2019-08-27 | 瑞声科技(南京)有限公司 | 自动调整音质的方法和系统 |
CN108833638B (zh) * | 2018-05-17 | 2021-08-17 | Oppo广东移动通信有限公司 | 发声方法、装置、电子装置及存储介质 |
-
2019
- 2019-11-15 JP JP2020565599A patent/JP7447808B2/ja active Active
- 2019-11-15 DE DE112019006599.8T patent/DE112019006599T5/de active Pending
- 2019-11-15 CN CN201980087461.8A patent/CN113261309B/zh active Active
- 2019-11-15 KR KR1020217017787A patent/KR20210113174A/ko not_active Application Discontinuation
- 2019-11-15 US US17/420,361 patent/US20220095054A1/en active Pending
- 2019-11-15 WO PCT/JP2019/044877 patent/WO2020144938A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001078282A (ja) | 1999-09-08 | 2001-03-23 | Nippon Mitsubishi Oil Corp | 情報伝達システム |
JP2001136594A (ja) | 1999-11-09 | 2001-05-18 | Yamaha Corp | 音響放射体 |
JP2004187288A (ja) | 2002-11-20 | 2004-07-02 | Haruhiko Onozato | 音源映像の表示領域からその音声を出力させる映像音声再生方法 |
JP2009038605A (ja) | 2007-08-01 | 2009-02-19 | Sony Corp | 音声信号生成装置、音声信号生成方法、音声信号生成プログラム並びに音声信号を記録した記録媒体 |
JP2010034755A (ja) | 2008-07-28 | 2010-02-12 | Sony Corp | 音響処理装置および音響処理方法 |
JP2013521725A (ja) | 2010-03-23 | 2013-06-10 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 音声を定位知覚する技術 |
JP2017123564A (ja) | 2016-01-07 | 2017-07-13 | ソニー株式会社 | 制御装置、表示装置、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020144938A1 (ja) | 2021-11-25 |
CN113261309B (zh) | 2023-11-24 |
CN113261309A (zh) | 2021-08-13 |
KR20210113174A (ko) | 2021-09-15 |
US20220095054A1 (en) | 2022-03-24 |
DE112019006599T5 (de) | 2021-09-16 |
WO2020144938A1 (ja) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2664165B1 (en) | Apparatus, systems and methods for controllable sound regions in a media room | |
US9622010B2 (en) | Bi-directional interconnect for communication between a renderer and an array of individually addressable drivers | |
RU2602346C2 (ru) | Рендеринг отраженного звука для объектно-ориентированной аудиоинформации | |
CN104869335B (zh) | 用于局域化感知音频的技术 | |
CN101990075B (zh) | 显示装置和音频输出装置 | |
US9986338B2 (en) | Reflected sound rendering using downward firing drivers | |
CN1177433A (zh) | 家庭影院环绕声扬声器系统 | |
GB0304126D0 (en) | Sound beam loudspeaker system | |
US5708719A (en) | In-home theater surround sound speaker system | |
US9930469B2 (en) | System and method for enhancing virtual audio height perception | |
KR20070056074A (ko) | 초음파를 구비한 오디오/비디오 장치 | |
JP7447808B2 (ja) | 音声出力装置、音声出力方法 | |
US20190306616A1 (en) | Loudspeaker, acoustic waveguide, and method | |
JPH114500A (ja) | ホームシアターサラウンドサウンドスピーカシステム | |
JPH01151898A (ja) | 低音スピーカボツクス | |
US8379901B2 (en) | Sound enhancement system | |
CN114157894B (zh) | 支持全景声的音频转播方法和音频转播系统 | |
JPS613600A (ja) | 映像再生装置のステレオスピ−カ装置 | |
WO2023058410A1 (ja) | 音響再生装置および音響再生方法 | |
KR200314353Y1 (ko) | 어깨 걸이형 진동 스피커 | |
CN113678469A (zh) | 显示装置、控制方法和程序 | |
KR200490817Y1 (ko) | 오디오 일체형 셋톱박스 | |
JPH07212891A (ja) | センターチャンネル信号再生用スピーカ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221004 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240212 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7447808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |