JP4692803B2 - Sound processor - Google Patents

Sound processor Download PDF

Info

Publication number
JP4692803B2
JP4692803B2 JP2001301533A JP2001301533A JP4692803B2 JP 4692803 B2 JP4692803 B2 JP 4692803B2 JP 2001301533 A JP2001301533 A JP 2001301533A JP 2001301533 A JP2001301533 A JP 2001301533A JP 4692803 B2 JP4692803 B2 JP 4692803B2
Authority
JP
Japan
Prior art keywords
sound
listener
speaker
head
headrest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001301533A
Other languages
Japanese (ja)
Other versions
JP2003111200A (en
Inventor
健司 中野
宏平 浅田
徹徳 板橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001301533A priority Critical patent/JP4692803B2/en
Publication of JP2003111200A publication Critical patent/JP2003111200A/en
Application granted granted Critical
Publication of JP4692803B2 publication Critical patent/JP4692803B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、例えば、椅子の背もたれ部に装着されるヘッドレスト部にスピーカが設けられて構成される音響処理装置に関する。
【0002】
【従来の技術】
スピーカが設けられたヘッドレスト(頭部支持部分)を有するリクライニングチェアーなどが提供されるようになってきている。このように、ヘッドレストにスピーカを設けることにより、聴取者の耳の近傍にスピーカを設けるようにすることができる。
【0003】
このように、スピーカが設けられたヘッドレストを用いることにより、聴取者の耳の近傍において高品位の音声を放音して、聴取者に提供することが行なわれるようになってきている。すなわち、ヘッドホンなどを用いなくても、聴取者の耳の近傍に位置付けられるスピーカを通じて、高品位の音声を聴取者が聴取することができる環境が整えられてきている。
【0004】
そして、例えば、椅子(座席)のヘッドレスト部分にスピーカを設けた場合、聴取者の耳の近傍において高品位の音声を放音することができるものの、聴取者の耳の後ろ側から直接音声が放音されるために、聴取者の意識が聴取者の後方に惹かれ、聴取する音楽によっては、違和感を感じたり、いわゆる聞き疲れが生じたりする場合がある。
【0005】
このため、音像定位処理を施すことによって、聴取者の耳の後ろ側のスピーカから放音された音声が、聴取者の前方等の予め想定した位置から聞こえるように、音声信号に対していわゆる音像定位処理を施すことが考えられる。音像定位処理を施し、聴取者の耳の後ろ側に位置するスピーカから放音される音声の音像を聴取者の前方等の想定した位置に定位させることにより、聴取者の耳の後ろ側に位置するスピーカから放音される音声を聴取することによる違和感や聞き疲れを防止することが可能となる。
【0006】
この場合、スピーカから放音される音声の音像を想定した位置に定位させるために重要となるのが、実際に音声を聴取する場所である再生音場におけるスピーカから聴取者の耳までの音声についての伝達関数である。音像定位処理されスピーカから放音される音声について、再生音場における伝達関数の影響を除去しなければ、スピーカから放音される音声の音像を想定した位置に正確に定位させることができない。
【0007】
このため、スピーカを用いて音声を厳密に再生するようにする方式の1つであるトランスオーラルシステムを用いることによって、再生音場における伝達関数の影響を除去し、聴取者の耳の後ろ側に位置する例えばヘッドレストに設けられたスピーカから放音される音声の音像を聴取者の前方の想定された位置に定位させるようにすることができるようにされている。
【0008】
【発明が解決しようとする課題】
ところで、従来は、ただ1つのヘッドレストが椅子や座席に対応付けられて提供され、これが固定的に使用されている。しかし、今後は、形状、材質、スピーカ位置、スピーカの性能や特性などが異なる様々なヘッドレストが豊富に提供され、この中から聴取者が自分の好みに合ったものを選択して利用できるようにすることが考えられる。
【0009】
また、スピーカが設けられたヘッドレストを自動車の座席において使用するとともに、同じヘッドレストを家庭の椅子においても使用するなど、自分の好みに合ったヘッドレストを複数の場所のオーディオシステムやオーディオ・ビジュアルシステムにおいて兼用することも考えられる。
【0010】
しかし、スピーカが設けられたヘッドレストは、形状、材質、スピーカ位置、スピーカの性能や特性などが異なれば、伝達関数は異なる。このため、形状、材質、スピーカ位置、スピーカの性能や特性などが異なるヘッドレスト毎に、適正な伝達関数に応じたトランスオーラル処理を行なえるようにしておかなければならない。
【0011】
また、厳密に考えると、聴取者は、スピーカが設けられたヘッドレストを利用する場合、その使用の時々によって、スピーカと聴取者の耳との位置関係がまちまちとなり、いつでも同じ条件でヘッドレストに設けられたスピーカから放音される音声を聴取することは難しい。
【0012】
しかし、ヘッドレストに設けられたスピーカに対して、聴取者の頭部の位置(耳の位置)がいつでも同じ位置となるように、強制的に聴取者の頭部の位置を規制するようにすることは、聴取者のリラックス感を阻害するなど好ましくない。また、頭部をヘッドレストに常時接触させているわけではないので、スピーカに対して聴取者の頭部の位置を固定するようにすること自体が難しい。
【0013】
以上のことにかんがみ、この発明は、使用されるオーディオシステムやオーディオ・ビジュアルシステムなどの様々な音声再生システムで兼用可能であって、適正に再生音声の聴取を可能にする音響処理装置、さらには、スピーカと聴取者の耳との位置関係が常時一定でなくても、違和感なく、適正な状態とされた音声を聴取できるようにする音響処理装置を提供することを目的とする。
【0014】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明の音響処理装置は、スピーカデバイスと、前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、前記スピーカデバイスに対する聴取者の頭部の位置に応じた処理用情報に基づいて、前記音像定位処理部からの音声信号に対して補正処理を行なうようにする補正処理部と、前記補正処理部で用いられる前記処理用情報を記憶保持する記憶部と、前記記憶部に記憶保持されている前記処理用情報を前記補正処理部に供給し、前記補正処理部を制御するようにする制御部とを設け、少なくとも、前記スピーカデバイスと、前記記憶部とは、複数の椅子の背もたれ部に対して着脱可能とされたヘッドレストに設けられるようにした。
【0015】
この請求項1に記載の音響処理装置によれば、スピーカデバイスに供給される音声信号は、音像定位処理部において、その音声信号による再生音声の音像が所定の位置に定位するように処理された後、スピーカデバイスと聴取者の頭部の位置(聴取者の耳の位置)とを考慮した補正処理が行なわれることにより、スピーカデバイスから放音される音声の音像が所定の位置に定位するようにされる。また、少なくともスピーカデバイスと記憶部とは、着脱可能なヘッドレストに設けられ、それ以外の例えば音像定位処理部や補正処理部等は、当該ヘッドレストの装着が可能とされた椅子の背もたれ部や音声信号の再生装置などのヘッドレスト以外の部位に設けるようにされる。
【0016】
この場合、補正処理部において用いられる関数や係数などの補正処理のために用いられる情報であって、スピーカデバイスが設けられている例えばヘッドレストの形状、材質、スピーカデバイスの設置位置、スピーカの性能や特性などに応じた処理用情報が、記憶部に予め保持されており、この処理用情報が制御部を通じて補正処理部に供給され、スピーカが設けられた部位である当該ヘッドレストに応じた補正処理を適正に行なうことができるようにされる。
【0017】
これにより、スピーカデバイスが設けられた例えばヘッドレストを自動車の座席と家庭の椅子とで兼用するような場合にも、その双方において、スピーカから放音される音声の音像を聴取者に対して所定の位置に定位させ、違和感や聞き疲れなく放音される音声を聴取することができるようにされる。
【0018】
また、記憶部にスピーカデバイスが設けられた例えばヘッドレストの購入時において測定するようにした購入者である聴取者個人の耳元までの伝達関数に応じた処理用情報を記憶させておくことにより、当該聴取者にとって最も良好に当該スピーカデバイスから放音される音声を提供するようにすることができる。また、ヘッドレストの形状、材質、スピーカデバイスの設置位置などに応じた処理用情報が記憶された記憶部は、ヘッドレスト側に存在することになる。そして、当該ヘッドレストを種々の椅子に装着して使用する場合に、ヘッドレストに設けられる記憶部からの処理用情報を、ヘッドレスト以外の部分に設けられることになる補正処理部に提供することにより、当該ヘッドレストに応じた補正処理を適正に行ない、当該ヘッドレストに設けられるスピーカデバイスから放音される音声を違和感なく、聞き疲れを生じさせることなく、良好に聴取することができるようにされる。また、スピーカデバイスが設けられるヘッドレストには、少なくとも音像定位処理部や補正処理部が設けられることがないので、聴取者のニーズに応じて、形状、素材、スピーカデバイスの設置位置の異なる様々な種類のヘッドレストをより安価に提供し、聴取者が自分の好みに合ったヘッドレストを選択して使用するようにすることができる。また、スピーカデバイスが設けられたヘッドレストを必要に応じて容易に交換することができるようにされる。
【0019】
また、請求項2に記載の発明の音響処理装置は、請求項1に記載の音響処理装置であって、
前記記憶部には、前記スピーカデバイスに対する聴取者の頭部の取り得る位置毎に、前記補正処理部に供給する前記処理用情報が記憶するようにされており、
前記スピーカデバイスに対する聴取者の頭部の位置を検出する頭部位置検出部を備え、
前記制御部は、前記頭部位置検出部からの検出結果に応じて決まる前記記憶部の前記処理用情報を前記補正処理部に供給して、前記補正処理部を制御するようにすることを特徴とする。
【0020】
この請求項2に記載の音響処理装置によれば、スピーカデバイスは、例えばヘッドレストに設けられるが、当該スピーカデバイスが設けられたヘッドレストの使用時において、当該スピーカデバイスに対する聴取者の頭部の位置(耳の位置)は、常に一定ではない。聴取時の時々において、一番楽な姿勢でスピーカデバイスから放音される音声を聴取することになる。
【0021】
このため、記憶部には、スピーカデバイスに対して聴取者の頭部が取り得る複数の位置のそれぞれにおけるスピーカデバイスから聴取者の耳までの伝達関数に応じた処理用情報が、それぞれの位置に対応付けられて記憶されている。そして、頭部位置検出部により、スピーカデバイスからの音声を聴取しようとしている聴取者の頭部の位置が検出される。
【0022】
そして、制御部により頭部位置検出部により検出された聴取者の実際の頭部位置に応じた処理用情報が、記憶部から読み出され、これが補正処理部に供給されて聴取者の実際の頭部の位置に応じた補正処理が行なわれる。
【0023】
これにより、スピーカデバイスに対する聴取者の頭部の位置(耳の位置)が常に一定の位置になくても、補正処理部において、聴取者の頭部の位置に応じた処理用情報に応じて適正な補正処理が行なわれるので、聴取者の頭部の位置によって、音像定位の効果が不足するなどのことがなく、違和感なく、聞き疲れを生じさせることなく、良好にスピーカデバイスから放音される音声を聴取することができるようにされる。
【0028】
また、請求項に記載の音響処理装置は、請求項2に記載の音響処理装置であって、前記頭部位置検出部は、超音波を送信する超音波送信手段と、前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段とからなることを特徴とする。
【0029】
この請求項に記載の音響処理装置によれば、反射超音波の有無と、超音波送信手段から送信された超音波が、聴取者の頭部に反射して超音波受信手段により受信されるまでの時間と、予めわかっている超音波の速度とに基づいて、頭部位置特定手段により、スピーカデバイスに対する聴取者の頭部の位置が特定され、この特定された聴取者の頭部の位置に応じて制御部により補正処理部が制御される。
【0030】
このように、スピーカデバイスに対して特定の位置に設けられる超音波送信手段と超音波受信手段とを用いることにより、スピーカデバイスと、当該スピーカデバイスを用いて音声を聴取する聴取者の頭部との位置関係を確実かつ正確に検出し、これに基づき補正処理部において用いられる適切な処理用情報を記憶部から抽出して用いることができるようにされる。
【0031】
また、請求項に記載の音響処理装置は、請求項に記載の音響処理装置であって、前記超音波送信手段と、前記超音波受信手段とは、前記スピーカデバイスの高音域スピーカであることを特徴とする。
【0032】
この請求項に記載の音響処理装置によれば、スピーカデバイスと聴取者の頭部の位置との位置関係を検出するための超音波送信手段と超音波受信手段とは、スピーカデバイスの高音域スピーカが用いられる。すなわち、超音波送信手段と超音波受信手段とは、高音域スピーカそのものが用いられるようにされる。
【0033】
これにより、スピーカデバイスと聴取者の頭部との位置関係を検出するために、新たに超音波送信手段と超音波受信手段とを別途設けることなく、既存の高音域スピーカを超音波送信手段、超音波受信手段として用いて、スピーカデバイスと聴取者の頭部との関係を検出し、その位置に応じた処理用情報を記憶部から抽出して用いることができるようにされる。
【0034】
また、請求項に記載の音響処理装置は、請求項に記載の音響処理装置であって、前記超音波送信手段は、左右2チャンネルの前記スピーカデバイスの高音域スピーカであり、前記超音波受信手段は、所定の位置に並べられた複数個の超音波感知素子からなるものであり、左右2チャンネルのそれぞれの前記高音域スピーカからは、異なる周波数の超音波を送信することを特徴とする。
【0035】
この請求項に記載の音響処理装置によれば、超音波送信手段として、左右チャンネルのスピーカデバイスの高音域スピーカが用いられ、超音波受信手段としては、例えば超音波送信手段の近傍に複数個が並べられていわゆるアレイ構造とされた超音波感知素子が用いられるようにされる。
【0036】
そして、左右チャンネルの高音域スピーカのそれぞれからは、周波数の異なる超音波が送信され、この超音波の聴取者の頭部により反射された反射超音波を感知した超音波感知素子をも考慮して、スピーカデバイスに対する聴取者の頭部の位置が検出するようにされる。これにより、スピーカデバイスと聴取者の頭部との位置関係をより正確に検出し、検出した聴取者の頭部の正確な位置に応じた処理用情報を記憶部から抽出してこれを用いることができるようにされる。
【0037】
また、請求項に記載の音響処理装置は、請求項2に記載の音響処理装置であって、前記頭部位置検出部は、前記スピーカデバイスを通じて音声を聴取するようにしている聴取者の頭部を含む画像を撮像する撮像手段と、前記撮像手段により撮像された画像を解析し、前記聴取者の頭部の前記スピーカデバイスに対する位置を検出する画像解析手段とからなることを特徴とする。
【0038】
この請求項に記載の音響処理装置によれば、スピーカデバイスを通じて音声を聴取する位置にある聴取者の頭部を含む画像が撮像手段により撮像され、この撮像された画像が、画像解析手段により解析されて、スピーカデバイスと聴取者の頭部との位置関係が検出するようにされる。
【0039】
これにより、スピーカデバイスを通じて音声を聴取する位置にある聴取者の頭部を含む画像に基づいて、スピーカデバイスと聴取者の頭部との位置関係を正確に検出し、これに応じて補正処理部において用いる処理用情報を記憶部から抽出し、これを用いて補正処理部における補正処理を適正に行なうことができるようにされる。
【0040】
【発明の実施の形態】
以下、図を参照しながら、この発明による音響処理装置の一実施の形態について説明する。以下に説明する実施の形態においては、例えば、自動車の座席と家庭において用いられる椅子との双方に対して着脱可能なヘッドレストにスピーカデバイスを搭載して構成する音響処理装置を例にして説明する。
【0041】
[第1の実施の形態]
図1は、この発明が適用された第1の実施の形態の音響処理装置1を説明するためのブロック図であり、図2は、この第1の実施の形態の音響処理装置が用いられる椅子の外観を説明するための図である。この第1の実施の形態の音響処理装置1は、左右2チャンネルの音声信号を処理することができるものである。
【0042】
図1において、ディスク100は、2チャンネルの音声信号を提供するもの(2ch音源(chはチャンネル略称))である。このディスク100から再生された左右2チャンネルの音声信号が、この図1に示す第1の実施の形態の音響処理装置1に供給される。
【0043】
このため、この第1の実施の形態の音響処理装置1は、図1に示すように、2ch音源であるディスク100からの左チャンネルの音声信号の供給を受け付ける左チャンネル入力端子Linと、右チャンネルの音声信号の供給を受け付ける右チャンネル入力端子Rinとを有している。
【0044】
そして、図1に示すように、この第1の実施の形態の音響処理装置1は、音像定位処理フィルタ部10と、トランスオーラルシステムフィルタ部20と、左右2チャンネルのスピーカデバイスとして、左スピーカ(左チャンネルスピーカ)SLと右スピーカ(右チャンネルスピーカ)SRと、記録媒体30と、CPU(Central Processing Unit)50とを備えたものである。
【0045】
左右のスピーカSL、SRとしては、それぞれ1つずつのスピーカからなる場合もあれば、スーパーツイータやウハーを備えた高品位の音声の放音が可能ないわゆるHiFiスピーカデバイスを用いることも可能である。この第1の実施の形態の場合、左右のスピーカSL、SRは、スーパーツイータやウハーを備えたHiFiスピーカデバイスである。
【0046】
そして、左右のスピーカSL、SRを含むこの第1の実施の形態の音響処理装置は、図2に示すように、自動車の座席や家庭において用いられる椅子の背もたれ部に対して着脱可能とされたヘッドレスト部St3に構成するようにされる。ヘッドレスト部St3は、図2に示すように、自動車の座席や家庭で用いられる椅子などにおいて、使用者の頭部を支持する部分(頭部支持部)に相当する。
【0047】
すなわち、図2に示すように、自動車の座席や家庭において用いられるリクライニングシートなどのいわゆる椅子(座席)Stは、大きく分けると、使用者が腰をおろす部分である腰掛部St1、使用者の背中をもたせかける部分である背もたれ部St2、使用者の頭部を支持する部分であるヘッドレスト部St3とからなっている。
【0048】
この第1の実施の形態においては、図2に示すヘッドレスト部St3に相当する部分に、左右2チャンネルのスピーカSL、SRを含む図1に示した構成の音響処理装置を構成する。そして、2チャンネル音源からの音声信号を再生する自動車に搭載された音声再生装置(カーステレオ装置)や家庭内に設けられた音声再生システム(ホームオーディオシステムやホームシアターシステムの音声再生装置)からの2チャンネルの音声信号のそれぞれの供給を受けることができるようにされている。
【0049】
そして、ヘッドレスト部St3に構成するようにされたこの第1の実施の形態の音響処理装置を用いた場合には、図2に示した図からも分かるように、ヘッドレスト部St3が装着された椅子Stに腰をかけた聴取者(使用者)は、自己の頭部の斜め後方に位置する左スピーカSL、右スピーカSRからの放音音声を聴取することになる。
【0050】
なお、ヘッドレスト部は、背もたれ部と一体に形成され、ヘッドレスト部分のみを取り外すことができないものもあるが、この実施の形態においては、前述もしたように、自動車の座席や家庭の椅子などの複数の椅子に対して着脱可能であって、複数の椅子において兼用することができるようにしたものである。
【0051】
そして、この第1の実施の形態の音響処理装置1においては、音声の定位を実際に固定されたスピーカの位置から、仮想的なスピーカの位置にずらすようにすることによって、音が聴取者の後頭部付近や聴取者の耳の後方から聞こえることによる違和感、不快感を除去するようにしている。
【0052】
すなわち、この第1の実施の形態においては、音像定位処理フィルタ部10、トランスオーラルシステムフィルタ部20とにより、左スピーカSLと右スピーカSRから放音される音声を、図1、図2において点線で示す左仮想スピーカVSL、右仮想スピーカVSRの位置から放音されたように聞こえるようにする。換言すれば、実スピーカSL、SRから放音される音声の音像を仮想スピーカVSL、VSRから放音されたもののように感じるように定位させる。
【0053】
なお、この第1の実施の形態において、仮想スピーカVSL、VSRは、左スピーカSL、右スピーカSRから放音される音声を定位させるようにする仮想位置であり、図1、図2に示すように、ヘッドレスト部st3に対する聴取者の頭部が所定の位置にあるときに、当該聴取者の前方方向の所定の位置に設定するようにしたものである。
【0054】
このように、ヘッドレスト部Stの左スピーカSLと右スピーカSRから放音される音声が、左右の仮想スピーカVSL、VSRが示す位置から放音されたように定位させることにより、音声が聴取者の後頭部付近や聴取者の耳の後方から聞こえることによる違和感、不快感を除去し、自然な音声として聴取者が聴取できるようにしている。
【0055】
以下、この第1の実施の形態の音響処理装置の各部について詳細に説明する。まず、音像定位処理フィルタ部10を説明するに当たり、音像定位処理の原理について説明する。図3は、音像定位処理の原理を説明するための図である。
【0056】
図3に示すように、所定の再生音場において、ダミーヘッドDHの位置を聴取者の位置とし、このダミーヘッドDHの位置の聴取者に対して、音像を定位させようとする左右の仮想スピーカ位置(スピーカがあるとものと想定する位置)に実際に左実スピーカSPL、右実スピーカSLRを設置する。
【0057】
そして、左実スピーカSPL、右実スピーカSPRから放音される音声をダミーヘッドDHの両耳部分において収音し、左実スピーカSPL、右実スピーカSPRから放音された音声が、ダミーヘッドDHの両耳部分に到達したときには、どのように変化するか示す伝達関数(HRTF)を予め測定しておく。
【0058】
図3に示すように、この第1の実施の形態においては、左実スピーカSPLからダミーヘッドDHの左耳までの音声の伝達関数はM11であり、左実スピーカSPLからダミーヘッドDHの右耳までの音声の伝達関数はM12であるとする。同様に、右実スピーカSPRからダミーヘッドDHの左耳までの音声の伝達関数はM21であり、右実スピーカSPRからダミーヘッドDHの右耳までの音声の伝達関数はM22であるとする。
【0059】
この場合、聴取者の耳の近傍に位置することになるヘッドレスト部St3のスピーカSL、SRから放音する音声の音声信号について、図3を用いて上述したように予め測定した伝達関数を用いて処理し、その処理後の音声信号による音声を放音するようにする。
【0060】
これにより、ヘッドレスト部St3のスピーカSL、SRから放音される音声が、あたかも仮想スピーカ位置(図1、図2において、仮想スピーカVSL、VSRの位置)から音声が放音されているように聴取者が感じるように、スピーカSL、SRから放音される音声の音像を定位させることができる。
【0061】
なお、ここでは伝達関数(HRTF)の測定に際し、ダミーヘッドDHを用いるようにしたがこれに限るものではない。伝達関数を測定する再生音場に実際に人間を座らせ、その耳近傍にマイクを置いて音声の伝達関数を測定するようにしてもよい。
【0062】
このように、所定の位置に音像を定位させるために、予め測定するようにした音声の伝達関数による処理を行なう部分が、図1に示した音像定位処理フィルタ部10である。この実施の形態の音像定位処理フィルタ部10は、左右2チャンネルの音声信号を処理することができるものであり、図1に示すように、4つのフィルタ11、12、13、14と、2つの加算部15、16からなるものである。
【0063】
フィルタ11は、左入力端子Linを通じて供給を受けた左チャンネルの音声信号を伝達関数M11で処理するものであり、処理後の音声信号を左チャンネル用の加算部15に供給する。また、フィルタ12は、左入力端子Linを通じて供給を受けた左チャンネルの音声信号を伝達関数M12で処理するものであり、処理後の音声信号を右チャンネル用の加算部16に供給する。
【0064】
また、フィルタ21は、右入力端子Rinを通じて供給を受けた右チャンネルの音声信号を伝達関数M21で処理するものであり、処理後の音声信号を左チャンネル用の加算部15に供給する。また、フィルタ22は、右入力端子Rinを通じて供給を受けた右チャンネルの音声信号を伝達関数M22で処理するものであり、処理後の音声信号を右チャンネル用の加算部16に供給する。
【0065】
これにより、左チャンネル用の加算部15からの出力音声信号による音声と、右チャンネル用の加算部16からの出力音声信号による音声とは、図1、図2において左仮想スピーカVSL、右仮想スピーカVSRから放音されるように、その音像が定位するようにされる。
【0066】
しかし、ヘッドレスト部St3に設けられた左スピーカSL、右スピーカSRから放音される音声は、音像定位処理が施されていても、図1に示すように、実際の再生音場における伝達関数G11、G12、G21、G22の影響を受けて、再生音声の音像を目的とする仮想スピーカ位置に正確に定位させることができない場合がある。
【0067】
そこで、この第1の実施の形態においては、トランスオーラルシステムフィルタ部20を用いて、音像定位処理フィルタ部10からの音声信号に対して補正処理を行なうようにすることで、左スピーカSL、右スピーカSRから放音される音声を、正確に仮想スピーカ位置の左右の仮想スピーカVSL、VSRから放音されたように定位させる。
【0068】
トランスオーラルシステムフィルタ部20は、トランスオーラルシステムが適用されて形成された音声フィルタである。トランスオーラルシステムは、ヘッドホンを用いて音声を厳密に再生するようにする方式であるバイノーラルシステム方式と同様の効果を、スピーカを用いた場合にも実現しようとする技術である。
【0069】
トランスオーラルシステムについて、図1の場合を例にして説明すると、左スピーカSL、右スピーカSRから放音される音声について、それぞれのスピーカから放音される音声の聴取者の左右それぞれの耳までの伝達関数G11、G12、G13、G14の影響を除去することにより、左スピーカSL、右スピーカSRから放音される音声を厳密に再生させるようにするものである。
【0070】
したがって、図1に示すトランスオーラルシステムフィルタ部20は、左スピーカSL、右スピーカSRから放音されることになる音声について、再生音場における伝達関数の影響を除去することにより、左スピーカSL、右スピーカSRから放音される音声の音像を正確に仮想スピーカ位置応じた位置に定位させるようにする。
【0071】
具体的にトランスオーラルシステムフィルタ部20は、左スピーカSL、右スピーカSRから聴取者の左右の耳までの伝達関数の影響を除去するために、右スピーカSRから聴取者の左右の耳までの伝達関数の逆関数に応じて音声信号を処理するフィルタ21、22,23、24と、加算部25、26を備えたものである。なお、この第1の実施の形態において、フィルタ21、22,23、24においては、逆フィルタ特性をも考慮した処理を行ないより自然な再生音声を放音できるようにしている。
【0072】
ところで、ヘッドレスト部St3に設けられたスピーカから聴取者の左右の耳までの伝達関数は、ヘッドレスト部St3の形状、材質、スピーカデバイスの設置位置、スピーカの性能や特性などが異なれば変わってしまう。すなわち、伝達関数は、スピーカデバイスが設けられた形状等が異なるヘッドレスト部St3ごとに異なるものであるといえる。
【0073】
図4は、背もたれ部St2に対して着脱可能とされた形状の異なるヘッドレスト部St3の例を説明するための図である。図4に示すように、背もたれ部St2に着脱可能なヘッドレスト部としては、箱型のヘッドレスト部St31、湾曲面にスピーカSL、SRが設けられた弓型のヘッドレスト部St32、スピーカSL、SRを設けた張り出し部を有し、聴取者の耳の横方向にスピーカSL、SRを位置させるようにした張り出し型のヘッドレスト部St33、半円型のヘッドレスト部34など、種々のものが考えられる。
【0074】
この図4からも分かるように、ヘッドレスト部の形状が異なれば、ヘッドレスト部に設けられたスピーカSL、SRと聴取者の耳との位置関係が変わり、また、スピーカから放音される音声の放音方向なども変わるため、スピーカから放音された音声の聴取者の耳元までの伝達関数は異なることになる。また、同じ形状のヘッドレスト部であっても、材質が異なれば、音声の吸収率が異なるなどするために、スピーカから放音された音声の聴取者の耳までの伝達関数が変わってしまうことも考えられる。
【0075】
そこで、ヘッドレスト部St3に構成される音響処理システムの構成要素の1つである記録媒体30に、そのヘッドレスト部St3を用いて測定するようにした伝達関数に応じて求められた係数データであって、そのヘッドレスト部St3を用いて音声を聴取する場合の伝達関数の影響を除去するためにトランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24のそれぞれにおいて用いる係数データを予め記憶させておく。
【0076】
そして、音声再生時において、CPU40を通じて、記憶媒体30に記憶されているトランスオーラルシステムフィルタ部20の各フィルタに対する係数データをトランスオーラルシステムフィルタ部20の各フィルタに供給する。これにより、音像定位処理フィルタ10からの音声信号に対して、そのヘッドレスト部St3の形状等に応じた適正な補正処理をトランスオーラルシステムフィルタ部20において行なうことができるようにしている。
【0077】
このように、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24のそれぞれは、記録媒体に予め蓄積されているヘッドレストSt3の形状、材質、スピーカデバイスの設置位置、スピーカの性能や特性などに応じた各フィルタに対するフィルタ係数をCPU40を通じてセットすることができ、セットされた係数データに応じた処理を行なうことができるようにされたものである。
【0078】
そして、音像定位処理フィルタ部10の左チャンネル用の加算部15からの出力音声信号は、トランスオーラルシステムフィルタ部20の左チャンネル用のフィルタ21と、右チャンネル用のフィルタ22とに供給され、また、音像定位処理フィルタ部10の右チャンネル用の加算部16からの出力音声信号は、トランスオーラルシステムフィルタ部20の左チャンネル用のフィルタ23と、右チャンネル用のフィルタ24とに供給される。
【0079】
各フィルタ21、22、23、24のそれぞれは、CPU40からのフィルタ係数を用いて所定の処理を行なうものであり、具体的には、前述もしたように、スピーカSL、SRが設けられたヘッドレストSt3が用いられて測定された聴取者の耳までの音声の伝達関数の影響を除去する処理を自フィルタに供給された音声信号に対して行なう。
【0080】
なお、ここでは、トランスオーラルシステムフィルタ20の各フィルタは、記録媒体30に記憶されている係数データをCPU40を通じてセットすることにより、図1に示したところの伝達関数G1、G2、G3、G4の逆関数を形成し、これにより音声信号を処理することによって、再生音場における伝達関数G1、G2、G3、G4の影響を除去するようにしている。
【0081】
そして、フィルタ21からの出力は、左チャンネル用の加算部25に供給され、フィルタ22からの出力は、右チャンネル用の加算部26に供給される。同様に、フィルタ23からの出力は、左チャンネル用の加算部25に供給され、フィルタ24からの出力は、右チャンネル用の加算部26に供給される。
【0082】
そして、各加算部25、26は、これらに供給された音声信号を加算し、加算部25は、左スピーカSLに音声信号を供給し、加算部26は、右スピーカSRに音声信号を供給する。これにより、ヘッドレスト部St3のスピーカSL、SRから放音される音声は、再生音場における現在の聴取者の頭部の位置に応じた伝達関数の影響が除去され、その音像が正確に左仮想スピーカVSL、右仮想スピーカVSRから放音された音声のように定位させることができるようにしている。
【0083】
このように、この第1の実施の形態の音響処理装置1は、スピーカSL、SRが設けられたヘッドレスト部St3の近傍に頭部が位置する聴取者は、ヘッドレスト部St3のスピーカSL、SRから放音される音声を仮想スピーカ位置VSL、VSRから放音されたように聴取することができるようにされる。
【0084】
したがって、聴取者の頭部の斜め後ろ側に位置する左スピーカSL、右スピーカSRから放音される音声を聴取するにもかかわらず、音声は聴取者の前方方向から聞こえてくるようにされるので、左スピーカSL、右スピーカSRから放音される音声が聴取者の後ろ側に張り付いて聞こえるなどの違和感や不快感を感じることなく、良好に音声を聴取できるようにすることができる。
【0085】
また、この実施の形態の音響処理装置1が搭載されたヘッドレスト部St3を例えば自動車内に設置された座席と家庭内に置かれた椅子とで兼用するようにした場合、自動車内、家庭内のいずれにおいても、ヘッドレスト部St3のスピーカSL、SRから放音される音声の音像を聴取者に対して所定の位置に定位させることができる。
【0086】
したがって、この第1の実施の形態の音響処理装置1が搭載されたヘッドレスト部St3を用いることにより、自動車内、家庭内のいずれにおいても、聴取者は自己の前方の所定の位置に定位するようにされた音声を聴取することができる。すなわち、聴取者の耳の後方に位置するヘッドレスト部St3のスピーカSL、SRから放音された音声を聴取するにもかかわらず、音声が後ろに張り付いたような感じを受けることなく、また、聞き疲れを生じさせることもないようにすることができる。
【0087】
また、この第1の実施の形態においては、図1に示した音響処理装置1の構成部分前部、すなわち、音像定位処理フィルタ10、トランスオーラルシステムフィルタ20、記録媒体30、CPU40、左右2チャンネルのスピーカSL、SRの前部をヘッドレスト部St3に設けた場合として説明した。
【0088】
この場合には、自動車内に設けられた音響再生装置や家庭内に設けられた音響再生装置の左右の音声信号の出力端子と、音響処理処理1の左右の音声信号の入力端子とを接続することにより、音響処理装置1を用いて音像定位処理された音声を違和感なく聴取することができる。
【0089】
しかし、図1に示した音響処理装置1の構成部分の前部をヘッドレスト部St3に設ける必要はない。例えば、ヘッドレスト部St3には、少なくとも左右2チャンネルのスピーカSL、SRと記録媒体30とを設け、その他の構成部分をヘッドレスト部St3以外に設けるようにすることもできる。
【0090】
図5は、左右のスピーカSL、SRと記録媒体30とをヘッドレスト部St3に設け、それ以外の構成部分はヘッドレストSt3に設けないようにして構成する音響処理装置を説明するための図である。図5に示した音響処理装置は、図1に示した音響処理装置1とほぼ同様に構成されたものである。
【0091】
そして、この図5に示す音響処理装置の場合には、点線で分離するようにした上側の部分、すなわち、スピーカSL、SRと記録媒体30とはヘッドレストSt3に設ける。そして、点線より下側の部分、すなわち、スピーカSL、SRと記録媒体30以外の各部分は、例えば、背もたれ部St2や腰掛部St1、あるいは、ディスクなどの音源に記録されている音声信号を再生する音声再生装置側に設けるようにする。
【0092】
このようにすることによって、ヘッドレスト部St3には、音像定位処理部10、トランスオーラルシステムフィルタ部20などを搭載しなくてもすみ、音響処理装置の構成要素の1つであるスピーカが設けられたヘッドレスト部St3を安価に構成することができる。したがって、聴取者は、ヘッドレストSt3を気軽に買え換えることができるようにされる。
【0093】
しかも、ヘッドレスト部St3以外の場所に設けられるトランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24に供給する係数データであって、スピーカSL、SRが設けられたヘッドレストSt3に応じた係数データは、ヘッドレスト部St3側に設けられる記録媒体30に記憶されている。
【0094】
したがって、ヘッドレストSt3が例えば自動車の座席から取り外されて、家庭内の椅子に取り付けられて使用されても、ヘッドレストSt3のスピーカSL、SRから放音される音声は、聴取者に対して所定の位置に定位させることができる。すなわち、自動車の座席と家庭内の椅子などというように、複数の椅子で当該ヘッドレストSt3を兼用し、そのいずれの椅子においても、ヘッドレスト部St3のスピーカSL、SRから放音される音声の音像を聴取者に対して所定の位置に定位させて提供することができる。
【0095】
なお、音響再生装置1の前部をヘッドレスト部St3に設けた場合であっても、また、左右のスピーカSL、SRと記録媒体30とをヘッドレスト部St3に設けた場合であっても、ヘッドレスト部St3をこれが着脱可能とされた椅子(座席)にヘッドレスト部St3を装着すると、CPU40によって記録媒体30から係数データが読み出されてトランスオーラルシステムフィルタ部20の各フィルタにセットされる。
【0096】
そして、ヘッドレスト部St3が、椅子(座席)に装着されたときには、音源からの音声を再生する音声再生装置から左右のスピーカSL、SRまでが接続され、音源からの音声信号に対して、音像定位処理、トランスオーラル処理を行なって、処理後の音声信号による音声を左右のスピーカSL、SRから放音することができる。
【0097】
なお、記録媒体30は、例えば、ROMやEEPROMなどの半導体メモリである。また、記録媒体30として、磁気ディスク、光ディスク、光磁気ディスクなどの記録媒体を用いるようにすることもできる。
【0098】
[第1の実施の形態の変形例]
図6は、第1の実施の形態の音響処理装置の変形例を説明するためのブロック図である。図6に示すように、この例の音響処理装置2は、トランスオーラルシステムフィルタ部20に変えて、簡易型トランスオーラルシステムフィルタ部50が搭載されたことを除けば、図1に示した第1の実施の形態の音響処理装置1と同様に構成されたものである。このため、この図6に示す音響処理装置2において、図1に示した第1の音響処理装置1と同様に構成される部分には、同じ参照符号を付し、その詳細な説明は省略する。
【0099】
図1、図2、図6に示したように、ヘッドレスト部St3に設けられるスピーカSL、SRと聴取者の頭部とは通常近接しており、ヘッドレスト部St3のスピーカSL、SRは、聴取者の耳に近いという性質上、スピーカSL、SRから反対側の耳へのクロストーク成分は、スピーカSL、SRから当該スピーカに対応する側の耳への音声信号成分よりも格段に小さい。
【0100】
つまり、図1に示した例において、クロストーク成分の伝達関数G12、G21は、伝達関数G11、G22よりも格段に小さいので、クロストーク成分の伝達関数G12、G21は無視することができる。このため、クロストーク成分の考慮を通常のトランスオーラルシステムから省略することにより、簡略化を図ったものが、図6に示す簡易型トランスオーラルシステムフィルタ部50である。
【0101】
この簡易型トランスオーラルシステムフィルタ部50は、図6に示すように、ヘッドレスト部St3に設けられ左スピーカSLから聴取者の左耳までの音声の伝達関数G1の逆関数で音声信号を処理するフィルタ51と、ヘッドレスト部St3に設けられる右スピーカSRから聴取者の右耳までの音声の伝達関数G2の逆関数で音声信号を処理するフィルタ52とを備えたものである。このように、クロストーク成分を無視するようにした場合であっても、左右のスピーカSL、SRから放音される音声の定位は仮想スピーカ位置になることは実験により確認されている。
【0102】
そして、簡易型トランスオーラルシステムフィルタ部50の2つのフィルタ51、52のそれぞれに対しては、図1を用いて前述した音響処理装置1の場合と同様に、左右2チャンネルのスピーカSL、SRが設けられるヘッドレスト部を用いて測定するようにされた伝達関数に応じた係数データが供給される。この係数データは、前述した音響処理装置1の場合と同様に、記録媒体30に予め記憶するようにされており、これがCPU40を通じて簡易型トランスオーラルシステムフィルタ50のフィルタ51、52に供給される。
【0103】
この場合、記録媒体30に用意しておく係数データもフィルタ51、52に対するものだけでよいので、記録媒体30に記憶保持しておくデータ量を少なくすることができる。したがって、記録媒体30として記憶容量の小さなものを用いることができる。また、図6に示した音響処理装置2の場合には、簡易型トランスオーラルシステムフィルタ部50を用いることにより、音響処理装置の構成を簡単にすることができる。
【0104】
また、図6に示した音響処理装置2の場合にも、図1に示した第1の実施の形態の音響処理装置1の場合と同様に、聴取者の頭部の斜め後ろ側に位置する左スピーカSL、右スピーカSRから放音される音声を聴取するにもかかわらず、音声は聴取者の前方方向から聞こえてくるようにされるので、左スピーカSL、右スピーカSRから放音される音声が聴取者の後ろ側に張り付いて聞こえるなどの違和感や不快感を感じさせずに、良好に音声を聴取できるようにすることができる。
【0105】
[第2の実施の形態]
図7は、この発明が適用された第2の実施の形態の音響処理装置3を説明するためのブロック図である。この第2の実施の形態の音響処理装置3は、例えばDVDなどのマルチチャンネルのメディアからの音声信号を処理することができるものであり、この第2の実施の形態においては、5チャンネルの音声信号を処理することができるものである。
【0106】
図7に示すように、この第2の実施の形態の音響処理装置3は、5チャンネル分の音声信号の入力端子i1〜i5を備え、例えば、DVDなどのマルチチャンネルの記録媒体からの5チャンネル分の音声信号の入力を受けることができるものである。そして、図7に示す音響処理装置3は、左右2チャンネルのスピーカSL、SR、記録媒体30、CPU40、簡易型トランスオーラルシステムフィルタ50、音像定位処理フィルタ部60を備えたものである。
【0107】
この第2の実施の形態の音響処理装置3もまた、第1の実施の形態の音響処理装置1の場合と同様に、各種の椅子(座席)に着脱可能なヘッドレスト部St3に構成するようにされるものである。また、図7からも分かるように、この第2の実施の形態の音響処理装置3は、音像定位処理フィルタ部60以外の各部は、第1の実施の形態の変形例の音響処理装置2と同様に構成されたものである。
【0108】
そして、この第2の実施の形態の音響処理装置3の音像定位処理フィルタ部60は、基本的には、第1の実施の形態の音響処理装置の音像定位処理フィルタ部10と同様の原理に基づいて、スピーカから放音される音声の音像を定位させるものである。
【0109】
しかし、図7に示すこの第2の実施の形態の音響処理装置3においては、ヘッドレスト部St3に設けられる左右のスピーカSL、SRから放音される音声の音像を、図7において、点線で示した5つの仮想スピーカVS1〜VS5から放音されているように定位させるようにするものである。
【0110】
図8は、図7に示した第2の実施の形態の音響処理装置3の音像定位処理フィルタ部60の原理を説明するための図である。図8に示すように、所定の再生音場において、ダミーヘッドDHの位置を聴取者の位置とし、このダミーヘッドDHの位置の聴取者に対して、音像を定位させようとする仮想スピーカ位置(スピーカがあるとものと想定する位置)に実際に実スピーカSP1〜SP5を設置する。そして、実スピーカSP1〜SP5のそれぞれから放音される音声のダミーヘッドDHの左右それぞれの耳までの伝達関数(HRTF)を予め測定しておく。
【0111】
図8に示すように、この第2の実施の形態において、実スピーカSP1からダミーヘッドDHの左耳までの音声の伝達関数はN11であり、実スピーカSP1からダミーヘッドDHの右耳までの音声の伝達関数はN12である。また、実スピーカSP2からダミーヘッドDHの左の耳までの音声の伝達関数はN21であり、実スピーカSP2からダミーヘッドDHの右の耳までの音声の伝達関数はN22である。
【0112】
以下同様に、実スピーカSP3からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N31、N32であり、実スピーカSP4からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N41、N42である。また、実スピーカSP5からダミーヘッドDHの左右それぞれの耳までの音声の伝達関数は、N51、N52である。
【0113】
そして、入力端子i1〜i5のそれぞれから入力される音声信号について、図8を用いて説明したように、予め測定した対応する伝達関数を用いて処理するとともに、再生音場における伝達関数による影響を除去するための補正処理を行ない、その処理後の音声信号による音声をヘッドレスト部St3に設けられる左右のスピーカSL、SRに供給して、音声を放音するようにする。
【0114】
このようにして、ヘッドレスト部St3のスピーカSL、SRから放音される音声が、あたかも図7において点線で示した仮想スピーカVS1〜VS5が示す位置から放音されているように視聴者が感じるようにその音像を定位させることができるようにしている。
【0115】
そして、音像を定位させるために、予め測定した音声の伝達関数による処理を行なう部分が、図7に示した音像定位処理フィルタ部60であり、再生音場における伝達関数の影響を除去するための補正処理を行なう部分が、前述した第1の実施の形態の変形例の場合と同様に簡易型トランスオーラルシステムフィルタ50である。
【0116】
まず、この第2の実施の形態の音像定位処理フィルタ部60についてであるが、音像定位処理フィルタ部60は、前述もしたように、5チャンネルの音声信号を処理することができるものであり、図7に示したように、10個のフィルタ61〜70と、2つの加算部71、72とからなるものである。
【0117】
フィルタ61は、端子i1を通じて供給を受けた音声信号を伝達関数N11で処理するものであり、処理後の音声信号を左チャンネル用の加算部71に供給する。また、フィルタ62は、端子i2を通じて供給を受けた音声信号を伝達関数N12で処理するものであり、処理後の音声信号を右チャンネル用の加算部72に供給する。
【0118】
フィルタ63は、端子i2を通じて供給を受けた音声信号を伝達関数N21で処理するものであり、処理後の音声信号を左チャンネル用の加算部71に供給する。また、フィルタ64は、端子i2を通じて供給を受けた音声信号を伝達関数N22で処理するものであり、処理後の音声信号を右チャンネル用の加算部72に供給する。
【0119】
フィルタ65は、端子i3を通じて供給を受けた音声信号を伝達関数N31で処理するものであり、処理後の音声信号を左チャンネル用の加算部71に供給する。また、フィルタ66は、端子i3を通じて供給を受けた音声信号を伝達関数N32で処理するものであり、処理後の音声信号を右チャンネル用の加算部72に供給する。
【0120】
フィルタ67は、端子i4を通じて供給を受けた音声信号を伝達関数N41で処理するものであり、処理後の音声信号を左チャンネル用の加算部71に供給する。また、フィルタ68は、端子i4を通じて供給を受けた音声信号を伝達関数N42で処理するものであり、処理後の音声信号を右チャンネル用の加算部72に供給する。
【0121】
フィルタ69は、端子i5を通じて供給を受けた音声信号を伝達関数N51で処理するものであり、処理後の音声信号を左チャンネル用の加算部71に供給する。また、フィルタ70は、端子i5を通じて供給を受けた音声信号を伝達関数N52で処理するものであり、処理後の音声信号を右チャンネル用の加算部72に供給する。
【0122】
これにより、左チャンネル用の加算部71からの出力音声信号による音声と、右チャンネル用の加算部72からの出力音声信号による音声とは、図6において点線で示した仮想スピーカVS1〜VS5の位置から放音されるように音像が定位するようにされる。
【0123】
そして、この第2の実施の形態の音響処理装置3の場合にも、第1の実施の形態の音響処理装置1、2の場合と同様に、ヘッドレスト部St3に設けられた左スピーカSL、右スピーカSRから放音される音声は、音像定位処理が施されていても、実際の再生音場における伝達関数の影響を受けて、再生音声の音像を目的とする仮想スピーカ位置に定位させることができない場合があると考えられる。
【0124】
そこで、この第2の実施の形態の音響処理装置3においても、クロストーク成分を考慮しない簡易型のトランスオーラルシステムフィルタ部50を用いることによって、ヘッドレスト部St3の左右のスピーカSL、SRから放音される音声の音像が、正確に各仮想スピーカVS1〜VS5の各位置に定位するようにしている。
【0125】
この第2の実施の形態の音響処理装置3の場合にも簡易型トランスオーラルシステム部50においては、図6を用いて前述した第1の実施の形態の変形例の音響処理装置2の場合と同様に、スピーカSL、SRが設けられるヘッドレスト部St3に応じた伝達関数に応じて定められ、記憶媒体30に記憶されている係数データがCPU40を通じて供給され、再生音場におけるスピーカSL、SRから聴取者の耳元までの音声の伝達関数の影響を除去することができるようにされる。
【0126】
近年、DVDなどのマルチチャンネルの音源を持つメディアも普及してきているが、この第2の実施の形態の音響処理装置3のように、5チャンネルの音声信号を処理できるようにしておくことによって、ヘッドレスト部St3の2つのスピーカSL、SRを通じて、仮想的な5チャンネルの音像を得て、迫力ある再生音声を楽しむことができる。
【0127】
そして、この第2の実施の形態の場合においても、左右のスピーカSL、SRが設けられたヘッドレストを用いたときの左右のスピーカSL、SRから聴取者の耳元までの伝達関数に応じて、当該伝達関数の影響を除去するために、予め簡易型トランスオーラルシステムフィルタ部50のフィルタ51、52に供給する係数データを記憶媒体30に用意するようにしている。
【0128】
これにより、図7に示した第2の実施の形態の音響処理装置3が構成されたヘッドレストSt3を複数の椅子(座席)で兼用するようにした場合、それらのどの椅子(座席)に、この第2の実施の形態の音響処理装置3が構成されたヘッドレストSt3を装着して使用した場合にも、聴取者に対して所定の位置に音像を定位するようにした音声を提供することができる。
【0129】
なお、この第2の実施の形態の音響処理装置3において、簡易型トランスオーラルシステムフィルタ50に変えて、図1に示した第1の実施の形態の音響処理装置1の場合と同様に、トランスオーラルシステムフィルタ部20を用いるようにすることもできる。この場合には、4つにフィルタ21,22、23、24のそれぞれにヘッドレスト部St3に応じた係数データをセットするようにすればよい。
【0130】
また、この第2の実施の形態の音響処理装置3の場合にも、少なくとも左右のスピーカSL、SRと記憶媒体30とをヘッドレスト部St3に設け、それ以外の各部は、ヘッドレスト部St3以外の例えば背もたれ部St2や、音響再生装置側、あるいは、音響再生装置と左右のスピーカSL、SRの間のいずれかに設ける構成とすることもできる。
【0131】
このように、ヘッドレスト部には、音響処理装置3の構成部分のうちの必要最小限の部分のみを設けるようにすることによって、音響処理装置3の一部分を構成することになるヘッドレスト部を安価に構成することができる。これにより、使用者は、気軽にスピーカが設けられたヘッドレスト部を交換することができるなど、使用者の要求に対応することができる。
【0132】
[第3の実施の形態]
例えば、図1を用いて前述した音響処理装置1の場合、仮想スピーカVSL、VSRが示す仮想スピーカ位置から聴取者の両耳までの位置関係、および、スピーカSL、SRから聴取者の両耳までの位置関係が、伝達関数測定時と、システム再生時(実際に音声を再生して聴取する時)とで大きく変わってしまう場合には、各伝達関数も変わってしまうため、仮想スピーカ位置への音像の定位の効果が薄くなる場合があると考えられる。
【0133】
具体的に説明すると、例えば、図1に示した音響処理装置1の場合には、ヘッドレスト部St3に設けられた左右のスピーカSL、SLから聴取者の耳までの伝達関数が、伝達関数G11、G12、G21、G22である位置に聴取者の頭部がある場合には、当該聴取者は、ヘッドレスト部St3に設けられた左右のスピーカSL、SRから放音される音声を仮想スピーカVSL、VSRから放音されたかのように聴取することができる。
【0134】
しかし、ヘッドレスト部St3に設けられた左右のスピーカSL、SRに対する聴取者の頭部の位置が想定した位置よりもずれてしまえば、ヘッドレスト部St3に設けられた左右のスピーカSL、SRから聴取者の耳元までの伝達関数は変わってしまう。このため、再生音場における当該伝達関数の影響を確実に除去することができなくなり、スピーカSL、SRから放音した音声の音像を仮想スピーカ位置に定位させるようにする仮想スピーカ定位効果が十分には得られなくなる。
【0135】
特に、スピーカの放音面に対して平行に上下方向や左右方向に動いてしまった場合には、スピーカの放音面に対して直交する方向に聴取者の頭部が動いた場合(スピーカに近づくように、あるいは、スピーカから遠ざかるように動いた場合)に比べてその影響は大きい。
【0136】
このため、仮想スピーカ定位の効果を十分に得るためには、スピーカに対する聴取者の頭部の位置(耳の位置)を必ず決まった位置となるようにして、音声を聴取するか、聴取者の様々な頭部の位置における伝達関数を測定しておき、その位置に適するような伝達関数や逆フィルタを通したシステムで音声を再生するようにすることが望ましい。
【0137】
しかし、当該ヘッドレスト部St3を有する椅子に腰をかけた聴取者の頭部の位置を常にスピーカに対して所定の位置の保持するようにすることは難しい。また、保持するようにすることができたとしても、かえって聴取者のリラックス感を阻害することにもなりかねない。
【0138】
そこで、この第3の実施の形態においては、例えば、音響処理装置が動作状態にあるときに、あるいは、聴取者からの指示があった場合などにおいて、スピーカに対する聴取者の耳の位置、換言すればスピーカが設けられたヘッドレスト部からの聴取者の頭部の距離を含むヘッドレスト部に対する聴取者の頭部の位置を計測する。
【0139】
そして、ヘッドレストSt3に対して聴取者の頭部が取り得る複数の位置に応じた複数の係数データを記録媒体30に予め用意しておき、測定した聴取者の頭部の位置に応じた係数データを記憶媒体30から読み出して、これを再生音場に置ける伝達関数による影響を除去するためのフィルタに供給することによって、聴取者の頭部の最新の位置に応じて音像定位処理後の音声信号に対して適切な補正処理を施すことができるようにしたものである。
【0140】
図9は、この第3の実施の形態の音響処理装置4を説明するためのブロック図である。この第3の実施の形態の音響処理装置4もまた、複数の椅子(座席)に対して着脱可能とされたヘッドレスト部St3に構成されるものである。
【0141】
図9に示す音響処理装置4においては、ヘッドレスト部St3に設けられるスピーカデバイスのスーパーツイータを聴取者の頭部の位置検出センサとして用いるようにしている。近年、再生オーディオについてのHiFi志向が進み、可聴周波数帯域以上の再生性能を持つスピーカを実装することは珍しいことではないため、これを利用する。
【0142】
すなわち、この第3の実施の形態の音響処理装置4のスピーカSL、SRのスーパーツイータは、可聴周波数以上の再生能力を持つものであり、この構成のスピーカ(スピーカデバイス)を聴取者の頭部の位置の測定に用いることにより、聴取者の頭部の位置を検出するために感圧式などの専用のセンサシステムを搭載しなくても済むように構成したものである。
【0143】
具体的には、ヘッドレスト部St3にも受けられたスピーカのスーパーツイータから超音波を送信し、この送信した超音波の聴取者の頭部からの反射波(反射超音波)をスーパーツイータにより受信して、これを頭部位置検出部(以下、単に検出部という。)80で分析することにより、ヘッドレスト部St3に対する聴取者の頭部の位置を検出する。
【0144】
このように、ヘッドレスト部St3に設けられた左右のスピーカSL、SRのスーパーツイータを聴取者の頭部の位置を検出するための位置検出センサとして用い、ヘッドレスト部St3に対する聴取者の頭部の位置を検出するための検出部80を設けたことを除けば、図9に示すこの第3の実施の形態の音響処理装置4は、第1の実施の形態の音響処理装置1とほぼ同様に構成されたものである。
【0145】
このため、図9に示したこの第3の実施の形態の音響処理装置において、図1に示した音響処理装置1と同様に構成される部分には同じ参照符号を付し、その詳細な説明については省略する。
【0146】
そして、前述もしたように、この第3の実施の形態の音響処理装置4においては、ヘッドレスト部St3に設けられるスピーカSL、SRのスーパーツイータから所定の周波数の超音波を送信し、この超音波の聴取者の主に頭部からの反射をヘッドレスト部St3のスピーカSR、SLのスーパーツイータを通じて受信する。
【0147】
そして、スーパーツイータから送信した超音波の反射波の受信の有無や、反射波を受信した場合には、超音波を送信してからその反射波を受信するまでにかかった時間、当該時間と超音波の速度とから得られるスピーカと聴取者との距離などに基づいて、ヘッドレスト部St3に対する聴取者の頭部の位置を検出するようにしている。
【0148】
図10は、この第3の実施の形態の音響処理装置4において行なう聴取者の頭部の位置の検出処理を説明するための図である。図10に示すように、ヘッドレスト部St3の左右のスピーカSL、SRのスーパーツイータから40kHzの超音波を送信し、この超音波の使用者の頭部からの反射波を、同じくヘッドレスト部St3の左右のスピーカSL、SRのスーパーツイータにより受信する。
【0149】
左右のスピーカSL、SRのスーパーツイータからの超音波の送信の制御は、例えばCPU40によって制御される。そして、左右のスピーカSL、SRのスーパーツイータにより受信される超音波は、検出部80に供給するようにされる。この検出部80において、40kHzの超音波(反射波)の有無や、40kHzの超音波(反射波)を受信したときには、当該超音波の送信から受信までにかかった時間、超音波の速度などからヘッドレスト部St3の左右のスピーカSL、SRに対する聴取者の頭部の位置を検出する。
【0150】
すなわち、図4A、Bに示すように、ヘッドレスト部St3のスピーカSL、SRのスーパーツイータのそれぞれが、同じように送信した超音波の反射波を同じように受信した場合には、送信から受信までにかかった時間に応じて、ヘッドレスト部St3に対する聴取者の頭部の位置を検出することができる。
【0151】
簡単に言えば、例えば、図4Aに示したように、超音波の送信から受信までにかかった時間が比較的に長い場合には、聴取者の頭部は、ヘッドレスト部St3から比較的に離れた位置に位置していることがわかる。また、図4Bに示したように、超音波の送信から受信までにかかった時間が比較的に短い場合には、聴取者の頭部の位置は、ヘッドレスト部St3から比較的に近い位置に位置していることがわかる。
【0152】
また、図4Cに示すように、ヘッドレスト部St3に設けた左右のスピーカSL、SRのスーパーツイータから同じように送信した超音波を例えば左スピーカSLのスーパーツイータのみが受信し、右スピーカSRのスーパーツイータは40kHzの超音波を受信しなかった場合には、聴取者の頭部は、ヘッドレスト部St3に対して左側に片寄っていることがわかる。
【0153】
この逆に、ヘッドレスト部St3に設けた左右のスピーカSL、SRのスーパーツイータから同じように送信した超音波を例えば右スピーカSRのスーパーツイータのみが受信し、左スピーカSLのスーパーツイータは40kHzの超音波を受信しなかった場合には、聴取者の頭部は、ヘッドレスト部St3に対して右側に片寄っていることがわかる。
【0154】
このように、検出部40は、左右のスピーカから送信された超音波の聴取者の頭部からの反射波に基づいて、ヘッドレスト部St3のスピーカSL、SRからの距離および左右のオフセット(ずれ分)などがセンシング可能である。この場合、聴取者の頭部の位置は、例えば、本来聴取者の頭部が位置すべき基準位置からのずれ分(オフセット分)として検出され、これがCPU40に通知される。
【0155】
そして、CPU40は、検出部80からの聴取者の頭部の位置の検出結果に基づいて、記録媒体30に記録されている係数データテーブルを参照し、現在の聴取者の頭部の位置に応じたトランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24に供給する係数データを読み出す。
【0156】
この第3の実施の形態において、記録媒体30には、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24のそれぞれに供給する係数データであって、ヘッドレスト部St3に対して聴取者の頭部が取り得る複数の位置に応じた複数の係数データが各位置に対応付けられて記憶されている。
【0157】
すなわち、ヘッドレスト部St3のスピーカSL、SRから放音された音声の聴取者の左右の耳元までの伝達関数を、予めヘッドレスト部St3に対する聴取者の頭部の位置をいろいろと変えて測定しておき、この測定結果に基づいて、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24で用いる係数データを求め、この求めた係数データと聴取者の頭部の位置とを対応付けたデータが記録媒体30に記憶するようにされている。
【0158】
したがって、記録媒体30には、聴取者の頭部の位置が、位置Aにおけるトランスオーラルシステムフィルタ部20のフィルタ21、22、23、24のそれぞれで用いられる係数データ、位置Bにおけるトランスオーラルシステムフィルタ部20のフィルタ21、22、23、34のそれぞれで用いられる係数データ、…というように、ヘッドレスト部St3に対してその位置を変えるようにした聴取者の頭部の各位置におけるフィルタ21、22、23、24で用いる係数データが記憶されている。
【0159】
CPU40は、検出部80からの現在の使用者の頭部の位置の検出結果に基づいて、トランスオーラルシステムフィルタ部20の各フィルタ21、22、23、24に供給する係数データを記録媒体30から読み出し、これをトランスオーラルシステムフィルタ部20の対応するフィルタに供給する。
【0160】
これにより、聴取者の頭部の位置がヘッドレスト部St3に対して動いても、聴取者の実際の頭部の位置を測定して、その位置に応じて再生音場における伝達関数の影響を除去するようにトランスオーラルシステムフィルタ部20において、補正処理を行なうことができる。したがって、ヘッドレスト部St3の左右のスピーカSL、SRから放音される音声の音像を聴取者の頭部の位置にかかわりなく仮想スピーカ位置に定位させることができる。
【0161】
しかも、記憶媒体30に記憶されている係数データは、この第3の実施の形態の音響処理装置4が構成されたヘッドレスト部St3に応じたものであるので、このヘッドレスト部St3を、これが着脱可能ないずれの椅子(座席)に装着されて用いられた場合であっても、ヘッドレスト部St3に設けられた左右のスピーカSL、SRから放音される音声の音像を聴取者に対して所定の位置に定位させることができる。
【0162】
なお、この第3の実施の形態において、記録媒体30には、聴取者の頭部が取り得る各位置において測定した伝達関数に基づいて、頭部の各位置に対応してトランスオーラルシステムフィルタ部20の各フィルタにセットする関数を求め、この関数と頭部の位置とを対応付けて記憶するようにしてもよい。すなわち、補正に用いる関数自体を頭部の位置に対応付けて記録媒体30に記憶しておき、これをトランスオーラルシステムフィルタ部20の目的とするフィルタにセットするようにしてもよい。
【0163】
また、例えば、基準位置における伝達関数を測定し、この基準伝達関数に対する振幅調整用パラメータや遅延処理用パラメータなどの必要なパラメータを設定しておき、この基準パラメータを基準にして、検出される聴取者の頭部の実際の位置に応じ、新たなパラメータを求め、これを各フィルタに設定するようにしてもよい。
【0164】
つまり、1つの伝達関数モデルを設定し、このモデルに対して聴取者の頭部の位置に応じて調整を行なうようにすることによって、聴取者の実際の頭部の位置に応じた補正処理を音声信号に対して行なうようにすることもできる。この場合には、基準モデルとして、基準位置に置けるパラメータを例えばCPUで実行するプログラム中に保持するようにした場合には、パラメータを保持するためのメモリは必要ないし、また、基準パラメータのみをメモリに保持しておくのであれば、大きな記憶容量のメモリは必要ないことになる。
【0165】
なお、上述したように、記録媒体30に蓄積され、トランスオーラルシステムフィルタ部20の各フィルタに供給することになる処理用情報としては、係数データ、関数データ、パラメータデータなど、複数種類のものがかんがえられるが、これらは、実際に音響処理装置に搭載されることになる各フィルタ回路に応じて用いるようにすればよい。
【0166】
また、この第3の実施の形態においては、トランスオーラルシステムフィルタ部20を用いるようにしたが、これに限るものではない。例えば、図11に示すように、トランスオーラルシステムフィルタ部20に代えて簡易型トランスオーラルシステムフィルタ部50を用いることにより、よい構成を簡単にした音響処理装置5を構成することもできる。この場合には、記憶部30に予め容易しておくデータを図9に示した第3の実施の形態の音響処理装置4の約半分にすることができる。
【0167】
また、2チャンネルの音像定位処理フィルタ10に変えて、図7に示した5チャンネルの音像定位処理フィルタ部50などの多チャンネルの音像定位処理フィルタを用いるようにすることもできる。
【0168】
また、この第3の実施の形態の図9に示した音響処理装置4、および、図11に示した音響処理装置5の場合にも、左右のスピーカSL、SRと記録媒体30とをヘッドレスト部St3に設け、その他の部分を背もたれ部St2や、音響再生装置側、あるいは、スピーカSL、SRと音響再生装置との間に設けるようにしてもよい。
【0169】
このようにした場合には、スピーカを備えた安価なヘッドレスト部St3を構成することができ、形状、材質、スピーカ設置位置などが異なる様々なヘッドレスト部を提供し、使用者は自分の好みに合ったものを購入して利用することができる。
【0170】
[第4の実施の形態]
ところで、より高品位の音声の提供が可能な音響処理装置を実現するために、ヘッドレスト部に対する聴取者の頭部の位置の検出精度を上げ、音声信号に対するトランスオーラルシステムによる補正処理をより厳密に行なえるようにしたいとする要求がある。
【0171】
そこで、この第4の実施の形態の音響処理装置においても、聴取者の頭部の位置を検出するための超音波を、前述した第3の実施の形態の音響処理装置4、5の場合と同様に、ヘッドレスト部St3に設けられたスピーカSL、SRのスーパーツイータから送信する。
【0172】
しかし、この第4の実施の形態の音響処理装置においては、送信された超音波の反射波は、ヘッドレスト部St3、あるいは、その近傍に設ける複数個の超音波受信素子によって受信するようにし、より精度よく聴取者の頭部の位置を検出できるようにしたものである。
【0173】
図12は、この第4の実施の形態の音響処理装置6を説明するためのブロック図である。図12に示すように、この第4の実施の形態の音響処理装置は、複数個の超音波受信素子(超音波感知素子)が例えばヘッドレスト部St3あるいはその近傍に設けられるとともに、複数個の受信素子からの検出出力を受け付ける頭部位置検出部80Aが設けられている以外は、図1に示した第1の実施の形態の音響処理装置1と同様に構成されたものである
このため、図12に示す第4の実施の形態の音響処理装置6において、図1に示した第1の実施の形態の音響処理装置1と同様に構成される部分には、第1の実施の形態の音響処理装置1と同様の参照符号を付し、その部分の説明は省略することにする。
【0174】
図12に示すこの第4の実施の形態の音響処理装置6の場合には、ヘッドレスト部St3に、あるいは、その近傍に、6つの超音波受信素子(以下、単に受信素子という。)SS1〜SS6をアレイ状に設けている。そして、左チャンネルSLのスーパーツイータと、右チャンネルSRのスーパーツイータから、周波数の異なる超音波を送信し、その反射波を受信素子SS1〜SS6で受信し、その検出出力に基づいて、検出部80Aが聴取者の頭部の位置をより正確に検出することができるようにしている。
【0175】
図13は、この第4の実施の形態の音響処理装置6において行なう聴取者の頭部の位置の検出処理を説明するための図である。図13に示すように、本来聴取者の頭部がある方向にその放音面が向けられた左右のスピーカSL、SRから、異なる周波数の超音波を送信し、この送信した超音波の聴取者の頭部からの反射波を受信素子SS1〜SS6により受信するようにする。
【0176】
この図13に示す例の場合、左スピーカSLのスーパーツイータからは、周波数が40kHzの超音波を送信し、右スピーカSRのスーパーツイータからは、周波数が50kHzの超音波を送信するようにしている。このようにすることによって、位置検出の精度をより向上させるようにしている。
【0177】
そして、図13Aに示すように、ヘッドレスト部St3に設けられた受信素子SS1〜SS6のいずれもが、左右のスピーカSL、SRのスーパーツイータから送信された超音波の反射波を受信できない場合には、聴取者の頭部の位置は、ヘッドレスト部St3から所定の距離以上離れた位置にあると検出することができる。
【0178】
また、図13Bに示すように、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS3により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS1により受信された場合には、聴取者の頭部の位置は、ヘッドレスト部St3の左スピーカSL側によった位置にあると検出することができる。
【0179】
また、図示しないが、図13Bの場合とは逆に、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS6により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS4が受信した場合には、聴取者の頭部の位置は、ヘッドレスト部St3の右スピーカSL側によった位置にあると検出することができる。
【0180】
さらに、図13Cに示すように、左スピーカSLのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、40kHzの超音波が受信素子SS3により受信され、かつ、右スピーカSRのスーパーツイータから送信した超音波の聴取者の頭部からの反射波、すなわち、50kHzの超音波が受信素子SS4が受信した場合には、聴取者の頭部の位置は、ヘッドレスト部St3の左右のスピーカSL、SRのちょうど中間の位置にあると検出することができる。
【0181】
このように、左右のスピーカSL、SRのスーパーツイータから送信される、周波数の異なる超音波をヘッドレスト部St3にアレイ状に設けられた6つの受信素子の内のどの受信素子が受信したかに応じて、ヘッドレスト部St3に対する聴取者の頭部のオフセット(ずれ分)を検出することができる。
【0182】
さらに、左右のスピーカのスーパーツイータから送信される超音波について、その送信から受信素子により受信されるまでの時間を計測しておくことにより、当該時間と超音波の速度とに応じて、ヘッドレスト部St3から聴取者の頭部までの距離を検出することができる。これらヘッドレスト部St3に対する聴取者の頭部のオフセット、および、距離に基づいて、ヘッドレスト部St3に対する聴取者の頭部の位置をより正確に検出することができる。
【0183】
そして、検出部80Aは、図13を用いて説明したように、ヘッドレスト部St3にアレイ状に設けられた各受信素子からの検出出力に基づいて聴取者の頭部の正確な位置を検出する。すなわち、検出部80Aは、上述したように、どの受信素子によって、左右それぞれのスピーカのスーパーツイータから送信された超音波を受信したか、さらに、左右それぞれのスピーカのスーパーツイータから送信された超音波の送信から受信までの時間を考慮して、聴取者の頭部の位置を検出する。
【0184】
そして、CPU40は、前述した第1の実施の形態の音響処理装置1のCPU40の場合と同様に、検出部80Aからのヘッドレスト部St3に対する現在の聴取者の頭部の位置に対応する係数データを記録媒体30から読み出し、この読み出した係数データをトランスオーラルシステムフィルタ部20の目的とするフィルタ21、22、23、24に供給する。
【0185】
これにより、トランスオーラルシステム部20においては、ヘッドレスト部St3に対する現在の聴取者の頭部の位置に応じて、音像定位処理後の音声信号に対する補正処理が行なわれ、補正後の音声信号が左右のスピーカSL、SRに供給され、ヘッドレスト部St3に対して聴取者の頭部の位置が変わってしまっても、左右のスピーカSL、SRから放音される音声の音像を仮想スピーカ位置に定位させることができる。
【0186】
すなわち、聴取者の頭部の位置がヘッドレスト部St3に対して動いても、聴取者の実際の頭部の位置を測定して、その位置に応じて再生音場における伝達関数の影響を除去するようにトランスオーラルシステムフィルタ部20において、補正処理を行なうことができる。したがって、ヘッドレスト部St3の左右のスピーカSL、SRから放音される音声の音像を聴取者の頭部の位置にかかわりなく仮想スピーカ位置に定位させることができる。
【0187】
しかも、記憶媒体30に記憶されている係数データは、前述した第3の実施の形態の場合と同様に、この第4の実施の形態の音響処理装置6が構成されたヘッドレスト部St3に応じたものであるので、このヘッドレスト部St3を、これが着脱可能ないずれの椅子(座席)に装着されて用いられた場合であっても、ヘッドレスト部St3に設けられた左右のスピーカSL、SRから放音される音声の音像を聴取者に対して所定の位置に定位させることができる。
【0188】
また、この第4の実施の形態の音響処理装置6の場合にも、記憶媒体30に予め用意しておくデータは、係数データに限るものではなく、第3の実施の形態の場合と同様に、関数データやパラメータデータなど、トランスオーラルシステムフィルタ部の各フィルタの構成に応じて、適切なものを用いるようにすることができる。
【0189】
また、この第4の実施の形態においも、前述した第3の実施の形態の場合と同様に、トランスオーラルシステムフィルタ部20に代えて簡易型トランスオーラルシステムフィルタ部50を用いることにより、よい構成を簡単にした音響処理装置5を構成することもできる。この場合には、記憶部30に予め容易しておくデータを図12に示した第4の実施の形態の音響処理装置4の約半分にすることができる。
【0190】
また、2チャンネルの音像定位処理フィルタ10に変えて、図7に示した5チャンネルの音像定位処理フィルタ部50などの多チャンネルの音像定位処理フィルタを用いるようにすることもできる。
【0191】
また、この第4の実施の形態の図12に示した音響処理装置6の場合にも、左右のスピーカSL、SRと記録媒体30とをヘッドレスト部St3に設け、その他の部分を背もたれ部St2や、音響再生装置側、あるいは、スピーカSL、SRと音響再生装置との間に設けるようにしてもよい。
【0192】
このようにした場合には、スピーカを備えた安価なヘッドレスト部St3を構成することができ、形状、材質、スピーカ設置位置などが異なる様々なヘッドレスト部を提供し、使用者は自分の好みに合ったものを購入して利用することができる。
【0193】
また、前述した第3、第4の実施の形態の音響処理装置4、5、6の場合には、聴取者の頭部の位置の検出に超音波を用いている。超音波は人間の耳では音として聴取することはできないので、聴取者に頭部の検出処理を行なっていることを気付かれることがない。
【0194】
また、通常の音楽成分であれば、検出制度(測定精度)にかかわるほどの超音波成分は含まれていないため、聴取目的の再生音声(音楽信号)との干渉が問題になることはない。すなわち、音楽の再生中において、再生音声を劣化させることなく、かつ、聴取者に気付かれることなく、スピーカに対する聴取者の位置を測定し、検出することが可能である。
【0195】
なお、前述した第4の実施の形態の音響処理装置6においては、6つの超音波受信素子をヘッドレスト部St3、あるいは、その近傍に設けるようにしたが、これに限るものではなく、さらに多くの超音波受信素子を用いるようにしてももちろんよいし、複数の受信素子を複数列設けるようにしてもよい。また、受信素子間の間隔や左右のスピーカSL、SRの放音面の向きなどを適宜調整するようにすることもできる。
【0196】
また、超音波受信素子を設ける位置は、ヘッドレスト部St3やその近傍のほか、聴取者の頭部からの反射の受信が可能な任意の場所に設けるようにしてもよい。
【0197】
[第5の実施の形態]
前述した第3、第4の実施の形態においては、スピーカが設けられたヘッドレスト部に対する聴取者の頭部の位置を超音波を送信し、その反射波を受信することにより検出するようにした。しかし、聴取者の頭部の位置検出は、超音波を用いるものに限るものではない。
【0198】
例えば、音声だけでなく画像の送受信が可能なテレビ電話が家庭において用いられるようになってきている。そこで、例えば、図14に示すように、テレビセット(TVセット)200と、左右2チャンネルのスピーカSR、SLが設けられたヘッドレスト部St3を有する音響処理装置が搭載された椅子とにより、いわゆるホームシアターシステムを構築するような場合には、通常はテレビ電話用として用いられるCCDカメラ210を、ヘッドレスト部St3に対する聴取者の頭部の位置検出に用いることができる。
【0199】
また、自動車内(車室内)において音楽などの音声を聴取するようにすることも多い。そこで、図15に示すように、自動車内の座席に左右2チャンネルのスピーカ(SL1、SR1またはSL2、SR2)を搭載したヘッドレスト部を設けることにより音響処理装置を構成することが考えられる。このような場合に、自動車内に例えばテレビ電話用のCCDカメラ310を搭載することにより、当該テレビ電話用のCCDカメラ310をヘッドレスト部に対する聴取者の頭部の位置検出に用いることが可能となる。
【0200】
なお、現状においても、数種類の自動車においては、死角を排除するなどのために、自動車の外側にCCDカメラを設け、このCCDカメラを通じて撮像するようにした画像を車内のディスプレイに表示して観視できるようにしたものも提供されており、自動車内撮像用のCCDカメラを自動車に搭載することも可能である。
【0201】
そこで、この第5の実施の形態の音響処理装置7は、スピーカが設けられたヘッドレスト部に対する聴取者の頭部の位置を家庭内や自動車内に設けられるCCDカメラ(CCD装置)を用い、聴取者の頭部がスピーカに対してどれ位オフセットして座っているかをリアルタイムに把握し、その位置に適した伝達関数をシステムに使用することで、より自由な姿勢で仮想スピーカ定位効果を楽しむことができるようにしたものである。
【0202】
なお、この第5の実施の形態の音響処理装置7もまた、前述した第1の実施の形態の音響処理装置1の場合と同様に、左右2チャンネルの音声信号を処理することができるものであり、ヘッドレスト部St3に設けられた左右2チャンネルのスピーカから放音される音声の音像を聴取者の前方方向に定位させることができるものである。すなわち、音響処理装置7は、ヘッドレスト部St3に設けられた左右2チャンネルのスピーカから放音される音声を仮想スピーカVSL、VSRから放音されたように音像を定位させることができるものである。
【0203】
図16は、この第5の実施の形態の音響処理装置7を説明するためのブロック図である。この図16に示す音響処理装置7は、図14、図15を用いて説明したように、家庭の室内や自動車内に設けられるようにされるものである。そして、この図16に示す音響処理装置5は、CCDカメラ210と、このCCDカメラ210によって撮像された画像を解析し、ヘッドレスト部St3に対する聴取者の頭部の位置を検出するようにする画像解析部90を除けば、図1に示した第1の実施の形態の音響処理装置1と同様に構成されたものである。
【0204】
このため、図16に示すこの第5の実施の形態の音響処理装置7において、図1に示した第1の実施の形態の音響処理装置1と同様に構成される部分には、同じ参照符号を付し、その部分の説明については省略する。
【0205】
そして、この第5の実施の形態の音響処理装置7において、CCDカメラ210は、聴取者方向に向けられてセットされ、常に聴取者方向の画像を撮像することができるようにされている。そして、CCDカメラ210は、例えば、CPU40からの制御により、音響処理装置7が動作している間、常時、あるいは、所定のタイミング毎に聴取者方向の画像を撮像し、撮像した画像を画像解析部90に供給する。
【0206】
画像解析部90は、CCDカメラ210からの画像データの解析処理を行ない、ヘッドレスト部St3に対する聴取者の頭部の位置を検出し、これをCPU40に通知する。具体的には、聴取者が座る椅子や座席のヘッドレスト部分などの所定の位置に目印をつけておくことにより、ヘッドレスト部St3のスピーカSL、SRの位置を画像処理的に確認できるようにしておく。
【0207】
そして、聴取者は、椅子に座っている状態でも必ず少しではあるが動いているので、これを利用し、静止画像の時間軸差分を取ることにより、聴取者のエッジ部分が抽出できる。この聴取者のエッジ部分とスピーカの位置とにより、聴取者の頭部とヘッドレスト部St3のスピーカSL、SRとの位置関係がわかる。
【0208】
CPU40は、画像解析部90からの検出結果(聴取者の頭部の位置)に基づいて、記録媒体30に記憶されている係数データを読み出し、これをトランスオーラルシステムフィルタ部20の対応するフィルタに供給する。
【0209】
これにより、トランスオーラルシステムフィルタ部20においては、音像定位処理された音声信号に対して、聴取者の頭部の位置に応じた補正が施され、ヘッドレスト部St3に対する聴取者の頭部の位置が変わった場合であっても、ヘッドレスト部St3の左右のスピーカSL、SRから放音された音声の音像を仮想スピーカVSL、VSRから放音されているように定位させることができる。
【0210】
なお、CCDカメラ210によって撮像した画像を解析する場合には、ヘッドレスト部St3の頭部接触面に対して直交する方向である縦方向に頭部が移動した場合と、ヘッドレスト部St3の頭部接触面に対して並行な方向である横方向に頭部が移動した場合とでは、後者の横方向の移動の方が容易に検知可能である。
【0211】
もともと、スピーカはヘッドレスト部St3に設けられ聴取者の耳の近傍に位置することになるため、聴取者の頭部が同じだけ移動するとしても、ヘッドレスト部St3の頭部接触面に対して直交する方向である縦方向に頭部が移動した場合と、ヘッドレスト部St3の頭部接触面に対して並行な方向である横方向に頭部が移動した場合とでは、横方向に移動した場合の方がスピーカか聴取者の耳までの伝達関数の変化がきい。
【0212】
このため、この第5の実施の形態の音響処理装置7においては、CDDカメラ210により撮像した画像を解析することにより、聴取者の頭部の横方向の位置(オフセット)をセンシングし、これに応じて、トランスオーラルシステムフィル部20の各フィルタに対して適切なフィルタ係数を用いるようにすることで、ヘッドレスト部St3の左右のスピーカSL、SRから放音される音声の音像を正確に所定の位置に定位させるようにしている。
【0213】
なお、この第5の実施の形態の音響処理装置7においても、トランスオーラルシステムフィルタ部20に変えて、図11に示した音響処理装置5の場合とどうように、簡易型トランスオーラルシステム部50を用いるようにすることもできる。また、2チャンネルの音像定位処理フィルタ部10に変えて、多チャンネル、例えば、5チャンネルの音像定位処理フィルタ60を用いるようにすることもできる。
【0214】
したがって、この第5の実施の形態の音響処理装置7の場合にも、前述した第3、第4の実施の形態の音響処理装置の場合と同様に、ヘッドレスト部St3に対する聴取者の頭部の位置を、常に、あるいは、随時に測定し、その測定した位置に応じた伝達関数に応じた補正処理(トランスオーラル処理)することで、従来のような聴取者の頭部の測定位置と聴取位置の不正合による仮想スピーカ定位効果の不足の状態を避け、聴取者の頭部の位置に左右されることなく、音像の前方定位や音像の全周囲定位などの効果を実現することができる。
【0215】
なお、前述した第1、第2、第3、および、第4の実施の形態において、ヘッドレスト部に設けられるスピーカの放音面は、ヘッドレスト部の頭部が接触する面に平行となるようにした場合を示したが、ヘッドレスト部に設けるスピーカの放音面を聴取者側に傾けるなど、適宜の修正を行なうようにすることも可能である。
【0216】
また、前述の実施の形態においては、ヘッドレスト部に左スピーカSL、右スピーカSRの2つのスピーカを設けるようにした場合の例を示したが、スピーカは、必ず2つである必要はなく、1つであってもよいし、また、3つ以上の複数であってもよい。また、前述もしたように、ツイターなどを備えたいわゆるHiFi志向のスピーカデバイスを用いることができることはいうまでもない。
【0217】
また、この第5の実施の形態の図16に示した音響処理装置7の場合にも、左右のスピーカSL、SRと記録媒体30とをヘッドレスト部St3に設け、その他の部分を背もたれ部St2や、音響再生装置側、あるいは、スピーカSL、SRと音響再生装置との間に設けるようにしてもよい。
【0218】
このようにした場合には、スピーカを備えた安価なヘッドレスト部St3を構成することができ、形状、材質、スピーカ設置位置などが異なる様々なヘッドレスト部を提供し、使用者は自分の好みに合ったものを購入して利用することができる。
【0219】
また、スピーカと記録媒体が内蔵されたヘッドレスト部の購入に際し、そのヘッドレスト部を使用する使用者の耳元までの伝達関数を測定し、そのヘッドレストを用いるその使用者に固有の伝達関数に応じた係数データ、関数データ、パラメータデータを記録媒体に記憶するようにしてもよい。
【0220】
このようにした場合には、ヘッドレスト部を用いる使用者個人に対してより適合した補正処理を音声信号に対して行なうことができるので、各使用者毎に好適な音響処理装置を構成することができる。
【0221】
また、前述の実施の形態においては、スピーカが設けられえるヘッドレスト部の形状、材質、スピーカ設置位置、スピーカの性能や特性などに応じて再生音場における伝達関数が異なるものとして説明した。この場合、スピーカの性能としては、スピーカの指向特性などを含むものであり、スピーカの特性としては、周波数特性などを含むものである。すなわち、伝達関数は、スピーカの指向特性や周波数特性によっても変わるが、これらについても対応が可能である。
【0222】
また、記録媒体として用いられる半導体メモリや各種のディスクに格納される係数データ、関数データ、パラメータデータなどの格納方法、データフォーマットなどは、様々なものを用いることができる。また、前述もしたように、記録媒体に格納しておくデータとしては、再生用スピーカから聴取者の量耳までの伝達関数でもよいし、実際にトランスオーラル演算を行なっておき、実際の音声に畳み込む直前の形のデータを記録媒体に記録するようにしてもよい。
【0223】
また、記録媒体には、1つの伝達関数だけでなく、複数の伝達関数情報を格納しておくようにすることもできる。すなわち、聴取者自身の顔や耳の大きさ、位置、形状、眼鏡の有無などに応じた伝達関数情報を記録媒体に記録するようにし、これらの情報を聴取者自身が選択することにより、若しくはセンサが自動的に検知して、補正処理を行なうことによって、より仮想スピーカの音像定位の効果を強くすることができる。
【0224】
また、記録媒体には、1つ以上の伝達関数を記録しておくようにしてももちろんよい。この場合、スピーカが設けられるヘッドレスト部の形状やこれに伴うスピーカの設置位置に応じて、音像定位の効果が強くなる位置を選んでヘッドレスト部作成時に設定できるメリットがあり、聴取者に対し、十分な音像定位効果を提供することができる。
【0225】
また、前述した各実施の形態において、音響処理装置を説明するためのブロック図には、いわゆるパワーアンプは省略した。これは説明を簡単にするためである。パワーアンプは、ヘッドレスト部側、椅子側、あるいは、再生装置側などの適宜の位置に設けることができる。
【0226】
また、記憶媒体には、補正処理部に供給する係数データなどだけでなく、例えば、楽曲データやその他のデータを記憶しておき、これを用いるようにすることもできる。
【0227】
また、ヘッドレスト部に設けられる記録媒体に格納されている係数データや関数データなどは、例えば、パーソナルコンピュータを介して比較的に簡単に更新するようにすることもできる。この場合、ヘッドレスト部は、持ち運びが容易にできるで、パーソナルコンピュータに接続して行なうバージョンアップなどの処理を簡単に行なうようにすることができる。
【0228】
また、「機能性を持ったヘッドレスト」という新たな商品を提供することができ、新しいビジネスマーケットを創造することができる。
【0229】
【発明の効果】
以上説明したように、この発明による音響処理装置によれば、スピーカを例えばヘッドレスト部に設けた場合には、複数の異なる椅子に対して着脱可能なヘッドレスト部を含む音響処理装置であって、当該ヘッドレスト部をどの椅子に装着して使用した場合にも、仮想スピーカ定位の効果が不足してしまうなどの不都合を生じさることのない音響処理装置を実現することができる。
【0230】
また、聴取者が、スピーカが設けられたヘッドレスト部を変更する場合、ヘッドレストの形状、大きさなどの情報を、音像定位された音声信号の補正処理を行なう補正処理部に対して手動で設定するなどの面倒な手間が不要で、ヘッドレスト部を椅子部に接続する作業だけで、そのヘッドレスト部に固有の伝達関数に応じたデータを音響処理装置に組み込むことができる。
【0231】
スピーカが設けられたデザイン、大きさ、スピーカの設置位置などの異なる種々のヘッドレスト部を安価に製造することができ、使用者は、自分の好みに合い、自分にとって、音像定位効果の最も有効なヘッドレスト部を選ぶことができるなど、ヘッドレスト部の選択の幅を持たせることができる。
【0232】
また、スピーカに対する聴取者の頭部の位置を検出し、その実際の聴取位置に応じて、再生音場における伝達関数の影響を除去するために音声信号に対して行なう補正処理を適切に行なうことができる。聴取者は、自己の頭部の位置が制限されることなく、楽な状態で、リラックスして音像定位処理されて放音される音声を聴取することができる。
【図面の簡単な説明】
【図1】この発明による音響処理装置の第1の実施の形態を説明するためのブロック図である。
【図2】第1の実施の形態の音響処理装置が搭載された椅子の外観について説明するための図である。
【図3】図1に示した第1の実施の形態の音響処理装置において行なわれる音像定位処理の原理について説明するための図である。
【図4】スピーカが設けられるヘッドレスト部であって、形状の異なるヘッドレスト部の例を説明するための図である。
【図5】図1に示した音響処理装置の他の構成例を説明するための図である。
【図6】図1に示した音響処理装置の変形例を説明するための図である。
【図7】この発明による音響処理装置の第2の実施の形態を説明するためのブロック図である。
【図8】図7に示した第2の実施の形態の音響処理装置において行なわれる音像定位処理の原理について説明するための図である。
【図9】この発明による音響処理装置の第3の実施の形態を説明するためのブロック図である。
【図10】図9に示した第3の実施の形態の音響処理装置において行なわれる聴取者の頭部の位置の検出処理を説明するための図である。
【図11】図9に示した第3の実施の形態の音響処理装置の変形例を説明するためのブロック図である。
【図12】この発明による音響処理装置の第4の実施の形態を説明するためのブロック図である。
【図13】図12に示した第4の実施の形態の音響処理装置において行なわれる聴取者の頭部の位置の検出処理を説明するための図である。
【図14】この発明による第5の実施の形態の音響処理装置の利用態様の例を説明するための図である。
【図15】この発明による第5の実施の形態の音響処理装置の利用態様の他の例を説明するための図である。
【図16】この発明による第5の実施の形態の音響処理装置を説明するためのブロック図である。
【符号の説明】
10…音像定位処理フィルタ部、11〜14…フィルタ、15、16…加算部、20…トランスオーラルシステムフィルタ部、21〜24…フィルタ、25、26…加算部、SL…左スピーカ、SR…右スピーカ、VSL…仮想左スピーカ、VSR…仮想右スピーカ、30…記録媒体、40…CPU、50…簡易型トランスオーラルシステムフィルタ部、51、52…フィルタ、60…音像定位処理フィルタ部、61〜70…フィルタ、71、72…加算部、80…頭部位置検出部、SS1〜SS6…超音波受信素子、90…画像解析部、210、310…CCDカメラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sound processing apparatus configured by, for example, a speaker provided on a headrest portion mounted on a backrest portion of a chair.
[0002]
[Prior art]
A reclining chair or the like having a headrest (head support portion) provided with a speaker has been provided. Thus, by providing the speaker on the headrest, the speaker can be provided in the vicinity of the listener's ear.
[0003]
As described above, by using a headrest provided with a speaker, high-quality sound is emitted near the listener's ear and provided to the listener. That is, an environment in which a listener can listen to high-quality sound through a speaker positioned in the vicinity of the listener's ear without using headphones or the like has been prepared.
[0004]
For example, when a speaker is provided in the headrest portion of a chair (seat), high-quality sound can be emitted in the vicinity of the listener's ear, but sound is emitted directly from the back side of the listener's ear. Since the sound is produced, the listener's consciousness is attracted to the back of the listener, and depending on the music to be listened to, there may be a sense of discomfort or so-called listening fatigue.
[0005]
For this reason, by performing sound image localization processing, a so-called sound image is applied to the sound signal so that the sound emitted from the speaker behind the listener's ear can be heard from a predetermined position such as the front of the listener. It is conceivable to perform localization processing. Positioned behind the listener's ear by performing sound image localization processing and localizing the sound image of the sound emitted from the speaker located behind the listener's ear to an assumed position such as in front of the listener It is possible to prevent a sense of incongruity and fatigue due to listening to the sound emitted from the speaker.
[0006]
In this case, what is important in order to localize the sound image of the sound emitted from the speaker to the assumed position is the sound from the speaker to the listener's ear in the reproduction sound field where the sound is actually heard. Is the transfer function. With respect to the sound that has been subjected to the sound image localization process and is emitted from the speaker, unless the influence of the transfer function in the reproduction sound field is removed, the sound image of the sound emitted from the speaker cannot be localized accurately.
[0007]
For this reason, by using a trans-oral system, which is one of the methods for reproducing sound precisely using a speaker, the influence of the transfer function in the reproduced sound field is removed, and the back of the listener's ear is removed. For example, the sound image of the sound emitted from a speaker provided at a headrest, for example, can be localized at an assumed position in front of the listener.
[0008]
[Problems to be solved by the invention]
By the way, conventionally, only one headrest is provided in association with a chair or a seat, and this is used fixedly. However, in the future, a variety of headrests with different shapes, materials, speaker positions, speaker performance and characteristics, etc. will be provided, so that listeners can select and use one that suits their preferences. It is possible to do.
[0009]
In addition to using headrests with speakers in car seats and using the same headrests in home chairs, headrests that suit your tastes can also be used in audio systems and audio / visual systems in multiple locations. It is also possible to do.
[0010]
However, a headrest provided with a speaker has a different transfer function if the shape, material, speaker position, performance and characteristics of the speaker, and the like are different. For this reason, it is necessary to be able to perform transoral processing according to an appropriate transfer function for each headrest having a different shape, material, speaker position, speaker performance and characteristics.
[0011]
Strictly speaking, when a listener uses a headrest provided with a speaker, the positional relationship between the speaker and the listener's ear varies depending on the use, and the listener is always provided on the headrest under the same conditions. It is difficult to listen to the sound emitted from the speakers.
[0012]
However, the position of the listener's head is forcibly restricted so that the position of the listener's head (ear position) is always the same with respect to the speaker provided on the headrest. Is undesirable because it hinders the listener's feeling of relaxation. Moreover, since the head is not always in contact with the headrest, it is difficult to fix the position of the listener's head with respect to the speaker.
[0013]
In view of the above, the present invention can be used in various sound reproduction systems such as an audio system and an audio / visual system to be used, and an acoustic processing device that enables listening to reproduced sound properly. An object of the present invention is to provide an acoustic processing device that enables listening to sound in an appropriate state without a sense of incongruity even if the positional relationship between the speaker and the listener's ear is not always constant.
[0014]
[Means for Solving the Problems]
  In order to solve the above-described problem, the acoustic processing apparatus according to the first aspect of the present invention relates to a speaker device and an audio signal to be supplied to the speaker device at a predetermined position with respect to an audio image of the audio signal. A sound image localization processing unit that performs a process to localize the sound signal, and correction processing for the audio signal from the sound image localization processing unit based on processing information according to the position of the listener's head relative to the speaker device A correction processing unit that performs the processing, a storage unit that stores and holds the processing information used in the correction processing unit, and supplies the processing information stored and held in the storage unit to the correction processing unit. A control unit for controlling the correction processing unit;At least the speaker device and the storage unit are provided on a headrest that can be attached to and detached from the backrests of a plurality of chairs.
[0015]
  According to the acoustic processing apparatus of the first aspect, the sound signal supplied to the speaker device is processed by the sound image localization processing unit so that the sound image of the reproduced sound by the sound signal is localized at a predetermined position. Thereafter, correction processing is performed in consideration of the speaker device and the position of the listener's head (the position of the listener's ear) so that the sound image of the sound emitted from the speaker device is localized at a predetermined position. To be.In addition, at least the speaker device and the storage unit are provided in a detachable headrest, and other components such as a sound image localization processing unit and a correction processing unit are a chair backrest unit and an audio signal on which the headrest can be mounted. It is made to provide in parts other than headrests, such as a reproducing | regenerating apparatus.
[0016]
In this case, information used for correction processing such as functions and coefficients used in the correction processing unit, for example, the shape and material of the headrest provided with the speaker device, the installation position of the speaker device, the performance of the speaker, Processing information corresponding to characteristics and the like is stored in the storage unit in advance, and this processing information is supplied to the correction processing unit through the control unit, and correction processing corresponding to the headrest that is a part where the speaker is provided is performed. So that it can be done properly.
[0017]
Thus, for example, when a headrest provided with a speaker device is used as both a car seat and a home chair, the sound image of the sound emitted from the speaker is given to the listener in both cases. It is possible to listen to the sound that is emitted without a sense of incongruity or tiredness.
[0018]
  In addition, by storing the processing information according to the transfer function up to the ear of the individual listener who is a purchaser who has been measured at the time of purchase of the headrest, for example, provided with a speaker device in the storage unit, It is possible to provide sound that is best emitted from the speaker device for the listener.In addition, a storage unit in which processing information corresponding to the shape, material, and speaker device installation position of the headrest is stored on the headrest side. Then, when the headrest is used by being mounted on various chairs, the processing information from the storage unit provided in the headrest is provided to the correction processing unit provided in a part other than the headrest. Correction processing according to the headrest is appropriately performed so that the sound emitted from the speaker device provided in the headrest can be heard well without causing a sense of incongruity and causing fatigue. In addition, since the headrest provided with the speaker device is not provided with at least a sound image localization processing unit and a correction processing unit, various types having different shapes, materials, and installation positions of the speaker device according to the needs of the listener. The headrest can be provided more inexpensively and the listener can select and use the headrest that suits his / her preference. Further, the headrest provided with the speaker device can be easily exchanged as necessary.
[0019]
Moreover, the sound processing apparatus of the invention described in claim 2 is the sound processing apparatus according to claim 1,
The storage unit stores the processing information supplied to the correction processing unit for each possible position of the listener's head relative to the speaker device.
A head position detector for detecting the position of the listener's head relative to the speaker device;
The control unit supplies the processing information of the storage unit determined according to a detection result from the head position detection unit to the correction processing unit to control the correction processing unit. And
[0020]
According to the acoustic processing apparatus of the second aspect, the speaker device is provided, for example, on the headrest. When the headrest provided with the speaker device is used, the position of the listener's head relative to the speaker device ( The position of the ear) is not always constant. At the time of listening, the user listens to the sound emitted from the speaker device in the most comfortable posture.
[0021]
For this reason, in the storage unit, processing information corresponding to the transfer function from the speaker device to the listener's ear at each of a plurality of positions that the listener's head can take with respect to the speaker device is stored at each position. It is stored in association with each other. The head position detection unit detects the position of the head of the listener who is going to listen to the sound from the speaker device.
[0022]
Then, processing information corresponding to the listener's actual head position detected by the head position detection unit by the control unit is read from the storage unit, and this information is supplied to the correction processing unit and the listener's actual Correction processing according to the position of the head is performed.
[0023]
As a result, even if the position of the listener's head (ear position) with respect to the speaker device is not always at a fixed position, the correction processing unit is appropriate according to the processing information corresponding to the position of the listener's head. Since the corrective correction processing is performed, the sound image localization effect is not insufficient depending on the position of the listener's head, and the sound is satisfactorily emitted from the speaker device without feeling uncomfortable and without causing fatigue. You will be able to listen to audio.
[0028]
  Claims3The sound processing device according to claim 2 is the sound processing device according to claim 2, wherein the head position detection unit is transmitted from an ultrasonic transmission unit that transmits ultrasonic waves and the ultrasonic transmission unit, An ultrasonic receiving means for receiving reflected ultrasonic waves reflected by a person's head, presence / absence of reception of reflected ultrasonic waves by the ultrasonic receiving means, and when reflected ultrasonic waves are received by the ultrasonic receiving means Comprises head position specifying means for specifying the position of the listener's head relative to the speaker based on the speed of the ultrasonic wave and the time from when the ultrasonic wave is transmitted until it is received as reflected ultrasonic wave. And
[0029]
  This claim3According to the acoustic processing device described in (4), the presence or absence of reflected ultrasonic waves and the time until the ultrasonic waves transmitted from the ultrasonic transmission means are reflected by the listener's head and received by the ultrasonic reception means. The position of the listener's head relative to the speaker device is specified by the head position specifying means based on the ultrasonic speed known in advance, and control is performed according to the specified position of the listener's head. The correction processing unit is controlled by the unit.
[0030]
Thus, by using the ultrasonic transmission means and the ultrasonic reception means provided at a specific position with respect to the speaker device, the speaker device and the head of the listener who listens to the sound using the speaker device, The positional relationship is reliably and accurately detected, and based on this, appropriate processing information used in the correction processing unit can be extracted from the storage unit and used.
[0031]
  Claims4The sound processing apparatus according to claim3The ultrasonic processing device according to claim 1, wherein the ultrasonic transmission unit and the ultrasonic reception unit are high-frequency speakers of the speaker device.
[0032]
  This claim4According to the acoustic processing apparatus described in the above, the ultrasonic transmission means and the ultrasonic reception means for detecting the positional relationship between the speaker device and the position of the listener's head are high-frequency speakers of the speaker device. . That is, the high frequency range speaker itself is used for the ultrasonic transmission means and the ultrasonic reception means.
[0033]
Thus, in order to detect the positional relationship between the speaker device and the listener's head, the ultrasonic transmission means is not necessary to newly provide an ultrasonic transmission means and an ultrasonic reception means, and the existing high-frequency speaker is an ultrasonic transmission means, The ultrasonic receiving means is used to detect the relationship between the speaker device and the listener's head and extract and use processing information corresponding to the position from the storage unit.
[0034]
  Claims5The sound processing apparatus according to claim3Wherein the ultrasonic transmission means is a high-frequency speaker of the speaker device with two left and right channels, and the ultrasonic reception means includes a plurality of ultrasonic waves arranged in a predetermined position. It consists of a sensing element, and ultrasonic waves having different frequencies are transmitted from the high-frequency speakers of the two left and right channels.
[0035]
  This claim5According to the acoustic processing apparatus described in the above, the high frequency range speaker of the left and right channel speaker device is used as the ultrasonic transmission unit, and a plurality of ultrasonic reception units are arranged in the vicinity of the ultrasonic transmission unit, for example. An ultrasonic sensing element having a so-called array structure is used.
[0036]
Then, from the high-frequency speakers of the left and right channels, ultrasonic waves having different frequencies are transmitted, and an ultrasonic sensing element that senses the reflected ultrasonic waves reflected by the head of the listener of the ultrasonic waves is also considered. The position of the listener's head relative to the speaker device is detected. Accordingly, the positional relationship between the speaker device and the listener's head is detected more accurately, and processing information corresponding to the detected accurate position of the listener's head is extracted from the storage unit and used. Will be able to.
[0037]
  Claims6The sound processing apparatus according to claim 2, wherein the head position detection unit includes an image including a head of a listener who listens to sound through the speaker device. An image pickup means for picking up an image and an image analysis means for analyzing an image picked up by the image pickup means and detecting a position of the head of the listener with respect to the speaker device.
[0038]
  This claim6According to the acoustic processing device described in the above, an image including the head of the listener who is in a position to listen to sound through the speaker device is captured by the imaging unit, and the captured image is analyzed by the image analysis unit, The positional relationship between the speaker device and the listener's head is detected.
[0039]
Accordingly, the positional relationship between the speaker device and the listener's head is accurately detected based on the image including the listener's head at the position where the sound is heard through the speaker device, and the correction processing unit is accordingly detected. The processing information used in is extracted from the storage unit, and the correction processing in the correction processing unit can be appropriately performed using this information.
[0040]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of a sound processing apparatus according to the present invention will be described with reference to the drawings. In the embodiment described below, for example, a sound processing apparatus configured by mounting a speaker device on a headrest that can be attached to and detached from both a car seat and a chair used at home will be described as an example.
[0041]
[First Embodiment]
FIG. 1 is a block diagram for explaining a sound processing apparatus 1 according to a first embodiment to which the present invention is applied, and FIG. 2 is a chair in which the sound processing apparatus according to the first embodiment is used. It is a figure for demonstrating the external appearance. The sound processing apparatus 1 according to the first embodiment can process left and right two-channel audio signals.
[0042]
In FIG. 1, a disc 100 provides a 2-channel audio signal (2-channel sound source (ch is an abbreviation for channel)). The left and right channel audio signals reproduced from the disc 100 are supplied to the acoustic processing apparatus 1 of the first embodiment shown in FIG.
[0043]
Therefore, as shown in FIG. 1, the sound processing apparatus 1 according to the first embodiment includes a left channel input terminal Lin that receives supply of a left channel audio signal from the disc 100 that is a 2ch sound source, and a right channel. And a right channel input terminal Rin for receiving the supply of the audio signal.
[0044]
As shown in FIG. 1, the sound processing apparatus 1 according to the first embodiment includes a sound image localization processing filter unit 10, a trans-oral system filter unit 20, and left and right speaker devices as left and right channel speaker devices. A left channel speaker) SL, a right speaker (right channel speaker) SR, a recording medium 30 and a CPU (Central Processing Unit) 50 are provided.
[0045]
As the left and right speakers SL and SR, there may be one speaker each, or a so-called HiFi speaker device capable of emitting high-quality sound with a super tweeter or a woofer can be used. . In the case of the first embodiment, the left and right speakers SL and SR are HiFi speaker devices including a super tweeter and a woofer.
[0046]
The sound processing apparatus according to the first embodiment including the left and right speakers SL and SR can be attached to and detached from the seat back of a car or a chair backrest used at home as shown in FIG. The headrest portion St3 is configured. As shown in FIG. 2, the headrest portion St <b> 3 corresponds to a portion (head support portion) that supports the user's head in a car seat or a chair used at home.
[0047]
That is, as shown in FIG. 2, a so-called chair (seat) St such as a car seat or a reclining seat used at home is roughly divided into a seat part St <b> 1 where the user sits down, a user's back The backrest portion St2 is a portion that is placed on the head, and the headrest portion St3 is a portion that supports the user's head.
[0048]
In the first embodiment, the acoustic processing apparatus having the configuration shown in FIG. 1 including left and right two-channel speakers SL and SR is formed in a portion corresponding to the headrest portion St3 shown in FIG. 2 from an audio reproduction device (car stereo device) mounted on a car that reproduces an audio signal from a two-channel sound source or an audio reproduction system (home audio system or audio reproduction device of a home theater system) provided in the home. Each of the channel audio signals can be supplied.
[0049]
When the sound processing device according to the first embodiment configured to be the headrest portion St3 is used, as can be seen from the diagram shown in FIG. 2, the chair on which the headrest portion St3 is mounted. A listener (user) who sits on St listens to sound emitted from the left speaker SL and the right speaker SR located obliquely behind his / her head.
[0050]
The headrest portion is formed integrally with the backrest portion, and there are some that cannot be removed only in the headrest portion. In this embodiment, as described above, a plurality of headrest portions such as a car seat and a home chair are used. It can be attached to and detached from the chair, and can be used in a plurality of chairs.
[0051]
In the sound processing apparatus 1 according to the first embodiment, the sound is transmitted to the listener by shifting the sound localization from the position of the actually fixed speaker to the position of the virtual speaker. Discomfort and discomfort caused by hearing from the back of the head or behind the listener's ears are removed.
[0052]
That is, in the first embodiment, the sound emitted from the left speaker SL and the right speaker SR by the sound image localization processing filter unit 10 and the trans-oral system filter unit 20 is represented by a dotted line in FIGS. The sound is heard as if the sound is emitted from the positions of the left virtual speaker VSL and the right virtual speaker VSR. In other words, the sound image of the sound emitted from the real speakers SL and SR is localized so that it feels like the sound emitted from the virtual speakers VSL and VSR.
[0053]
In the first embodiment, the virtual speakers VSL and VSR are virtual positions that localize the sound emitted from the left speaker SL and the right speaker SR, as shown in FIG. 1 and FIG. Furthermore, when the listener's head with respect to the headrest part st3 is at a predetermined position, the listener is set at a predetermined position in the forward direction of the listener.
[0054]
In this manner, the sound emitted from the left speaker SL and the right speaker SR of the headrest portion St is localized so that the sound is emitted from the positions indicated by the left and right virtual speakers VSL, VSR, so that the sound is heard by the listener. Discomfort and discomfort caused by hearing from the back of the head or behind the ears of the listener are eliminated, and the listener can listen as natural sound.
[0055]
Hereinafter, each part of the sound processing apparatus according to the first embodiment will be described in detail. First, in describing the sound image localization processing filter unit 10, the principle of the sound image localization processing will be described. FIG. 3 is a diagram for explaining the principle of sound image localization processing.
[0056]
As shown in FIG. 3, in a predetermined reproduction sound field, the position of the dummy head DH is set as the position of the listener, and the left and right virtual speakers that attempt to localize the sound image with respect to the listener at the position of the dummy head DH The actual left speaker SPL and the actual right speaker SLR are actually installed at the position (the position where the speaker is supposed to be).
[0057]
Then, the sound emitted from the left actual speaker SPL and the right actual speaker SPR is collected at both ears of the dummy head DH, and the sound emitted from the left actual speaker SPL and the right actual speaker SPR is collected by the dummy head DH. A transfer function (HRTF) indicating how it changes when reaching both ears is measured in advance.
[0058]
As shown in FIG. 3, in this first embodiment, the transfer function of the sound from the left real speaker SPL to the left ear of the dummy head DH is M11, and the right ear of the dummy head DH from the left real speaker SPL. It is assumed that the transfer function of the sound up to is M12. Similarly, the transfer function of the sound from the right real speaker SPR to the left ear of the dummy head DH is M21, and the transfer function of the sound from the right real speaker SPR to the right ear of the dummy head DH is M22.
[0059]
In this case, for the audio signal of the sound emitted from the speakers SL and SR of the headrest part St3 that will be located in the vicinity of the listener's ear, the transfer function measured in advance as described above with reference to FIG. 3 is used. It processes so that the sound by the processed audio signal is emitted.
[0060]
As a result, the sound emitted from the speakers SL and SR of the headrest St3 is heard as if the sound is emitted from the virtual speaker position (the positions of the virtual speakers VSL and VSR in FIGS. 1 and 2). The sound image of the sound emitted from the speakers SL and SR can be localized so that a person can feel.
[0061]
Here, the dummy head DH is used for measuring the transfer function (HRTF), but the present invention is not limited to this. Alternatively, a person may actually sit in the reproduction sound field for measuring the transfer function, and a microphone may be placed near the ear to measure the transfer function of the sound.
[0062]
In this way, the sound image localization processing filter unit 10 shown in FIG. 1 is the part that performs the processing based on the transfer function of the sound that is measured in advance in order to localize the sound image at a predetermined position. The sound image localization processing filter unit 10 of this embodiment is capable of processing left and right two-channel audio signals. As shown in FIG. 1, four filters 11, 12, 13, 14 and two It consists of the addition units 15 and 16.
[0063]
The filter 11 processes the audio signal of the left channel supplied through the left input terminal Lin with the transfer function M11, and supplies the processed audio signal to the adder 15 for the left channel. The filter 12 processes the audio signal of the left channel supplied through the left input terminal Lin with the transfer function M12, and supplies the processed audio signal to the adding unit 16 for the right channel.
[0064]
The filter 21 processes the right channel audio signal supplied through the right input terminal Rin with the transfer function M21, and supplies the processed audio signal to the left channel adder 15. The filter 22 processes the right channel audio signal supplied through the right input terminal Rin with the transfer function M22, and supplies the processed audio signal to the right channel adder 16.
[0065]
As a result, the sound based on the output audio signal from the left channel adder 15 and the sound based on the output sound signal from the right channel adder 16 are the left virtual speaker VSL and the right virtual speaker in FIGS. The sound image is localized so that sound is emitted from the VSR.
[0066]
However, even if the sound emitted from the left speaker SL and the right speaker SR provided in the headrest part St3 is subjected to sound image localization processing, as shown in FIG. 1, the transfer function G11 in the actual reproduction sound field is shown. Under the influence of G12, G21, and G22, the sound image of the reproduced sound may not be accurately localized at the target virtual speaker position.
[0067]
Therefore, in the first embodiment, the transoral system filter unit 20 is used to perform correction processing on the audio signal from the sound image localization processing filter unit 10 so that the left speaker SL, the right speaker The sound emitted from the speaker SR is localized as if the sound was accurately emitted from the left and right virtual speakers VSL and VSR at the virtual speaker position.
[0068]
The trans-oral system filter unit 20 is an audio filter formed by applying a trans-oral system. The trans-oral system is a technique for realizing the same effect as that of the binaural system system, which is a system for strictly reproducing sound using headphones, even when a speaker is used.
[0069]
The transoral system will be described by taking the case of FIG. 1 as an example. With respect to the sound emitted from the left speaker SL and the right speaker SR, the sound emitted from each speaker to the left and right ears of the listener. By removing the influence of the transfer functions G11, G12, G13, and G14, the sound emitted from the left speaker SL and the right speaker SR is strictly reproduced.
[0070]
Therefore, the trans-oral system filter unit 20 shown in FIG. 1 removes the influence of the transfer function in the reproduction sound field for the sound to be emitted from the left speaker SL and the right speaker SR, so that the left speaker SL, The sound image of the sound emitted from the right speaker SR is accurately localized at a position corresponding to the virtual speaker position.
[0071]
Specifically, the transoral system filter unit 20 transmits signals from the right speaker SR to the listener's left and right ears in order to eliminate the influence of the transfer function from the left speaker SL and the right speaker SR to the listener's left and right ears. Filters 21, 22, 23, and 24 that process audio signals in accordance with the inverse function of the function, and addition units 25 and 26 are provided. In the first embodiment, the filters 21, 22, 23, and 24 perform processing that also takes into account the inverse filter characteristics so that more natural reproduced sound can be emitted.
[0072]
By the way, the transfer function from the speaker provided in the headrest part St3 to the left and right ears of the listener changes if the shape, material, installation position of the speaker device, performance and characteristics of the speaker, etc. of the headrest part St3 are different. That is, it can be said that the transfer function is different for each headrest portion St3 having a different shape or the like in which the speaker device is provided.
[0073]
FIG. 4 is a diagram for explaining an example of the headrest portion St3 having a different shape that can be attached to and detached from the backrest portion St2. As shown in FIG. 4, as the headrest part that can be attached to and detached from the backrest part St2, a box-shaped headrest part St31, a bow-shaped headrest part St32 provided with speakers SL and SR on curved surfaces, and speakers SL and SR are provided. Various types such as an overhang type headrest portion St33 and a semicircular headrest portion 34, which have an overhang portion and have the speakers SL and SR positioned in the lateral direction of the listener's ear, can be considered.
[0074]
As can be seen from FIG. 4, if the shape of the headrest portion is different, the positional relationship between the speakers SL, SR provided on the headrest portion and the ears of the listener is changed, and the sound emitted from the speaker is released. Since the sound direction and the like also change, the transfer function of the sound emitted from the speaker to the ear of the listener is different. In addition, even if the headrest part has the same shape, the transfer function from the speaker to the ear of the listener may change because the sound absorption rate differs if the material is different. Conceivable.
[0075]
Therefore, coefficient data obtained in accordance with a transfer function that is measured using the headrest portion St3 on the recording medium 30 that is one of the components of the sound processing system configured in the headrest portion St3. Coefficient data used in each of the filters 21, 22, 23, 24 of the trans-oral system filter unit 20 in order to remove the influence of the transfer function when listening to the sound using the headrest unit St3 is stored in advance. deep.
[0076]
During audio reproduction, coefficient data for each filter of the transoral system filter unit 20 stored in the storage medium 30 is supplied to each filter of the transoral system filter unit 20 through the CPU 40. As a result, the transoral system filter unit 20 can perform appropriate correction processing according to the shape of the headrest portion St3 on the audio signal from the sound image localization processing filter 10.
[0077]
As described above, each of the filters 21, 22, 23, and 24 of the trans-oral system filter unit 20 includes the shape and material of the headrest St3 stored in advance in the recording medium, the installation position of the speaker device, and the performance and characteristics of the speaker. The filter coefficient for each filter according to the above can be set through the CPU 40, and processing according to the set coefficient data can be performed.
[0078]
The output audio signal from the left channel adding unit 15 of the sound image localization processing filter unit 10 is supplied to the left channel filter 21 and the right channel filter 22 of the transoral system filter unit 20, and The output audio signal from the right channel adding unit 16 of the sound image localization processing filter unit 10 is supplied to the left channel filter 23 and the right channel filter 24 of the transoral system filter unit 20.
[0079]
Each of the filters 21, 22, 23, 24 performs predetermined processing using the filter coefficient from the CPU 40, and specifically, as described above, the headrest provided with the speakers SL, SR. The process of removing the influence of the transfer function of the sound up to the listener's ear measured using St3 is performed on the sound signal supplied to the own filter.
[0080]
Here, each filter of the transoral system filter 20 sets the coefficient data stored in the recording medium 30 through the CPU 40, so that the transfer functions G1, G2, G3, and G4 shown in FIG. By forming an inverse function and processing the audio signal thereby, the influence of the transfer functions G1, G2, G3, G4 in the reproduced sound field is removed.
[0081]
The output from the filter 21 is supplied to the left channel adder 25, and the output from the filter 22 is supplied to the right channel adder 26. Similarly, the output from the filter 23 is supplied to the adder 25 for the left channel, and the output from the filter 24 is supplied to the adder 26 for the right channel.
[0082]
The adders 25 and 26 add the audio signals supplied thereto, the adder 25 supplies the audio signal to the left speaker SL, and the adder 26 supplies the audio signal to the right speaker SR. . Thereby, the sound emitted from the speakers SL and SR of the headrest portion St3 is removed from the influence of the transfer function according to the current position of the listener's head in the reproduction sound field, and the sound image is accurately left virtual The sound can be localized like the sound emitted from the speaker VSL and the right virtual speaker VSR.
[0083]
As described above, in the sound processing device 1 according to the first embodiment, a listener whose head is located near the headrest portion St3 where the speakers SL and SR are provided is connected to the speakers SL and SR of the headrest portion St3. The sound to be emitted can be heard as if it was emitted from the virtual speaker positions VSL and VSR.
[0084]
Accordingly, the sound can be heard from the front of the listener despite listening to the sound emitted from the left speaker SL and the right speaker SR located obliquely behind the listener's head. Therefore, it is possible to listen to the sound satisfactorily without feeling uncomfortable or uncomfortable feeling that the sound emitted from the left speaker SL and the right speaker SR is stuck on the back side of the listener.
[0085]
Further, when the headrest portion St3 on which the sound processing device 1 of this embodiment is mounted is used, for example, as a seat installed in an automobile and a chair placed in the household, In any case, the sound image of the sound emitted from the speakers SL and SR of the headrest portion St3 can be localized at a predetermined position with respect to the listener.
[0086]
Therefore, by using the headrest part St3 on which the sound processing apparatus 1 of the first embodiment is mounted, the listener can be located at a predetermined position in front of himself / herself in both the automobile and the home. You can listen to the audio that has been made. That is, without listening to the sound emitted from the speakers SL and SR of the headrest portion St3 located behind the listener's ear, the sound is stuck to the back, It is possible to avoid causing fatigue.
[0087]
Further, in the first embodiment, the front part of the component of the sound processing apparatus 1 shown in FIG. 1, that is, the sound image localization processing filter 10, the transoral system filter 20, the recording medium 30, the CPU 40, and the left and right channels In the above description, the front portions of the speakers SL and SR are provided in the headrest portion St3.
[0088]
In this case, the left and right audio signal output terminals of the sound reproduction device provided in the automobile or the sound reproduction device provided in the home are connected to the left and right audio signal input terminals of the acoustic processing 1. Thus, it is possible to listen to the sound subjected to the sound image localization processing using the acoustic processing device 1 without a sense of incongruity.
[0089]
However, it is not necessary to provide the front part of the component part of the sound processing apparatus 1 shown in FIG. 1 in the headrest part St3. For example, the headrest portion St3 may be provided with at least the left and right two-channel speakers SL and SR and the recording medium 30, and other components may be provided other than the headrest portion St3.
[0090]
FIG. 5 is a diagram for explaining an acoustic processing apparatus configured such that the left and right speakers SL and SR and the recording medium 30 are provided in the headrest St3 and the other components are not provided in the headrest St3. The sound processing apparatus shown in FIG. 5 is configured in substantially the same manner as the sound processing apparatus 1 shown in FIG.
[0091]
In the case of the sound processing apparatus shown in FIG. 5, the upper part separated by dotted lines, that is, the speakers SL and SR and the recording medium 30 are provided in the headrest St3. The portions below the dotted line, that is, the portions other than the speakers SL and SR and the recording medium 30, for example, reproduce the audio signals recorded on the backrest portion St2, the seating portion St1, or a sound source such as a disk. Provided on the audio playback device side.
[0092]
In this way, the headrest unit St3 does not have to be equipped with the sound image localization processing unit 10, the trans-oral system filter unit 20, and the like, and a speaker that is one of the components of the sound processing device is provided. The headrest part St3 can be configured at low cost. Therefore, the listener can easily purchase the headrest St3.
[0093]
Moreover, coefficient data supplied to each filter 21, 22, 23, 24 of the trans-oral system filter unit 20 provided at a place other than the headrest unit St3, and a coefficient corresponding to the headrest St3 provided with the speakers SL, SR Data is stored in the recording medium 30 provided on the headrest portion St3 side.
[0094]
Therefore, even if the headrest St3 is removed from, for example, a car seat and attached to a chair in the home, the sound emitted from the speakers SL and SR of the headrest St3 is not transmitted to the listener at a predetermined position. Can be localized. That is, the headrest St3 is also used by a plurality of chairs, such as a car seat and a home chair, and the sound image of the sound emitted from the speakers SL and SR of the headrest portion St3 is also used in any of the chairs. The listener can be provided by being localized at a predetermined position.
[0095]
Even when the front portion of the sound reproducing device 1 is provided in the headrest portion St3, or even when the left and right speakers SL and SR and the recording medium 30 are provided in the headrest portion St3, the headrest portion When the headrest portion St3 is mounted on a chair (seat) from which St3 is removable, the CPU 40 reads the coefficient data from the recording medium 30 and sets the coefficient data in each filter of the transoral system filter portion 20.
[0096]
When the headrest part St3 is mounted on a chair (seat), the sound reproduction device that reproduces sound from the sound source is connected to the left and right speakers SL and SR, and sound image localization is performed with respect to the sound signal from the sound source. Processing and trans-oral processing can be performed, and the sound of the processed sound signal can be emitted from the left and right speakers SL and SR.
[0097]
Note that the recording medium 30 is, for example, a semiconductor memory such as a ROM or an EEPROM. The recording medium 30 may be a recording medium such as a magnetic disk, an optical disk, or a magneto-optical disk.
[0098]
[Modification of First Embodiment]
FIG. 6 is a block diagram for explaining a modification of the sound processing apparatus according to the first embodiment. As shown in FIG. 6, the sound processing device 2 of this example is the first illustrated in FIG. 1 except that a simplified transoral system filter unit 50 is mounted instead of the transoral system filter unit 20. It is comprised similarly to the acoustic processing apparatus 1 of embodiment. For this reason, in the sound processing device 2 shown in FIG. 6, the same reference numerals are given to the same components as those in the first sound processing device 1 shown in FIG. 1, and detailed description thereof will be omitted. .
[0099]
As shown in FIGS. 1, 2, and 6, the speakers SL and SR provided in the headrest portion St <b> 3 are normally close to the listener's head, and the speakers SL and SR of the headrest portion St <b> 3 are the listeners. Therefore, the crosstalk component from the speakers SL and SR to the ear on the opposite side is much smaller than the audio signal component from the speakers SL and SR to the ear on the side corresponding to the speaker.
[0100]
That is, in the example shown in FIG. 1, since the transfer functions G12 and G21 of the crosstalk component are much smaller than the transfer functions G11 and G22, the transfer functions G12 and G21 of the crosstalk component can be ignored. For this reason, the simplified trans-oral system filter unit 50 shown in FIG. 6 is simplified by omitting consideration of the crosstalk component from the normal trans-oral system.
[0101]
As shown in FIG. 6, the simplified transoral system filter unit 50 is a filter that is provided in the headrest unit St3 and processes an audio signal with an inverse function of the audio transfer function G1 from the left speaker SL to the left ear of the listener. 51 and a filter 52 that processes an audio signal with an inverse function of an audio transfer function G2 from the right speaker SR provided to the headrest portion St3 to the right ear of the listener. Thus, even when the crosstalk component is ignored, it has been experimentally confirmed that the localization of the sound emitted from the left and right speakers SL and SR is the virtual speaker position.
[0102]
Then, for each of the two filters 51 and 52 of the simplified transoral system filter unit 50, as in the case of the sound processing apparatus 1 described above with reference to FIG. Coefficient data corresponding to a transfer function measured using a headrest portion provided is supplied. The coefficient data is stored in advance in the recording medium 30 as in the case of the sound processing apparatus 1 described above, and this is supplied to the filters 51 and 52 of the simplified transoral system filter 50 through the CPU 40.
[0103]
In this case, since the coefficient data prepared in the recording medium 30 is only required for the filters 51 and 52, the amount of data stored in the recording medium 30 can be reduced. Therefore, a recording medium having a small storage capacity can be used. In the case of the sound processing apparatus 2 shown in FIG. 6, the configuration of the sound processing apparatus can be simplified by using the simplified transoral system filter unit 50.
[0104]
Further, in the case of the sound processing apparatus 2 shown in FIG. 6, as in the case of the sound processing apparatus 1 of the first embodiment shown in FIG. 1, the sound processing apparatus 2 is located obliquely behind the listener's head. Despite listening to the sound emitted from the left speaker SL and the right speaker SR, the sound is heard from the front direction of the listener, so that the sound is emitted from the left speaker SL and the right speaker SR. This makes it possible to listen to the sound satisfactorily without feeling uncomfortable or uncomfortable feeling such as the sound sticking to the back side of the listener.
[0105]
[Second Embodiment]
FIG. 7 is a block diagram for explaining the sound processing apparatus 3 according to the second embodiment to which the present invention is applied. The acoustic processing device 3 according to the second embodiment can process an audio signal from a multi-channel medium such as a DVD. In the second embodiment, the audio processing device 3 has five channels. The signal can be processed.
[0106]
As shown in FIG. 7, the sound processing device 3 according to the second embodiment includes audio signal input terminals i1 to i5 for five channels, for example, five channels from a multichannel recording medium such as a DVD. Minute audio signals can be received. The sound processing device 3 shown in FIG. 7 includes left and right two-channel speakers SL and SR, a recording medium 30, a CPU 40, a simple transoral system filter 50, and a sound image localization processing filter unit 60.
[0107]
As in the case of the sound processing apparatus 1 of the first embodiment, the sound processing apparatus 3 of the second embodiment is also configured as a headrest part St3 that can be attached to and detached from various chairs (seats). It is what is done. Further, as can be seen from FIG. 7, the sound processing device 3 of the second embodiment is similar to the sound processing device 2 of the modification of the first embodiment except for the sound image localization processing filter unit 60. It is constituted similarly.
[0108]
The sound image localization processing filter unit 60 of the acoustic processing device 3 according to the second embodiment is basically based on the same principle as the sound image localization processing filter unit 10 of the acoustic processing device according to the first embodiment. Based on this, the sound image of the sound emitted from the speaker is localized.
[0109]
However, in the sound processing device 3 of the second embodiment shown in FIG. 7, the sound images of the sounds emitted from the left and right speakers SL and SR provided in the headrest portion St3 are shown by dotted lines in FIG. The sound is localized so that sound is emitted from the five virtual speakers VS1 to VS5.
[0110]
FIG. 8 is a diagram for explaining the principle of the sound image localization processing filter unit 60 of the acoustic processing device 3 according to the second embodiment shown in FIG. As shown in FIG. 8, in the predetermined reproduction sound field, the position of the dummy head DH is set as the position of the listener, and the virtual speaker position (in which the sound image is localized with respect to the listener at the position of the dummy head DH) The actual speakers SP1 to SP5 are actually installed at positions where the speakers are assumed to be). Then, a transfer function (HRTF) to the left and right ears of the dummy head DH of the sound emitted from each of the real speakers SP1 to SP5 is measured in advance.
[0111]
As shown in FIG. 8, in the second embodiment, the transfer function of the sound from the real speaker SP1 to the left ear of the dummy head DH is N11, and the sound from the real speaker SP1 to the right ear of the dummy head DH. The transfer function is N12. The transfer function of the sound from the real speaker SP2 to the left ear of the dummy head DH is N21, and the transfer function of the sound from the real speaker SP2 to the right ear of the dummy head DH is N22.
[0112]
Similarly, the transfer functions of the sound from the real speaker SP3 to the left and right ears of the dummy head DH are N31 and N32, respectively, and the transfer function of the sound from the real speaker SP4 to the left and right ears of the dummy head DH is N41 and N42. The transfer functions of the sound from the real speaker SP5 to the left and right ears of the dummy head DH are N51 and N52.
[0113]
As described with reference to FIG. 8, the audio signals input from the input terminals i1 to i5 are processed using the corresponding transfer functions measured in advance, and the influence of the transfer functions in the reproduction sound field is affected. Correction processing for removal is performed, and the sound based on the processed sound signal is supplied to the left and right speakers SL and SR provided in the headrest portion St3 to emit sound.
[0114]
In this way, the viewer feels that the sound emitted from the speakers SL and SR of the headrest portion St3 is emitted from the positions indicated by the virtual speakers VS1 to VS5 indicated by dotted lines in FIG. The sound image can be localized.
[0115]
Then, in order to localize the sound image, the part that performs the processing using the transfer function of the sound measured in advance is the sound image localization processing filter unit 60 shown in FIG. 7, for removing the influence of the transfer function in the reproduction sound field. The part that performs the correction process is the simplified transoral system filter 50 as in the case of the modification of the first embodiment described above.
[0116]
First, regarding the sound image localization processing filter unit 60 of the second embodiment, the sound image localization processing filter unit 60 can process a 5-channel audio signal, as described above. As illustrated in FIG. 7, the filter includes ten filters 61 to 70 and two adders 71 and 72.
[0117]
The filter 61 processes the audio signal supplied through the terminal i1 with the transfer function N11, and supplies the processed audio signal to the adder 71 for the left channel. The filter 62 processes the audio signal supplied through the terminal i2 with the transfer function N12, and supplies the processed audio signal to the right channel adding unit 72.
[0118]
The filter 63 processes the audio signal supplied through the terminal i2 with the transfer function N21, and supplies the processed audio signal to the adder 71 for the left channel. The filter 64 processes the audio signal supplied through the terminal i2 with the transfer function N22, and supplies the processed audio signal to the right channel adder 72.
[0119]
The filter 65 processes the audio signal supplied through the terminal i3 with the transfer function N31, and supplies the processed audio signal to the adder 71 for the left channel. Further, the filter 66 processes the audio signal supplied through the terminal i3 with the transfer function N32, and supplies the processed audio signal to the right channel adder 72.
[0120]
The filter 67 processes the audio signal supplied through the terminal i4 with the transfer function N41, and supplies the processed audio signal to the adder 71 for the left channel. The filter 68 processes the audio signal supplied through the terminal i4 with the transfer function N42, and supplies the processed audio signal to the right channel adder 72.
[0121]
The filter 69 processes the audio signal supplied through the terminal i5 with the transfer function N51, and supplies the processed audio signal to the adder 71 for the left channel. The filter 70 processes the audio signal supplied through the terminal i5 with the transfer function N52, and supplies the processed audio signal to the right channel adder 72.
[0122]
Thereby, the sound based on the output sound signal from the left channel adder 71 and the sound based on the output sound signal from the right channel adder 72 are the positions of the virtual speakers VS1 to VS5 indicated by dotted lines in FIG. The sound image is localized so that sound is emitted from the sound source.
[0123]
And also in the case of the sound processing device 3 of the second embodiment, the left speaker SL and the right provided in the headrest portion St3 are the same as in the case of the sound processing devices 1 and 2 of the first embodiment. Even if the sound emitted from the speaker SR is subjected to sound image localization processing, the sound image of the reproduced sound can be localized at the target virtual speaker position under the influence of the transfer function in the actual reproduced sound field. It may be impossible.
[0124]
Therefore, also in the sound processing device 3 of the second embodiment, sound is emitted from the left and right speakers SL and SR of the headrest portion St3 by using the simplified transoral system filter portion 50 that does not consider the crosstalk component. The sound image of the sound to be performed is accurately localized at each position of each virtual speaker VS1 to VS5.
[0125]
Also in the case of the sound processing apparatus 3 of the second embodiment, the simplified transoral system unit 50 includes the case of the sound processing apparatus 2 of the modification of the first embodiment described above with reference to FIG. Similarly, coefficient data which is determined according to a transfer function corresponding to the headrest part St3 where the speakers SL and SR are provided and stored in the storage medium 30 is supplied through the CPU 40 and listened to from the speakers SL and SR in the reproduction sound field. The influence of the transfer function of the sound up to the ear of the person can be removed.
[0126]
In recent years, media having a multi-channel sound source such as a DVD have become widespread, but by making it possible to process a 5-channel audio signal like the acoustic processing device 3 of the second embodiment, Through the two speakers SL and SR of the headrest part St3, a virtual five-channel sound image can be obtained and a powerful reproduced sound can be enjoyed.
[0127]
Even in the case of the second embodiment, according to the transfer function from the left and right speakers SL, SR to the listener's ear when using the headrest provided with the left and right speakers SL, SR, In order to remove the influence of the transfer function, coefficient data to be supplied to the filters 51 and 52 of the simplified transoral system filter unit 50 is prepared in the storage medium 30 in advance.
[0128]
Thereby, when the headrest St3 in which the sound processing device 3 according to the second embodiment shown in FIG. 7 is configured to be used in combination with a plurality of chairs (seats), any of those chairs (seats) has this Even when the headrest St3 including the acoustic processing device 3 according to the second embodiment is mounted and used, it is possible to provide the listener with sound in which the sound image is localized at a predetermined position. .
[0129]
In the sound processing apparatus 3 of the second embodiment, instead of the simplified transoral system filter 50, the transformer is the same as in the case of the sound processing apparatus 1 of the first embodiment shown in FIG. The oral system filter unit 20 can also be used. In this case, coefficient data corresponding to the headrest portion St3 may be set in each of the four filters 21, 22, 23, and 24.
[0130]
Also in the case of the sound processing device 3 according to the second embodiment, at least the left and right speakers SL and SR and the storage medium 30 are provided in the headrest portion St3, and the other portions other than the headrest portion St3, for example, It can also be set as the structure provided in the backrest part St2, the acoustic reproduction apparatus side, or between the acoustic reproduction apparatus and the left and right speakers SL and SR.
[0131]
Thus, by providing only the minimum necessary part of the components of the sound processing device 3 in the headrest portion, the headrest portion that constitutes a part of the sound processing device 3 can be inexpensively provided. Can be configured. Thereby, the user can respond to a user's request, such as being able to exchange the headrest part in which the speaker was provided easily.
[0132]
[Third Embodiment]
For example, in the case of the sound processing apparatus 1 described above with reference to FIG. 1, the positional relationship from the virtual speaker position indicated by the virtual speakers VSL and VSR to both ears of the listener, and from the speakers SL and SR to both ears of the listener. If the positional relationship between the two changes significantly between the transfer function measurement and the system playback (when the sound is actually played back and listened to), each transfer function also changes. It is considered that the sound image localization effect may be diminished.
[0133]
More specifically, for example, in the case of the sound processing apparatus 1 shown in FIG. 1, the transfer functions from the left and right speakers SL, SL provided in the headrest portion St3 to the ears of the listener are the transfer functions G11, When the listener's head is at a position of G12, G21, and G22, the listener listens to the sound emitted from the left and right speakers SL and SR provided in the headrest portion St3, and the virtual speakers VSL and VSR. It can be heard as if it was emitted from.
[0134]
However, if the position of the listener's head with respect to the left and right speakers SL and SR provided on the headrest portion St3 is deviated from the assumed position, the listeners from the left and right speakers SL and SR provided on the headrest portion St3. The transfer function up to the ears will change. For this reason, the influence of the transfer function in the reproduction sound field cannot be reliably removed, and the virtual speaker localization effect that localizes the sound image of the sound emitted from the speakers SL and SR at the virtual speaker position is sufficient. Cannot be obtained.
[0135]
In particular, if the listener's head moves in a direction orthogonal to the sound emitting surface of the speaker (if it has moved in the vertical or horizontal direction parallel to the sound emitting surface of the speaker) The effect is larger than when moving closer or away from the speaker.
[0136]
For this reason, in order to sufficiently obtain the effect of virtual speaker localization, the position of the listener's head (ear position) with respect to the speaker must be set to a fixed position to listen to the sound, It is desirable to measure the transfer functions at various head positions and reproduce the sound with a system that passes through a transfer function and an inverse filter suitable for the positions.
[0137]
However, it is difficult to always keep the position of the head of the listener who sits on the chair having the headrest portion St3 in a predetermined position with respect to the speaker. Moreover, even if it can be held, it may also hinder the listener's feeling of relaxation.
[0138]
Therefore, in the third embodiment, for example, when the sound processing apparatus is in an operating state or when an instruction is given from the listener, the position of the listener's ear with respect to the speaker, in other words, For example, the position of the listener's head relative to the headrest including the distance of the listener's head from the headrest provided with the speaker is measured.
[0139]
Then, a plurality of coefficient data corresponding to a plurality of positions that the listener's head can take with respect to the headrest St3 is prepared in the recording medium 30 in advance, and the coefficient data corresponding to the measured position of the listener's head is prepared. Is read from the storage medium 30 and supplied to a filter for removing the influence of the transfer function placed in the reproduction sound field, so that the audio signal after the sound image localization processing is performed according to the latest position of the listener's head Thus, an appropriate correction process can be performed.
[0140]
FIG. 9 is a block diagram for explaining the sound processing apparatus 4 of the third embodiment. The sound processing device 4 according to the third embodiment is also configured in a headrest portion St3 that can be attached to and detached from a plurality of chairs (seats).
[0141]
In the acoustic processing apparatus 4 shown in FIG. 9, a super tweeter of a speaker device provided in the headrest portion St3 is used as a position detection sensor for the listener's head. In recent years, the hi-fi orientation of playback audio has progressed, and it is not uncommon to mount a speaker having a playback performance of an audible frequency band or higher, and this is utilized.
[0142]
That is, the super tweeter of the speakers SL and SR of the sound processing apparatus 4 of the third embodiment has a reproduction capability of an audible frequency or higher, and the speaker (speaker device) having this configuration is used as the head of the listener. Therefore, it is not necessary to install a dedicated sensor system such as a pressure-sensitive type in order to detect the position of the listener's head.
[0143]
Specifically, an ultrasonic wave is transmitted from the super tweeter of the speaker also received by the headrest part St3, and a reflected wave (reflected ultrasonic wave) from the head of the listener of the transmitted ultrasonic wave is received by the super tweeter. Then, this is analyzed by a head position detector (hereinafter simply referred to as a detector) 80, thereby detecting the position of the listener's head relative to the headrest St3.
[0144]
As described above, the position of the listener's head relative to the headrest portion St3 is obtained by using the super tweeters of the left and right speakers SL and SR provided in the headrest portion St3 as position detection sensors for detecting the position of the listener's head. 9 is substantially the same as the sound processing apparatus 1 of the first embodiment except that a detection unit 80 for detecting the sound is provided. It has been done.
[0145]
For this reason, in the sound processing apparatus of the third embodiment shown in FIG. 9, the same reference numerals are given to the same parts as those of the sound processing apparatus 1 shown in FIG. Is omitted.
[0146]
As described above, in the sound processing device 4 according to the third embodiment, ultrasonic waves having a predetermined frequency are transmitted from the super tweeters of the speakers SL and SR provided in the headrest portion St3. Reflection from the head is received through the super tweeters of the speakers SR and SL of the headrest portion St3.
[0147]
Whether or not the reflected wave of the ultrasonic wave transmitted from the super tweeter is received, and when the reflected wave is received, the time taken from the transmission of the ultrasonic wave to reception of the reflected wave, the time The position of the listener's head relative to the headrest portion St3 is detected based on the distance between the speaker and the listener obtained from the speed of sound waves.
[0148]
FIG. 10 is a diagram for explaining the process of detecting the position of the listener's head performed in the sound processing apparatus 4 of the third embodiment. As shown in FIG. 10, ultrasonic waves of 40 kHz are transmitted from the super tweeters of the left and right speakers SL and SR of the headrest portion St3, and the reflected waves from the user's head are also transmitted to the left and right of the headrest portion St3. Are received by the super tweeters of the speakers SL and SR.
[0149]
Control of transmission of ultrasonic waves from the super tweeters of the left and right speakers SL and SR is controlled by the CPU 40, for example. Then, the ultrasonic waves received by the super tweeters of the left and right speakers SL and SR are supplied to the detection unit 80. When the detection unit 80 receives 40 kHz ultrasonic waves (reflected waves), receives 40 kHz ultrasonic waves (reflected waves), the time taken from transmission to reception of the ultrasonic waves, the speed of the ultrasonic waves, and the like. The position of the listener's head with respect to the left and right speakers SL, SR of the headrest portion St3 is detected.
[0150]
That is, as shown in FIGS. 4A and 4B, when each of the super tweeters of the speakers SL and SR of the headrest portion St3 similarly receives the reflected ultrasonic waves transmitted in the same manner, from transmission to reception. The position of the listener's head relative to the headrest portion St3 can be detected according to the time taken for.
[0151]
Simply put, for example, as shown in FIG. 4A, when the time taken from transmission to reception of ultrasonic waves is relatively long, the listener's head is relatively distant from the headrest portion St3. It can be seen that it is located at the position. Further, as shown in FIG. 4B, when the time taken from transmission to reception of ultrasonic waves is relatively short, the position of the listener's head is positioned relatively close to the headrest portion St3. You can see that
[0152]
As shown in FIG. 4C, for example, only the super tweeter of the left speaker SL receives ultrasonic waves transmitted in the same way from the super tweeters of the left and right speakers SL and SR provided in the headrest portion St3, and the super tweeter of the right speaker SR. When the tweeter does not receive the 40 kHz ultrasonic wave, it can be seen that the head of the listener is shifted to the left side with respect to the headrest portion St3.
[0153]
On the contrary, for example, only the super tweeter of the right speaker SR receives ultrasonic waves transmitted in the same way from the super tweeters of the left and right speakers SL and SR provided in the headrest portion St3, and the super tweeter of the left speaker SL exceeds 40 kHz. When the sound wave is not received, it is understood that the listener's head is offset to the right side with respect to the headrest portion St3.
[0154]
As described above, the detection unit 40 determines the distance from the speakers SL and SR of the headrest unit St3 and the left and right offsets (shifts) based on the reflected waves from the heads of the listeners transmitted from the left and right speakers. ) Etc. can be sensed. In this case, the position of the listener's head is detected, for example, as a deviation (offset) from the reference position where the listener's head should be originally positioned, and this is notified to the CPU 40.
[0155]
Then, the CPU 40 refers to the coefficient data table recorded on the recording medium 30 based on the detection result of the position of the listener's head from the detection unit 80, and according to the current position of the listener's head. The coefficient data supplied to each filter 21, 22, 23, 24 of the trans-oral system filter unit 20 is read out.
[0156]
In the third embodiment, the recording medium 30 includes coefficient data supplied to each of the filters 21, 22, 23, and 24 of the transoral system filter unit 20, and is a listener for the headrest unit St3. A plurality of coefficient data corresponding to a plurality of positions that can be taken by the head of the head are stored in association with each position.
[0157]
That is, the transfer function of the sound emitted from the speakers SL and SR of the headrest portion St3 to the left and right ears of the listener is measured in advance by changing the position of the listener's head with respect to the headrest portion St3 in advance. Based on this measurement result, coefficient data used in each filter 21, 22, 23, 24 of the trans-oral system filter unit 20 is obtained, and the obtained coefficient data is associated with the position of the listener's head. Is stored in the recording medium 30.
[0158]
Therefore, in the recording medium 30, the position of the listener's head is the coefficient data used in each of the filters 21, 22, 23, and 24 of the transoral system filter unit 20 at the position A, and the transoral system filter at the position B. Coefficient data used in each of the filters 21, 22, 23, 34 of the unit 20,..., Etc. The filters 21, 22 at each position of the listener's head whose position is changed with respect to the headrest unit St 3. , 23 and 24 are stored.
[0159]
Based on the detection result of the current user's head position from the detection unit 80, the CPU 40 supplies coefficient data to be supplied to each filter 21, 22, 23, 24 of the transoral system filter unit 20 from the recording medium 30. This is read and supplied to the corresponding filter of the transoral system filter unit 20.
[0160]
As a result, even if the position of the listener's head moves relative to the headrest part St3, the actual position of the listener's head is measured, and the influence of the transfer function in the reproduction sound field is removed according to the position. As described above, the transoral system filter unit 20 can perform correction processing. Therefore, the sound image of the sound emitted from the left and right speakers SL and SR of the headrest portion St3 can be localized at the virtual speaker position regardless of the position of the listener's head.
[0161]
Moreover, since the coefficient data stored in the storage medium 30 corresponds to the headrest portion St3 in which the sound processing device 4 of the third embodiment is configured, this headrest portion St3 can be attached and detached. Whatever the chair (seat) is used, the sound image of the sound emitted from the left and right speakers SL, SR provided on the headrest St3 is given to the listener at a predetermined position. Can be localized.
[0162]
In the third embodiment, the recording medium 30 includes a transoral system filter unit corresponding to each position of the head based on the transfer function measured at each position that can be taken by the listener's head. It is also possible to obtain a function to be set for each of the 20 filters and store the function and the position of the head in association with each other. That is, the function itself used for correction may be stored in the recording medium 30 in association with the position of the head, and may be set in the target filter of the transoral system filter unit 20.
[0163]
In addition, for example, a transfer function at a reference position is measured, and necessary parameters such as an amplitude adjustment parameter and a delay processing parameter for the reference transfer function are set, and a listening to be detected based on the reference parameter. Depending on the actual position of the person's head, a new parameter may be obtained and set in each filter.
[0164]
That is, by setting one transfer function model and adjusting the model according to the position of the listener's head, a correction process according to the actual position of the listener's head is performed. It is also possible to perform it on an audio signal. In this case, when the parameter placed at the reference position is held as a reference model in, for example, a program executed by the CPU, a memory for holding the parameter is not necessary, and only the reference parameter is stored in the memory. Therefore, a large memory capacity is not necessary.
[0165]
As described above, the processing information stored in the recording medium 30 and supplied to each filter of the trans-oral system filter unit 20 includes a plurality of types of information such as coefficient data, function data, and parameter data. However, these may be used according to each filter circuit to be actually mounted on the sound processing apparatus.
[0166]
In the third embodiment, the transoral system filter unit 20 is used. However, the present invention is not limited to this. For example, as shown in FIG. 11, by using a simplified transoral system filter unit 50 instead of the transoral system filter unit 20, it is possible to configure an acoustic processing device 5 having a simple configuration. In this case, the data facilitated in advance in the storage unit 30 can be reduced to about half that of the sound processing device 4 of the third embodiment shown in FIG.
[0167]
Further, instead of the two-channel sound image localization processing filter 10, a multi-channel sound image localization processing filter such as the five-channel sound image localization processing filter unit 50 shown in FIG. 7 may be used.
[0168]
Also in the case of the sound processing device 4 shown in FIG. 9 and the sound processing device 5 shown in FIG. 11 of the third embodiment, the left and right speakers SL and SR and the recording medium 30 are connected to the headrest portion. Other portions may be provided at St3 and may be provided at the backrest St2, the sound reproduction device side, or between the speakers SL and SR and the sound reproduction device.
[0169]
In this case, an inexpensive headrest part St3 having a speaker can be configured, and various headrest parts having different shapes, materials, speaker installation positions, etc. are provided, and the user can suit his / her preference. You can purchase and use it.
[0170]
[Fourth Embodiment]
By the way, in order to realize a sound processing device capable of providing higher-quality sound, the detection accuracy of the position of the listener's head relative to the headrest portion is increased, and the correction processing by the transoral system for the sound signal is more strictly performed. There is a demand to be able to do it.
[0171]
Therefore, also in the sound processing apparatus of the fourth embodiment, the ultrasonic waves for detecting the position of the listener's head are used in the case of the sound processing apparatuses 4 and 5 of the third embodiment described above. Similarly, transmission is performed from the super tweeters of the speakers SL and SR provided in the headrest portion St3.
[0172]
However, in the acoustic processing apparatus of the fourth embodiment, the reflected ultrasonic wave transmitted is received by the headrest portion St3 or a plurality of ultrasonic receiving elements provided in the vicinity thereof, and more The position of the listener's head can be detected with high accuracy.
[0173]
FIG. 12 is a block diagram for explaining the sound processing apparatus 6 according to the fourth embodiment. As shown in FIG. 12, in the acoustic processing apparatus of the fourth embodiment, a plurality of ultrasonic receiving elements (ultrasonic sensing elements) are provided, for example, at or near the headrest portion St3, and a plurality of receiving elements are provided. Except for the provision of a head position detection unit 80A for receiving detection output from the element, the configuration is the same as that of the sound processing apparatus 1 of the first embodiment shown in FIG.
For this reason, in the sound processing apparatus 6 of the fourth embodiment shown in FIG. 12, the same configuration as the sound processing apparatus 1 of the first embodiment shown in FIG. The same reference numerals as those of the sound processing apparatus 1 of the form are attached, and the description thereof is omitted.
[0174]
In the case of the acoustic processing apparatus 6 according to the fourth embodiment shown in FIG. 12, six ultrasonic receiving elements (hereinafter simply referred to as receiving elements) SS1 to SS6 are provided at or near the headrest St3. Are provided in an array. Then, ultrasonic waves having different frequencies are transmitted from the super tweeter of the left channel SL and the super tweeter of the right channel SR, and the reflected waves are received by the receiving elements SS1 to SS6. Based on the detection output, the detection unit 80A However, the position of the listener's head can be detected more accurately.
[0175]
FIG. 13 is a diagram for explaining the process of detecting the position of the listener's head performed in the sound processing apparatus 6 according to the fourth embodiment. As shown in FIG. 13, ultrasonic waves of different frequencies are transmitted from the left and right speakers SL, SR whose sound emitting surfaces are originally directed in the direction in which the listener's head is located, and the listener of the transmitted ultrasonic waves The reflected waves from the head of the receiver are received by the receiving elements SS1 to SS6.
[0176]
In the case of the example shown in FIG. 13, an ultrasonic wave with a frequency of 40 kHz is transmitted from the super tweeter of the left speaker SL, and an ultrasonic wave with a frequency of 50 kHz is transmitted from the super tweeter of the right speaker SR. . By doing so, the accuracy of position detection is further improved.
[0177]
As shown in FIG. 13A, when none of the receiving elements SS1 to SS6 provided in the headrest portion St3 can receive the reflected wave of the ultrasonic wave transmitted from the left and right speakers SL and SR super tweeters. The position of the listener's head can be detected as being at a position away from the headrest part St3 by a predetermined distance or more.
[0178]
As shown in FIG. 13B, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS3, and the right speaker SR. When a reflected wave from the listener's head transmitted from the super tweeter, that is, an ultrasonic wave of 50 kHz is received by the receiving element SS1, the position of the listener's head is the position of the headrest St3. It can be detected that the position is on the left speaker SL side.
[0179]
Although not shown, contrary to the case of FIG. 13B, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS6. When the reception element SS4 receives the reflected wave from the listener's head transmitted from the super tweeter of the right speaker SR, that is, the ultrasonic wave of 50 kHz, the position of the listener's head is It can be detected that the headrest portion St3 is located on the right speaker SL side.
[0180]
Further, as shown in FIG. 13C, the reflected wave from the listener's head transmitted from the super tweeter of the left speaker SL, that is, a 40 kHz ultrasonic wave is received by the receiving element SS3, and the right speaker SR. When the reception element SS4 receives an ultrasonic wave reflected from the head of the listener transmitted from the super tweeter, that is, an ultrasonic wave of 50 kHz, the position of the head of the listener is the left and right of the headrest portion St3. It can be detected that the speaker is located at an intermediate position between the speakers SL and SR.
[0181]
As described above, depending on which receiving element of the six receiving elements provided in an array in the headrest portion St3 receives the ultrasonic waves having different frequencies transmitted from the super tweeters of the left and right speakers SL and SR. Thus, it is possible to detect the offset (shift) of the listener's head with respect to the headrest portion St3.
[0182]
Further, for the ultrasonic waves transmitted from the super tweeters of the left and right speakers, by measuring the time from the transmission to reception by the receiving element, the headrest portion is determined according to the time and the ultrasonic velocity. The distance from St3 to the listener's head can be detected. Based on the offset and distance of the listener's head relative to the headrest portion St3, the position of the listener's head relative to the headrest portion St3 can be detected more accurately.
[0183]
Then, as described with reference to FIG. 13, the detection unit 80 </ b> A detects the exact position of the listener's head based on the detection output from each receiving element provided in an array on the headrest St <b> 3. That is, as described above, the detection unit 80A determines which receiving element has received the ultrasonic wave transmitted from the super tweeter of each of the left and right speakers, and further, the ultrasonic wave transmitted from the super tweeter of each of the left and right speakers. The position of the listener's head is detected in consideration of the time from transmission to reception.
[0184]
Then, as in the case of the CPU 40 of the sound processing apparatus 1 of the first embodiment described above, the CPU 40 obtains coefficient data corresponding to the current position of the listener's head relative to the headrest part St3 from the detection unit 80A. Read from the recording medium 30 and supply the read coefficient data to the target filters 21, 22, 23, 24 of the trans-oral system filter unit 20.
[0185]
Thereby, in the trans-oral system unit 20, a correction process is performed on the audio signal after the sound image localization process according to the current position of the head of the listener with respect to the headrest unit St3, and the corrected audio signal is Even if the position of the listener's head is changed with respect to the headrest portion St3 supplied to the speakers SL and SR, the sound image of the sound emitted from the left and right speakers SL and SR is localized at the virtual speaker position. Can do.
[0186]
That is, even if the position of the listener's head moves with respect to the headrest St3, the actual position of the listener's head is measured, and the influence of the transfer function in the reproduction sound field is removed according to the position. In this way, the transoral system filter unit 20 can perform correction processing. Therefore, the sound image of the sound emitted from the left and right speakers SL and SR of the headrest portion St3 can be localized at the virtual speaker position regardless of the position of the listener's head.
[0187]
In addition, the coefficient data stored in the storage medium 30 corresponds to the headrest part St3 in which the acoustic processing device 6 of the fourth embodiment is configured, as in the case of the third embodiment described above. Therefore, even if this headrest portion St3 is used by being mounted on any detachable chair (seat), sound is emitted from the left and right speakers SL and SR provided on the headrest portion St3. The sound image of the sound can be localized at a predetermined position with respect to the listener.
[0188]
Also in the case of the acoustic processing apparatus 6 of the fourth embodiment, the data prepared in advance in the storage medium 30 is not limited to the coefficient data, and is the same as in the case of the third embodiment. Appropriate data can be used according to the configuration of each filter of the trans-oral system filter unit, such as function data and parameter data.
[0189]
Also in the fourth embodiment, as in the case of the third embodiment described above, the simplified transoral system filter unit 50 can be used instead of the transoral system filter unit 20 to provide a good configuration. It is also possible to configure the sound processing device 5 that simplifies the above. In this case, the data facilitated in advance in the storage unit 30 can be reduced to about half that of the sound processing apparatus 4 of the fourth embodiment shown in FIG.
[0190]
Further, instead of the two-channel sound image localization processing filter 10, a multi-channel sound image localization processing filter such as the five-channel sound image localization processing filter unit 50 shown in FIG. 7 may be used.
[0191]
Also in the case of the acoustic processing apparatus 6 shown in FIG. 12 of the fourth embodiment, the left and right speakers SL and SR and the recording medium 30 are provided in the headrest part St3, and the other parts are the backrest part St2 and It may be provided on the sound reproduction device side or between the speakers SL and SR and the sound reproduction device.
[0192]
In this case, an inexpensive headrest part St3 having a speaker can be configured, and various headrest parts having different shapes, materials, speaker installation positions, etc. are provided, and the user can suit his / her preference. You can purchase and use it.
[0193]
In the case of the acoustic processing apparatuses 4, 5, and 6 of the third and fourth embodiments described above, ultrasonic waves are used to detect the position of the listener's head. Since the ultrasonic waves cannot be heard as sounds by human ears, the listener does not notice that the head is being detected.
[0194]
In addition, since an ultrasonic component that is related to the detection system (measurement accuracy) is not included in the case of a normal music component, interference with reproduced sound (music signal) intended for listening does not become a problem. That is, during music playback, the position of the listener relative to the speaker can be measured and detected without deteriorating the reproduced sound and without being noticed by the listener.
[0195]
In the acoustic processing apparatus 6 of the fourth embodiment described above, six ultrasonic receiving elements are provided at or near the headrest portion St3. However, the present invention is not limited to this, and many more Of course, an ultrasonic receiving element may be used, or a plurality of receiving elements may be provided in a plurality of rows. Further, the interval between the receiving elements and the direction of the sound emitting surface of the left and right speakers SL and SR can be appropriately adjusted.
[0196]
Further, the position where the ultrasonic receiving element is provided may be provided at an arbitrary place where reflection from the head of the listener can be received in addition to the headrest part St3 and its vicinity.
[0197]
[Fifth Embodiment]
In the third and fourth embodiments described above, the position of the listener's head relative to the headrest portion provided with the speaker is detected by transmitting ultrasonic waves and receiving the reflected waves. However, detection of the position of the listener's head is not limited to using ultrasonic waves.
[0198]
For example, videophones capable of transmitting and receiving not only voice but also images have been used at home. Therefore, for example, as shown in FIG. 14, a television set (TV set) 200 and a chair on which a sound processing device having a headrest part St3 provided with left and right two-channel speakers SR and SL is mounted are used as a so-called home theater. When constructing a system, the CCD camera 210 normally used for a videophone can be used for detecting the position of the listener's head relative to the headrest St3.
[0199]
Also, it is often the case that sound such as music is listened to in a car (vehicle interior). Therefore, as shown in FIG. 15, it is conceivable to configure the sound processing apparatus by providing a headrest portion on which two left and right channel speakers (SL1, SR1 or SL2, SR2) are mounted on a seat in an automobile. In such a case, by mounting, for example, a videophone CCD camera 310 in the car, the videophone CCD camera 310 can be used to detect the position of the listener's head relative to the headrest portion. .
[0200]
Even in the present situation, in some types of automobiles, in order to eliminate blind spots, a CCD camera is provided outside the automobile, and an image captured through the CCD camera is displayed on a display inside the automobile for viewing. What can be done is also provided, and it is possible to mount a CCD camera for in-car imaging on a car.
[0201]
Therefore, the sound processing device 7 according to the fifth embodiment uses a CCD camera (CCD device) provided in a home or a car to determine the position of the listener's head relative to the headrest portion provided with a speaker. By grasping in real time how much the person's head is sitting with respect to the speaker, and using a transfer function suitable for that position in the system, the virtual speaker localization effect can be enjoyed in a more free posture It is made to be able to.
[0202]
Note that the sound processing device 7 according to the fifth embodiment is also capable of processing left and right two-channel audio signals as in the case of the sound processing device 1 according to the first embodiment described above. Yes, the sound image of the sound emitted from the left and right two-channel speakers provided in the headrest portion St3 can be localized in the forward direction of the listener. That is, the sound processing device 7 can localize the sound image as if the sound emitted from the left and right two-channel speakers provided in the headrest portion St3 is emitted from the virtual speakers VSL and VSR.
[0203]
FIG. 16 is a block diagram for explaining the sound processing apparatus 7 of the fifth embodiment. As described with reference to FIGS. 14 and 15, the sound processing apparatus 7 shown in FIG. 16 is provided in a home room or an automobile. The sound processing device 5 shown in FIG. 16 analyzes the CCD camera 210 and the image captured by the CCD camera 210, and detects the position of the listener's head relative to the headrest St3. Except for the section 90, the configuration is the same as that of the sound processing apparatus 1 of the first embodiment shown in FIG.
[0204]
For this reason, in the sound processing device 7 of the fifth embodiment shown in FIG. 16, the same reference numerals are given to the same parts as those of the sound processing device 1 of the first embodiment shown in FIG. The description of the portion is omitted.
[0205]
In the sound processing apparatus 7 of the fifth embodiment, the CCD camera 210 is set so as to be directed toward the listener, and can always take an image in the listener direction. The CCD camera 210, for example, takes an image in the direction of the listener while the sound processing device 7 is operating under control of the CPU 40, or at predetermined timing, and performs image analysis on the captured image. To the unit 90.
[0206]
The image analysis unit 90 analyzes the image data from the CCD camera 210, detects the position of the listener's head with respect to the headrest unit St3, and notifies the CPU 40 of this. Specifically, the positions of the speakers SL and SR of the headrest portion St3 can be confirmed in terms of image processing by marking the predetermined positions such as the chair on which the listener sits and the headrest portion of the seat. .
[0207]
Since the listener always moves a little while sitting on the chair, the edge portion of the listener can be extracted by using this and taking the time axis difference of the still image. The positional relationship between the listener's head and the speakers SL and SR of the headrest portion St3 can be understood from the edge portion of the listener and the position of the speaker.
[0208]
The CPU 40 reads the coefficient data stored in the recording medium 30 based on the detection result (the position of the listener's head) from the image analysis unit 90, and uses this as the corresponding filter of the transoral system filter unit 20. Supply.
[0209]
Thereby, in the trans-oral system filter unit 20, the sound signal subjected to the sound image localization process is corrected in accordance with the position of the listener's head, and the position of the listener's head with respect to the headrest portion St3 is determined. Even in the case of a change, the sound image of the sound emitted from the left and right speakers SL and SR of the headrest portion St3 can be localized so that the sound is emitted from the virtual speakers VSL and VSR.
[0210]
When analyzing an image captured by the CCD camera 210, the head moves in the vertical direction, which is a direction orthogonal to the head contact surface of the headrest St3, and the head contact of the headrest St3. When the head moves in the horizontal direction, which is a direction parallel to the surface, the latter horizontal movement can be detected more easily.
[0211]
Originally, since the speaker is provided in the headrest portion St3 and is located in the vicinity of the listener's ear, even if the listener's head moves by the same amount, the speaker is orthogonal to the head contact surface of the headrest portion St3. Direction when the head is moved in the vertical direction, which is the direction of the head, and when the head is moved in the horizontal direction, which is a direction parallel to the head contact surface of the headrest portion St3. Change of transfer function from speaker to listener's ear is important.
[0212]
For this reason, in the sound processing device 7 of the fifth embodiment, the horizontal position (offset) of the listener's head is sensed by analyzing the image captured by the CDD camera 210, and Accordingly, by using an appropriate filter coefficient for each filter of the transoral system fill unit 20, the sound image of the sound emitted from the left and right speakers SL, SR of the headrest unit St3 is accurately set to a predetermined value. I try to localize the position.
[0213]
In the sound processing device 7 of the fifth embodiment, instead of the transoral system filter unit 20, the simplified transoral system unit 50 is replaced with the sound processing device 5 shown in FIG. Can also be used. Further, instead of the 2-channel sound image localization processing filter unit 10, a multi-channel, for example, 5-channel sound image localization processing filter 60 may be used.
[0214]
Accordingly, also in the case of the sound processing device 7 of the fifth embodiment, as in the case of the sound processing devices of the third and fourth embodiments described above, the head of the listener with respect to the headrest portion St3. The measurement position and listening position of the listener's head as in the past by measuring the position always or as needed and performing correction processing (transoral processing) according to the transfer function according to the measured position. Thus, it is possible to avoid the lack of the virtual speaker localization effect due to the inaccuracy of the sound and to achieve the effects such as the front localization of the sound image and the all-round localization of the sound image without being influenced by the position of the listener's head.
[0215]
In the first, second, third, and fourth embodiments described above, the sound emitting surface of the speaker provided in the headrest portion is parallel to the surface that the head of the headrest portion contacts. However, it is also possible to make appropriate corrections such as tilting the sound emitting surface of the speaker provided in the headrest portion toward the listener.
[0216]
In the above-described embodiment, an example in which the left speaker SL and the right speaker SR are provided in the headrest portion has been described. However, the number of speakers is not necessarily two, and 1 There may be one or more than two. Further, as described above, it goes without saying that a so-called HiFi-oriented speaker device equipped with a tweeter or the like can be used.
[0217]
Also in the case of the acoustic processing apparatus 7 shown in FIG. 16 of the fifth embodiment, the left and right speakers SL and SR and the recording medium 30 are provided in the headrest part St3, and the other parts are the backrest part St2 and It may be provided on the sound reproduction device side or between the speakers SL and SR and the sound reproduction device.
[0218]
In this case, an inexpensive headrest part St3 having a speaker can be configured, and various headrest parts having different shapes, materials, speaker installation positions, etc. are provided, and the user can suit his / her preference. You can purchase and use it.
[0219]
Also, when purchasing a headrest unit with a built-in speaker and recording medium, measure the transfer function up to the ear of the user who uses the headrest unit, and a coefficient corresponding to the transfer function specific to the user who uses the headrest Data, function data, and parameter data may be stored in a recording medium.
[0220]
In such a case, since it is possible to perform correction processing that is more suitable for the individual user using the headrest unit on the audio signal, it is possible to configure a suitable acoustic processing device for each user. it can.
[0221]
In the above-described embodiment, the description has been made assuming that the transfer function in the reproduction sound field varies depending on the shape, material, speaker installation position, speaker performance and characteristics of the headrest part where the speaker can be provided. In this case, the performance of the speaker includes a directivity characteristic of the speaker, and the characteristic of the speaker includes a frequency characteristic. That is, the transfer function varies depending on the directivity characteristics and frequency characteristics of the speaker, but it is possible to cope with these.
[0222]
Various methods can be used for the storage method, data format, etc. of coefficient data, function data, parameter data, etc. stored in a semiconductor memory or various disks used as a recording medium. As described above, the data stored in the recording medium may be a transfer function from the reproduction speaker to the listener's ears, or by actually performing a transoral operation and converting it to the actual sound. Data in the form immediately before folding may be recorded on the recording medium.
[0223]
Further, not only one transfer function but also a plurality of transfer function information can be stored in the recording medium. That is, transfer function information corresponding to the size, position, shape, presence or absence of glasses, etc. of the listener's own face and ears is recorded on the recording medium, and by selecting these information by the listener himself, or When the sensor automatically detects and performs the correction process, the sound image localization effect of the virtual speaker can be further strengthened.
[0224]
Of course, one or more transfer functions may be recorded on the recording medium. In this case, there is a merit that it can be set when creating the headrest part by selecting a position where the effect of sound image localization is strong according to the shape of the headrest part where the speaker is provided and the installation position of the speaker accompanying it. A sound image localization effect can be provided.
[0225]
In each of the above-described embodiments, a so-called power amplifier is omitted from the block diagram for explaining the sound processing apparatus. This is to simplify the explanation. The power amplifier can be provided at an appropriate position such as the headrest side, the chair side, or the playback device side.
[0226]
In addition to the coefficient data supplied to the correction processing unit, for example, music data and other data can be stored in the storage medium and used.
[0227]
In addition, coefficient data, function data, and the like stored in a recording medium provided in the headrest unit can be updated relatively easily via a personal computer, for example. In this case, the headrest portion can be easily carried and processing such as version upgrade performed by connecting to a personal computer can be easily performed.
[0228]
In addition, a new product called “functional headrest” can be provided, and a new business market can be created.
[0229]
【The invention's effect】
As described above, according to the sound processing device of the present invention, when the speaker is provided in the headrest portion, for example, the sound processing device includes the headrest portion that can be attached to and detached from a plurality of different chairs. It is possible to realize an acoustic processing apparatus that does not cause inconvenience such as lack of the effect of virtual speaker localization even when the headrest portion is used on any chair.
[0230]
In addition, when the listener changes the headrest portion provided with the speaker, information such as the shape and size of the headrest is manually set to the correction processing portion that performs the correction processing of the sound signal that has been localized. Thus, data corresponding to the transfer function specific to the headrest portion can be incorporated into the sound processing device only by connecting the headrest portion to the chair portion.
[0231]
Various headrests with different speaker design, size, speaker installation position, etc. can be manufactured at low cost, and the user can find the most effective sound localization effect for his / her preference. For example, the headrest portion can be selected, so that a range of selection of the headrest portion can be provided.
[0232]
In addition, the position of the listener's head with respect to the speaker is detected, and correction processing to be performed on the audio signal in order to remove the influence of the transfer function in the reproduction sound field is appropriately performed according to the actual listening position. Can do. The listener can listen to the sound that is relaxed and subjected to the sound image localization process and is emitted in an easy state without being limited in the position of his / her head.
[Brief description of the drawings]
FIG. 1 is a block diagram for explaining a first embodiment of a sound processing apparatus according to the present invention;
FIG. 2 is a diagram for explaining an appearance of a chair on which the sound processing apparatus according to the first embodiment is mounted.
FIG. 3 is a diagram for explaining the principle of sound image localization processing performed in the sound processing apparatus according to the first embodiment shown in FIG. 1;
FIG. 4 is a diagram for explaining an example of a headrest portion provided with a speaker and having a different shape.
FIG. 5 is a diagram for explaining another configuration example of the sound processing apparatus shown in FIG. 1;
FIG. 6 is a diagram for explaining a modification of the sound processing apparatus shown in FIG. 1;
FIG. 7 is a block diagram for explaining a second embodiment of the sound processing apparatus according to the present invention;
FIG. 8 is a diagram for explaining the principle of sound image localization processing performed in the sound processing apparatus according to the second embodiment shown in FIG. 7;
FIG. 9 is a block diagram for explaining a third embodiment of the sound processing apparatus according to the present invention;
FIG. 10 is a diagram for explaining processing for detecting the position of the listener's head performed in the sound processing apparatus according to the third embodiment shown in FIG. 9;
FIG. 11 is a block diagram for explaining a modification of the sound processing apparatus according to the third embodiment shown in FIG. 9;
FIG. 12 is a block diagram for explaining a fourth embodiment of the sound processing apparatus according to the present invention;
FIG. 13 is a diagram for explaining the process of detecting the position of the listener's head performed in the sound processing apparatus according to the fourth embodiment shown in FIG. 12;
FIG. 14 is a diagram for explaining an example of a usage mode of the sound processing apparatus according to the fifth embodiment of the invention;
FIG. 15 is a diagram for explaining another example of a usage mode of the sound processing apparatus according to the fifth embodiment of the invention;
FIG. 16 is a block diagram for explaining a sound processing apparatus according to a fifth embodiment of the present invention;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Sound image localization process filter part, 11-14 ... Filter, 15, 16 ... Adder part, 20 ... Trans-oral system filter part, 21-24 ... Filter, 25, 26 ... Adder part, SL ... Left speaker, SR ... Right Speaker, VSL ... Virtual left speaker, VSR ... Virtual right speaker, 30 ... Recording medium, 40 ... CPU, 50 ... Simplified transoral system filter unit, 51, 52 ... Filter, 60 ... Sound image localization processing filter unit, 61-70 ... Filter, 71, 72 ... Adder, 80 ... Head position detector, SS1 to SS6 ... Ultrasonic receiver, 90 ... Image analyzer, 210, 310 ... CCD camera

Claims (6)

スピーカデバイスと、
前記スピーカデバイスに供給するようにする音声信号に対して、前記音声信号による音声の音像を所定の位置に定位させるようにする処理を行なう音像定位処理部と、
前記スピーカデバイスに対する聴取者の頭部の位置に応じた処理用情報に基づいて、前記音像定位処理部からの音声信号に対して補正処理を行なうようにする補正処理部と、
前記補正処理部で用いられる前記処理用情報を記憶保持する記憶部と、
前記記憶部に記憶保持されている前記処理用情報を前記補正処理部に供給し、前記補正処理部を制御するようにする制御部と
有し、
少なくとも、前記スピーカデバイスと、前記記憶部とは、複数の椅子の背もたれ部に対して着脱可能とされたヘッドレストに設けられる
音響処理装置。
A speaker device;
A sound image localization processing unit that performs processing to localize a sound image of the sound by the sound signal to a predetermined position with respect to the sound signal to be supplied to the speaker device;
A correction processing unit configured to perform correction processing on an audio signal from the sound image localization processing unit based on processing information corresponding to a position of a listener's head with respect to the speaker device;
A storage unit that stores and holds the processing information used in the correction processing unit;
A control unit configured to supply the processing information stored in the storage unit to the correction processing unit and control the correction processing unit ;
At least the speaker device and the storage unit are provided on a headrest that can be attached to and detached from a backrest of a plurality of chairs.
Sound processing device.
前記記憶部には、前記スピーカデバイスに対する聴取者の頭部の取り得る位置毎に、前記補正処理部に供給する前記処理用情報が記憶するようにされており、
前記スピーカデバイスに対する聴取者の頭部の位置を検出する頭部位置検出部を有し
前記制御部は、前記頭部位置検出部からの検出結果に応じて決まる前記記憶部の前記処理用情報を前記補正処理部に供給して、前記補正処理部を制御するようにする
請求項1に記載の音響処理装置。
The storage unit stores the processing information supplied to the correction processing unit for each possible position of the listener's head relative to the speaker device.
A head position detector for detecting the position of the head of the listener with respect to the speaker device,
The control unit supplies the processing information in the storage unit determined according to a detection result from the head position detection unit to the correction processing unit to control the correction processing unit.
The sound processing apparatus according to claim 1 .
前記頭部位置検出部は、
超音波を送信する超音波送信手段と、
前記超音波送信手段から送信され、聴取者の頭部により反射される反射超音波を受信する超音波受信手段と、
前記超音波受信手段による反射超音波の受信の有無、および、前記超音波受信手段により反射超音波を受信した場合には超音波の速度と超音波を送信してから反射超音波として受信するまでの時間とに基づいて聴取者の頭部の前記スピーカに対する位置を特定する頭部位置特定手段と
からなる請求項2に記載の音響処理装置。
The head position detector
An ultrasonic transmission means for transmitting ultrasonic waves;
Ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic transmitting means and reflected by a listener's head;
Presence or absence of reception of reflected ultrasonic waves by the ultrasonic receiving means, and when receiving reflected ultrasonic waves by the ultrasonic receiving means, from transmission of ultrasonic speed and ultrasonic waves until reception as reflected ultrasonic waves Head position specifying means for specifying the position of the listener's head relative to the speaker based on
The sound processing apparatus according to claim 2, comprising:
前記超音波送信手段と、前記超音波受信手段とは、前記スピーカデバイスの高音域スピーカである
請求項3に記載の音響処理装置。
The ultrasonic transmission means and the ultrasonic reception means are high-frequency speakers of the speaker device.
The sound processing apparatus according to claim 3 .
前記超音波送信手段は、左右2チャンネルの前記スピーカデバイスの高音域スピーカであり、
前記超音波受信手段は、所定の位置に並べられた複数個の超音波感知素子からなるものであり、
左右2チャンネルのそれぞれの前記高音域スピーカからは、異なる周波数の超音波を送信する
請求項3に記載の音響処理装置。
The ultrasonic transmission means is a high-frequency speaker of the speaker device with two channels on the left and right,
The ultrasonic receiving means comprises a plurality of ultrasonic sensing elements arranged in a predetermined position,
Ultrasonic waves of different frequencies are transmitted from the high-frequency speakers of the two left and right channels.
The sound processing apparatus according to claim 3 .
前記頭部位置検出部は、
前記スピーカデバイスを通じて音声を聴取するようにしている聴取者の頭部を含む画像を撮像する撮像手段と、
前記撮像手段により撮像された画像を解析し、前記聴取者の頭部の前記スピーカデバイスに対する位置を検出する画像解析手段と
からなる請求項2に記載の音響処理装置。
The head position detector
Imaging means for imaging an image including a listener's head that is adapted to listen to sound through the speaker device;
Image analysis means for analyzing an image picked up by the image pickup means and detecting a position of the head of the listener with respect to the speaker device;
The sound processing apparatus according to claim 2, comprising:
JP2001301533A 2001-09-28 2001-09-28 Sound processor Expired - Fee Related JP4692803B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001301533A JP4692803B2 (en) 2001-09-28 2001-09-28 Sound processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001301533A JP4692803B2 (en) 2001-09-28 2001-09-28 Sound processor

Publications (2)

Publication Number Publication Date
JP2003111200A JP2003111200A (en) 2003-04-11
JP4692803B2 true JP4692803B2 (en) 2011-06-01

Family

ID=19121931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001301533A Expired - Fee Related JP4692803B2 (en) 2001-09-28 2001-09-28 Sound processor

Country Status (1)

Country Link
JP (1) JP4692803B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088842B2 (en) 2013-03-13 2015-07-21 Bose Corporation Grille for electroacoustic transducer
US9327628B2 (en) 2013-05-31 2016-05-03 Bose Corporation Automobile headrest
US9699537B2 (en) 2014-01-14 2017-07-04 Bose Corporation Vehicle headrest with speakers

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447321B2 (en) * 2001-05-07 2008-11-04 Harman International Industries, Incorporated Sound processing system for configuration of audio signals in a vehicle
JP2005027113A (en) * 2003-07-03 2005-01-27 Funai Electric Co Ltd Acoustic controller
JP2006180467A (en) * 2004-11-24 2006-07-06 Matsushita Electric Ind Co Ltd Sound image positioning apparatus
WO2006095688A1 (en) * 2005-03-11 2006-09-14 Pioneer Corporation Information reproduction device, information reproduction method, information reproduction program, and computer-readable recording medium
JP2007053622A (en) * 2005-08-18 2007-03-01 Clarion Co Ltd Sound system for seat speaker
CN1993002B (en) * 2005-12-28 2010-06-16 雅马哈株式会社 Sound image localization apparatus
JP4974570B2 (en) * 2006-04-14 2012-07-11 富士通テン株式会社 Sound reproduction apparatus, sound reproduction system, sound signal generation method, and sound cancellation method
US9560448B2 (en) 2007-05-04 2017-01-31 Bose Corporation System and method for directionally radiating sound
US8325936B2 (en) 2007-05-04 2012-12-04 Bose Corporation Directionally radiating sound in a vehicle
US9100748B2 (en) 2007-05-04 2015-08-04 Bose Corporation System and method for directionally radiating sound
US8724827B2 (en) 2007-05-04 2014-05-13 Bose Corporation System and method for directionally radiating sound
JP2009210826A (en) 2008-03-04 2009-09-17 Sony Corp Delivery system, transmission apparatus, and delivery method
JP2010124251A (en) * 2008-11-19 2010-06-03 Kenwood Corp Audio device and sound reproducing method
KR20120004909A (en) * 2010-07-07 2012-01-13 삼성전자주식회사 Method and apparatus for 3d sound reproducing
JP6611474B2 (en) * 2015-06-01 2019-11-27 クラリオン株式会社 Sound collector and control method of sound collector
JP2017059154A (en) * 2015-09-18 2017-03-23 ヤフー株式会社 Information output device, information output system, information output method and information output program
CN111630877B (en) * 2018-01-29 2022-05-10 索尼公司 Sound processing device, sound processing method, and program
CN108401208A (en) * 2018-03-30 2018-08-14 斑马网络技术有限公司 Vehicle and vehicle radio system with radio reception field structure and its reception method
JP2022008733A (en) 2018-10-29 2022-01-14 ソニーグループ株式会社 Signal processing device, signal processing method, and program
EP3944639A4 (en) * 2019-03-22 2022-05-18 Sony Group Corporation Acoustic signal processing device, acoustic signal processing system, acoustic signal processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004500A (en) * 1998-06-15 2000-01-07 Nec Corp Speaker system for deciding azimuth automatically
JP2000051212A (en) * 1998-08-05 2000-02-22 Kasei Optonix Co Ltd Method and device for measuring bone density
JP2001025084A (en) * 1999-07-07 2001-01-26 Matsushita Electric Ind Co Ltd Speaker system
JP2001057699A (en) * 1999-06-11 2001-02-27 Pioneer Electronic Corp Audio system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004500A (en) * 1998-06-15 2000-01-07 Nec Corp Speaker system for deciding azimuth automatically
JP2000051212A (en) * 1998-08-05 2000-02-22 Kasei Optonix Co Ltd Method and device for measuring bone density
JP2001057699A (en) * 1999-06-11 2001-02-27 Pioneer Electronic Corp Audio system
JP2001025084A (en) * 1999-07-07 2001-01-26 Matsushita Electric Ind Co Ltd Speaker system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088842B2 (en) 2013-03-13 2015-07-21 Bose Corporation Grille for electroacoustic transducer
US9327628B2 (en) 2013-05-31 2016-05-03 Bose Corporation Automobile headrest
US9699537B2 (en) 2014-01-14 2017-07-04 Bose Corporation Vehicle headrest with speakers

Also Published As

Publication number Publication date
JP2003111200A (en) 2003-04-11

Similar Documents

Publication Publication Date Title
JP4692803B2 (en) Sound processor
JP4735920B2 (en) Sound processor
AU2001239516B2 (en) System and method for optimization of three-dimensional audio
JP3687099B2 (en) Video signal and audio signal playback device
US8787602B2 (en) Device for and a method of processing audio data
US8170245B2 (en) Virtual multichannel speaker system
JP3435156B2 (en) Sound image localization device
JP3920404B2 (en) Audio playback module
EP1562401A2 (en) Sound reproduction apparatus and sound reproduction method
JP3435141B2 (en) SOUND IMAGE LOCALIZATION DEVICE, CONFERENCE DEVICE USING SOUND IMAGE LOCALIZATION DEVICE, MOBILE PHONE, AUDIO REPRODUCTION DEVICE, AUDIO RECORDING DEVICE, INFORMATION TERMINAL DEVICE, GAME MACHINE, COMMUNICATION AND BROADCASTING SYSTEM
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
JP2010034755A (en) Acoustic processing apparatus and acoustic processing method
EP1562402A2 (en) Sound pickup apparatus, sound pickup method, and recording medium
EP0992175A2 (en) System for producing an artificial sound environment
JP2004135023A (en) Sound outputting appliance, system, and method
CN111630877B (en) Sound processing device, sound processing method, and program
JP2008312096A (en) Acoustic playback apparatus, and television receiver
JP2002291100A (en) Audio signal reproducing method, and package media
JP2006352728A (en) Audio apparatus
WO2019138647A1 (en) Sound processing device, sound processing method and program
JP2010016525A (en) Sound processing apparatus and sound processing method
JP2003125499A (en) Sound reproducer
JP2003087899A (en) Acoustic processing apparatus
JP2023080769A (en) Reproduction control device, out-of-head normal position processing system, and reproduction control method
JP2003061195A (en) Sound signal reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090825

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees