JP2003092799A - Acoustic processor - Google Patents

Acoustic processor

Info

Publication number
JP2003092799A
JP2003092799A JP2001283020A JP2001283020A JP2003092799A JP 2003092799 A JP2003092799 A JP 2003092799A JP 2001283020 A JP2001283020 A JP 2001283020A JP 2001283020 A JP2001283020 A JP 2001283020A JP 2003092799 A JP2003092799 A JP 2003092799A
Authority
JP
Japan
Prior art keywords
sound
head
listener
speaker
headrest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001283020A
Other languages
Japanese (ja)
Other versions
JP4735920B2 (en
Inventor
Kohei Asada
宏平 浅田
Tetsunori Itabashi
徹徳 板橋
Kenji Nakano
健司 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001283020A priority Critical patent/JP4735920B2/en
Publication of JP2003092799A publication Critical patent/JP2003092799A/en
Application granted granted Critical
Publication of JP4735920B2 publication Critical patent/JP4735920B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an acoustic processor that allows a listener to listen to a sound in a proper state at all times even when a position of the head of the listener is not constant with respect to a speaker placed on a chair or a headrest. SOLUTION: Super-tweeters SL, SR emit an ultrasonic wave, a detection section 40 detects a positional relation between the tweeters SL, SR and the head of the listener by receiving a reflected wave of the ultrasonic wave in the head of the listener, a CPU 50 reads a coefficient fed to each filter of a trans-aural system filter section 20 from a database 60, supplies the coefficient to each filter so as to conduct processing of each filter of the trans-aural system filter section 20 according to the relation of position between the tweeters and the head of the listener.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、例えば、椅子や
ヘッドレストにスピーカが設けられて構成され、聴取者
の頭部の後方側から音声が放音するようにされる音響処
理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound processing apparatus, for example, in which a speaker is provided in a chair or a headrest, and sound is emitted from the rear side of the listener's head.

【0002】[0002]

【従来の技術】背もたれ部分にスピーカが設けられた椅
子や、スピーカが設けられたヘッドレスト(頭部支持部
分)を有するリクライニングチェアーなどが提供される
ようになってきている。このように、椅子の背もたれ部
分、あるいは、ヘッドレストにスピーカを設けることに
より、聴取者の耳の近傍にスピーカを設けるようにする
ことができる。
2. Description of the Related Art Chairs provided with a speaker on a backrest portion, a reclining chair having a headrest (head support portion) provided with a speaker, and the like have been provided. As described above, by providing the speaker on the back portion of the chair or the headrest, the speaker can be provided in the vicinity of the listener's ear.

【0003】このように、スピーカが設けられた椅子や
ヘッドレストを用いることにより、聴取者の耳の近傍に
おいて高品位の音声を放音して、聴取者に提供すること
が行なわれるようになってきている。すなわち、ヘッド
ホンなどを用いなくても、聴取者の耳の近傍に位置付け
られるスピーカを通じて、高品位の音声を聴取者が聴取
することができる環境が整えられてきている。
As described above, by using a chair or a headrest provided with a speaker, high-quality sound is emitted near the listener's ear and provided to the listener. ing. That is, an environment has been prepared in which a listener can hear high-quality sound through a speaker positioned near the listener's ear without using headphones or the like.

【0004】[0004]

【発明が解決しようとする課題】ところで、椅子の背も
たれ部分やヘッドレストにスピーカを設けた場合、聴取
者の耳の近傍において高品位の音声を放音することがで
きるものの、聴取者の耳の後ろ側から直接音声が放音さ
れるために、聴取者の意識が聴取者の後方に惹かれ、聴
取する音楽によっては、違和感を感じたり、いわゆる聞
き疲れが生じたりする場合があると考えられる。
By the way, when a speaker is provided on the backrest portion or the headrest of a chair, high-quality sound can be emitted in the vicinity of the listener's ear, but behind the listener's ear. Since the sound is directly emitted from the side, the listener's consciousness is attracted to the rear of the listener, and depending on the music being listened to, there may be a sense of discomfort or so-called listening fatigue.

【0005】また、聴取者は、スピーカが設けられた椅
子やヘッドレストを利用する場合、その使用の時々によ
って、スピーカと聴取者の耳との位置関係がまちまちと
なり、いつでも同じ条件で椅子やヘッドレストに設けら
れたスピーカから放音される音声を聴取することは難し
い。
When a listener uses a chair or headrest provided with a speaker, the positional relationship between the speaker and the ear of the listener varies depending on the time of use, and the chair and headrest are always kept under the same conditions. It is difficult to hear the sound emitted from the speaker provided.

【0006】しかし、椅子やヘッドレストの内部に設け
られたスピーカに対して、聴取者の頭部の位置(耳の位
置)がいつでも同じ位置となるように、強制的に聴取者
の頭部の位置を規制するようにすることは、聴取者のリ
ラックス感を阻害するなど好ましくない。また、頭部を
椅子やヘッドレストに常時接触させているわけではない
ので、スピーカに対して聴取者の頭部の位置を固定する
ようにすること自体が難しい。
However, the position of the listener's head is forcibly so that the position of the listener's head (the position of the ear) is always the same with respect to the speaker provided inside the chair or headrest. It is not preferable to regulate the above because it impairs the listener's relaxed feeling. Moreover, since the head is not always in contact with the chair or the headrest, it is difficult to fix the position of the listener's head with respect to the speaker.

【0007】以上のことにかんがみ、この発明は、例え
ば椅子やヘッドレストに設けられたスピーカに対する聴
取者の頭部の位置(耳の位置)が一定でなくても、違和
感なく、常に適正な状態とされた音声を聴取できるよう
にする音響処理装置を提供することを目的とする。
In view of the above, the present invention does not cause a sense of discomfort even if the position of the listener's head (the position of the ear) with respect to the speaker provided on the chair or the headrest is not constant, and it is always in an appropriate state. It is an object of the present invention to provide a sound processing device that enables a user to hear a generated sound.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するた
め、請求項1に記載の発明の音響処理装置は、スピーカ
デバイスと、前記スピーカデバイスに供給するようにす
る音声信号に対して、前記音声信号による音声の音像を
所定の位置に定位させるようにする処理を行なう音像定
位処理部と、前記音像定位処理部からの音声信号に対し
て、前記スピーカデバイスに対する聴取者の頭部の位置
に応じた補正処理を行なうようにする補正処理部と、前
記スピーカデバイスに対する聴取者の頭部の位置を検出
する頭部位置検出部と、前記頭部位置検出部からの検出
結果に応じて、前記補正処理部を制御するようにする制
御部とを備えることを特徴とする。
In order to solve the above-mentioned problems, a sound processing apparatus according to a first aspect of the present invention provides a speaker device and a voice signal to be supplied to the speaker device. Depending on the position of the listener's head with respect to the speaker device, a sound image localization processing unit that performs processing to localize a sound image of a sound by a signal and a sound signal from the sound image localization processing unit. Correction processing section for performing the correction processing, a head position detecting section for detecting the position of the listener's head with respect to the speaker device, and the correction processing according to the detection result from the head position detecting section. And a control unit configured to control the processing unit.

【0009】この請求項1に記載の音響処理装置によれ
ば、スピーカデバイスに供給される音声信号は、音像定
位処理部において、その音声信号による再生音声の音像
が所定の位置に定位するように処理された後、スピーカ
デバイスと聴取者の頭部の位置(聴取者の耳の位置)と
を考慮した補正処理が行なわれ、スピーカデバイスから
放音される音声の音像を所定の位置に定位するようにさ
れる。
According to the sound processing apparatus of the first aspect, the sound signal supplied to the speaker device is so arranged that the sound image localization processing section localizes the sound image of the reproduced sound by the sound signal at a predetermined position. After the processing, a correction process is performed in consideration of the speaker device and the position of the listener's head (the position of the listener's ear), and the sound image of the sound emitted from the speaker device is localized at a predetermined position. To be done.

【0010】そして、頭部位置検出部により、スピーカ
デバイスに対する聴取者の現実の頭部の位置が検出され
る。この検出結果に基づいて、制御部により補正処理部
が制御され、補正処理部において、聴取者の頭部の位置
に応じた補正処理が音像定位処理後の音声信号に対して
行なわれる。
The head position detecting section detects the actual position of the listener's head with respect to the speaker device. The control unit controls the correction processing unit based on the detection result, and the correction processing unit performs the correction process according to the position of the listener's head on the audio signal after the sound image localization process.

【0011】これにより、スピーカデバイスと聴取者の
頭部との位置関係が変わった場合にも、音声信号に対し
て行なわれた音像定位の効果を落とすことなく、処理さ
れた音声信号による音声を良好に聴取することができる
ようにされる。
As a result, even if the positional relationship between the speaker device and the listener's head changes, the voice of the processed voice signal can be reproduced without deteriorating the effect of the sound image localization performed on the voice signal. To be able to hear well.

【0012】また、請求項2に記載の発明の音響処理装
置は、請求項1に記載の音響処理装置であって、前記頭
部位置検出部は、超音波を送信する超音波送信手段と、
前記超音波送信手段から送信され、聴取者の頭部により
反射される反射超音波を受信する超音波受信手段と、前
記超音波受信手段による反射超音波の受信の有無、およ
び、前記超音波受信手段により反射超音波を受信した場
合には超音波の速度と超音波を送信してから反射超音波
として受信するまでの時間とに基づいて聴取者の頭部の
前記スピーカデバイスに対する位置を特定する頭部位置
特定手段とからなることを特徴とする。
The sound processing apparatus according to a second aspect of the present invention is the sound processing apparatus according to the first aspect, wherein the head position detecting section includes ultrasonic wave transmitting means for transmitting an ultrasonic wave.
Ultrasonic receiving means for receiving reflected ultrasonic waves transmitted from the ultrasonic wave transmitting means and reflected by the listener's head, presence / absence of reception of reflected ultrasonic waves by the ultrasonic wave receiving means, and the ultrasonic wave reception When the reflected ultrasonic wave is received by the means, the position of the listener's head with respect to the speaker device is specified based on the speed of the ultrasonic wave and the time from the transmission of the ultrasonic wave to the reception of the reflected ultrasonic wave. And a head position specifying means.

【0013】この請求項2に記載の音響処理装置によれ
ば、反射超音波の有無と、超音波送信手段から送信され
た超音波が、聴取者の頭部に反射して超音波受信手段に
より受信されるまでの時間と、超音波の速度とに基づい
て、頭部位置特定手段により、スピーカデバイスに対す
る聴取者の頭部の位置が特定され、この特定された聴取
者の頭部の位置に応じて制御部により補正処理部が制御
される。
According to the acoustic processing device of the second aspect, the presence / absence of reflected ultrasonic waves and the ultrasonic waves transmitted from the ultrasonic wave transmitting means are reflected by the listener's head and are transmitted by the ultrasonic wave receiving means. The position of the listener's head with respect to the speaker device is specified by the head position specifying means on the basis of the time until reception and the speed of the ultrasonic wave, and the position of the listener's head is specified at the specified position of the listener. Accordingly, the correction processing unit is controlled by the control unit.

【0014】このように、スピーカデバイスに対して特
定の位置に設けられる超音波送信手段と超音波受信手段
とを用いることにより、スピーカデバイスと、当該スピ
ーカデバイスを用いて音声を聴取する聴取者の頭部との
位置関係を確実かつ正確に検出し、これに基づき補正処
理部においての補正処理を適正に制御することができる
ようにされる。
As described above, by using the ultrasonic wave transmitting means and the ultrasonic wave receiving means provided at a specific position with respect to the speaker device, the speaker device and the listener listening to the sound using the speaker device can be used. The positional relationship with the head can be detected reliably and accurately, and based on this, the correction processing in the correction processing unit can be appropriately controlled.

【0015】また、請求項3に記載の発明の音響処理装
置は、請求項2に記載の音響処理装置であって、前記超
音波送信手段と、前記超音波受信手段とは、前記スピー
カデバイスの高音域スピーカであることを特徴とする。
The sound processing apparatus according to a third aspect of the present invention is the sound processing apparatus according to the second aspect, wherein the ultrasonic wave transmitting means and the ultrasonic wave receiving means are of the speaker device. It is a high-range speaker.

【0016】この請求項3に記載の音響処理装置によれ
ば、スピーカデバイスと聴取者の頭部の位置との位置関
係を検出するための超音波送信手段と超音波受信手段と
は、スピーカデバイスの高音域スピーカが用いられる。
すなわち、超音波送信手段と超音波受信手段とは、高音
域スピーカそのものが用いられるようにされる。
According to the third aspect of the sound processing apparatus, the ultrasonic wave transmitting means and the ultrasonic wave receiving means for detecting the positional relationship between the speaker device and the position of the listener's head are the speaker device. The high range speaker of is used.
That is, the high frequency range speaker itself is used as the ultrasonic wave transmitting means and the ultrasonic wave receiving means.

【0017】これにより、スピーカデバイスと聴取者の
頭部との位置関係を検出するために、新たに超音波送信
手段と超音波受信手段とを別途設けることなく、既存の
高音域スピーカを超音波送信手段、超音波受信手段とし
て用いて、スピーカデバイスと聴取者の頭部との関係を
検出するようにすることができる。
Thus, in order to detect the positional relationship between the speaker device and the listener's head, the existing high-frequency range speaker can be ultrasonically converted without newly providing ultrasonic wave transmitting means and ultrasonic wave receiving means. It is possible to detect the relationship between the speaker device and the listener's head by using the transmitter and the ultrasonic receiver.

【0018】また、請求項4に記載の音響処理装置は、
請求項2に記載の音響処理装置であって、前記超音波送
信手段は、左右2チャンネルの前記スピーカデバイスの
高音域スピーカであり、前記超音波受信手段は、所定の
位置に並べられた複数個の超音波感知素子からなるもの
であり、左右2チャンネルのそれぞれの前記高音域スピ
ーカからは、異なる周波数の超音波を送信することを特
徴とする。
Further, the sound processing device according to a fourth aspect is
The acoustic processing apparatus according to claim 2, wherein the ultrasonic wave transmitting means is a high-range speaker of the left and right two-channel speaker device, and the ultrasonic wave receiving means is arranged in plural at predetermined positions. It is characterized in that it transmits ultrasonic waves of different frequencies from the treble speakers of the left and right channels respectively.

【0019】この請求項4に記載の音響処理装置によれ
ば、超音波送信手段として、左右チャンネルのスピーカ
デバイスの高音域スピーカが用いられ、超音波受信手段
としては、例えば超音波送信手段の近傍に複数個が並べ
られていわゆるアレイ構造とされた超音波感知素子が用
いられるようにされる。
According to the sound processing apparatus of the present invention, the high-range speaker of the left and right channel speaker devices is used as the ultrasonic wave transmitting means, and the ultrasonic wave receiving means is, for example, in the vicinity of the ultrasonic wave transmitting means. A plurality of ultrasonic sensing elements having a so-called array structure are used.

【0020】そして、左右チャンネルの高音域スピーカ
のそれぞれからは、周波数の異なる超音波が送信され、
この超音波の聴取者の頭部により反射された反射超音波
を感知した超音波感知素子をも考慮することによって、
スピーカデバイスと聴取者の頭部との位置関係をより正
確に検出することができるようにされる。
Then, ultrasonic waves of different frequencies are transmitted from each of the high frequency speakers of the left and right channels,
By also considering the ultrasonic sensing element that senses the reflected ultrasonic waves reflected by the head of the listener of this ultrasonic wave,
The positional relationship between the speaker device and the listener's head can be detected more accurately.

【0021】また、請求項5に記載の音響処理装置は、
請求項1に記載の音響処理装置であって、前記頭部位置
検出部は、前記スピーカデバイスを通じて音声を聴取す
るようにしている聴取者の頭部を含む画像を撮像する撮
像手段と、前記撮像手段により撮像された画像を解析
し、前記聴取者の頭部の前記スピーカデバイスに対する
位置を検出する画像解析手段とからなることを特徴とす
る。
Further, the sound processing apparatus according to claim 5 is
The sound processing apparatus according to claim 1, wherein the head position detection unit captures an image including a head of a listener who listens to sound through the speaker device, and the imaging unit. Image analysis means for analyzing the image captured by the means and detecting the position of the listener's head with respect to the speaker device.

【0022】この請求項5に記載の音響処理装置によれ
ば、スピーカデバイスを通じて音声を聴取する位置にあ
る聴取者の頭部を含む画像が撮像手段により撮像され、
この撮像された画像が、画像解析手段により解析され
て、スピーカデバイスと聴取者の頭部との位置関係が検
出するようにされる。
According to the sound processing apparatus of the fifth aspect, the image including the head of the listener at the position for listening to the sound through the speaker device is captured by the image capturing means.
The imaged image is analyzed by the image analysis means, and the positional relationship between the speaker device and the listener's head is detected.

【0023】これにより、スピーカデバイスを通じて音
声を聴取する位置にある聴取者の頭部を含む画像に基づ
いて、スピーカデバイスと聴取者の頭部との位置関係を
正確に検出し、これに応じて補正処理部においての補正
処理を適正に制御することができるようにされる。
Thus, the positional relationship between the speaker device and the listener's head is accurately detected based on the image containing the listener's head at the position where the sound is heard through the speaker device, and in response thereto. The correction processing in the correction processing unit can be controlled appropriately.

【0024】[0024]

【発明の実施の形態】以下、図を参照しながら、この発
明による音響処理装置の一実施の形態について説明す
る。以下に説明する実施の形態においては、例えば、自
動車の座席に設けられるヘッドレスト部(頭部支持部)
や家庭において用いられる椅子のヘッドレスト部にスピ
ーカを搭載して構成する音響処理装置を例にして説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a sound processing apparatus according to the present invention will be described below with reference to the drawings. In the embodiments described below, for example, a headrest portion (head support portion) provided in a seat of an automobile.
A sound processing device configured by mounting a speaker on a headrest portion of a chair used at home will be described as an example.

【0025】[第1の実施の形態]図1は、この発明が
適用された第1の実施の形態の音響処理装置1を説明す
るためのブロック図であり、図2は、この第1の実施の
形態の音響処理装置が搭載された椅子の外観を説明する
ための図である。この第1の実施の形態の音響処理装置
1は、左右2チャンネルの音声信号を処理することがで
きるものである。
[First Embodiment] FIG. 1 is a block diagram for explaining a sound processing apparatus 1 of a first embodiment to which the present invention is applied, and FIG. 2 shows the first embodiment. It is a figure for demonstrating the external appearance of the chair with which the acoustic processing apparatus of embodiment is mounted. The sound processing device 1 according to the first embodiment is capable of processing audio signals of left and right two channels.

【0026】図1において、ディスク100は、2チャ
ンネルの音声信号を提供するもの(2ch音源(chは
チャンネル略称))である。このディスク100から再
生された左右2チャンネルの音声信号が、この図1に示
す第1の実施の形態の音響処理装置1に供給される。
In FIG. 1, a disc 100 is a disc that provides 2-channel audio signals (2ch sound source (ch is an abbreviation for channel)). The left and right two-channel audio signals reproduced from the disc 100 are supplied to the sound processing apparatus 1 of the first embodiment shown in FIG.

【0027】このため、この第1の実施の形態の音響処
理装置1は、図1に示すように、2ch音源であるディ
スク100からの左チャンネルの音声信号の供給を受け
付ける左チャンネル入力端子Linと、右チャンネルの
音声信号の供給を受け付ける右チャンネル入力端子Ri
nとを有している。
Therefore, as shown in FIG. 1, the sound processing apparatus 1 of the first embodiment has a left channel input terminal Lin for receiving the supply of the left channel audio signal from the disc 100 which is a 2ch sound source. , A right channel input terminal Ri for receiving the right channel audio signal supply
n and.

【0028】そして、図1に示すように、この第1の実
施の形態の音響処理装置1は、音像定位処理フィルタ部
10と、トランスオーラルシステムフィルタ部20と、
ヘッドレスト部30と、頭部位置検出部(以下、単に検
出部という)40と、CPU(Central Pro
cessing Unit)50と、トランスオーラル
システムフィルタ部20用の係数データベース(以下、
単にデータベースという。)60とを備えている。
As shown in FIG. 1, the acoustic processing apparatus 1 according to the first embodiment has a sound image localization processing filter unit 10, a transaural system filter unit 20,
A headrest unit 30, a head position detection unit (hereinafter, simply referred to as a detection unit) 40, a CPU (Central Pro)
processing unit 50 and a coefficient database for the transaural system filter unit 20 (hereinafter,
Simply called a database. ) 60 and.

【0029】ヘッドレスト部30は、図1に示すよう
に、左右2チャンネルのスピーカとして、左スピーカ
(左チャンネルスピーカ)SLと右スピーカ(右チャン
ネルスピーカ)SRとが設けられた部分である。このヘ
ッドレスト部30は、図2に示すように、自動車の座席
や家庭で用いられる椅子などにおいて、使用者の頭部を
支持する部分(頭部支持部)に相当する。
As shown in FIG. 1, the headrest portion 30 is a portion provided with a left speaker (left channel speaker) SL and a right speaker (right channel speaker) SR as left and right two-channel speakers. As shown in FIG. 2, the headrest portion 30 corresponds to a portion (head supporting portion) that supports a user's head in a seat of an automobile, a chair used at home, or the like.

【0030】すなわち、図2に示すように、自動車の座
席やリクライニングシートなどのいわゆる椅子Stは、
大きく分けると、使用者が腰をおろす部分である腰掛部
St1、使用者の背中をもたせかける部分である背もた
れ部St2、使用者の頭部を支持する部分であるヘッド
レスト部St3とからなっている。
That is, as shown in FIG. 2, a so-called chair St such as a car seat or a reclining seat is
It is roughly divided into a seat portion St1 where the user sits down, a backrest portion St2 where the user's back rests, and a headrest portion St3 that supports the user's head. .

【0031】この第1の実施の形態においては、図2に
示すヘッドレスト部St3に相当する部分に、少なくと
も左右2チャンネルのスピーカSL、SRを設けること
によって、図1に示すヘッドレスト部30を構成するよ
うにしている。したがって、このヘッドレスト部30が
設けられた椅子に腰をかけた聴取者(使用者)は、自己
の頭部の斜め後方に位置する左スピーカSL、右スピー
カSRからの放音音声を聴取することになる。
In the first embodiment, the headrest portion 30 shown in FIG. 1 is constructed by providing at least left and right two-channel speakers SL and SR in a portion corresponding to the headrest portion St3 shown in FIG. I am trying. Therefore, the listener (user) sitting on the chair provided with the headrest portion 30 listens to the sound emitted from the left speaker SL and the right speaker SR located diagonally behind his / her head. become.

【0032】なお、ヘッドレスト部は、自動車の座席の
ように取り外しが可能なものもあれば、背もたれ部と一
体に形成され、ヘッドレスト部分のみを取り外すことが
できないものもある。後者の場合には、椅子の背もたれ
部分にスピーカが設けられているということもできる。
この第1の実施の形態において、ヘッドレスト部30
は、例えば、椅子の背もたれ部から取り外すことができ
るようにされたものである。
The headrest portion may be removable like a car seat, or may be formed integrally with the backrest portion and the headrest portion alone cannot be removed. In the latter case, it can be said that a speaker is provided on the back portion of the chair.
In the first embodiment, the headrest portion 30
Is designed to be detachable from the backrest of a chair, for example.

【0033】そして、この第1の実施の形態の音響処理
装置1においては、音声の定位を実際に固定されたスピ
ーカの位置から、仮想的なスピーカの位置にずらすよう
にすることによって、音が聴取者の後頭部付近や聴取者
の耳の後方から聞こえることによる違和感、不快感を除
去するようにしている。
In the sound processing device 1 according to the first embodiment, the sound localization is shifted from the position of the speaker, which is actually fixed, to the position of the virtual speaker. Discomfort and discomfort caused by hearing from near the back of the listener's head or behind the listener's ears are eliminated.

【0034】すなわち、この第1の実施の形態において
は、音像定位処理フィルタ部10、トランスオーラルシ
ステムフィルタ部20とにより、ヘッドレスト部30の
左スピーカSLと右スピーカSRから放音される音声
を、図1、図2において点線で示す左仮想スピーカVS
L、右仮想スピーカVSRの位置から放音されたように
聞こえるようにする。換言すれば、実スピーカSL、S
Rから放音される音声の音像を仮想スピーカVSL、V
SRから放音されたもののように感じるように定位させ
る。
That is, in the first embodiment, the sound emitted from the left speaker SL and the right speaker SR of the headrest section 30 by the sound image localization processing filter section 10 and the transaural system filter section 20, Left virtual speaker VS indicated by a dotted line in FIGS. 1 and 2.
The sound is emitted from the position of the L, right virtual speaker VSR. In other words, the real speakers SL, S
The sound image of the sound emitted from R is generated by the virtual speakers VSL, V
The sound is localized so that it feels like the sound emitted from the SR.

【0035】なお、この第1の実施の形態において、仮
想スピーカVSL、VSRは、左スピーカSL、右スピ
ーカSRから放音される音声を定位させるようにする仮
想位置であり、図1、図2に示すように、ヘッドレスト
部30に対する聴取者の頭部が所定の位置にあるとき
に、当該聴取者の前方方向の所定の位置に設定するよう
にしたものである。
In the first embodiment, the virtual speakers VSL, VSR are virtual positions for localizing the sounds emitted from the left speaker SL and the right speaker SR. As shown in, when the listener's head with respect to the headrest portion 30 is at a predetermined position, it is set at a predetermined position in the front direction of the listener.

【0036】このように、ヘッドレスト部30の左スピ
ーカSLと右スピーカSRから放音される音声が、左右
の仮想スピーカVSL、VSRが示す位置から放音され
たように定位させることにより、前述もしたように、音
声が聴取者の後頭部付近や聴取者の耳の後方から聞こえ
ることによる違和感、不快感を除去し、自然な音声とし
て聴取者が聴取できるようにしている。
As described above, the sounds emitted from the left speaker SL and the right speaker SR of the headrest portion 30 are localized as if they were emitted from the positions indicated by the left and right virtual speakers VSL and VSR. As described above, the discomfort and discomfort caused by the sound being heard near the back of the listener's head and behind the listener's ears are removed, and the listener can hear the sound as natural sound.

【0037】以下、この第1の実施の形態の音響処理装
置の各部について詳細に説明する。まず、音像定位処理
フィルタ部10を説明するに当たり、音像定位処理の原
理について説明する。図3は、音像定位処理の原理を説
明するための図である。
Hereinafter, each part of the sound processing apparatus of the first embodiment will be described in detail. First, in explaining the sound image localization processing filter unit 10, the principle of the sound image localization processing will be described. FIG. 3 is a diagram for explaining the principle of sound image localization processing.

【0038】図3に示すように、所定の再生音場におい
て、ダミーヘッドDHの位置を聴取者の位置とし、この
ダミーヘッドDHの位置の聴取者に対して、音像を定位
させようとする左右の仮想スピーカ位置(スピーカがあ
るとものと想定する位置)に実際に左実スピーカSP
L、右実スピーカSLRを設置する。
As shown in FIG. 3, in a predetermined reproduced sound field, the position of the dummy head DH is set as the listener's position, and the listener's position at this dummy head DH is left and right to try to localize the sound image. The actual left speaker SP at the virtual speaker position (position where the speaker is supposed to be)
L, right real speaker SLR is installed.

【0039】そして、左実スピーカSPL、右実スピー
カSPRから放音される音声をダミーヘッドDHの両耳
部分において収音し、左実スピーカSPL、右実スピー
カSPRから放音された音声が、ダミーヘッドDHの両
耳部分に到達したときには、どのように変化するか示す
伝達関数(HRTF)を予め測定しておく。
Then, the sound emitted from the left real speaker SPL and the right real speaker SPR is picked up at both ears of the dummy head DH, and the sound emitted from the left real speaker SPL and the right real speaker SPR is A transfer function (HRTF) indicating how the dummy head DH changes when it reaches both ears is measured in advance.

【0040】図3に示すように、この第1の実施の形態
においては、左実スピーカSPLからダミーヘッドDH
の左耳までの音声の伝達関数はM11であり、左実スピ
ーカSPLからダミーヘッドDHの右耳までの音声の伝
達関数はM12であるとする。同様に、右実スピーカS
PRからダミーヘッドDHの左耳までの音声の伝達関数
はM21であり、右実スピーカSPRからダミーヘッド
DHの右耳までの音声の伝達関数はM22であるとす
る。
As shown in FIG. 3, in the first embodiment, the left real speaker SPL is changed to the dummy head DH.
It is assumed that the transfer function of the sound to the left ear is M11, and the transfer function of the sound from the left real speaker SPL to the right ear of the dummy head DH is M12. Similarly, the right real speaker S
It is assumed that the transfer function of sound from PR to the left ear of the dummy head DH is M21, and the transfer function of sound from the right real speaker SPR to the right ear of the dummy head DH is M22.

【0041】そして、図1のヘッドレスト部30につい
て前述したように、聴取者の耳の近傍に位置することに
なるヘッドレスト部30のスピーカSL、SRから放音
する音声の音声信号について、上述のようにして予め測
定した伝達関数を用いて処理し、その処理後の音声信号
による音声を放音するようにする。
As described above with respect to the headrest portion 30 of FIG. 1, the audio signals of the sound emitted from the speakers SL and SR of the headrest portion 30 which are located near the listener's ears are as described above. Then, the transfer function measured in advance is used for processing, and the sound of the processed sound signal is emitted.

【0042】これにより、ヘッドレスト部30のスピー
カSL、SRから放音される音声が、あたかも仮想スピ
ーカ位置(図1、図2において、仮想スピーカVSL、
VSRの位置)から音声が放音されているように聴取者
が感じるように、スピーカSL、SRから放音される音
声の音像を定位させることができる。
As a result, the sound emitted from the speakers SL, SR of the headrest portion 30 is as if the sound is at the virtual speaker position (in FIG. 1 and FIG. 2, the virtual speaker VSL,
The sound image of the sound emitted from the speakers SL and SR can be localized so that the listener feels that the sound is emitted from the position (VSR position).

【0043】なお、ここでは、伝達関数(HRTF)の
測定を行なう場合にダミーヘッドDHを用いるものとし
て説明したが、これに限るものではない。伝達関数を測
定するための再生音場において、実際に人間を座らせ、
その人間の耳近傍にマイクを置いて音声の伝達関数を測
定してももちろんよい。
Although the dummy head DH is used when the transfer function (HRTF) is measured here, the invention is not limited to this. In the reproduced sound field for measuring the transfer function, actually sitting a human,
Of course, a microphone may be placed near the human ear to measure the transfer function of the voice.

【0044】このように、所定の位置に音像を定位させ
るために、予め測定するようにした音声の伝達関数によ
る処理を行なう部分が、図1に示した音像定位処理フィ
ルタ部10である。この実施の形態の音像定位フィルタ
処理部10は、左右2チャンネルの音声信号を処理する
ことができるものであり、図1に示すように、4つのフ
ィルタ11、12、13、14と、2つの加算部15、
16からなるものである。
The sound image localization processing filter unit 10 shown in FIG. 1 is a portion that performs processing by the transfer function of the sound that is measured in advance in order to localize the sound image at the predetermined position. The sound image localization filter processing unit 10 of this embodiment is capable of processing left and right two-channel audio signals. As shown in FIG. 1, four filters 11, 12, 13, 14 and two filters are provided. Adder 15,
It consists of 16.

【0045】フィルタ11は、左入力端子Linを通じ
て供給を受けた左チャンネルの音声信号を伝達関数M1
1で処理するものであり、処理後の音声信号を左チャン
ネル用の加算部15に供給する。また、フィルタ12
は、左入力端子Linを通じて供給を受けた左チャンネ
ルの音声信号を伝達関数M12で処理するものであり、
処理後の音声信号を右チャンネル用の加算部16に供給
する。
The filter 11 transfers the left channel audio signal supplied through the left input terminal Lin to the transfer function M1.
The audio signal after processing is supplied to the adder 15 for the left channel. In addition, the filter 12
Is for processing the left-channel audio signal supplied through the left input terminal Lin with the transfer function M12,
The processed audio signal is supplied to the addition unit 16 for the right channel.

【0046】また、フィルタ21は、右入力端子Rin
を通じて供給を受けた右チャンネルの音声信号を伝達関
数M21で処理するものであり、処理後の音声信号を左
チャンネル用の加算部15に供給する。また、フィルタ
22は、右入力端子Rinを通じて供給を受けた右チャ
ンネルの音声信号を伝達関数M22で処理するものであ
り、処理後の音声信号を右チャンネル用の加算部16に
供給する。
The filter 21 has a right input terminal Rin.
The audio signal of the right channel received through is processed by the transfer function M21, and the processed audio signal is supplied to the adding section 15 for the left channel. The filter 22 processes the right-channel audio signal supplied through the right input terminal Rin with the transfer function M22, and supplies the processed audio signal to the right-channel addition unit 16.

【0047】これにより、左チャンネル用の加算部15
からの出力音声信号による音声と、右チャンネル用の加
算部16からの出力音声信号による音声とは、図1、図
2において左仮想スピーカVSL、右仮想スピーカVS
Rから放音されるように、その音像が定位するようにさ
れる。
As a result, the addition unit 15 for the left channel
1 and FIG. 2, the left virtual speaker VSL and the right virtual speaker VS are the sound based on the output sound signal from the right channel and the sound based on the output sound signal from the adding section 16 for the right channel.
The sound image is localized so that sound is emitted from R.

【0048】しかし、ヘッドレスト部30に設けられた
左スピーカSL、右スピーカSRから放音される音声
は、音像定位処理が施されていても、図1に示すよう
に、実際の再生音場における伝達関数G11、G12、
G21、G22の影響を受けて、再生音声の音像を目的
とする仮想スピーカ位置に正確に定位させることができ
ない場合がある。
However, as shown in FIG. 1, the sound emitted from the left speaker SL and the right speaker SR provided in the headrest portion 30 is actually reproduced in the sound field even if the sound image localization processing is performed. Transfer functions G11, G12,
In some cases, due to the influence of G21 and G22, the sound image of the reproduced sound cannot be accurately localized at the target virtual speaker position.

【0049】そこで、この第1の実施の形態において
は、トランスオーラルシステムフィルタ部20を用い
て、音像定位処理フィルタ部10からの音声信号に対し
て補正処理を行なうようにすることで、左スピーカS
L、右スピーカSRから放音される音声を、正確に仮想
スピーカ位置の左右の仮想スピーカVSL、VSRから
放音されたように定位させる。
Therefore, in the first embodiment, the trans-aural system filter section 20 is used to perform correction processing on the audio signal from the sound image localization processing filter section 10, thereby providing a left speaker. S
The sound emitted from the L and right speakers SR is localized exactly as if it was emitted from the virtual speakers VSL and VSR on the left and right of the virtual speaker position.

【0050】トランスオーラルシステムフィルタ部20
は、トランスオーラルシステムが適用されて形成された
音声フィルタである。トランスオーラルシステムは、ヘ
ッドホンを用いて音声を厳密に再生するようにする方式
であるバイノーラルシステム方式と同様の効果を、スピ
ーカを用いた場合にも実現しようとする技術である。
Trans-aural system filter section 20
Is an audio filter formed by applying a transaural system. The trans-aural system is a technique for realizing the same effect as that of a binaural system method, which is a method for reproducing sound strictly using headphones, even when a speaker is used.

【0051】トランスオーラルシステムについて、図1
の場合を例にして説明すると、左スピーカSL、右スピ
ーカSRから放音される音声について、それぞれのスピ
ーカから放音される音声の聴取者の左右それぞれの耳ま
での伝達関数G11、G12、G13、G14の影響を
除去することにより、左スピーカSL、右スピーカSR
から放音される音声を厳密に再生させるようにするもの
である。
FIG. 1 shows the transaural system.
As an example, the transfer functions G11, G12, and G13 of the sound emitted from the left speaker SL and the right speaker SR to the left and right ears of the listener of the sound emitted from the respective speakers. , G14 to eliminate the influence of the left speaker SL, the right speaker SR
Strictly reproduce the sound emitted from.

【0052】したがって、図1に示すトランスオーラル
システムフィルタ部20は、左スピーカSL、右スピー
カSRから放音されることになる音声について、再生音
場における伝達関数の影響を除去することにより、左ス
ピーカSL、右スピーカSRから放音される音声の音像
を正確に仮想スピーカ位置応じた位置に定位させるよう
にする。
Therefore, the trans-aural system filter section 20 shown in FIG. 1 removes the influence of the transfer function in the reproduced sound field from the left speaker SL and the right speaker SR by removing the influence of the transfer function. The sound image of the sound emitted from the speaker SL and the right speaker SR is accurately localized at a position corresponding to the virtual speaker position.

【0053】具体的にトランスオーラルシステムフィル
タ部20は、左スピーカSL、右スピーカSRから聴取
者の左右の耳までの伝達関数の影響を除去するために、
右スピーカSRから聴取者の左右の耳までの伝達関数の
逆関数に応じて音声信号を処理するフィルタ21、2
2,23、24と、加算部25、26を備えたものであ
る。なお、この第1の実施の形態において、フィルタ2
1、22,23、24においては、逆フィルタ特性をも
考慮した処理を行ないより自然な再生音声を放音できる
ようにしている。
Specifically, the transaural system filter unit 20 removes the influence of the transfer function from the left speaker SL, the right speaker SR to the left and right ears of the listener.
Filters 21 and 2 for processing an audio signal according to the inverse function of the transfer function from the right speaker SR to the left and right ears of the listener.
2, 23, 24 and addition units 25, 26 are provided. In the first embodiment, the filter 2
In Nos. 1, 22, 23, and 24, processing is performed in consideration of the inverse filter characteristic so that a more natural reproduced sound can be emitted.

【0054】また、詳しくは後述もするように、左スピ
ーカSL、右スピーカSRから聴取者の左右の耳までの
伝達関数は、左右のスピーカSL、SRと聴取者の頭部
の位置(聴取者の耳の位置)によって変わってしまう。
このため、トランスオーラルシステムフィルタ部20の
各フィルタ21、22、23、24のそれぞれには、デ
ータベース60に予め蓄積されている聴取者の頭部の位
置に応じた各フィルタに対するフィルタ係数がCPU5
0を通じてセットすることができるようにされている。
As will be described later in detail, the transfer functions from the left speaker SL and the right speaker SR to the left and right ears of the listener are determined by the positions of the left and right speakers SL and SR and the position of the listener's head (the listener). Position of the ear).
Therefore, in each of the filters 21, 22, 23, and 24 of the transaural system filter unit 20, the filter coefficient for each filter corresponding to the position of the head of the listener, which is stored in advance in the database 60, is stored in the CPU 5.
It can be set through 0.

【0055】そして、音像定位処理フィルタ部10の左
チャンネル用の加算部15からの出力音声信号は、トラ
ンスオーラルシステムフィルタ部20の左チャンネル用
のフィルタ21と、右チャンネル用のフィルタ22とに
供給され、また、音像定位処理フィルタ部10の右チャ
ンネル用の加算部16からの出力音声信号は、トランス
オーラルシステムフィルタ部20の左チャンネル用のフ
ィルタ23と、右チャンネル用のフィルタ24とに供給
される。
The output audio signal from the adder 15 for the left channel of the sound image localization processing filter 10 is supplied to the filter 21 for the left channel and the filter 22 for the right channel of the transaural system filter 20. In addition, the output audio signal from the right-channel addition unit 16 of the sound image localization processing filter unit 10 is supplied to the left-channel filter 23 and the right-channel filter 24 of the transaural system filter unit 20. It

【0056】各フィルタ21、22、23、24のそれ
ぞれは、CPU50からのフィルタ係数を用いて所定の
処理を行なうものであり、具体的には、前述もしたよう
に、スピーカSL、SRから聴取者の現在の頭部の位置
に応じた伝達関数の逆関数H1n、H2n、H3n、H
4nを用いて、自フィルタに供給された音声信号を処理
する。
Each of the filters 21, 22, 23, 24 performs a predetermined process using the filter coefficient from the CPU 50. Specifically, as described above, the speakers SL, SR listen to each other. Inverse functions H1n, H2n, H3n, H of the transfer function according to the current head position of the person
4n is used to process the audio signal supplied to the own filter.

【0057】なお、各フィルタ21、22、23、24
で用いられる伝達関数の逆関数H1n、H2n、H3
n、H4nにおいて、nは、聴取者の頭部の位置に応じ
て決まる変数を意味し、n以外の文字であるH1、H
2、H3、H4は、順にフィルタ21、22、23、2
4のおのおのにおいて用いられる関数であることを示し
ている。
Each filter 21, 22, 23, 24
Inverse functions H1n, H2n, H3 of the transfer function used in
In n and H4n, n means a variable determined according to the position of the listener's head, and H1 and H which are characters other than n.
2, H3, and H4 are filters 21, 22, 23, and 2 in that order.
It is shown that it is a function used in each of the four.

【0058】そして、フィルタ21からの出力は、左チ
ャンネル用の加算部25に供給され、フィルタ22から
の出力は、右チャンネル用の加算部26に供給される。
同様に、フィルタ23からの出力は、左チャンネル用の
加算部25に供給され、フィルタ24からの出力は、右
チャンネル用の加算部26に供給される。
The output from the filter 21 is supplied to the adder 25 for the left channel, and the output from the filter 22 is supplied to the adder 26 for the right channel.
Similarly, the output from the filter 23 is supplied to the adder 25 for the left channel, and the output from the filter 24 is supplied to the adder 26 for the right channel.

【0059】そして、各加算部25、26は、これらに
供給された音声信号を加算し、加算部25は、左スピー
カSLに音声信号を供給し、加算部26は、右スピーカ
SRに音声信号を供給する。これにより、ヘッドレスト
部30のスピーカSL、SRから放音される音声は、再
生音場における現在の聴取者の頭部の位置に応じた伝達
関数の影響が除去され、その音像が正確に左仮想スピー
カVSL、右仮想スピーカVSRから放音された音声の
ように定位させることができるようにしている。
The adders 25 and 26 add the audio signals supplied thereto, the adder 25 supplies the audio signal to the left speaker SL, and the adder 26 adds the audio signal to the right speaker SR. To supply. As a result, the sound emitted from the speakers SL and SR of the headrest unit 30 is removed from the effect of the transfer function corresponding to the current position of the listener's head in the reproduced sound field, and its sound image is accurately left virtual. It is possible to localize like the sound emitted from the speaker VSL and the right virtual speaker VSR.

【0060】このように、この第1の実施の形態の音響
処理装置1は、ヘッドレスト部30の近傍の所定の位置
に頭部が位置する聴取者は、ヘッドレスト部30のスピ
ーカSL、SRから放音される音声を仮想スピーカVS
L、VSRから放音されたように聴取することができる
ようにされる。
As described above, in the sound processing apparatus 1 according to the first embodiment, a listener whose head is located at a predetermined position near the headrest portion 30 emits sound from the speakers SL and SR of the headrest portion 30. Virtual speaker VS for sound
The sound can be heard as if it was emitted from the L, VSR.

【0061】したがって、聴取者の頭部の斜め後ろ側に
位置する左スピーカSL、右スピーカSRから放音され
る音声を聴取するにもかかわらず、音声は聴取者の前方
方向から聞こえてくるようにされるので、左スピーカS
L、右スピーカSRから放音される音声が聴取者の後ろ
側に張り付いて聞こえるなどの違和感や不快感を感じる
ことなく、良好に音声を聴取できるようにすることがで
きる。
Therefore, even though the sound emitted from the left speaker SL and the right speaker SR positioned diagonally behind the listener's head is heard, the sound is heard from the front direction of the listener. Left speaker S
Therefore, it is possible to allow the sound to be satisfactorily listened to without causing any discomfort or discomfort such that the sound emitted from the L or right speaker SR sticks behind the listener.

【0062】しかしながら、前述もしたように、図1に
示した音響処理装置1の場合、仮想スピーカVSL、V
SRが示す仮想スピーカ位置から聴取者の両耳までの位
置関係、および、スピーカSL、SRから聴取者の両耳
までの位置関係が、伝達関数測定時と、システム再生時
(実際に音声を再生して聴取する時)とで大きく変わっ
てしまう場合には、各伝達関数も変わってしまうため、
仮想スピーカ位置への音像の定位の効果が薄くなる。
However, as described above, in the case of the sound processing device 1 shown in FIG. 1, the virtual speakers VSL, VSL.
The positional relationship from the virtual speaker position indicated by SR to both ears of the listener and the positional relationship from the speakers SL and SR to both ears of the listener are measured at the time of transfer function measurement and system reproduction (actually reproducing sound. And when listening to each other), each transfer function also changes, so
The effect of localizing the sound image to the virtual speaker position is weakened.

【0063】この第1の実施の形態の音響処理装置1の
場合には、図1に示すように、ヘッドレスト部30のス
ピーカSL、SLから聴取者の耳までの伝達関数が、伝
達関数G11、G12、G21、G22である位置に聴
取者の頭部がある場合には、当該聴取者は、ヘッドレス
ト部30のスピーカSL、SRから放音される音声を仮
想スピーカVSL、VSRから放音されたかのように聴
取することができる。
In the case of the sound processing apparatus 1 of the first embodiment, as shown in FIG. 1, the transfer function from the speakers SL, SL of the headrest section 30 to the listener's ear is the transfer function G11, When the listener's head is at the position of G12, G21, G22, whether the listener emits the sound emitted from the speakers SL and SR of the headrest unit 30 from the virtual speakers VSL and VSR. Can be heard as.

【0064】しかし、ヘッドレスト部30のスピーカS
L、SRに対する聴取者の頭部の位置が想定した位置よ
りもずれてしまえば、仮想スピーカ位置にスピーカS
L、SRから放音した音声の音像を定位させるようにす
る仮想スピーカ定位効果が十分には得られない。
However, the speaker S of the headrest portion 30
If the position of the listener's head with respect to L and SR deviates from the assumed position, the speaker S is set to the virtual speaker position.
The virtual speaker localization effect that localizes the sound image of the sound emitted from L and SR cannot be sufficiently obtained.

【0065】特に、スピーカの放音面に対して平行に上
下方向や左右方向に動いてしまった場合には、スピーカ
の放音面に対して直交する方向に聴取者の頭部が動いた
場合(スピーカに近づくように、あるいは、スピーカか
ら遠ざかるように動いた場合)に比べてその影響は大き
い。
In particular, when the listener's head moves in a direction orthogonal to the speaker's sound emitting surface, when the listener's head moves in a vertical direction or a horizontal direction parallel to the speaker's sound emitting surface. The effect is larger than that in the case of moving to approach the speaker or move away from the speaker.

【0066】このため、仮想スピーカ定位の効果を得る
ためには、スピーカに対する聴取者の頭部の位置(耳の
位置)を必ず決まった位置となるようにして、音声を聴
取するか、聴取者の様々な頭部の位置における伝達関数
を測定しておき、その位置に適するような伝達関数や逆
フィルタを通したシステムで音声を再生するようにする
ことが望ましい。
Therefore, in order to obtain the effect of virtual speaker localization, the position of the listener's head (ear position) with respect to the speaker is always set to a fixed position, and the listener listens to the sound or listens to the sound. It is desirable to measure the transfer functions at various head positions in the above and reproduce the voice by a system that has a transfer function or an inverse filter suitable for the positions.

【0067】しかし、当該ヘッドレスト部30を有する
椅子に腰をかけた聴取者の頭部の位置を常にスピーカに
対して所定の位置の保持するようにすることは難しい。
また、保持するようにすることができたとしても、かえ
って聴取者のリラックス感を阻害することにもなりかね
ない。
However, it is difficult to always keep the position of the head of the listener sitting on the chair having the headrest portion 30 at a predetermined position with respect to the speaker.
Further, even if it can be held, it may rather impair the listener's relaxed feeling.

【0068】そこで、この第1の実施の形態の音響処理
装置1においては、当該音響処理装置1が動作状態にあ
るときには、例えば所定のタイミング毎に、ヘッドレス
ト部30から聴取者の頭部までの距離、位置を測定し、
測定した聴取者の頭部の位置に応じたフィルタ係数をト
ランスオーラルシステムフィルタ部20の各フィルタに
供給することによって、聴取者の頭部の最新の位置に応
じて音像定位処理後の音声信号に対して補正処理を行な
う。
Therefore, in the sound processing apparatus 1 of the first embodiment, when the sound processing apparatus 1 is in the operating state, for example, at every predetermined timing, from the headrest portion 30 to the listener's head. Measure distance and position,
By supplying the filter coefficient corresponding to the measured position of the listener's head to each filter of the transaural system filter unit 20, an audio signal after the sound image localization processing is obtained according to the latest position of the listener's head. A correction process is performed on the other hand.

【0069】このようにすることによって、聴取者の頭
部が動くことにより、聴取者の頭部の位置が、ヘッドレ
スト部30、すなわち、スピーカSL、SRに対して変
わってしまった場合でも、仮想スピーカ位置に音像を定
位させるようにする仮想スピーカ定位効果が劣化するこ
とがなく、より自由な姿勢でヘッドレスト部30の左右
のスピーカSL、SRからの音声を聴取することができ
るようにしている。
By doing so, even if the position of the listener's head changes with respect to the headrest portion 30, that is, the speakers SL, SR, due to the movement of the listener's head, the virtual position is assumed. The virtual speaker localization effect that localizes the sound image to the speaker position does not deteriorate, and the sounds from the left and right speakers SL and SR of the headrest portion 30 can be heard in a more free posture.

【0070】そして、この第1の実施の形態の音響処理
装置1においては、ヘッドレスト部30に搭載されたス
ピーカのスーパーツイータを聴取者の頭部の位置検出セ
ンサとして用いるようにしている。近年、再生オーディ
オについてのHiFi指向が進み、可聴周波数帯域以上
の再生性能を持つスピーカを実装することは珍しいこと
ではないため、これを利用するようにしたものである。
In the sound processing apparatus 1 of the first embodiment, the super tweeter of the speaker mounted on the headrest section 30 is used as the position detecting sensor for the listener's head. In recent years, it is not uncommon to install a speaker having a reproduction performance higher than the audible frequency band due to the progress of HiFi for reproduction audio, and this is utilized.

【0071】このように、この第1の実施の形態の音響
処理装置1のスピーカSL、SRのスーパーツイータ
は、可聴周波数以上の再生能力を持つものであり、この
構成のスピーカ(スピーカデバイス)を聴取者の頭部の
位置の測定に用いることにより、感圧式などの専用のセ
ンサシステムを搭載しなくても済むように構成したもの
である。
As described above, the super tweeters of the speakers SL and SR of the sound processing apparatus 1 according to the first embodiment have a reproduction capability above the audible frequency, and the speaker (speaker device) having this configuration is used. By using it for measuring the position of the listener's head, it is configured so that it is not necessary to mount a dedicated sensor system such as a pressure-sensitive type.

【0072】そして、ヘッドレスト部30のスピーカS
L、SRのスーパーツイータから所定の周波数の超音波
を送信し、この超音波の聴取者の主に頭部からの反射を
ヘッドレスト部30のスピーカSR、SLのスーパーツ
イータを通じて受信し、当該超音波の反射波の受信の有
無や、反射波を受信した場合には、超音波を送信してか
らその反射波を受信するまでにかかった時間、当該時間
と超音波の速度とから得られるスピーカと聴取者との距
離などに基づいて、ヘッドレスト部30に対する聴取者
の頭部の位置を検出する。
Then, the speaker S of the headrest portion 30
Ultrasonic waves of a predetermined frequency are transmitted from the super tweeters L and SR, and the reflection of the ultrasonic waves mainly from the head of the listener is received through the super tweeters SR and SL of the headrest section 30, and the ultrasonic waves are received. Whether or not the reflected wave is received, and when the reflected wave is received, the time taken from the transmission of the ultrasonic wave to the reception of the reflected wave, and the speaker obtained from the time and the speed of the ultrasonic wave. The position of the listener's head with respect to the headrest portion 30 is detected based on the distance to the listener.

【0073】図4は、この第1の実施の形態の音響処理
装置1において行なう聴取者の頭部の位置の検出処理を
説明するための図である。図4に示すように、ヘッドレ
スト部30の左右のスピーカSL、SRのスーパーツイ
ータから40kHzの超音波を送信し、この超音波の使
用者の頭部からの反射波を、同じくヘッドレスト部30
の左右のスピーカSL、SRのスーパーツイータにより
受信する。
FIG. 4 is a diagram for explaining the process of detecting the position of the listener's head performed by the sound processing device 1 according to the first embodiment. As shown in FIG. 4, ultrasonic waves of 40 kHz are transmitted from the super tweeters of the left and right speakers SL and SR of the headrest section 30, and the reflected wave from the head of the user of this ultrasonic wave is also transmitted to the headrest section 30.
It is received by the super tweeters of the left and right speakers SL and SR.

【0074】左右のスピーカSL、SRのスーパーツイ
ータからの超音波の送信の制御は、例えばCPU50に
よって制御される。そして、左右のスピーカSL、SR
のスーパーツイータにより受信される超音波は、検出部
40に供給するようにされる。この検出部40におい
て、40kHzの超音波(反射波)の有無や、40kH
zの超音波(反射波)を受信したときには、当該超音波
の送信から受信までにかかった時間、超音波の速度など
からヘッドレスト部30の左右のスピーカSL、SRに
対する聴取者の頭部の位置を検出する。
Control of transmission of ultrasonic waves from the super tweeters of the left and right speakers SL and SR is controlled by, for example, the CPU 50. Then, the left and right speakers SL, SR
The ultrasonic waves received by the super tweeter are supplied to the detection unit 40. In this detection unit 40, the presence / absence of ultrasonic waves (reflected waves) of 40 kHz and 40 kHz
When the ultrasonic wave (reflected wave) of z is received, the position of the listener's head with respect to the left and right speakers SL, SR of the headrest unit 30 is determined from the time taken from the transmission of the ultrasonic wave to the reception, the speed of the ultrasonic wave, and the like. To detect.

【0075】すなわち、図4A、Bに示すように、ヘッ
ドレスト部30のスピーカSL、SRのスーパーツイー
タのそれぞれが、同じように送信した超音波の反射波を
同じように受信した場合には、送信から受信までにかか
った時間に応じて、ヘッドレスト部30に対する聴取者
の頭部の位置を検出することができる。
That is, as shown in FIGS. 4A and 4B, when each of the super tweeters of the speakers SL and SR of the headrest section 30 similarly receives the reflected wave of the ultrasonic wave transmitted in the same manner, The position of the listener's head with respect to the headrest portion 30 can be detected according to the time taken from to reception.

【0076】簡単に言えば、例えば、図4Aに示したよ
うに、超音波の送信から受信までにかかった時間が比較
的に長い場合には、聴取者の頭部は、ヘッドレスト部3
0から比較的に離れた位置に位置していることがわか
る。また、図4Bに示したように、超音波の送信から受
信までにかかった時間が比較的に短い場合には、聴取者
の頭部の位置は、ヘッドレスト部30から比較的に近い
位置に位置していることがわかる。
Briefly, for example, as shown in FIG. 4A, when the time taken from the transmission of ultrasonic waves to the reception of ultrasonic waves is relatively long, the listener's head will not move to the headrest portion 3.
It can be seen that it is located relatively far from 0. Further, as shown in FIG. 4B, when the time taken from the transmission of ultrasonic waves to the reception thereof is relatively short, the position of the listener's head is relatively close to the headrest portion 30. You can see that

【0077】また、図4Cに示すように、ヘッドレスト
部30に設けた左右のスピーカSL、SRのスーパーツ
イータから同じように送信した超音波を例えば左スピー
カSLのスーパーツイータのみが受信し、右スピーカS
Rのスーパーツイータは40kHzの超音波を受信しな
かった場合には、聴取者の頭部は、ヘッドレスト部30
に対して左側に片寄っていることがわかる。
Also, as shown in FIG. 4C, only the super tweeter of the left speaker SL receives the ultrasonic waves similarly transmitted from the super tweeters of the left and right speakers SL and SR provided in the headrest portion 30, and the right speaker. S
When the super tweeter of R does not receive the ultrasonic wave of 40 kHz, the listener's head is headrest part 30.
You can see that it is biased to the left.

【0078】この逆に、ヘッドレスト部30に設けた左
右のスピーカSL、SRのスーパーツイータから同じよ
うに送信した超音波を例えば右スピーカSRのスーパー
ツイータのみが受信し、左スピーカSLのスーパーツイ
ータは40kHzの超音波を受信しなかった場合には、
聴取者の頭部は、ヘッドレスト部30に対して右側に片
寄っていることがわかる。
On the contrary, for example, only the super tweeter of the right speaker SR receives the ultrasonic waves similarly transmitted from the super tweeters of the left and right speakers SL and SR provided in the headrest section 30, and the super tweeter of the left speaker SL If you do not receive 40kHz ultrasound,
It can be seen that the listener's head is offset to the right with respect to the headrest portion 30.

【0079】このように、検出部40は、左右のスピー
カから送信された超音波の聴取者の頭部からの反射波に
基づいて、ヘッドレスト部30のスピーカSL、SRか
らの距離および左右のオフセット(ずれ分)などがセン
シング可能である。この場合、聴取者の頭部の位置は、
例えば、本来聴取者の頭部が位置すべき基準位置からの
ずれ分(オフセット分)として検出され、これがCPU
50に通知される。
As described above, the detecting section 40 detects the distance of the headrest section 30 from the speakers SL and SR and the left and right offsets based on the reflected waves of the ultrasonic waves transmitted from the left and right speakers from the listener's head. (Displacement) can be sensed. In this case, the position of the listener's head is
For example, it is detected as a deviation (offset) from the reference position where the listener's head should originally be located, and this is detected by the CPU.
50 will be notified.

【0080】そして、CPU50は、検出部40からの
聴取者の頭部の位置の検出結果に基づいて、データベー
ス60を参照し、現在の聴取者の頭部の位置に応じたト
ランスオーラルシステムフィルタ部20の各フィルタ2
1から24に供給する係数データを読み出す。
Then, the CPU 50 refers to the database 60 based on the detection result of the position of the listener's head from the detector 40, and the transaural system filter unit corresponding to the current position of the listener's head. 20 each filter 2
The coefficient data supplied to 1 to 24 are read.

【0081】この第1の実施の形態において、データベ
ース60には、トランスオーラルシステムフィルタ部2
0の各フィルタ21、22、23、24のそれぞれに供
給する係数データであって、ヘッドレスト部30に対す
る聴取者の頭部の位置に応じたデータが記憶されてい
る。
In the first embodiment, the database 60 includes the transaural system filter unit 2
The coefficient data to be supplied to each of the filters 21, 22, 23, and 24 of 0, which is data corresponding to the position of the listener's head with respect to the headrest portion 30, is stored.

【0082】すなわち、ヘッドレスト部30のスピーカ
SL、SRから放音された音声の聴取者の左右の耳元ま
での伝達関数を、予めヘッドレスト部30に対する聴取
者の頭部の位置をいろいろと変えて測定しておき、この
測定結果に基づいて、トランスオーラルシステムフィル
タ部20の各フィルタ21、22、23、24で用いる
係数データを求め、この求めた係数データと聴取者の頭
部の位置とを対応付けたデータがデータベース60に記
憶するようにされている。
That is, the transfer function of the sound emitted from the speakers SL and SR of the headrest portion 30 to the left and right ears of the listener is measured by changing the position of the listener's head relative to the headrest portion 30 in advance. Incidentally, based on this measurement result, coefficient data used in each of the filters 21, 22, 23, and 24 of the transaural system filter section 20 is obtained, and the obtained coefficient data is associated with the position of the listener's head. The attached data is stored in the database 60.

【0083】したがって、データベース60には、聴取
者の頭部の位置が、位置Aにおけるトランスオーラルシ
ステムフィルタ部20のフィルタ21、22、23、2
4のそれぞれで用いられる係数データ、位置Bにおける
トランスオーラルシステムフィルタ部20のフィルタ2
1、22、23、34のそれぞれで用いられる係数デー
タ、…というように、ヘッドレスト部30に対してその
位置を変えるようにした聴取者の頭部の各位置における
フィルタ21、22、23、24で用いる係数データが
記憶されている。
Therefore, in the database 60, the positions of the listener's head are the filters 21, 22, 23, 2 of the transaural system filter unit 20 at the position A.
4, the coefficient data used in each of 4 and the filter 2 of the transaural system filter unit 20 at the position B.
The filter 21, 22, 23, 24 at each position of the listener's head whose position is changed with respect to the headrest 30 as in the coefficient data used in each of 1, 22, 23, 34. The coefficient data used in is stored.

【0084】CPU50は、検出部40からの現在の使
用者の頭部の位置の検出結果に基づいて、トランスオー
ラルシステムフィルタ部20の各フィルタ21、22、
23、24に供給する係数データをデータベース60か
ら読み出し、これをトランスオーラルシステムフィルタ
部20の対応するフィルタに供給する。
Based on the detection result of the current position of the head of the user from the detection unit 40, the CPU 50 causes the filters 21, 22 of the transaural system filter unit 20,
The coefficient data to be supplied to 23 and 24 is read from the database 60 and supplied to the corresponding filter of the transaural system filter unit 20.

【0085】これにより、聴取者の頭部の位置がヘッド
レスト部30に対して動いても、聴取者の実際の頭部の
位置を測定して、その位置に応じて再生音場における伝
達関数の影響を除去するようにトランスオーラルシステ
ムフィルタ部20において、補正処理を行なうことがで
きる。したがって、ヘッドレスト部30の左右のスピー
カSL、SRから放音される音声の音像を聴取者の頭部
の位置にかかわりなく仮想スピーカ位置に定位させるこ
とができる。
As a result, even if the position of the listener's head moves with respect to the headrest portion 30, the actual position of the listener's head is measured, and the transfer function of the reproduced sound field is determined according to the measured position. A correction process can be performed in the transaural system filter unit 20 so as to remove the influence. Therefore, the sound images of the sounds emitted from the left and right speakers SL and SR of the headrest portion 30 can be localized at the virtual speaker positions regardless of the position of the listener's head.

【0086】なお、この第1の実施の形態においては、
データベース60には、聴取者の頭部が取り得る各位置
において測定した伝達関数に基づいて、頭部の各位置に
おいて各フィルタにセットする関数を求め、この関数と
頭部の位置とを対応付けて記憶するようにしてもよい。
すなわち、補正に用いる関数自体を頭部の位置に対応付
けてデータベースに記憶しておき、これをトランスオー
ラルシステムフィルタ部の目的とするフィルタにセット
するようにしてもよい。
In the first embodiment,
The database 60 finds a function to be set in each filter at each position of the head based on the transfer function measured at each position that the listener's head can take, and associates this function with the position of the head. It may be stored in memory.
That is, the function itself used for the correction may be stored in the database in association with the position of the head, and set in the target filter of the transaural system filter unit.

【0087】また、前述した第1の実施の形態の場合の
ように、例えば、基準位置における伝達関数を測定し、
この基準伝達関数に対する振幅調整用パラメータや遅延
処理用パラメータなどの必要なパラメータを設定してお
き、この基準パラメータを基準にして、検出される聴取
者の頭部の実際の位置に応じ、新たなパラメータを求
め、これを各フィルタに設定するようにしてもよい。
Further, as in the case of the above-mentioned first embodiment, for example, the transfer function at the reference position is measured,
Necessary parameters such as an amplitude adjusting parameter and a delay processing parameter for this reference transfer function are set, and a new parameter is set according to the actual position of the listener's head to be detected with reference to this reference parameter. You may make it obtain a parameter and set it for each filter.

【0088】つまり、1つの伝達関数モデルを設定し、
このモデルに対して聴取者の頭部の位置に応じて調整を
行なうようにすることによって、聴取者の実際の頭部の
位置に応じた補正処理を音声信号に対して行なうように
することもできる。この場合には、基準モデルとして、
基準位置に置けるパラメータを例えばCPUで実行する
プログラム中に保持するようにした場合には、パラメー
タを保持するためのメモリは必要ないし、また、基準パ
ラメータのみをメモリに保持しておくのであれば、大き
な記憶容量のメモリは必要ないことになる。
That is, one transfer function model is set,
By adjusting this model according to the position of the listener's head, it is also possible to perform correction processing on the audio signal according to the actual position of the listener's head. it can. In this case, as a reference model,
If the parameters that can be placed at the reference position are held in a program executed by the CPU, for example, a memory for holding the parameters is not necessary, and if only the reference parameters are held in the memory, It does not require large memory capacity.

【0089】なお、上述したように、データベース60
に蓄積され、トランスオーラルシステムフィルタ部20
の各フィルタに供給することになる処理用情報として
は、係数データ、関数データ、パラメータデータなど、
複数種類のものがかんがえられるが、これらは、実際に
音響処理装置に搭載されることになる各フィルタ回路に
応じて用いるようにすればよい。
As described above, the database 60
Stored in the transaural system filter unit 20.
As the processing information to be supplied to each filter, coefficient data, function data, parameter data,
Although a plurality of types can be considered, these may be used according to each filter circuit to be actually mounted in the sound processing device.

【0090】また、データベース60は、例えば、RO
MやEEPROMなどの半導体メモリである。なお、デ
ータベース60として、磁気ディスク、光ディスク、光
磁気ディスクなどの記録媒体を用いるようにすることも
できる。
The database 60 is, for example, RO
It is a semiconductor memory such as M or EEPROM. A recording medium such as a magnetic disk, an optical disk, or a magneto-optical disk can be used as the database 60.

【0091】[第1の実施の形態の変形例]図5は、第
1の実施の形態の音響処理装置の変形例を説明するため
のブロック図である。図5に示すように、この例の音響
処理装置2は、トランスオーラルシステムフィルタ部2
0に変えて、簡易型トランスオーラルシステムフィルタ
部70が搭載されたことを除けば、図1に示した第1の
実施の形態の音響処理装置1と同様に構成されたもので
ある。このため、この図5に示す音響処理装置2におい
て、図1に示した第1の音響処理装置1と同様に構成さ
れる部分には、同じ参照符号を付し、その詳細な説明は
省略する。
[Modification of First Embodiment] FIG. 5 is a block diagram for explaining a modification of the acoustic processing apparatus of the first embodiment. As shown in FIG. 5, the sound processing device 2 of this example includes a transaural system filter unit 2
It is configured similarly to the sound processing apparatus 1 of the first embodiment shown in FIG. 1 except that the simplified transaural system filter unit 70 is mounted instead of 0. For this reason, in the sound processing apparatus 2 shown in FIG. 5, the same components as those of the first sound processing apparatus 1 shown in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted. .

【0092】図1、図2、図5に示したように、ヘッド
レスト部30と聴取者の頭部とは通常近接しており、ヘ
ッドレスト部3のスピーカSL、SRは、聴取者の耳に
近いという性質上、スピーカSL、SRから反対側の耳
へのクロストーク成分は、スピーカSL、SRから当該
スピーカに対応する側の耳への音声信号成分よりも格段
に小さい。
As shown in FIGS. 1, 2 and 5, the headrest portion 30 and the listener's head are normally close to each other, and the speakers SL and SR of the headrest portion 3 are close to the listener's ears. Therefore, the crosstalk component from the speakers SL and SR to the ear on the opposite side is significantly smaller than the audio signal component from the speakers SL and SR to the ear on the side corresponding to the speaker.

【0093】つまり、図1に示した例において、クロス
トーク成分の伝達関数G12、G21は、伝達関数G1
1、G22よりも格段に小さいので、クロストーク成分
の伝達関数G12、G21は無視することができる。こ
のため、クロストーク成分の考慮を通常のトランスオー
ラルシステムから省略することにより、簡略化を図った
ものが、図5に示す簡易型トランスオーラルシステムフ
ィルタ部70である。
That is, in the example shown in FIG. 1, the transfer functions G12 and G21 of the crosstalk component are the transfer functions G1.
Since it is much smaller than 1 and G22, the transfer functions G12 and G21 of the crosstalk component can be ignored. Therefore, the simplified transaural system filter unit 70 shown in FIG. 5 is simplified by omitting the consideration of the crosstalk component from the normal transaural system.

【0094】この簡易型トランスオーラルシステムフィ
ルタ部70は、図5に示すように、ヘッドレスト部30
の左スピーカSLから聴取者の左耳までの音声の伝達関
数G1の逆関数で音声信号を処理するフィルタ71と、
右スピーカSRから聴取者の右耳までの音声の伝達関数
G2の逆関数で音声信号を処理するフィルタ72とを備
えたものである。このように、クロストーク成分を無視
するようにした場合であっても、音の定位は仮想スピー
カ位置になることは実験により確認されている。
As shown in FIG. 5, the simplified transaural system filter section 70 has a headrest section 30.
A filter 71 that processes an audio signal with an inverse function of the transfer function G1 of the audio from the left speaker SL to the listener's left ear;
And a filter 72 for processing an audio signal with an inverse function of the transfer function G2 of the audio from the right speaker SR to the right ear of the listener. As described above, it has been confirmed by experiments that the sound localization is at the virtual speaker position even when the crosstalk component is ignored.

【0095】そして、簡易型トランスオーラルシステム
フィルタ部70の2つのフィルタ71、72のそれぞれ
には、実際には、後述もするように、再生音場における
聴取者の実際の頭部の位置に応じた関数、あるいは、係
数データが設定するようにされる。
Then, each of the two filters 71 and 72 of the simplified transaural system filter unit 70 actually corresponds to the actual position of the head of the listener in the reproduced sound field, as will be described later. The function or coefficient data is set.

【0096】この場合、データベース60に用意してお
くデータもフィルタ71、72に対するものだけでよい
ので、データベース60に記憶保持しておくデータ量を
少なくすることができる。したがって、データベース6
0として記憶容量の小さなものを用いることができる。
In this case, since only the data for the filters 71 and 72 need be prepared in the database 60, the amount of data stored and held in the database 60 can be reduced. Therefore, database 6
As 0, a memory having a small storage capacity can be used.

【0097】また、図5に示した音響処理装置2の場合
には、簡易型トランスオーラルシステムフィルタ部70
を用いることにより、音響処理装置の構成を簡単にする
ことができる。
In the case of the sound processing device 2 shown in FIG. 5, the simplified transaural system filter section 70 is used.
By using, the configuration of the sound processing device can be simplified.

【0098】また、図5に示した音響処理装置の場合に
も、図1に示した第1の実施の形態の音響処理装置1の
場合と同様に、聴取者の頭部の斜め後ろ側に位置する左
スピーカSL、右スピーカSRから放音される音声を聴
取するにもかかわらず、音声は聴取者の前方方向から聞
こえてくるようにされるので、左スピーカSL、右スピ
ーカSRから放音される音声が聴取者の後ろ側に張り付
いて聞こえるなどの違和感や不快感を感じさせずに、良
好に音声を聴取できるようにすることができる。
Also, in the case of the sound processing apparatus shown in FIG. 5, similarly to the case of the sound processing apparatus 1 of the first embodiment shown in FIG. 1, the sound processing apparatus is placed diagonally behind the head of the listener. Although the sound emitted from the left speaker SL and the right speaker SR located is heard, the sound is made to be heard from the front direction of the listener. Therefore, the sound is emitted from the left speaker SL and the right speaker SR. It is possible to make it possible to listen to the sound satisfactorily without causing any discomfort or discomfort such as the sound being heard sticking to the back of the listener.

【0099】[第2の実施の形態]図6は、この発明が
適用された第2の実施の形態の音響処理装置3を説明す
るためのブロック図である。この第2の実施の形態の音
響処理装置は、例えばDVDなどのマルチチャンネルの
メディアからの音声信号を処理することができるもので
あり、この第2の実施の形態においては、5チャンネル
の音声信号を処理することができるものである。
[Second Embodiment] FIG. 6 is a block diagram for explaining an audio processing apparatus 3 according to a second embodiment of the present invention. The sound processing apparatus according to the second embodiment is capable of processing a sound signal from a multi-channel medium such as a DVD. In the second embodiment, a sound signal of 5 channels is used. Is something that can be processed.

【0100】図6に示すように、この第2の実施の形態
の音響処理装置3は、5チャンネル分の音声信号の入力
端子i1〜i5を備え、例えば、DVDなどのマルチチ
ャンネルの記録媒体からの5チャンネル分の音声信号の
入力を受けることができるものである。そして、図6に
示す音響処理装置3は、ヘッドレスト部30、頭部位置
検出部40、CPU50、データベース60、簡易型ト
ランスオーラルシステムフィルタ部70、音像定位処理
フィルタ部80を備えたものである。
As shown in FIG. 6, the sound processing apparatus 3 according to the second embodiment is provided with input terminals i1 to i5 for audio signals of 5 channels, and, for example, from a multi-channel recording medium such as a DVD. 5 channels of audio signals can be received. The sound processing apparatus 3 shown in FIG. 6 includes a headrest unit 30, a head position detection unit 40, a CPU 50, a database 60, a simplified transaural system filter unit 70, and a sound image localization processing filter unit 80.

【0101】ヘッドレスト部30は、図1に示した第1
の実施の形態の音響処理装置1、および、図5に示した
第1の実施の形態の変形例の音響処理装置2のヘッドレ
スト部30と同様に構成されたものである。また、簡易
型トランスオーラルシステムフィルタ部70は、図5を
用いて前述した第1の実施の形態の変形例の音響処理装
置2の簡易型トランスオーラルシステムフィルタ部70
と同様に構成されたものである。
The headrest portion 30 is the first one shown in FIG.
The sound processing device 1 of the embodiment and the headrest portion 30 of the sound processing device 2 of the modification of the first embodiment shown in FIG. 5 are configured in the same manner. Further, the simplified trans-aural system filter unit 70 is the simplified trans-aural system filter unit 70 of the sound processing device 2 of the modified example of the first embodiment described above with reference to FIG.
It is configured similarly to.

【0102】そして、この第2の実施の形態の音響処理
装置3の音像定位処理フィルタ部80は、基本的には、
第1の実施の形態の音響処理装置の音像定位処理フィル
タ部10と同様の原理に基づいて、スピーカから放音さ
れる音声の音像を定位させるものである。
The sound image localization processing filter section 80 of the sound processing apparatus 3 of the second embodiment is basically
The sound image of the sound emitted from the speaker is localized based on the same principle as that of the sound image localization processing filter unit 10 of the acoustic processing apparatus according to the first embodiment.

【0103】しかし、図6に示すこの第2の実施の形態
の音響処理装置においては、ヘッドレスト部30の左右
のスピーカSL、SRから放音される音声の音像を、図
6において、点線で示した5つの仮想スピーカVS1〜
VS5から放音されているように定位させるようにして
いる。
However, in the sound processing apparatus of the second embodiment shown in FIG. 6, the sound image of the sound emitted from the left and right speakers SL, SR of the headrest portion 30 is shown by the dotted line in FIG. 5 virtual speakers VS1
It is localized as if it were being emitted from VS5.

【0104】図7は、図6に示した第2の実施の形態の
音響処理装置3の音像定位処理フィルタ部80の原理を
説明するための図である。図7に示すように、所定の再
生音場において、ダミーヘッドDHの位置を聴取者の位
置とし、このダミーヘッドDHの位置の聴取者に対し
て、音像を定位させようとする仮想スピーカ位置(スピ
ーカがあるとものと想定する位置)に実際に実スピーカ
SP1〜SP5を設置する。そして、実スピーカSP1
〜SP5のそれぞれから放音される音声のダミーヘッド
DHの左右それぞれの耳までの伝達関数(HRTF)を
予め測定しておく。
FIG. 7 is a diagram for explaining the principle of the sound image localization processing filter section 80 of the acoustic processing apparatus 3 of the second embodiment shown in FIG. As shown in FIG. 7, in a predetermined reproduction sound field, the position of the dummy head DH is set as the position of the listener, and the virtual speaker position (the position of which the sound image is localized with respect to the listener at the position of the dummy head DH ( The actual speakers SP1 to SP5 are actually installed at positions where it is assumed that there are speakers. And the real speaker SP1
The transfer function (HRTF) of the sound emitted from each of SP5 to SP5 to the left and right ears of the dummy head DH is measured in advance.

【0105】図7に示すように、この第2の実施の形態
において、実スピーカSP1からダミーヘッドDHの左
耳までの音声の伝達関数はN11であり、実スピーカS
P1からダミーヘッドDHの右耳までの音声の伝達関数
はN12である。また、実スピーカSP2からダミーヘ
ッドDHの左の耳までの音声の伝達関数はN21であ
り、実スピーカSP2からダミーヘッドDHの右の耳ま
での音声の伝達関数はN22である。
As shown in FIG. 7, in the second embodiment, the transfer function of the sound from the real speaker SP1 to the left ear of the dummy head DH is N11, and the real speaker S
The transfer function of the sound from P1 to the right ear of the dummy head DH is N12. The transfer function of sound from the real speaker SP2 to the left ear of the dummy head DH is N21, and the transfer function of sound from the real speaker SP2 to the right ear of the dummy head DH is N22.

【0106】以下同様に、実スピーカSP3からダミー
ヘッドDHの左右それぞれの耳までの音声の伝達関数
は、N31、N32であり、実スピーカSP4からダミ
ーヘッドDHの左右それぞれの耳までの音声の伝達関数
は、N41、N42である。また、実スピーカSP5か
らダミーヘッドDHの左右それぞれの耳までの音声の伝
達関数は、N51、N52である。
Similarly, the transfer functions of the sound from the real speaker SP3 to the left and right ears of the dummy head DH are N31 and N32, and the transfer of the sound from the real speaker SP4 to the left and right ears of the dummy head DH is performed. The functions are N41 and N42. The transfer functions of the sound from the real speaker SP5 to the left and right ears of the dummy head DH are N51 and N52.

【0107】そして、入力端子i1〜i5のそれぞれか
ら入力される音声信号について、図7を用いて説明した
ように、予め測定した対応する伝達関数を用いて処理す
るとともに、簡易型トランスオーラルシステムフィルタ
部70において補正処理し、その処理後の音声信号によ
る音声をヘッドレスト部30の左右のスピーカSL、S
Rに供給し、音声を放音するようにする。
Then, as described with reference to FIG. 7, the audio signals input from the input terminals i1 to i5 are processed using the corresponding transfer functions measured in advance, and the simplified transaural system filter is used. In the portion 70, the correction processing is performed, and the sound based on the sound signal after the processing is corrected to the left and right speakers SL, S of the headrest portion 30.
It is supplied to R to output sound.

【0108】これにより、ヘッドレスト部30のスピー
カSL、SRから放音される音声が、あたかも図6にお
いて点線で示した仮想スピーカVS1〜VS5が示す位
置から放音されているように視聴者が感じるようにその
音像を定位させることができる。
As a result, the viewer feels that the sound emitted from the speakers SL and SR of the headrest section 30 is emitted from the positions indicated by the virtual speakers VS1 to VS5 indicated by the dotted lines in FIG. So that sound image can be localized.

【0109】このように、音像を定位させるために、予
め測定した音声の伝達関数による処理を行なう部分が、
図6に示した音像定位処理フィルタ部80である。この
実施の形態の音像定位フィルタ処理部80は、前述もし
たように、5チャンネルの音声信号を処理することがで
きるものであり、10個のフィルタ81〜90と、2つ
の加算部91、92とからなるものである。
As described above, in order to localize the sound image, the portion which performs the processing by the transfer function of the voice measured in advance is
The sound image localization processing filter unit 80 shown in FIG. As described above, the sound image localization filter processing unit 80 of this embodiment is capable of processing a 5-channel audio signal, and includes ten filters 81 to 90 and two addition units 91 and 92. It consists of and.

【0110】フィルタ81は、端子i1を通じて供給を
受けた音声信号を伝達関数N11で処理するものであ
り、処理後の音声信号を左チャンネル用の加算部91に
供給する。また、フィルタ82は、端子i2を通じて供
給を受けた音声信号を伝達関数N12で処理するもので
あり、処理後の音声信号を右チャンネル用の加算部92
に供給する。
The filter 81 processes the audio signal supplied through the terminal i1 with the transfer function N11, and supplies the processed audio signal to the adder 91 for the left channel. The filter 82 processes the audio signal supplied through the terminal i2 with the transfer function N12, and the processed audio signal is added to the right channel adder 92.
Supply to.

【0111】フィルタ83は、端子i2を通じて供給を
受けた音声信号を伝達関数N21で処理するものであ
り、処理後の音声信号を左チャンネル用の加算部91に
供給する。また、フィルタ84は、端子i2を通じて供
給を受けた音声信号を伝達関数N22で処理するもので
あり、処理後の音声信号を右チャンネル用の加算部92
に供給する。
The filter 83 processes the audio signal supplied through the terminal i2 with the transfer function N21, and supplies the processed audio signal to the adder 91 for the left channel. The filter 84 processes the audio signal supplied through the terminal i2 with the transfer function N22, and the processed audio signal is added to the right channel adder 92.
Supply to.

【0112】フィルタ85は、端子i3を通じて供給を
受けた音声信号を伝達関数N31で処理するものであ
り、処理後の音声信号を左チャンネル用の加算部91に
供給する。また、フィルタ86は、端子i3を通じて供
給を受けた音声信号を伝達関数N32で処理するもので
あり、処理後の音声信号を右チャンネル用の加算部92
に供給する。
The filter 85 processes the audio signal supplied through the terminal i3 with the transfer function N31, and supplies the processed audio signal to the adder 91 for the left channel. The filter 86 processes the audio signal supplied through the terminal i3 with the transfer function N32, and the processed audio signal is added to the right channel adder 92.
Supply to.

【0113】フィルタ87は、端子i4を通じて供給を
受けた音声信号を伝達関数N41で処理するものであ
り、処理後の音声信号を左チャンネル用の加算部91に
供給する。また、フィルタ88は、端子i4を通じて供
給を受けた音声信号を伝達関数N42で処理するもので
あり、処理後の音声信号を右チャンネル用の加算部92
に供給する。
The filter 87 processes the audio signal supplied through the terminal i4 with the transfer function N41, and supplies the processed audio signal to the adder 91 for the left channel. The filter 88 processes the audio signal supplied through the terminal i4 with the transfer function N42, and the processed audio signal is added to the right channel adder 92.
Supply to.

【0114】フィルタ89は、端子i5を通じて供給を
受けた音声信号を伝達関数N51で処理するものであ
り、処理後の音声信号を左チャンネル用の加算部91に
供給する。また、フィルタ90は、端子i5を通じて供
給を受けた音声信号を伝達関数N52で処理するもので
あり、処理後の音声信号を右チャンネル用の加算部92
に供給する。
The filter 89 processes the audio signal supplied through the terminal i5 with the transfer function N51, and supplies the processed audio signal to the adder 91 for the left channel. The filter 90 processes the audio signal supplied through the terminal i5 with the transfer function N52, and the processed audio signal is added to the right channel adder 92.
Supply to.

【0115】これにより、左チャンネル用の加算部91
からの出力音声信号による音声と、右チャンネル用の加
算部92からの出力音声信号による音声とは、図6にお
いて点線で示した仮想スピーカVS1〜VS5の位置か
ら放音されるように音像が定位するようにされる。
Thus, the adder 91 for the left channel is used.
6 and the sound by the output sound signal from the adder 92 for the right channel are localized so that sound is localized from the positions of the virtual speakers VS1 to VS5 shown by the dotted lines in FIG. To be done.

【0116】そして、この第2の実施の形態の音響処理
装置3の場合にも、第1の実施の形態の音響処理装置
1、2の場合と同様に、ヘッドレスト部30に設けられ
た左スピーカSL、右スピーカSRから放音される音声
は、音像定位処理が施されていても、実際の再生音場に
おける伝達関数の影響を受けて、再生音声の音像を目的
とする仮想スピーカ位置に定位させることができない場
合があると考えられる。
Also in the case of the sound processing device 3 of the second embodiment, as in the case of the sound processing devices 1 and 2 of the first embodiment, the left speaker provided in the headrest portion 30. The sound emitted from the SL and the right speaker SR is localized at the target virtual speaker position of the sound image of the reproduced sound due to the influence of the transfer function in the actual reproduced sound field even if the sound image localization processing is performed. It is thought that there are cases where it cannot be done.

【0117】そこで、この第2の実施の形態の音響処理
装置3においても、クロストーク成分を考慮しない簡易
型のトランスオーラルシステムフィルタ部70を用いる
ことによって、ヘッドレスト部30の左右のスピーカS
L、SRから放音される音声の音像が、正確に各仮想ス
ピーカVS1〜VS5の各位置に定位するようにしてい
る。
Therefore, also in the sound processing device 3 of the second embodiment, the left and right speakers S of the headrest unit 30 are used by using the simplified transaural system filter unit 70 which does not consider the crosstalk component.
The sound image of the sound emitted from L and SR is accurately localized at each position of each virtual speaker VS1 to VS5.

【0118】このように、DVDなどのマルチチャンネ
ルの音源を持つメディアも普及してきているが、この第
2の実施の形態の音響処理装置3のように、5チャンネ
ルの音声信号を処理できるようにしておくことによっ
て、ヘッドレスト部30の2つのスピーカSL、SRを
通じて、仮想的な5チャンネルの音像を得て、迫力ある
再生音声を楽しむことができる。
As described above, a medium having a multi-channel sound source such as a DVD has become widespread, but it is possible to process a 5-channel audio signal like the audio processing apparatus 3 of the second embodiment. By so doing, a virtual five-channel sound image can be obtained through the two speakers SL and SR of the headrest section 30, and a powerful reproduced sound can be enjoyed.

【0119】また、聴取者の頭部が動くことにより、ヘ
ッドレスト部30に対する聴取者の頭部の位置が変わっ
た場合であっても、前述した第1の実施の形態の音響処
理装置1、2の場合と同様に、ヘッドレスト部30に対
する聴取者の頭部の位置を検出し、その位置に応じて簡
易型トランスオーラルシステムフィルタ部70のフィル
タ71、72の関数やパラメータを変更することによ
り、ヘッドレスト部30の左右のスピーカSL、SRか
ら放音される音声を仮想スピーカ位置に定位させること
ができる。
Further, even when the position of the listener's head with respect to the headrest portion 30 changes due to the listener's head moving, the sound processing apparatus 1, 2 of the first embodiment described above. The position of the listener's head with respect to the headrest unit 30 is detected, and the functions and parameters of the filters 71 and 72 of the simplified transaural system filter unit 70 are changed according to the position, as in the case of The sounds emitted from the left and right speakers SL and SR of the unit 30 can be localized at the virtual speaker positions.

【0120】すなわち、この第2の実施の形態において
も、第1の実施の形態の音響処理装置1、2の場合と同
様に、ヘッドレスト部30の左右のスピーカSL、SR
のスーパーツイータから超音波を送信し、この送信した
超音波の聴取者の頭部からの反射波をスーパーツイータ
が受信し、これに基づいて、検出部40が、聴取者の頭
部の位置を検出し、その位置における伝達関数の影響を
除去するように簡易型トランスオーラルシステムフィル
タ部70で補正処理することにより音像を所定の仮想ス
ピーカ位置に定位させることができる。
That is, also in the second embodiment, the left and right speakers SL and SR of the headrest portion 30 are the same as in the case of the sound processing devices 1 and 2 of the first embodiment.
The super tweeter transmits an ultrasonic wave, and the super tweeter receives a reflected wave of the transmitted ultrasonic wave from the listener's head. Based on this, the detection unit 40 determines the position of the listener's head. The sound image can be localized at a predetermined virtual speaker position by detecting and correcting by the simplified transaural system filter unit 70 so as to remove the influence of the transfer function at that position.

【0121】なお、この第2の実施の形態においては、
簡易型トランスオーラルシステムフィルタ部70を用い
るようにしたが、図1に示した第1の実施の形態の音響
処理装置1の場合と同様に、クロストーク成分をも考慮
したトランスオーラルシステムフィルタ20を用いるよ
うにしてもよい。
In the second embodiment,
Although the simplified trans-aural system filter unit 70 is used, the trans-aural system filter 20 that also takes the crosstalk component into consideration is used as in the case of the acoustic processing apparatus 1 according to the first embodiment shown in FIG. You may use it.

【0122】また、図2、図4、図5に示した音響処理
装置の全部をヘッドレスト部30側に設けるようにする
ことにより、前述した第1の実施の形態の音響処理装置
のヘッドレスト部30のように、ヘッドレスト部を背も
たれ部から取り外しが可能なように構成することによっ
て、当該ヘッドレスト部を他の椅子の背もたれ部に装着
するようにした場合にも、常時所定の位置に音像を定位
させ、良好に音声の聴取ができるようにすることができ
る。
Further, by providing all of the sound processing apparatus shown in FIGS. 2, 4 and 5 on the headrest section 30 side, the headrest section 30 of the sound processing apparatus of the first embodiment described above. As described above, by configuring the headrest portion to be removable from the backrest portion, even when the headrest portion is attached to the backrest portion of another chair, the sound image is always localized at a predetermined position. , It is possible to listen to the voice satisfactorily.

【0123】また、左右のスピーカ以外の各部からなる
アダプタを構成し、このアダプタと、スピーカを設けた
ヘッドレスト部とにより、この発明による音響処理装置
を構成するようにすることもできる。また、左右のスピ
ーカSL、SR以外の各部を、例えば、椅子の背もたれ
部に設けたり、音声信号の再生機器側に設けたりするこ
とにより、この発明の音響処理装置を構成することもで
きる。
It is also possible to construct an adapter including each part other than the left and right speakers, and to configure the sound processing device according to the present invention with this adapter and the headrest part provided with the speaker. Further, the sound processing device of the present invention can be configured by providing each part other than the left and right speakers SL and SR, for example, on the backrest part of the chair or on the reproduction device side of the audio signal.

【0124】なお、前述した第1、第2の実施の形態の
音響処理装置においては、ヘッドレスト部30に搭載さ
れたスピーカSL、SRのスーパーツイータを聴取者の
頭部の位置を検出するための超音波の送信部として、ま
た、送信された超音波が聴取者の頭部にあって戻ってく
る反射波を受信するための受信部として用いるようにし
た。
In the sound processing devices of the first and second embodiments described above, the super tweeters of the speakers SL and SR mounted on the headrest section 30 are used to detect the position of the listener's head. The ultrasonic wave is used as a transmitting unit and also as a receiving unit for receiving a reflected wave of the transmitted ultrasonic wave in the head of the listener.

【0125】したがって、超音波の送信部、受信部とも
新たに設ける必要がないので、比較的に安価に、聴取者
の頭部の位置を検出する機能を搭載した音響処理装置を
実現することができる。
Therefore, since it is not necessary to newly provide an ultrasonic wave transmitting unit and an ultrasonic wave receiving unit, it is possible to realize a sound processing apparatus equipped with a function of detecting the position of the listener's head relatively inexpensively. it can.

【0126】そして、前述した第1、第2の実施の形態
の場合には、ヘッドレスト部30に対する聴取者の頭部
の位置を、常に、あるいは、随時に測定し、その測定し
た位置に応じた伝達関数に応じた補正処理(トランスオ
ーラル処理)することで、従来のような聴取者の頭部の
測定位置と聴取位置の不正合による仮想スピーカ定位効
果の不足の状態を避け、聴取者の頭部の位置に左右され
ることなく、第1の実施の形態のように音像の前方定位
や第2の実施の形態のように音像の全周囲定位などの効
果を実現することができる。
In the case of the above-described first and second embodiments, the position of the listener's head with respect to the headrest portion 30 is measured constantly or at any time, and the position is measured according to the measured position. By performing the correction processing (trans-aural processing) according to the transfer function, it is possible to avoid the conventional situation where the virtual speaker localization effect is insufficient due to the mismatch between the measurement position of the listener's head and the listening position, and to avoid the listener's head. It is possible to realize effects such as the front localization of the sound image as in the first embodiment and the omnidirectional localization of the sound image as in the second embodiment without being influenced by the position of the part.

【0127】[第3の実施の形態]ところで、より高品
位の音声の提供が可能な音響処理装置を実現するため
に、ヘッドレスト部に対する聴取者の頭部の位置の検出
精度を上げ、音声信号に対するトランスオーラルシステ
ムによる補正処理をより厳密に行なえるようにしたいと
する要求がある。
[Third Embodiment] By the way, in order to realize a sound processing apparatus capable of providing higher-quality sound, the accuracy of detecting the position of the listener's head with respect to the headrest portion is increased, and the sound signal is detected. There is a demand for more precise correction processing by the trans-aural system with respect to.

【0128】そこで、この第3の実施の形態の音響処理
装置においても、聴取者の頭部の位置を検出するための
超音波を、前述した第1、第2の実施の形態の音響処理
装置の場合と同様に、ヘッドレスト部30に設けられた
スピーカSL、SRのスーパーツイータから送信する。
Therefore, also in the sound processing apparatus of the third embodiment, ultrasonic waves for detecting the position of the listener's head are used as the sound processing apparatus of the first and second embodiments. In the same manner as in the above case, the signals are transmitted from the super tweeters of the speakers SL and SR provided in the headrest section 30.

【0129】しかし、この第3の実施の形態の音響処理
装置においては、送信された超音波の反射波は、ヘッド
レスト部30、あるいは、その近傍に設ける複数個の超
音波受信素子によって受信するようにし、より精度よく
聴取者の頭部の位置を検出できるようにしたものであ
る。
However, in the acoustic processing apparatus of the third embodiment, the reflected waves of the transmitted ultrasonic waves are received by the headrest section 30 or a plurality of ultrasonic receiving elements provided in the vicinity thereof. The position of the listener's head can be detected more accurately.

【0130】図8は、この第3の実施の形態の音響処理
装置4を説明するためのブロック図である。図8に示す
ように、この第3の実施の形態の音響処理装置4は、左
右2チャンネルのスピーカSL、SRと、複数個の超音
波受信素子とが設けられたヘッドレスト90と、複数個
の受信素子からの検出出力を受け付ける頭部位置検出部
40A以外は、図1に示した第1の実施の形態の音響処
理装置と同様に構成されたものであるこのため、図8に
示す第3の実施の形態の音響処理装置4において、図1
に示した第1の実施の形態の音響処理装置1と同様に構
成される部分には、第1の実施の形態の音響処理装置1
と同様の参照符号を付し、その部分の説明は省略するこ
とにする。
FIG. 8 is a block diagram for explaining the sound processing apparatus 4 according to the third embodiment. As shown in FIG. 8, the sound processing device 4 according to the third embodiment includes left and right two-channel speakers SL and SR, a headrest 90 provided with a plurality of ultrasonic receiving elements, and a plurality of headrests 90. Except for the head position detecting unit 40A that receives the detection output from the receiving element, the acoustic processing device has the same configuration as that of the acoustic processing device according to the first embodiment shown in FIG. 1. Therefore, the third processing shown in FIG. In the sound processing device 4 of the embodiment of FIG.
The same parts as those of the sound processing apparatus 1 of the first embodiment shown in FIG.
The same reference numerals are given and the description of those portions will be omitted.

【0131】そして、上述もしたように、図8に示すこ
の第3の実施の形態の音響処理装置4の場合には、ヘッ
ドレスト部90に、6つの超音波受信素子(超音波感知
素子)SS1〜SS6をアレイ状に設けている。そし
て、左チャンネルSLのスーパーツイータと、右チャン
ネルSRのスーパーツイータから、周波数の異なる超音
波を送信し、その反射波を超音波受信素子(以下、単に
受信素子という。)SS1〜SS6で受信し、その検出
出力に基づいて、検出部40Aが聴取者の頭部の位置を
より正確に検出することができるようにしている。
As described above, in the case of the acoustic processing device 4 of the third embodiment shown in FIG. 8, the headrest portion 90 has six ultrasonic receiving elements (ultrasonic sensing elements) SS1. ~ SS6 are provided in an array. Then, ultrasonic waves having different frequencies are transmitted from the super tweeter of the left channel SL and the super tweeter of the right channel SR, and the reflected waves are received by the ultrasonic wave receiving elements (hereinafter, simply referred to as receiving elements) SS1 to SS6. Based on the detection output, the detection unit 40A can detect the position of the listener's head more accurately.

【0132】図9は、この第3の実施の形態の音響処理
装置において行なう聴取者の頭部の位置の検出処理を説
明するための図である。図9に示すように、本来聴取者
の頭部がある方向にその放音面が向けられた左右のスピ
ーカSL、SRから、異なる周波数の超音波を送信し、
この送信した超音波の聴取者の頭部からの反射波を受信
素子SS1〜SS6により受信するようにする。
FIG. 9 is a diagram for explaining the process of detecting the position of the listener's head, which is performed in the sound processing device according to the third embodiment. As shown in FIG. 9, ultrasonic waves of different frequencies are transmitted from the left and right speakers SL and SR whose sound emitting surfaces are originally oriented in the direction where the listener's head exists.
The reflected waves from the listener's head of the transmitted ultrasonic waves are received by the receiving elements SS1 to SS6.

【0133】この図9に示す例の場合、左スピーカSL
のスーパーツイータからは、周波数が40kHzの超音
波を送信し、右スピーカSRのスーパーツイータから
は、周波数が50kHzの超音波を送信するようにして
いる。このようにすることによって、位置検出の精度を
より向上させるようにしている。
In the case of the example shown in FIG. 9, the left speaker SL
The super tweeter of No. 2 transmits an ultrasonic wave having a frequency of 40 kHz, and the super tweeter of the right speaker SR transmits an ultrasonic wave of a frequency of 50 kHz. By doing so, the accuracy of position detection is further improved.

【0134】そして、図9Aに示すように、ヘッドレス
ト部90に設けられた受信素子SS1〜SS6のいずれ
もが、左右のスピーカSL、SRのスーパーツイータか
ら送信された超音波の反射波を受信できない場合には、
聴取者の頭部の位置は、ヘッドレスト90から所定の距
離以上離れた位置にあると検出することができる。
As shown in FIG. 9A, none of the receiving elements SS1 to SS6 provided in the headrest section 90 can receive the reflected waves of the ultrasonic waves transmitted from the super tweeters of the left and right speakers SL and SR. in case of,
The position of the listener's head can be detected as being located away from the headrest 90 by a predetermined distance or more.

【0135】また、図9Bに示すように、左スピーカS
Lのスーパーツイータから送信した超音波の聴取者の頭
部からの反射波、すなわち、40kHzの超音波が受信
素子SS3により受信され、かつ、右スピーカSRのス
ーパーツイータから送信した超音波の聴取者の頭部から
の反射波、すなわち、50kHzの超音波が受信素子S
S1により受信された場合には、聴取者の頭部の位置
は、ヘッドレスト部90の左スピーカSL側によった位
置にあると検出することができる。
As shown in FIG. 9B, the left speaker S
The listener of the ultrasonic waves transmitted from the super tweeter of L, that is, the reflected wave from the head of the listener, that is, the ultrasonic wave of 40 kHz is received by the receiving element SS3 and transmitted from the super tweeter of the right speaker SR. Waves reflected from the head of the user, that is, ultrasonic waves of 50 kHz are received by the receiving element S.
When received in S1, it is possible to detect that the position of the listener's head is at the position on the left speaker SL side of the headrest portion 90.

【0136】また、図示しないが、図9Bの場合とは逆
に、左スピーカSLのスーパーツイータから送信した超
音波の聴取者の頭部からの反射波、すなわち、40kH
zの超音波が受信素子SS6により受信され、かつ、右
スピーカSRのスーパーツイータから送信した超音波の
聴取者の頭部からの反射波、すなわち、50kHzの超
音波が受信素子SS4が受信した場合には、聴取者の頭
部の位置は、ヘッドレスト部90の右スピーカSL側に
よった位置にあると検出することができる。
Although not shown, contrary to the case of FIG. 9B, the reflected wave from the listener's head of the ultrasonic wave transmitted from the super tweeter of the left speaker SL, that is, 40 kHz.
When the ultrasonic wave of z is received by the receiving element SS6 and the reflected wave from the listener's head of the ultrasonic wave transmitted from the super tweeter of the right speaker SR, that is, the ultrasonic wave of 50 kHz is received by the receiving element SS4. In addition, it is possible to detect that the position of the listener's head is at a position according to the right speaker SL side of the headrest portion 90.

【0137】さらに、図9Cに示すように、左スピーカ
SLのスーパーツイータから送信した超音波の聴取者の
頭部からの反射波、すなわち、40kHzの超音波が受
信素子SS3により受信され、かつ、右スピーカSRの
スーパーツイータから送信した超音波の聴取者の頭部か
らの反射波、すなわち、50kHzの超音波が受信素子
SS4が受信した場合には、聴取者の頭部の位置は、ヘ
ッドレスト部90の左右のスピーカSL、SRのちょう
ど中間の位置にあると検出することができる。
Further, as shown in FIG. 9C, the reflected wave from the listener's head of the ultrasonic wave transmitted from the super tweeter of the left speaker SL, that is, the ultrasonic wave of 40 kHz is received by the receiving element SS3, and When the receiving element SS4 receives the reflected wave from the listener's head of the ultrasonic wave transmitted from the super tweeter of the right speaker SR, that is, the position of the listener's head is determined by the headrest part. It can be detected that it is at a position exactly in the middle of the left and right speakers SL, SR of 90.

【0138】このように、左右のスピーカSL、SRの
スーパーツイータから送信される、周波数の異なる超音
波をヘッドレスト部90にアレイ状に設けられた6つの
受信素子の内のどの受信素子が受信したかに応じて、ヘ
ッドレスト部90に対する聴取者の頭部のオフセット
(ずれ分)を検出することができる。
As described above, which of the six receiving elements arrayed in the headrest 90 receives the ultrasonic waves of different frequencies transmitted from the super tweeters of the left and right speakers SL and SR. Depending on whether the head rest 90 is offset by the listener's head, the offset (deviation) can be detected.

【0139】さらに、左右のスピーカのスーパーツイー
タから送信される超音波について、その送信から受信素
子により受信されるまでの時間を計測しておくことによ
り、当該時間と超音波の速度とに応じて、ヘッドレスト
部90から聴取者の頭部までの距離を検出することがで
きる。これらヘッドレスト部90に対する聴取者の頭部
のオフセット、および、距離に基づいて、ヘッドレスト
部90に対する聴取者の頭部の位置をより正確に検出す
ることができる。
Furthermore, by measuring the time from the transmission of the ultrasonic waves transmitted from the super tweeters of the left and right speakers to the reception by the receiving element, it is possible to determine the time depending on the time and the speed of the ultrasonic waves. The distance from the headrest portion 90 to the listener's head can be detected. The position of the listener's head with respect to the headrest portion 90 can be detected more accurately based on the offset of the listener's head with respect to the headrest portion 90 and the distance.

【0140】そして、検出部40Aは、ヘッドレスト部
90にアレイ状に設けられた各受信素子からの検出出力
に基づいて聴取者の頭部の正確な位置を検出する。すな
わち、検出部40Aは、上述したように、どの受信素子
によって、左右それぞれのスピーカのスーパーツイータ
から送信された超音波を受信したか、さらに、左右それ
ぞれのスピーカのスーパーツイータから送信された超音
波の送信から受信までの時間を考慮して、聴取者の頭部
の位置を検出する。
Then, the detecting section 40A detects the accurate position of the listener's head based on the detection output from each receiving element provided in the headrest section 90 in an array. That is, as described above, the detection unit 40A determines which of the receiving elements receives the ultrasonic waves transmitted from the super tweeters of the left and right speakers, and further the ultrasonic waves transmitted from the super tweeters of the left and right speakers. The position of the listener's head is detected in consideration of the time from transmission to reception.

【0141】そして、CPU50は、前述した第1の実
施の形態の音響処理装置1のCPU50の場合と同様
に、検出部40Aからのヘッドレスト部90に対する現
在の聴取者の頭部の位置に対応するデータをデータベー
ス60から読み出し、読み出したデータ(係数データ、
関数データ、あるいは、パラメータなど)をトランスオ
ーラルシステムフィルタ部20の目的とするフィルタ2
1、22、23、24に供給する。
The CPU 50 corresponds to the current position of the listener's head with respect to the headrest 90 from the detector 40A, as in the case of the CPU 50 of the sound processing apparatus 1 according to the first embodiment. The data is read from the database 60, and the read data (coefficient data,
Filter 2 for which the transaural system filter unit 20 uses function data or parameters)
1, 22, 23, 24.

【0142】これにより、トランスオーラルシステム部
20においては、ヘッドレスト部90に対する現在の聴
取者の頭部の位置に応じて、音像定位処理後の音声信号
に対する補正処理が行なわれ、補正後の音声信号が左右
のスピーカSL、SRに供給され、ヘッドレスト部90
に対して聴取者の頭部の位置が変わってしまっても、左
右のスピーカから放音される音声の音像を仮想スピーカ
位置に定位させることができる。
As a result, the transaural system unit 20 performs a correction process on the audio signal after the sound image localization process according to the current position of the head of the listener with respect to the headrest unit 90, and the corrected audio signal. Are supplied to the left and right speakers SL, SR, and the headrest portion 90
On the other hand, even if the position of the listener's head changes, the sound image of the sound emitted from the left and right speakers can be localized at the virtual speaker position.

【0143】そして、前述した第1〜第3の実施の形態
の音響処理装置1、2、3、4の場合には、聴取者の頭
部の位置の検出に超音波を用いている。超音波は人間の
耳では音として聴取することはできないので、聴取者に
頭部の検出処理を行なっていることを気付かれることが
ない。
In the case of the sound processing devices 1, 2, 3, 4 of the above-described first to third embodiments, ultrasonic waves are used to detect the position of the listener's head. Since ultrasonic waves cannot be heard as sound by the human ear, the listener will not be aware that he or she is performing head detection processing.

【0144】また、通常の音楽成分であれば、検出精度
(測定精度)にかかわるほどの超音波成分は含まれてい
ないため、聴取目的の再生音声(音楽信号)との干渉が
問題になることはない。すなわち、音楽の再生中におい
て、再生音声を劣化させることなく、かつ、聴取者に気
付かれることなく、スピーカに対する聴取者の位置を測
定し、検出することが可能である。
In addition, since a normal music component does not include an ultrasonic wave component that affects detection accuracy (measurement accuracy), interference with a reproduced sound (music signal) for listening becomes a problem. There is no. That is, during the reproduction of music, it is possible to measure and detect the position of the listener with respect to the speaker without deteriorating the reproduced sound and without the listener being aware of it.

【0145】なお、前述した第3の実施の形態の音響処
理装置4においては、6つの超音波受信素子をヘッドレ
スト部90に設けるようにしたが、これに限るものでは
なく、さらに多くの超音波受信素子を用いるようにして
ももちろんよいし、複数の受信素子を複数列設けるよう
にしてもよい。また、受信素子間の間隔や左右のスピー
カSL、SRの放音面の向きなどを適宜調整するように
することもできる。
In the acoustic processing device 4 of the third embodiment described above, six ultrasonic wave receiving elements are provided in the headrest portion 90, but the number of ultrasonic wave receiving elements is not limited to this, and more ultrasonic waves can be transmitted. Of course, the receiving elements may be used, or a plurality of receiving elements may be provided in a plurality of rows. Further, it is possible to appropriately adjust the distance between the receiving elements and the orientation of the sound emitting surfaces of the left and right speakers SL and SR.

【0146】また、超音波受信素子を設ける位置は、ヘ
ッドレスト部90やその近傍のほか、聴取者の頭部から
の反射の受信が可能な任意の場所に設けるようにしても
よい。
Further, the ultrasonic receiving element may be provided at any position where the reflection from the head of the listener can be received in addition to the headrest 90 and its vicinity.

【0147】また、トランスオーラルシステムフィルタ
部20に変えて、図5に示した第1の実施の形態の変形
例において用いるようにした簡易型トランスオーラルシ
ステム部70を用いるようにしてもよい。また、2チャ
ンネルの音像定位処理フィルタ部10に変えて、多チャ
ンネル、例えば、5チャンネルの音像定位処理フィルタ
80を用いるようにしてもよい。
Further, instead of the transaural system filter section 20, the simplified transaural system section 70 used in the modification of the first embodiment shown in FIG. 5 may be used. Instead of the 2-channel sound image localization processing filter section 10, a multi-channel, for example, 5-channel sound image localization processing filter 80 may be used.

【0148】したがって、前述した第3の実施の形態の
音響処理装置の場合にも、前述した第1、第2の実施の
形態の音響処理装置の場合と同様に、ヘッドレスト部9
0に対する聴取者の頭部の位置を、常に、あるいは、随
時に測定し、その測定した位置に応じた伝達関数に応じ
た補正処理(トランスオーラル処理)することで、従来
のような聴取者の頭部の測定位置と聴取位置の不正合に
よる仮想スピーカ定位効果の不足の状態を避け、聴取者
の頭部の位置に左右されることなく、音像の前方定位や
音像の全周囲定位などの効果を実現することができる。
Therefore, also in the case of the sound processing apparatus of the third embodiment described above, as in the case of the sound processing apparatus of the first and second embodiments described above, the headrest portion 9
The position of the listener's head with respect to 0 is measured constantly or at any time, and correction processing (transaural processing) according to the transfer function according to the measured position is performed, so that Avoiding a situation where the virtual speaker localization effect is insufficient due to an incorrect combination of the measurement position of the head and the listening position, and effects such as front localization of the sound image and all-around localization of the sound image without being influenced by the position of the listener's head. Can be realized.

【0149】[第4の実施の形態]前述した第1〜第3
の実施の形態においては、スピーカが設けられたヘッド
レスト部に対する聴取者の頭部の位置を超音波を送信
し、その反射波を受信することにより検出するようにし
た。しかし、聴取者の頭部の位置検出は、超音波を用い
るものに限るものではない。
[Fourth Embodiment] The first to third embodiments described above.
In the above embodiment, the position of the listener's head with respect to the headrest portion provided with the speaker is detected by transmitting ultrasonic waves and receiving the reflected waves. However, the position detection of the listener's head is not limited to that using ultrasonic waves.

【0150】例えば、音声だけでなく画像の送受信が可
能なテレビ電話が家庭において用いられるようになって
きている。そこで、例えば図10に示すように、テレビ
セット(TVセット)200と左右2チャンネルのスピ
ーカSR、SLが設けられたヘッドレスト部30を有す
る音響処理装置が搭載された椅子とにより、いわゆるホ
ームシアターシステムを構築するような場合には、通常
はテレビ電話用として用いられるCCDカメラ210
を、ヘッドレスト部30に対する聴取者の頭部の位置検
出に用いることができる。
For example, videophones capable of transmitting and receiving not only voice but also images have been used at home. Then, for example, as shown in FIG. 10, a so-called home theater system is provided by a TV set 200 and a chair equipped with an acoustic processing device having a headrest portion 30 provided with left and right two-channel speakers SR and SL. In the case of construction, a CCD camera 210 normally used for a videophone
Can be used to detect the position of the listener's head with respect to the headrest portion 30.

【0151】また、自動車内(車室内)において音楽な
どの音声を聴取するようにすることも多い。そこで、図
11に示すように、自動車内の座席に左右2チャンネル
のスピーカ(SL1、SR1またはSL2、SR2)を
搭載したヘッドレスト部を設けることにより音響処理装
置を構成することが考えられる。このような場合に、自
動車内に例えばテレビ電話用のCCDカメラ310を搭
載することにより、当該テレビ電話用のCCDカメラ3
10をヘッドレスト部に対する聴取者の頭部の位置検出
に用いることが可能となる。
In addition, it is often the case that a voice such as music is heard inside the automobile (inside the vehicle). Therefore, as shown in FIG. 11, it is conceivable to configure a sound processing device by providing a headrest portion in which a left and right two-channel speaker (SL1, SR1 or SL2, SR2) is mounted on a seat in an automobile. In such a case, for example, by mounting the CCD camera 310 for the videophone in the automobile, the CCD camera 3 for the videophone can be mounted.
10 can be used to detect the position of the listener's head with respect to the headrest portion.

【0152】なお、現状においても、数種類の自動車に
おいては、死角を排除するなどのために、自動車の外側
にCCDカメラを設け、このCCDカメラを通じて撮像
するようにした画像を車内のディスプレイに表示して観
視できるようにしたものも提供されており、自動車内撮
像用のCCDカメラを自動車に搭載することも可能であ
る。
Even under the current circumstances, in some types of automobiles, a CCD camera is provided outside the automobile to eliminate blind spots and the like, and an image captured through the CCD camera is displayed on the display in the automobile. There is also provided a camera which can be viewed, and it is possible to mount a CCD camera for capturing an image inside the vehicle on the vehicle.

【0153】そこで、この第4の実施の形態の音響処理
装置は、スピーカが設けられたヘッドレスト部に対する
聴取者の頭部の位置を家庭内や自動車内に設けられるC
CDカメラ(CCD装置)を用い、聴取者の頭部がスピ
ーカに対してどれ位オフセットして座っているかをリア
ルタイムに把握し、その位置に適した伝達関数をシステ
ムに使用することで、より自由な姿勢で仮想スピーカ定
位効果を楽しむことができるようにしたものである。
Therefore, in the sound processing apparatus of the fourth embodiment, the position of the listener's head with respect to the headrest portion provided with the speaker is set at home or in a car.
By using a CD camera (CCD device) to grasp in real time how much the listener's head is sitting with respect to the speaker, and using the transfer function suitable for that position in the system, more freedom is achieved. This allows the virtual speaker localization effect to be enjoyed in various postures.

【0154】なお、この第4の実施の形態の音響処理装
置5もまた、前述した第1の実施の形態の音響処理装置
1の場合と同様に、左右2チャンネルの音声信号を処理
することができるものであり、ヘッドレスト部に設けら
れた左右2チャンネルのスピーカから放音される音声の
音像を聴取者の前方方向に定位させることができるもの
である。すなわち、音響処理装置5は、ヘッドレスト部
に設けられた左右2チャンネルのスピーカから放音され
る音声を仮想スピーカVSL、VSRから放音されたよ
うに音像を定位させることができるものである。
The sound processing device 5 of the fourth embodiment can also process the left and right two-channel audio signals as in the case of the sound processing device 1 of the first embodiment described above. The sound image of the sound emitted from the left and right two-channel speakers provided in the headrest portion can be localized in the front direction of the listener. That is, the sound processing device 5 can localize the sound image as if the sound emitted from the left and right two-channel speakers provided in the headrest portion were emitted from the virtual speakers VSL and VSR.

【0155】図12は、この第4の実施の形態の音響処
理装置5を説明するためのブロック図である。この図1
2に示す音響処理装置5は、図10、図11を用いて説
明したように、家庭の室内や自動車内に設けられるよう
にされるものである。そして、この図12に示す音響処
理装置5は、CCDカメラ210と、このCCDカメラ
210によって撮像された画像を解析し、ヘッドレスト
部30に対する聴取者の頭部の位置を検出するようにす
る画像解析部40Dを除けば、図1に示した第1の実施
の形態の音響処理装置1と同様に構成されたものであ
る。
FIG. 12 is a block diagram for explaining the sound processing device 5 of the fourth embodiment. This Figure 1
As described with reference to FIGS. 10 and 11, the sound processing device 5 shown in FIG. 2 is provided in a home room or an automobile. Then, the sound processing device 5 shown in FIG. 12 analyzes the CCD camera 210 and the image captured by the CCD camera 210, and image analysis for detecting the position of the listener's head with respect to the headrest portion 30. Except for the portion 40D, the configuration is similar to that of the acoustic processing device 1 of the first embodiment shown in FIG.

【0156】このため、図12に示すこの第4の実施の
形態の音響処理装置5において、図1に示した第1の実
施の形態の音響処理装置1と同様に構成される部分に
は、同じ参照符号を付し、その部分の説明については省
略する。
For this reason, in the sound processing device 5 of the fourth embodiment shown in FIG. 12, the parts configured in the same manner as the sound processing device 1 of the first embodiment shown in FIG. The same reference numerals are given and the description of those portions is omitted.

【0157】そして、この第4の実施の形態の音響処理
装置5において、CCDカメラ210は、聴取者方向に
向けられてセットされ、常に聴取者方向の画像を撮像す
ることができるようにされている。そして、CCDカメ
ラ210は、例えば、CPU50からの制御により、音
響処理装置5が動作している間、常時、あるいは、所定
のタイミング毎に聴取者方向の画像を撮像し、撮像した
画像を画像解析部40Dに供給する。
In the sound processing device 5 of the fourth embodiment, the CCD camera 210 is set so as to face the direction of the listener so that an image always in the direction of the listener can be picked up. There is. Then, the CCD camera 210, under the control of the CPU 50, for example, constantly captures an image in the direction of the listener while the acoustic processing device 5 is operating, or at every predetermined timing, and analyzes the captured image. Supply to the section 40D.

【0158】画像解析部40Dは、CCDカメラ210
からの画像データの解析処理を行ない、ヘッドレスト部
30に対する聴取者の頭部の位置を検出し、これをCP
U50に通知する。具体的には、聴取者が座る椅子や座
席のヘッドレスト部分などの所定の位置に目印をつけて
おくことにより、ヘッドレスト部30のスピーカの位置
を画像処理的に確認できるようにしておく。
The image analysis section 40D includes a CCD camera 210.
The image data from the image is analyzed and the position of the listener's head with respect to the headrest portion 30 is detected.
Notify U50. Specifically, the position of the speaker of the headrest portion 30 can be confirmed by image processing by marking a predetermined position such as a chair on which the listener sits or a headrest portion of the seat.

【0159】そして、聴取者は、椅子に座っている状態
でも必ず少しではあるが動いているので、これを利用
し、静止画像の時間軸差分を取ることにより、聴取者の
エッジ部分が抽出できる。この聴取者のエッジ部分とス
ピーカの位置とにより、聴取者の頭部とヘッドレスト部
30のスピーカSL、SRとの位置関係がわかる。
Since the listener is always moving even while sitting on the chair, the edge part of the listener can be extracted by using this and taking the time-axis difference of the still image. . From the edge portion of the listener and the position of the speaker, the positional relationship between the listener's head and the speakers SL and SR of the headrest portion 30 can be known.

【0160】CPU50は、画像解析部40Dからの検
出結果(聴取者の頭部の位置)に基づいて、データベー
ス60に記憶されている係数データを読み出し、これを
トランスオーラルシステムフィルタ部20の対応するフ
ィルタに供給する。
The CPU 50 reads the coefficient data stored in the database 60 based on the detection result (the position of the listener's head) from the image analysis section 40D, and the coefficient data stored in the database 60 corresponds to the transaural system filter section 20. Supply to the filter.

【0161】これにより、トランスオーラルシステムフ
ィルタ部20においては、音像定位処理された音声信号
に対して、聴取者の頭部の位置に応じた補正が施され、
ヘッドレスト部30に対する聴取者の頭部の位置が変わ
った場合であっても、ヘッドレスト部30の左右のスピ
ーカSL、SRから放音された音声の音像を仮想スピー
カVSL、VSRから放音されているように定位させる
ことができる。
As a result, in the transaural system filter section 20, the sound signal subjected to the sound image localization processing is corrected in accordance with the position of the listener's head,
Even when the position of the listener's head with respect to the headrest portion 30 changes, the sound images of the sounds emitted from the left and right speakers SL and SR of the headrest portion 30 are emitted from the virtual speakers VSL and VSR. Can be localized as.

【0162】なお、CCDカメラ210によって撮像し
た画像を解析する場合には、ヘッドレスト部30の頭部
接触面に対して直交する方向である縦方向に頭部が移動
した場合と、ヘッドレスト部30の頭部接触面に対して
並行な方向である横方向に頭部が移動した場合とでは、
後者の横方向の移動の方が容易に検知可能である。
When analyzing the image picked up by the CCD camera 210, the case where the head moves in the vertical direction, which is the direction orthogonal to the head contact surface of the headrest portion 30, and the case where the headrest portion 30 moves When the head moves in the lateral direction which is the direction parallel to the head contact surface,
The latter lateral movement can be detected more easily.

【0163】もともと、スピーカはヘッドレスト部30
に設けられ聴取者の耳の近傍に位置することになるた
め、聴取者の頭部が同じだけ移動するとしても、ヘッド
レスト部30の頭部接触面に対して直交する方向である
縦方向に頭部が移動した場合と、ヘッドレスト部30の
頭部接触面に対して並行な方向である横方向に頭部が移
動した場合とでは、横方向に移動した場合の方がスピー
カか聴取者の耳までの伝達関数の変化がきい。
Originally, the speaker was the headrest portion 30.
Therefore, even if the listener's head moves by the same amount, the head is moved in the vertical direction, which is the direction orthogonal to the head contact surface of the headrest portion 30, even if the listener's head moves by the same amount. When the head is moved in the horizontal direction, which is a direction parallel to the head contact surface of the headrest portion 30, when the head is moved, the speaker or the listener's ear is more moved in the horizontal direction. The change in the transfer function is significant.

【0164】このため、この第4の実施の形態の音響処
理装置5においては、CDDカメラ210により撮像し
た画像を解析することにより、聴取者の頭部の横方向の
位置(オフセット)をセンシングし、これに応じて、ト
ランスオーラルシステムフィル部20の各フィルタに対
して適切なフィルタ係数を用いるようにすることで、ヘ
ッドレスト30の左右のスピーカSL、SRから放音さ
れる音声の音像を正確に所定の位置に定位させるように
している。
Therefore, in the sound processing device 5 of the fourth embodiment, the lateral position (offset) of the listener's head is sensed by analyzing the image captured by the CDD camera 210. Accordingly, by using appropriate filter coefficients for each filter of the transaural system fill section 20, the sound image of the sound emitted from the left and right speakers SL, SR of the headrest 30 is accurately obtained. The position is localized.

【0165】なお、この第4の実施の形態の音響処理装
置5においても、トランスオーラルシステムフィルタ部
20に変えて、図5に示した第1の実施の形態の変形例
において用いるようにした簡易型トランスオーラルシス
テム部70を用いるようにすることもできる。また、2
チャンネルの音像定位処理フィルタ部10に変えて、多
チャンネル、例えば、5チャンネルの音像定位処理フィ
ルタ80を用いるようにすることもできる。
Even in the sound processing device 5 of the fourth embodiment, the transaural system filter section 20 is replaced by a simple modification which is used in the modification of the first embodiment shown in FIG. It is also possible to use the mold transaural system unit 70. Also, 2
It is also possible to use a sound image localization processing filter 80 of multiple channels, for example, 5 channels instead of the sound image localization processing filter unit 10 of the channels.

【0166】したがって、この第4の実施の形態の音響
処理装置の場合にも、前述した第1、第2、第3の実施
の形態の音響処理装置の場合と同様に、ヘッドレスト部
30に対する聴取者の頭部の位置を、常に、あるいは、
随時に測定し、その測定した位置に応じた伝達関数に応
じた補正処理(トランスオーラル処理)することで、従
来のような聴取者の頭部の測定位置と聴取位置の不正合
による仮想スピーカ定位効果の不足の状態を避け、聴取
者の頭部の位置に左右されることなく、音像の前方定位
や音像の全周囲定位などの効果を実現することができ
る。
Therefore, also in the case of the sound processing device of the fourth embodiment, as in the case of the sound processing devices of the above-described first, second, and third embodiments, listening to the headrest portion 30 is performed. The position of the person's head is always or
Virtual speaker localization due to inaccurate measurement of the listener's head and listening position by performing correction processing (trans-aural processing) according to the transfer function according to the measured position as needed. It is possible to avoid a state in which the effect is insufficient, and to realize effects such as localization of the front of the sound image and localization of the entire circumference of the sound image without being influenced by the position of the listener's head.

【0167】なお、前述した第1、第2、および、第4
の実施の形態において、ヘッドレスト部に設けられるス
ピーカの放音面は、ヘッドレスト部の頭部が接触する面
に平行となるようにした場合を示したが、ヘッドレスト
部に設けるスピーカの放音面を聴取者側に傾けるなど、
適宜の修正を行なうようにすることも可能である。
Incidentally, the above-mentioned first, second, and fourth
In the embodiment, the case where the sound emitting surface of the speaker provided in the headrest portion is parallel to the surface of the headrest portion in contact with the head is shown. Such as tilting towards the listener
It is also possible to make appropriate modifications.

【0168】また、前述の実施の形態においては、ヘッ
ドレスト部に左スピーカSL、右スピーカSRの2つの
スピーカを設けるようにした場合の例を示したが、スピ
ーカは、必ず2つである必要はなく、1つであってもよ
いし、また、3つ以上の複数であってもよい。また、ツ
イターなどを備えたいわゆるHiFi志向のスピーカデ
バイスを用いることができることはいうまでもない。
Further, in the above-mentioned embodiment, the example in which the two speakers of the left speaker SL and the right speaker SR are provided in the headrest part is shown, but the number of speakers is not necessarily two. Alternatively, one may be provided, or a plurality of three or more may be provided. Needless to say, a so-called HiFi-oriented speaker device including a tweeter or the like can be used.

【0169】また、図1、図5、図6、図8、図12に
示した音響処理装置の全部をヘッドレスト部側に設ける
ようにすることにより、ヘッドレスト部を背もたれ部か
ら取り外しが可能なように構成し、当該ヘッドレスト部
を他の椅子の背もたれ部に装着して使用するようにする
ことができる。
Further, by providing all of the sound processing devices shown in FIGS. 1, 5, 6, 8, and 12 on the headrest side, the headrest can be removed from the backrest. The headrest portion can be attached to the backrest portion of another chair for use.

【0170】また、図1、図5、図6、図8、図12に
示した音響処理装置において、左右のスピーカ以外の各
部からなるアダプタを構成し、このアダプタと、スピー
カを設けたヘッドレスト部とにより、この発明による音
響処理装置を構成するようにすることもできる。また、
左右のスピーカSL、SR以外の各部を、例えば、椅子
の背もたれ部に設けたり、音声信号の再生機器側に設け
たりすることにより、この発明の音響処理装置を構成す
ることもできる。
Further, in the sound processing apparatus shown in FIGS. 1, 5, 6, 8 and 12, an adapter is constituted by each part other than the left and right speakers, and this adapter and the headrest part provided with the speaker. The sound processing device according to the present invention can be configured by the above. Also,
The sound processing device of the present invention can be configured by providing each part other than the left and right speakers SL and SR, for example, on the backrest part of the chair or on the side of the audio signal reproducing device.

【0171】[0171]

【発明の効果】以上説明したように、スピーカに対する
聴取者の頭部の位置を検出し、音像定位処理された音声
信号について、実際の聴取者の頭部の位置に応じた補正
を施すことができる。これにより、スピーカに対する聴
取者の頭部の位置の自由度がまし、聴取者の頭部の多少
の移動によっては、音像定位の効果を低下させることの
ない信頼性の高い音響処理装置を提供することができ
る。
As described above, the position of the listener's head with respect to the speaker can be detected, and the sound image localization processed audio signal can be corrected according to the actual position of the listener's head. it can. As a result, the degree of freedom of the position of the listener's head with respect to the speaker is increased, and a highly reliable acoustic processing device that does not reduce the effect of sound image localization due to some movement of the listener's head is provided. be able to.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明による音響処理装置の第1の実施の形
態を説明するためのブロック図である。
FIG. 1 is a block diagram for explaining a first embodiment of a sound processing device according to the present invention.

【図2】第1の実施の形態の音響処理装置が搭載された
椅子の外観について説明するための図である。
FIG. 2 is a diagram for explaining the appearance of a chair equipped with the sound processing device according to the first embodiment.

【図3】図1に示した第1の実施の形態の音響処理装置
において行なわれる音像定位処理の原理について説明す
るための図である。
FIG. 3 is a diagram for explaining the principle of sound image localization processing performed in the acoustic processing apparatus according to the first embodiment shown in FIG.

【図4】図1に示した第1の実施の形態の音響処理装置
において行なわれる聴取者の頭部の位置の検出処理を説
明するための図である。
FIG. 4 is a diagram for explaining a process of detecting the position of the listener's head, which is performed in the sound processing device of the first embodiment shown in FIG. 1.

【図5】図1に示した第1の実施の形態の音響処理装置
の変形例を説明するためのブロック図である。
FIG. 5 is a block diagram for explaining a modification of the sound processing device of the first embodiment shown in FIG.

【図6】この発明による音響処理装置の第2の実施の形
態を説明するためのブロック図である。
FIG. 6 is a block diagram for explaining a second embodiment of the sound processing device according to the present invention.

【図7】図6に示した第2の実施の形態の音響処理装置
において行なわれる音像定位処理の原理について説明す
るための図である。
FIG. 7 is a diagram for explaining the principle of sound image localization processing performed in the acoustic processing device of the second embodiment shown in FIG.

【図8】この発明による音響処理装置の第3の実施の形
態を説明するためのブロック図である。
FIG. 8 is a block diagram for explaining a third embodiment of the sound processing device according to the present invention.

【図9】図8に示した第3の実施の形態の音響処理装置
において行なわれる聴取者の頭部の位置の検出処理を説
明するための図である。
FIG. 9 is a diagram for explaining a process of detecting the position of the listener's head, which is performed in the sound processing device of the third embodiment shown in FIG.

【図10】この発明による第4の実施の形態の音響処理
装置の利用態様の例を説明するための図である。
FIG. 10 is a diagram for explaining an example of a usage mode of the sound processing device of the fourth embodiment according to the present invention.

【図11】この発明による第4の実施の形態の音響処理
装置の利用態様の他の例を説明するための図である。
FIG. 11 is a diagram for explaining another example of the usage mode of the sound processing device of the fourth embodiment according to the present invention.

【図12】この発明による第4の実施の形態の音響処理
装置を説明するためのブロック図である。
FIG. 12 is a block diagram illustrating a sound processing device according to a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10…音像定位処理フィルタ部、11〜14…フィル
タ、15、16…加算部、20…トランスオーラルシス
テムフィルタ部、21〜24…フィルタ、25、26…
加算部、30…ヘッドレスト部、SL…左スピーカ、S
R…右スピーカ、VSL…仮想左スピーカ、VSR…仮
想右スピーカ、40…頭部位置検出部、50…CPU、
60…データベース、70…簡易型トランスオーラルシ
ステムフィルタ部、41、42…フィルタ、80…音像
定位処理フィルタ部、81〜90…フィルタ、91、9
2…加算部、SS1〜SS6…超音波受信素子、21
0、310…CCDカメラ
10 ... Sound image localization processing filter section, 11-14 ... Filter, 15, 16 ... Addition section, 20 ... Transaural system filter section, 21-24 ... Filter, 25, 26 ...
Adder, 30 ... Headrest, SL ... Left speaker, S
R ... right speaker, VSL ... virtual left speaker, VSR ... virtual right speaker, 40 ... head position detection unit, 50 ... CPU,
60 ... Database, 70 ... Simplified transaural system filter section, 41, 42 ... Filter, 80 ... Sound image localization processing filter section, 81-90 ... Filter, 91, 9
2 ... Adder, SS1 to SS6 ... Ultrasonic wave receiving element, 21
0, 310 ... CCD camera

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中野 健司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B057 AA20 BA04 CA13 CB20 CH01 DB03 DC02 5D062 AA65 5L096 AA09 BA20 FA69 LA11    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kenji Nakano             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation F term (reference) 5B057 AA20 BA04 CA13 CB20 CH01                       DB03 DC02                 5D062 AA65                 5L096 AA09 BA20 FA69 LA11

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】スピーカデバイスと、 前記スピーカデバイスに供給するようにする音声信号に
対して、前記音声信号による音声の音像を所定の位置に
定位させるようにする処理を行なう音像定位処理部と、 前記音像定位処理部からの音声信号に対して、前記スピ
ーカデバイスに対する聴取者の頭部の位置に応じた補正
処理を行なうようにする補正処理部と、 前記スピーカデバイスに対する聴取者の頭部の位置を検
出する頭部位置検出部と、 前記頭部位置検出部からの検出結果に応じて、前記補正
処理部を制御するようにする制御部とを備えることを特
徴とする音響処理装置。
1. A speaker device, and a sound image localization processing unit that performs processing for locating a sound image of a sound by the sound signal at a predetermined position with respect to a sound signal to be supplied to the speaker device. A correction processing unit that performs correction processing on the audio signal from the sound image localization processing unit according to the position of the listener's head with respect to the speaker device; and the position of the listener's head with respect to the speaker device. A sound processing device, comprising: a head position detecting unit that detects the position, and a control unit that controls the correction processing unit according to a detection result from the head position detecting unit.
【請求項2】請求項1に記載の音響処理装置であって、 前記頭部位置検出部は、 超音波を送信する超音波送信手段と、 前記超音波送信手段から送信され、聴取者の頭部により
反射される反射超音波を受信する超音波受信手段と、 前記超音波受信手段による反射超音波の受信の有無、お
よび、前記超音波受信手段により反射超音波を受信した
場合には超音波の速度と超音波を送信してから反射超音
波として受信するまでの時間とに基づいて聴取者の頭部
の前記スピーカに対する位置を特定する頭部位置特定手
段とからなることを特徴とする音響処理装置。
2. The sound processing device according to claim 1, wherein the head position detecting section includes ultrasonic wave transmitting means for transmitting ultrasonic waves, and the ultrasonic wave transmitting means for transmitting ultrasonic waves to the head of the listener. Ultrasonic receiving means for receiving the reflected ultrasonic waves reflected by the section, whether or not the reflected ultrasonic waves are received by the ultrasonic receiving means, and ultrasonic waves when the reflected ultrasonic waves are received by the ultrasonic receiving means. And a head position specifying means for specifying the position of the listener's head with respect to the speaker based on the speed and the time from the transmission of ultrasonic waves to the reception of reflected ultrasonic waves. Processing equipment.
【請求項3】請求項2に記載の音響処理装置であって、 前記超音波送信手段と、前記超音波受信手段とは、前記
スピーカデバイスの高音域スピーカであることを特徴と
する音響処理装置。
3. The acoustic processing device according to claim 2, wherein the ultrasonic wave transmitting means and the ultrasonic wave receiving means are high frequency speakers of the speaker device. .
【請求項4】請求項2に記載の音響処理装置であって、 前記超音波送信手段は、左右2チャンネルの前記スピー
カデバイスの高音域スピーカであり、 前記超音波受信手段は、所定の位置に並べられた複数個
の超音波感知素子からなるものであり、 左右2チャンネルのそれぞれの前記高音域スピーカから
は、異なる周波数の超音波を送信することを特徴とする
音響処理装置。
4. The acoustic processing device according to claim 2, wherein the ultrasonic wave transmitting means is a high frequency speaker of the left and right two-channel speaker device, and the ultrasonic wave receiving means is provided at a predetermined position. An acoustic processing device comprising a plurality of ultrasonic sensing elements arranged side by side, wherein ultrasonic waves of different frequencies are transmitted from each of the high frequency speakers of the left and right channels.
【請求項5】請求項1に記載の音響処理装置であって、 前記頭部位置検出部は、 前記スピーカデバイスを通じて音声を聴取するようにし
ている聴取者の頭部を含む画像を撮像する撮像手段と、 前記撮像手段により撮像された画像を解析し、前記聴取
者の頭部の前記スピーカデバイスに対する位置を検出す
る画像解析手段とからなることを特徴とする音響処理装
置。
5. The sound processing apparatus according to claim 1, wherein the head position detecting unit captures an image including a head of a listener who listens to sound through the speaker device. A sound processing apparatus comprising: a means and an image analysis means for analyzing an image captured by the imaging means and detecting a position of the listener's head with respect to the speaker device.
JP2001283020A 2001-09-18 2001-09-18 Sound processor Expired - Fee Related JP4735920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001283020A JP4735920B2 (en) 2001-09-18 2001-09-18 Sound processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001283020A JP4735920B2 (en) 2001-09-18 2001-09-18 Sound processor

Publications (2)

Publication Number Publication Date
JP2003092799A true JP2003092799A (en) 2003-03-28
JP4735920B2 JP4735920B2 (en) 2011-07-27

Family

ID=19106579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001283020A Expired - Fee Related JP4735920B2 (en) 2001-09-18 2001-09-18 Sound processor

Country Status (1)

Country Link
JP (1) JP4735920B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005079114A1 (en) * 2004-02-18 2005-08-25 Yamaha Corporation Acoustic reproduction device and loudspeaker position identification method
JP2007214897A (en) * 2006-02-09 2007-08-23 Kenwood Corp Sound system
JP2008227804A (en) * 2007-03-12 2008-09-25 Yamaha Corp Array speaker apparatus
JP2010016525A (en) * 2008-07-02 2010-01-21 Sony Corp Sound processing apparatus and sound processing method
JP2011119867A (en) * 2009-12-01 2011-06-16 Sony Corp Video and audio device
JP5488732B1 (en) * 2013-03-05 2014-05-14 パナソニック株式会社 Sound playback device
US8958584B2 (en) 2006-05-19 2015-02-17 Samsung Electronics Co., Ltd. Apparatus, method, and medium for removing crosstalk
JP2017146517A (en) * 2016-02-19 2017-08-24 学校法人 中央大学 Work environment improvement system
JP2018023104A (en) * 2016-08-04 2018-02-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー System and method for operating wearable loudspeaker device
EP3400718A4 (en) * 2016-01-07 2019-08-21 Noveto Systems Ltd. An audio communication system and method
WO2021010006A1 (en) * 2019-07-17 2021-01-21 パナソニックIpマネジメント株式会社 Sound control device, sound control system, and sound control method
US10952008B2 (en) 2017-01-05 2021-03-16 Noveto Systems Ltd. Audio communication system and method
JP2021510992A (en) * 2018-03-22 2021-04-30 ブームクラウド 360 インコーポレイテッド Multi-channel subband spatial processing for speakers
US11284213B2 (en) 2019-10-10 2022-03-22 Boomcloud 360 Inc. Multi-channel crosstalk processing
US11388541B2 (en) 2016-01-07 2022-07-12 Noveto Systems Ltd. Audio communication system and method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088842B2 (en) 2013-03-13 2015-07-21 Bose Corporation Grille for electroacoustic transducer
US9327628B2 (en) 2013-05-31 2016-05-03 Bose Corporation Automobile headrest
US9699537B2 (en) 2014-01-14 2017-07-04 Bose Corporation Vehicle headrest with speakers

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117689A (en) * 1990-09-07 1992-04-17 Matsushita Electric Ind Co Ltd Audio/video control device and audio/video control method using said device
WO1995010167A1 (en) * 1993-10-04 1995-04-13 Sony Corporation Audio reproducing device
JPH07193900A (en) * 1993-12-24 1995-07-28 Aqueous Res:Kk Head position detector for generating stereoscopic sound field
JPH07255099A (en) * 1994-03-15 1995-10-03 Kenwood Corp On-vehicle audio device
JPH09304362A (en) * 1996-05-13 1997-11-28 Mitsubishi Electric Corp Detector and detecting method
JPH10234100A (en) * 1997-02-19 1998-09-02 Ngk Insulators Ltd Transducer array
JPH10230899A (en) * 1997-02-24 1998-09-02 Motoya Takeyama Man-machine interface of aerospace aircraft
JP2001057699A (en) * 1999-06-11 2001-02-27 Pioneer Electronic Corp Audio system
WO2001022777A1 (en) * 1999-09-21 2001-03-29 Insonus Medical, Inc. Personal hearing evaluator

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117689A (en) * 1990-09-07 1992-04-17 Matsushita Electric Ind Co Ltd Audio/video control device and audio/video control method using said device
WO1995010167A1 (en) * 1993-10-04 1995-04-13 Sony Corporation Audio reproducing device
JPH07193900A (en) * 1993-12-24 1995-07-28 Aqueous Res:Kk Head position detector for generating stereoscopic sound field
JPH07255099A (en) * 1994-03-15 1995-10-03 Kenwood Corp On-vehicle audio device
JPH09304362A (en) * 1996-05-13 1997-11-28 Mitsubishi Electric Corp Detector and detecting method
JPH10234100A (en) * 1997-02-19 1998-09-02 Ngk Insulators Ltd Transducer array
JPH10230899A (en) * 1997-02-24 1998-09-02 Motoya Takeyama Man-machine interface of aerospace aircraft
JP2001057699A (en) * 1999-06-11 2001-02-27 Pioneer Electronic Corp Audio system
WO2001022777A1 (en) * 1999-09-21 2001-03-29 Insonus Medical, Inc. Personal hearing evaluator
JP2003510113A (en) * 1999-09-21 2003-03-18 インソナス メディカル, インコーポレイテッド Personal hearing evaluator

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005079114A1 (en) * 2004-02-18 2005-08-25 Yamaha Corporation Acoustic reproduction device and loudspeaker position identification method
US7933418B2 (en) 2004-02-18 2011-04-26 Yamaha Corporation Sound reproducing apparatus and method of identifying positions of speakers
JP2007214897A (en) * 2006-02-09 2007-08-23 Kenwood Corp Sound system
US8958584B2 (en) 2006-05-19 2015-02-17 Samsung Electronics Co., Ltd. Apparatus, method, and medium for removing crosstalk
JP2008227804A (en) * 2007-03-12 2008-09-25 Yamaha Corp Array speaker apparatus
JP2010016525A (en) * 2008-07-02 2010-01-21 Sony Corp Sound processing apparatus and sound processing method
JP2011119867A (en) * 2009-12-01 2011-06-16 Sony Corp Video and audio device
JP5488732B1 (en) * 2013-03-05 2014-05-14 パナソニック株式会社 Sound playback device
EP3400718A4 (en) * 2016-01-07 2019-08-21 Noveto Systems Ltd. An audio communication system and method
US10999676B2 (en) 2016-01-07 2021-05-04 Noveto Systems Ltd. Audio communication system and method
US11388541B2 (en) 2016-01-07 2022-07-12 Noveto Systems Ltd. Audio communication system and method
JP2017146517A (en) * 2016-02-19 2017-08-24 学校法人 中央大学 Work environment improvement system
JP2018023104A (en) * 2016-08-04 2018-02-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー System and method for operating wearable loudspeaker device
JP7144131B2 (en) 2016-08-04 2022-09-29 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー System and method for operating wearable speaker device
US10952008B2 (en) 2017-01-05 2021-03-16 Noveto Systems Ltd. Audio communication system and method
JP2021510992A (en) * 2018-03-22 2021-04-30 ブームクラウド 360 インコーポレイテッド Multi-channel subband spatial processing for speakers
WO2021010006A1 (en) * 2019-07-17 2021-01-21 パナソニックIpマネジメント株式会社 Sound control device, sound control system, and sound control method
JPWO2021010397A1 (en) * 2019-07-17 2021-01-21
JP7316619B2 (en) 2019-07-17 2023-07-28 パナソニックIpマネジメント株式会社 Voice control device and voice control system
US11284213B2 (en) 2019-10-10 2022-03-22 Boomcloud 360 Inc. Multi-channel crosstalk processing

Also Published As

Publication number Publication date
JP4735920B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
JP4692803B2 (en) Sound processor
JP4735920B2 (en) Sound processor
AU2001239516B2 (en) System and method for optimization of three-dimensional audio
US9838825B2 (en) Audio signal processing device and method for reproducing a binaural signal
US8787602B2 (en) Device for and a method of processing audio data
US8170245B2 (en) Virtual multichannel speaker system
EP2823650B1 (en) Audio rendering system
US6975731B1 (en) System for producing an artificial sound environment
KR100878457B1 (en) Sound image localizer
JP4584416B2 (en) Multi-channel audio playback apparatus for speaker playback using virtual sound image capable of position adjustment and method thereof
JP3422026B2 (en) Audio player
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
JP3920404B2 (en) Audio playback module
EP1562401A2 (en) Sound reproduction apparatus and sound reproduction method
JP3435141B2 (en) SOUND IMAGE LOCALIZATION DEVICE, CONFERENCE DEVICE USING SOUND IMAGE LOCALIZATION DEVICE, MOBILE PHONE, AUDIO REPRODUCTION DEVICE, AUDIO RECORDING DEVICE, INFORMATION TERMINAL DEVICE, GAME MACHINE, COMMUNICATION AND BROADCASTING SYSTEM
WO2016046152A1 (en) Audio reproduction systems and methods
JP2010034755A (en) Acoustic processing apparatus and acoustic processing method
JP2006295592A (en) Speaker device
WO2019198314A1 (en) Audio processing device, audio processing method, and program
JPH0946800A (en) Sound image controller
JP2010016525A (en) Sound processing apparatus and sound processing method
JP2023092961A (en) Audio signal output method, audio signal output device, and audio system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090825

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110413

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees