JP2023047706A - Filter generation device and filter generation method - Google Patents

Filter generation device and filter generation method Download PDF

Info

Publication number
JP2023047706A
JP2023047706A JP2021156783A JP2021156783A JP2023047706A JP 2023047706 A JP2023047706 A JP 2023047706A JP 2021156783 A JP2021156783 A JP 2021156783A JP 2021156783 A JP2021156783 A JP 2021156783A JP 2023047706 A JP2023047706 A JP 2023047706A
Authority
JP
Japan
Prior art keywords
correction
frequency
characteristic
level
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021156783A
Other languages
Japanese (ja)
Inventor
寿子 村田
Toshiko Murata
敬洋 下条
Takahiro Shimojo
優美 藤井
Yumi Fujii
正也 小西
Masaya Konishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021156783A priority Critical patent/JP2023047706A/en
Priority to US17/939,883 priority patent/US20230114777A1/en
Publication of JP2023047706A publication Critical patent/JP2023047706A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

To provide a filter generation device and filter generation method capable of generating a filter suitable for out-of-head localization processing.SOLUTION: A processing device comprises: a frequency characteristic acquisition section for acquiring frequency characteristics based on a sound collection signal; a level calculation section for calculating a reference level in the frequency characteristics; a correction section 225 for calculating correction characteristics by correcting the frequency characteristics to be within a predetermined level range including the reference level; and a filter generation section 230 for generating a correction filter based on the correction characteristics.SELECTED DRAWING: Figure 4

Description

本開示は、フィルタ生成装置、及びフィルタ生成方法に関する。 The present disclosure relates to a filter generation device and a filter generation method.

音像定位技術として、ヘッドホンを用いて受聴者の頭部の外側に音像を定位させる頭外定位技術がある。頭外定位技術では、ヘッドホンから耳までの特性(ヘッドホン特性)をキャンセルし、1つのスピーカ(モノラルスピーカ)から耳までの2本の特性(空間音響伝達特性)を与えることにより、音像を頭外に定位させている。 As a sound image localization technique, there is an out-of-head localization technique in which a sound image is localized outside the listener's head using headphones. In the out-of-head localization technology, the characteristics from the headphones to the ears (headphone characteristics) are canceled, and the characteristics of the two channels from one speaker (monaural speaker) to the ears (spatial acoustic transfer characteristics) are given to the sound image out of the head. is positioned at

ステレオスピーカの頭外定位再生においては、2チャンネル(以下、chと記載)のスピーカから発した測定信号(インパルス音等)を聴取者(リスナー)本人の耳に設置したマイクロフォン(以下、マイクとする)で録音する。そして、測定信号を収音して得られた収音信号に基づいて、処理装置がフィルタを生成する。生成したフィルタを2chのオーディオ信号に畳み込むことにより、頭外定位再生を実現することができる。 In the out-of-head localization reproduction of stereo speakers, a measurement signal (impulse sound, etc.) emitted from two-channel (hereinafter referred to as ch) speakers is transmitted to a microphone (hereinafter referred to as a microphone) placed in the ear of the listener (listener). ). Then, the processing device generates a filter based on the collected sound signal obtained by collecting the measurement signal. Out-of-head localization reproduction can be realized by convolving the generated filter with the 2ch audio signal.

さらに、ヘッドホンから耳までの特性をキャンセルするフィルタ(逆フィルタともいう)を生成するために、ヘッドホンから耳元乃至鼓膜までの特性(外耳道伝達関数ECTF、外耳道伝達特性とも称する)を聴取者本人の耳に設置したマイクで測定する。 Furthermore, in order to generate a filter (also called an inverse filter) that cancels the characteristics from the headphone to the ear, the characteristics from the headphone to the ear to the eardrum (external auditory transfer function ECTF, also called the external auditory canal transfer characteristic) is applied to the listener's own ear. Measure with a microphone placed on the

特許文献1には、頭外定位処理を行う装置が開示されている。さらに、特許文献1では、頭外定位処理が再生信号に対して、DRC(Dynamic Range Compression)処理を行っている。DRC処理において、処理装置が周波数特性を平滑化している。さらに、処理装置が、平滑化した特性に基づいて帯域分割を行っている。 Patent Document 1 discloses an apparatus for performing out-of-head localization processing. Furthermore, in Patent Document 1, out-of-head localization processing performs DRC (Dynamic Range Compression) processing on a reproduced signal. In the DRC processing, the processing device smoothes the frequency characteristics. Further, a processor performs band division based on the smoothed characteristics.

特開2019-62430号公報JP 2019-62430 A

このような頭外定位受聴では、特定の再生機器に限定されずに、処理を行うことが望まれる。例えば、再生機器として、ユーザが所有するヘッドホンを用いた場合であっても、適切に頭外定位処理を行うことが望まれる。あるいは、ユーザが普段使用しているスピーカを再生機器として設置している環境での空間音響伝達特性を再現することが望まれる。 In such out-of-head localization listening, it is desirable to perform processing without being limited to a specific playback device. For example, even when the user uses headphones as the playback device, it is desirable to appropriately perform out-of-head localization processing. Alternatively, it is desired to reproduce the spatial sound transfer characteristics in an environment where the speaker that the user normally uses is installed as a reproduction device.

再生機器を変えてしまうと伝達特性が変化してしまうおそれがある。したがって、ユーザが利用している再生機器を用いて、ユーザの個人特性(空間音響伝達特性及び外耳道伝達特性)を測定することが好ましい。個人特性を測定した場合でも、周波数特性において急峻なピークやディップが発生するため、頭外定位処理された信号がクリップすることがある。 If the playback equipment is changed, the transfer characteristics may change. Therefore, it is preferable to measure the user's individual characteristics (spatial sound transfer characteristics and ear canal transfer characteristics) using the playback equipment that the user uses. Even when the individual characteristics are measured, sharp peaks and dips occur in the frequency characteristics, which may cause the out-of-head localization-processed signal to clip.

ピークやディップは、スピーカやヘッドホンなどの再生機器の特性、又は、測定環境となる部屋の音響特性特性によって変化する。また、ピークやディップは、ユーザ個人の頭部や耳の形状によっても変化する。よって、ピークやディップのレベルや周波数は、種々の原因によって変わる。再生機器や測定環境などによって、その特性を確認して、再生機器や測定環境などに応じた調整を行う必要が生じてしまう。 Peaks and dips change depending on the characteristics of playback equipment such as speakers and headphones, or the acoustic characteristics of the room that is the measurement environment. The peaks and dips also change depending on the shape of the user's head and ears. Therefore, the levels and frequencies of peaks and dips change due to various causes. Depending on the playback device, the measurement environment, etc., it becomes necessary to check the characteristics and make adjustments according to the playback device, the measurement environment, and the like.

本開示は上記の点に鑑みなされたものであり、頭外定位処理に適したフィルタを生成することができるフィルタ生成装置、及びフィルタ生成方法を提供することを目的とする。 The present disclosure has been made in view of the above points, and aims to provide a filter generation device and a filter generation method capable of generating a filter suitable for out-of-head localization processing.

本実施の形態にかかるフィルタ生成装置は、収音信号に基づいて、周波数特性を取得する周波数特性取得部と、前記周波数特性における基準レベルを算出するレベル算出部と、前記基準レベルを含む所定のレベルレンジに収まるように、前記周波数特性を補正することで補正特性を算出する補正部と、前記補正特性に基づいて、補正フィルタを生成するフィルタ生成部と、を備えている。 A filter generation device according to the present embodiment includes a frequency characteristic acquisition unit that acquires frequency characteristics based on a picked-up sound signal, a level calculation unit that calculates a reference level in the frequency characteristics, and a predetermined level including the reference level. A correction unit that calculates a correction characteristic by correcting the frequency characteristic so as to fall within a level range, and a filter generation unit that generates a correction filter based on the correction characteristic.

本実施の形態にかかるフィルタ生成方法sは、収音信号に基づいて、周波数特性を取得するステップと、前記周波数特性における基準レベルを算出するステップと、前記基準レベルを含む所定のレベルレンジに収まるように、前記周波数特性を補正することで補正特性を算出するステップと、前記補正特性に基づいて、フィルタを生成するステップと、を備えている。 A filter generation method s according to the present embodiment includes the steps of obtaining a frequency characteristic based on a picked-up sound signal, calculating a reference level in the frequency characteristic, and adjusting the a step of calculating a correction characteristic by correcting the frequency characteristic; and a step of generating a filter based on the correction characteristic.

本開示によれば、頭外定位処理に適したフィルタを生成することができるフィルタ生成装置、及びフィルタ生成方法を提供することができる。 According to the present disclosure, it is possible to provide a filter generation device and a filter generation method capable of generating a filter suitable for out-of-head localization processing.

本実施の形態に係る頭外定位処理装置を示すブロック図である。1 is a block diagram showing an out-of-head localization processing apparatus according to this embodiment; FIG. 空間音響伝達特性を測定する測定装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the measuring apparatus which measures a spatial sound transfer characteristic. 外耳道伝達特性を測定する測定装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the measuring device which measures an external auditory canal transfer characteristic. 処理装置の構成を示す制御ブロック図である。It is a control block diagram which shows the structure of a processing apparatus. 処理装置におけるフィルタ生成方法を示すフローチャートである。It is a flowchart which shows the filter generation method in a processing apparatus. 補正処理の処理例1を示すフローチャートである。5 is a flowchart showing a processing example 1 of correction processing; 処理例1による補正前後の周波数振幅特性を示すグラフである。7 is a graph showing frequency-amplitude characteristics before and after correction according to Processing Example 1; 補正処理の処理例2を示すフローチャートである。10 is a flowchart showing a processing example 2 of correction processing; 処理例2による補正前後の周波数振幅特性を示すグラフである。10 is a graph showing frequency-amplitude characteristics before and after correction by Processing Example 2; 補正処理の処理例4を示すフローチャートである。FIG. 11 is a flowchart showing a processing example 4 of correction processing; FIG. 処理例4による周波数帯域を示すグラフである。10 is a graph showing frequency bands according to Processing Example 4; 実施の形態2にかかる処理装置の構成を示すブロック図である。2 is a block diagram showing the configuration of a processing device according to a second embodiment; FIG.

本実施の形態にかかる音像定位処理の概要について説明する。本実施の形態にかかる頭外定位処理は、空間音響伝達特性と外耳道伝達特性を用いて頭外定位処理を行うものである。空間音響伝達特性は、スピーカなどの音源から外耳道までの伝達特性である。外耳道伝達特性は、ヘッドホン又はイヤホンのスピーカユニットから鼓膜までの伝達特性である。本実施の形態では、ヘッドホン又はイヤホンを装着していない状態での空間音響伝達特性を測定し、かつ、ヘッドホン又はイヤホンを装着した状態での外耳道伝達特性を測定し、それらの測定データを用いて頭外定位処理を実現している。本実施の形態は、空間音響伝達特性、又は外耳道伝達特性を測定するためのマイクシステムに特徴を有している。 An overview of sound image localization processing according to the present embodiment will be described. The out-of-head localization processing according to the present embodiment uses the spatial sound transfer characteristics and the ear canal transfer characteristics to perform the out-of-head localization processing. Spatial sound transfer characteristics are transfer characteristics from a sound source such as a speaker to the ear canal. The ear canal transfer characteristic is the transfer characteristic from the speaker unit of the headphone or earphone to the eardrum. In the present embodiment, the spatial sound transfer characteristics are measured without wearing headphones or earphones, and the ear canal transfer characteristics are measured with headphones or earphones worn, and these measurement data are used. Out-of-head localization processing is realized. This embodiment is characterized by a microphone system for measuring spatial sound transfer characteristics or ear canal transfer characteristics.

本実施の形態にかかる頭外定位処理は、パーソナルコンピュータ、スマートホン、タブレットPCなどのユーザ端末で実行される。ユーザ端末は、プロセッサ等の処理手段、メモリやハードディスクなどの記憶手段、液晶モニタ等の表示手段、タッチパネル、ボタン、キーボード、マウスなどの入力手段を有する情報処理装置である。ユーザ端末は、データを送受信する通信機能を有していてもよい。さらに、ユーザ端末には、ヘッドホン又はイヤホンを有する出力手段(出力ユニット)が接続される。ユーザ端末と出力手段との接続は、有線接続でも無線接続でもよい。 The out-of-head localization processing according to this embodiment is executed by a user terminal such as a personal computer, a smart phone, or a tablet PC. A user terminal is an information processing device having processing means such as a processor, storage means such as a memory and a hard disk, display means such as a liquid crystal monitor, and input means such as a touch panel, buttons, keyboard, and mouse. A user terminal may have a communication function for transmitting and receiving data. Furthermore, output means (output unit) having headphones or earphones are connected to the user terminal. The connection between the user terminal and the output means may be wired connection or wireless connection.

実施の形態1.
(頭外定位処理装置)
本実施の形態にかかる音場再生装置の一例である、頭外定位処理装置100のブロック図を図1に示す。頭外定位処理装置100は、ヘッドホン43を装着するユーザUに対して音場を再生する。そのため、頭外定位処理装置100は、LchとRchのステレオ入力信号XL、XRについて、音像定位処理を行う。LchとRchのステレオ入力信号XL、XRは、CD(Compact Disc)プレイヤーなどから出力されるアナログのオーディオ再生信号、又は、mp3(MPEG Audio Layer-3)等のデジタルオーディオデータである。なお、オーディオ再生信号、又はデジタルオーディオデータをまとめて再生信号と称する。すなわち、LchとRchのステレオ入力信号XL、XRが再生信号となっている。
Embodiment 1.
(Out-of-head stereotactic processing device)
FIG. 1 shows a block diagram of an out-of-head localization processing device 100, which is an example of a sound field reproducing device according to this embodiment. The out-of-head localization processing device 100 reproduces a sound field for the user U wearing the headphones 43 . Therefore, the out-of-head localization processing apparatus 100 performs sound image localization processing on the Lch and Rch stereo input signals XL and XR. The Lch and Rch stereo input signals XL and XR are analog audio reproduction signals output from a CD (Compact Disc) player or the like, or digital audio data such as mp3 (MPEG Audio Layer-3). Note that the audio reproduction signal or digital audio data will be collectively referred to as a reproduction signal. That is, the Lch and Rch stereo input signals XL and XR are reproduced signals.

なお、頭外定位処理装置100は、物理的に単一な装置に限られるものではなく、一部の処理が異なる装置で行われてもよい。例えば、一部の処理がスマートホンなどにより行われ、残りの処理がヘッドホン43に内蔵されたDSP(Digital Signal Processor)などにより行われてもよい。 It should be noted that the out-of-head localization processing apparatus 100 is not limited to a physically single apparatus, and part of the processing may be performed by a different apparatus. For example, part of the processing may be performed by a smart phone or the like, and the rest of the processing may be performed by a DSP (Digital Signal Processor) built into the headphones 43 or the like.

頭外定位処理装置100は、頭外定位処理部10、逆フィルタLinvを格納するフィルタ部41、逆フィルタRinvを格納するフィルタ部42、及びヘッドホン43を備えている。頭外定位処理部10、フィルタ部41、及びフィルタ部42は、具体的にはプロセッサ等により実現可能である。 The out-of-head localization processing device 100 includes an out-of-head localization processing unit 10 , a filter unit 41 that stores an inverse filter Linv, a filter unit 42 that stores an inverse filter Rinv, and headphones 43 . The out-of-head localization processing unit 10, filter unit 41, and filter unit 42 can be specifically realized by a processor or the like.

頭外定位処理部10は、空間音響伝達特性Hls、Hlo、Hro、Hrsを格納する畳み込み演算部11~12、21~22、及び加算器24、25を備えている。畳み込み演算部11~12、21~22は、空間音響伝達特性を用いた畳み込み処理を行う。頭外定位処理部10には、CDプレイヤーなどからのステレオ入力信号XL、XRが入力される。頭外定位処理部10には、空間音響伝達特性が設定されている。頭外定位処理部10は、各chのステレオ入力信号XL、XRに対し、空間音響伝達特性のフィルタ(以下、空間音響フィルタとも称する)を畳み込む。空間音響伝達特性は被測定者の頭部や耳介で測定した頭部伝達関数HRTFでもよいし、ダミーヘッドまたは第三者の頭部伝達関数であってもよい。 The out-of-head localization processing unit 10 includes convolution calculation units 11 to 12 and 21 to 22 and adders 24 and 25 that store the spatial sound transfer characteristics Hls, Hlo, Hro and Hrs. The convolution calculation units 11 to 12 and 21 to 22 perform convolution processing using spatial acoustic transfer characteristics. Stereo input signals XL and XR from a CD player or the like are input to the out-of-head localization processing unit 10 . Spatial sound transfer characteristics are set in the out-of-head localization processing unit 10 . The out-of-head localization processing unit 10 convolves a spatial acoustic transfer characteristic filter (hereinafter also referred to as a spatial acoustic filter) to the stereo input signals XL and XR of each channel. The spatial sound transfer characteristic may be a head-related transfer function HRTF measured on the head or pinna of the person to be measured, or may be a head-related transfer function of a dummy head or a third party.

4つの空間音響伝達特性Hls、Hlo、Hro、Hrsを1セットとしたものを空間音響伝達関数とする。畳み込み演算部11、12、21、22で畳み込みに用いられるデータが空間音響フィルタとなる。空間音響伝達特性Hls、Hlo、Hro、Hrsを所定のフィルタ長で切り出すことで、空間音響フィルタが生成される。 A set of four spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs is defined as a spatial acoustic transfer function. The data used for convolution in the convolution calculation units 11, 12, 21, and 22 serve as spatial acoustic filters. A spatial acoustic filter is generated by cutting out the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs with a predetermined filter length.

空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれは、インパルス応答測定などにより、事前に取得されている。例えば、ユーザUが左右の耳にマイクをそれぞれ装着する。ユーザUの前方に配置された左右のスピーカが、インパルス応答測定を行うための、インパルス音をそれぞれ出力する。そして、スピーカから出力されたインパルス音等の測定信号をマイクで収音する。マイクでの収音信号に基づいて、空間音響伝達特性Hls、Hlo、Hro、Hrsが取得される。左スピーカと左マイクとの間の空間音響伝達特性Hls、左スピーカと右マイクとの間の空間音響伝達特性Hlo、右スピーカと左マイクとの間の空間音響伝達特性Hro、右スピーカと右マイクとの間の空間音響伝達特性Hrsが測定される。 Spatial sound transfer characteristics Hls, Hlo, Hro, and Hrs are obtained in advance by impulse response measurement or the like. For example, the user U wears microphones on the left and right ears, respectively. The left and right speakers placed in front of the user U respectively output impulse sounds for impulse response measurement. Then, a measurement signal such as an impulse sound output from the speaker is picked up by a microphone. Spatial sound transfer characteristics Hls, Hlo, Hro, and Hrs are obtained based on the signals picked up by the microphones. Spatial sound transfer characteristics Hls between the left speaker and the left microphone, Spatial sound transfer characteristics Hlo between the left speaker and the right microphone, Spatial sound transfer characteristics Hro between the right speaker and the left microphone, Right speaker and the right microphone The spatial sound transfer characteristic Hrs between is measured.

そして、畳み込み演算部11は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hlsに応じた空間音響フィルタを畳み込む。畳み込み演算部11は、畳み込み演算データを加算器24に出力する。畳み込み演算部21は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hroに応じた空間音響フィルタを畳み込む。畳み込み演算部21は、畳み込み演算データを加算器24に出力する。加算器24は2つの畳み込み演算データを加算して、フィルタ部41に出力する。 Then, the convolution calculation unit 11 convolves the Lch stereo input signal XL with a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hls. The convolution calculation unit 11 outputs the convolution calculation data to the adder 24 . The convolution calculation unit 21 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hro with respect to the Rch stereo input signal XR. The convolution calculation unit 21 outputs convolution calculation data to the adder 24 . The adder 24 adds the two pieces of convolution operation data and outputs the result to the filter section 41 .

畳み込み演算部12は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hloに応じた空間音響フィルタを畳み込む。畳み込み演算部12は、畳み込み演算データを、加算器25に出力する。畳み込み演算部22は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hrsに応じた空間音響フィルタを畳み込む。畳み込み演算部22は、畳み込み演算データを、加算器25に出力する。加算器25は2つの畳み込み演算データを加算して、フィルタ部42に出力する。 The convolution calculation unit 12 convolves the Lch stereo input signal XL with a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hlo. The convolution calculation unit 12 outputs the convolution calculation data to the adder 25 . The convolution calculation unit 22 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hrs with respect to the Rch stereo input signal XR. The convolution calculation unit 22 outputs the convolution calculation data to the adder 25 . The adder 25 adds the two pieces of convolution operation data and outputs the result to the filter section 42 .

フィルタ部41、42にはヘッドホン特性(ヘッドホンの再生ユニットとマイク間の特性)をキャンセルする逆フィルタLinv、Rinvが設定されている。そして、頭外定位処理部10での処理が施された再生信号(畳み込み演算信号)に逆フィルタLinv、Rinvを畳み込む。フィルタ部41で加算器24からのLch信号に対して、Lch側のヘッドホン特性の逆フィルタLinvを畳み込む。同様に、フィルタ部42は加算器25からのRch信号に対して、Rch側のヘッドホン特性の逆フィルタRinvを畳み込む。逆フィルタLinv、Rinvは、ヘッドホン43を装着した場合に、ヘッドホンユニットからマイクまでの特性をキャンセルする。マイクは、外耳道入口から鼓膜までの間ならばどこに配置してもよい。 Inverse filters Linv and Rinv for canceling headphone characteristics (characteristics between the reproduction unit of the headphones and the microphone) are set in the filter units 41 and 42 . Inverse filters Linv and Rinv are then convolved with the reproduced signal (convolution calculation signal) processed by the out-of-head localization processing unit 10 . In the filter unit 41, the Lch signal from the adder 24 is convoluted with an inverse filter Linv of headphone characteristics on the Lch side. Similarly, the filter unit 42 convolves the Rch signal from the adder 25 with an inverse filter Rinv of headphone characteristics on the Rch side. The inverse filters Linv and Rinv cancel the characteristics from the headphone unit to the microphone when the headphones 43 are worn. The microphone can be placed anywhere between the ear canal entrance and the eardrum.

フィルタ部41は、処理されたLch信号YLをヘッドホン43の左ユニット43Lに出力する。フィルタ部42は、処理されたRch信号YRをヘッドホン43の右ユニット43Rに出力する。ユーザUは、ヘッドホン43を装着している。ヘッドホン43は、Lch信号YLとRch信号YR(以下、Lch信号YLとRch信号YRをまとめてステレオ信号とも称する)をユーザUに向けて出力する。これにより、ユーザUの頭外に定位された音像を再生することができる。 Filter section 41 outputs processed Lch signal YL to left unit 43L of headphone 43 . The filter section 42 outputs the processed Rch signal YR to the right unit 43R of the headphone 43 . A user U wears headphones 43 . The headphone 43 outputs to the user U the Lch signal YL and the Rch signal YR (hereinafter, the Lch signal YL and the Rch signal YR are collectively referred to as a stereo signal). Thereby, a sound image localized outside the head of the user U can be reproduced.

このように、頭外定位処理装置100は、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタLinv,Rinvを用いて、頭外定位処理を行っている。以下の説明において、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタLinv,Rinvとをまとめて頭外定位処理フィルタとする。2chのステレオ再生信号の場合、頭外定位フィルタは、4つの空間音響フィルタと、2つの逆フィルタとから構成されている。そして、頭外定位処理装置100は、ステレオ再生信号に対して合計6個の頭外定位フィルタを用いて畳み込み演算処理を行うことで、頭外定位処理を実行する。頭外定位フィルタは、ユーザU個人の測定に基づくものであることが好ましい。例えば,ユーザUの耳に装着されたマイクが収音した収音信号に基づいて、頭外定位フィルタが設定されている。 In this manner, the out-of-head localization processing apparatus 100 performs out-of-head localization processing using the spatial acoustic filters corresponding to the spatial sound transfer characteristics Hls, Hlo, Hro, and Hrs and the inverse filters Linv and Rinv of the headphone characteristics. there is In the following description, the spatial acoustic filters corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs and the inverse filters Linv and Rinv of the headphone characteristics are collectively referred to as an out-of-head localization processing filter. In the case of a 2ch stereo reproduction signal, the out-of-head localization filter is composed of four spatial acoustic filters and two inverse filters. Then, the out-of-head localization processing apparatus 100 performs out-of-head localization processing by performing a convolution operation on the stereo reproduction signal using a total of six out-of-head localization filters. The out-of-head localization filter is preferably based on user U's individual measurements. For example, an out-of-head localization filter is set based on a sound signal picked up by a microphone attached to the user's U ear.

このように空間音響フィルタと、ヘッドホン特性の逆フィルタLinv,Rinvはオーディオ信号用のフィルタである。これらのフィルタが再生信号(ステレオ入力信号XL、XR)に畳み込まれることで、頭外定位処理装置100が、頭外定位処理を実行する。本実施の形態では、空間音響フィルタを生成する処理が技術的特徴の一つとなっている。具体的には、空間音響フィルタを生成する処理において、周波数特性のレベルレンジ圧縮が施されている。 In this manner, the spatial acoustic filter and the headphone characteristic inverse filters Linv and Rinv are filters for audio signals. By convolving these filters with the reproduced signals (stereo input signals XL and XR), the out-of-head localization processing apparatus 100 executes out-of-head localization processing. One of the technical features of this embodiment is the process of generating a spatial acoustic filter. Specifically, in the process of generating the spatial acoustic filter, level range compression of frequency characteristics is applied.

(空間音響伝達特性の測定装置)
図2を用いて、空間音響伝達特性Hls、Hlo、Hro、Hrsを測定する測定装置200について説明する。図2は、被測定者1に対して測定を行うための測定構成を模式的に示す図である。なお、ここでは、被測定者1は、図1のユーザUと同一人物となっているが、異なる人物であってもよい。
(Equipment for measuring spatial sound transfer characteristics)
A measuring device 200 for measuring spatial sound transfer characteristics Hls, Hlo, Hro, and Hrs will be described with reference to FIG. FIG. 2 is a diagram schematically showing a measurement configuration for measuring the person 1 to be measured. Here, the person to be measured 1 is the same person as the user U in FIG. 1, but may be a different person.

図2に示すように、測定装置200は、ステレオスピーカ5とマイクユニット2を有している。ステレオスピーカ5が測定環境に設置されている。測定環境は、ユーザUの自宅の部屋やオーディオシステムの販売店舗やショールーム等でもよい。測定環境は、スピーカや音響の整ったリスニングルームであることが好ましい。 As shown in FIG. 2 , the measuring device 200 has stereo speakers 5 and a microphone unit 2 . A stereo speaker 5 is installed in the measurement environment. The measurement environment may be a room in the user U's home, an audio system store, a showroom, or the like. The measurement environment is preferably a listening room equipped with speakers and acoustics.

本実施の形態では、測定装置200の処理装置201が、空間音響フィルタを適切に生成するための演算処理を行っている。処理装置201は、例えば、CDプレイヤー等の音楽プレイヤーなどを有している。処理装置201は、パーソナルコンピュータ(PC)、タブレット端末、スマートホン等であってもよい。また、処理装置201は、サーバ装置自体であってもよい。 In this embodiment, the processing device 201 of the measurement device 200 performs arithmetic processing for appropriately generating the spatial acoustic filter. The processing device 201 has, for example, a music player such as a CD player. The processing device 201 may be a personal computer (PC), tablet terminal, smart phone, or the like. Alternatively, the processing device 201 may be the server device itself.

ステレオスピーカ5は、左スピーカ5Lと右スピーカ5Rを備えている。例えば、被測定者1の前方に左スピーカ5Lと右スピーカ5Rが設置されている。左スピーカ5Lと右スピーカ5Rは、インパルス応答測定を行うためのインパルス音等を出力する。以下、本実施の形態では、音源となるスピーカの数を2(ステレオスピーカ)として説明するが、測定に用いる音源の数は2に限らず、1以上であればよい。すなわち、1chのモノラル、または、5.1ch、7.1ch等の、いわゆるマルチチャンネル環境においても同様に、本実施の形態を適用することができる。 The stereo speaker 5 has a left speaker 5L and a right speaker 5R. For example, a left speaker 5L and a right speaker 5R are installed in front of the person 1 to be measured. The left speaker 5L and the right speaker 5R output impulse sounds and the like for impulse response measurement. In the following description of the present embodiment, the number of speakers serving as sound sources is two (stereo speakers), but the number of sound sources used for measurement is not limited to two, and may be one or more. That is, the present embodiment can be similarly applied in a so-called multi-channel environment such as 1ch monaural, 5.1ch, 7.1ch, and the like.

マイクユニット2は、左のマイク2Lと右のマイク2Rを有するステレオマイクである。左のマイク2Lは、被測定者1の左耳9Lに設置され、右のマイク2Rは、被測定者1の右耳9Rに設置されている。具体的には、左耳9L、右耳9Rの外耳道入口から鼓膜までの位置にマイク2L、2Rを設置することが好ましい。マイク2L、2Rは、ステレオスピーカ5から出力された測定信号を収音して、収音信号を取得する。マイク2L、2Rは収音信号を処理装置201に出力する。被測定者1は、人でもよく、ダミーヘッドでもよい。すなわち、本実施形態において、被測定者1は人だけでなく、ダミーヘッドを含む概念である。 The microphone unit 2 is a stereo microphone having a left microphone 2L and a right microphone 2R. The left microphone 2L is installed on the subject's 1 left ear 9L, and the right microphone 2R is installed on the subject's 1 right ear 9R. Specifically, it is preferable to install the microphones 2L and 2R at positions from the entrance of the ear canal of the left ear 9L and the right ear 9R to the eardrum. The microphones 2L and 2R pick up the measurement signal output from the stereo speaker 5 to acquire the picked-up sound signal. The microphones 2L and 2R output picked-up sound signals to the processing device 201. FIG. The person 1 to be measured may be a person or a dummy head. That is, in the present embodiment, the person to be measured 1 is a concept that includes not only a person but also a dummy head.

上記のように、左スピーカ5L、右スピーカ5Rで出力されたインパルス音をマイク2L、2Rで測定することでインパルス応答が測定される。処理装置201は、インパルス応答測定により取得した収音信号をメモリなどに記憶する。これにより、左スピーカ5Lと左マイク2Lとの間の空間音響伝達特性Hls、左スピーカ5Lと右マイク2Rとの間の空間音響伝達特性Hlo、右スピーカ5Rと左マイク2Lとの間の空間音響伝達特性Hro、右スピーカ5Rと右マイク2Rとの間の空間音響伝達特性Hrsが測定される。すなわち、左スピーカ5Lから出力された測定信号を左マイク2Lが収音することで、空間音響伝達特性Hlsが取得される。左スピーカ5Lから出力された測定信号を右マイク2Rが収音することで、空間音響伝達特性Hloが取得される。右スピーカ5Rから出力された測定信号を左マイク2Lが収音することで、空間音響伝達特性Hroが取得される。右スピーカ5Rから出力された測定信号を右マイク2Rが収音することで、空間音響伝達特性Hrsが取得される。 As described above, the impulse responses are measured by measuring the impulse sounds output from the left speaker 5L and the right speaker 5R with the microphones 2L and 2R. The processing device 201 stores the picked-up sound signal obtained by the impulse response measurement in a memory or the like. As a result, spatial sound transfer characteristics Hls between the left speaker 5L and the left microphone 2L, spatial sound transfer characteristics Hlo between the left speaker 5L and the right microphone 2R, and spatial sound between the right speaker 5R and the left microphone 2L A transfer characteristic Hro and a spatial sound transfer characteristic Hrs between the right speaker 5R and the right microphone 2R are measured. That is, the spatial sound transfer characteristic Hls is acquired by the left microphone 2L picking up the measurement signal output from the left speaker 5L. The spatial sound transfer characteristic Hlo is acquired by the right microphone 2R picking up the measurement signal output from the left speaker 5L. The spatial sound transfer characteristic Hro is acquired by the left microphone 2L picking up the measurement signal output from the right speaker 5R. The spatial sound transfer characteristic Hrs is acquired by the right microphone 2R picking up the measurement signal output from the right speaker 5R.

また、測定装置200は、収音信号に基づいて、左右のスピーカ5L、5Rから左右のマイク2L、2Rまでの空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタを生成してもよい。例えば、処理装置201は、空間音響伝達特性Hls、Hlo、Hro、Hrsを所定のフィルタ長で切り出す。処理装置201は、測定した空間音響伝達特性Hls、Hlo、Hro、Hrsを補正してもよい。 In addition, the measuring device 200 generates spatial acoustic filters corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, Hrs from the left and right speakers 5L, 5R to the left and right microphones 2L, 2R based on the collected sound signals. good too. For example, the processing device 201 cuts out the spatial sound transfer characteristics Hls, Hlo, Hro, Hrs with a predetermined filter length. The processing unit 201 may correct the measured spatial sound transfer characteristics Hls, Hlo, Hro, Hrs.

このようにすることで、処理装置201は、頭外定位処理装置100の畳み込み演算に用いられる空間音響フィルタを生成する。図1で示したように、頭外定位処理装置100が、左右のスピーカ5L、5Rと左右のマイク2L、2Rとの間の空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタを用いて頭外定位処理を行う。すなわち、空間音響フィルタをオーディオ再生信号に畳み込むことにより、頭外定位処理を行う。 By doing so, the processing device 201 generates a spatial acoustic filter used in the convolution operation of the out-of-head localization processing device 100 . As shown in FIG. 1, the out-of-head localization processing device 100 includes spatial acoustic filters corresponding to spatial acoustic transfer characteristics Hls, Hlo, Hro, Hrs between the left and right speakers 5L, 5R and the left and right microphones 2L, 2R. is used to perform out-of-head localization processing. That is, out-of-head localization processing is performed by convolving the spatial acoustic filter with the audio reproduction signal.

処理装置201は、空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれに対応する収音信号に対して同様の処理を実施している。すなわち、空間音響伝達特性Hls、Hlo、Hro、Hrsに対応する4つの収音信号に対して、それぞれ同様の処理が実施される。これにより、空間音響伝達特性Hls、Hlo、Hro、Hrsに対応する空間音響フィルタをそれぞれ生成することができる。 The processing device 201 performs similar processing on the collected sound signals corresponding to the spatial sound transfer characteristics Hls, Hlo, Hro, and Hrs. That is, the same processing is performed for each of the four picked-up sound signals corresponding to the spatial sound transfer characteristics Hls, Hlo, Hro, and Hrs. Thereby, spatial acoustic filters corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs can be generated.

(外耳道伝達特性の測定装置)
外耳道伝達特性の測定装置300について、図3を用いて説明する。図3は、ユーザUに対して伝達特性を測定するための構成を示している。測定装置300は、逆フィルタを生成するために、外耳道伝達特性を測定する。測定装置300は、マイクユニット2と、ヘッドホン43と、処理装置301と、を備えている。なお、ここでは、被測定者1は、図1のユーザUと同一人物となっているが、異なる人物であってもよい。
(Device for measuring ear canal transfer characteristics)
An ear canal transfer characteristic measuring device 300 will be described with reference to FIG. FIG. 3 shows a configuration for measuring transfer characteristics for user U. In FIG. The measurement device 300 measures ear canal transfer characteristics to generate an inverse filter. The measuring device 300 includes a microphone unit 2 , headphones 43 and a processing device 301 . Here, the person to be measured 1 is the same person as the user U in FIG. 1, but may be a different person.

本実施の形態では、測定装置300の処理装置301が、測定結果に応じて、フィルタを適切に生成するための演算処理を行っている。処理装置301は、パーソナルコンピュータ(PC)、タブレット端末、スマートホン等であり、メモリ、及びプロセッサを備えている。メモリは、処理プログラムや各種パラメータや測定データなどを記憶している。プロセッサは、メモリに格納された処理プログラムを実行する。プロセッサが処理プログラムを実行することで、各処理が実行される。プロセッサは、例えば、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)、DSP(Digital Signal Processor),ASIC(Application Specific Integrated Circuit)、又は、GPU(Graphics Processing Unit)等であってもよい。 In this embodiment, the processing device 301 of the measuring device 300 performs arithmetic processing for appropriately generating filters according to the measurement results. The processing device 301 is a personal computer (PC), tablet terminal, smart phone, or the like, and includes a memory and a processor. The memory stores processing programs, various parameters, measurement data, and the like. The processor executes a processing program stored in memory. Each process is executed by the processor executing the processing program. The processor may be, for example, a CPU (Central Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), or GPU (Graphics Processing Unit). .

また、図3の処理装置301は、図2の処理装置301と物理的に同じ処理装置であってもよく、異なる処理装置であってもよい。つまり、図2と図3の測定は、同じ処理装置を用いて行われる構成に限られるものではない。例えば、図2に示す測定は、リスリングルームなどの設置された測定専用の処理装置201で行われ、図3に示す測定はスマートホンなどの汎用の処理装置301で行われてもよい。 Further, the processing device 301 in FIG. 3 may be physically the same processing device as the processing device 301 in FIG. 2, or may be a different processing device. That is, the measurements of FIGS. 2 and 3 are not limited to configurations performed using the same processing apparatus. For example, the measurement shown in FIG. 2 may be performed by a dedicated measurement processing device 201 installed in a squirrel ring room, and the measurement shown in FIG. 3 may be performed by a general-purpose processing device 301 such as a smart phone.

処理装置301には、マイクユニット2と、ヘッドホン43と、が接続されている。なお、マイクユニット2は、ヘッドホン43に内蔵されていてもよい。マイクユニット2は、左マイク2Lと、右マイク2Rとを備えている。左マイク2Lは、ユーザUの左耳9Lに装着される。右マイク2Rは、ユーザUの右耳9Rに装着される。処理装置301は、頭外定位処理装置100と同じ処理装置であってもよく、異なる処理装置であってよい。また、ヘッドホン43の代わりにイヤホンを用いることも可能である。 A microphone unit 2 and a headphone 43 are connected to the processing device 301 . Note that the microphone unit 2 may be built in the headphone 43 . The microphone unit 2 has a left microphone 2L and a right microphone 2R. The left microphone 2L is worn on the user's U left ear 9L. The right microphone 2R is worn on the user's U right ear 9R. The processing device 301 may be the same processing device as the out-of-head localization processing device 100, or may be a different processing device. It is also possible to use earphones instead of the headphones 43 .

ヘッドホン43は、ヘッドホンバンド43Bと、左ユニット43Lと、右ユニット43Rとを、有している。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとを連結する。左ユニット43LはユーザUの左耳9Lに向かって音を出力する。右ユニット43RはユーザUの右耳9Rに向かって音を出力する。ヘッドホン43は密閉型、開放型、半開放型、または半密閉型等である、ヘッドホンの種類を問わない。マイクユニット2がユーザUに装着された状態で、ユーザUがヘッドホン43を装着する。すなわち、左マイク2L、右マイク2Rが装着された左耳9L、右耳9Rにヘッドホン43の左ユニット43L、右ユニット43Rがそれぞれ装着される。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとをそれぞれ左耳9L、右耳9Rに押し付ける付勢力を発生する。 The headphone 43 has a headphone band 43B, a left unit 43L, and a right unit 43R. Headphone band 43B connects left unit 43L and right unit 43R. The left unit 43L outputs sound toward the user's U left ear 9L. The right unit 43R outputs sound toward the user's U right ear 9R. The headphone 43 may be closed type, open type, semi-open type, semi-closed type, or the like, regardless of the type of headphone. The user U wears the headphones 43 while the microphone unit 2 is worn by the user U. That is, the left ear 9L and the right ear 9R to which the left microphone 2L and the right microphone 2R are attached are respectively attached with the left unit 43L and the right unit 43R of the headphone 43 . The headphone band 43B generates an urging force that presses the left unit 43L and the right unit 43R against the left ear 9L and the right ear 9R, respectively.

左マイク2Lは、ヘッドホン43の左ユニット43Lから出力された音を収音する。右マイク2Rは、ヘッドホン43の右ユニット43Rから出力された音を収音する。左マイク2L、及び右マイク2Rのマイク部は、外耳孔近傍の収音位置に配置される。左マイク2L、及び右マイク2Rは、ヘッドホン43に干渉しないように構成されている。すなわち、左マイク2L、及び右マイク2Rは左耳9L、右耳9Rの適切な位置に配置された状態で、ユーザUがヘッドホン43を装着することができる。 The left microphone 2L picks up sound output from the left unit 43L of the headphone 43. FIG. The right microphone 2R picks up sound output from the right unit 43R of the headphone 43. FIG. The microphone parts of the left microphone 2L and the right microphone 2R are arranged at sound pickup positions near the outer ear canal. The left microphone 2L and the right microphone 2R are configured so as not to interfere with the headphone 43. FIG. That is, the user U can wear the headphones 43 with the left microphone 2L and the right microphone 2R arranged at appropriate positions on the left ear 9L and the right ear 9R.

処理装置301は、ヘッドホン43に対して測定信号を出力する。これにより、ヘッドホン43はインパルス音などを発生する。具体的には、左ユニット43Lから出力されたインパルス音を左マイク2Lで測定する。右ユニット43Rから出力されたインパルス音を右マイク2Rで測定する。測定信号の出力時に、マイク2L、2Rが収音信号を取得することで、インパルス応答測定が実施される。 The processing device 301 outputs measurement signals to the headphones 43 . As a result, the headphone 43 generates an impulse sound or the like. Specifically, the impulse sound output from the left unit 43L is measured by the left microphone 2L. The impulse sound output from the right unit 43R is measured by the right microphone 2R. When the measurement signal is output, the microphones 2L and 2R acquire the picked-up sound signal to perform the impulse response measurement.

処理装置301は、マイク2L、2Rからの収音信号に対して、同様の処理を行うことで、逆フィルタLinv、Rinvを生成する。 The processing device 301 generates inverse filters Linv and Rinv by performing similar processing on the sound signals picked up from the microphones 2L and 2R.

(レベルレンジ圧縮)
測定装置200と測定装置300の少なくとも一方において、収音信号の周波数特性が所定のレベルレンジに収まるようにレンジを圧縮する処理が行われる。以下の説明では、測定装置200において、空間音響伝達特性Hls、Hloに対応する収音信号の周波数特性のレベルレンジを圧縮する処理について説明を行う。つまり、測定装置200において、空間音響伝達特性Hro、Hrsに対応する収音信号の周波数特性のレベルレンジを圧縮する処理については、以下に説明する処理と同様であるため説明を適宜、省略する。同様に、測定装置300において、左右の外耳道伝達特性に対する収音信号の周波数特性のレベルレンジを圧縮する処理についても、以下に説明する処理と同様であるため、適宜説明を省略する。
(Level range compression)
At least one of the measurement devices 200 and 300 performs range compression processing so that the frequency characteristics of the collected sound signal fall within a predetermined level range. In the following description, the process of compressing the level range of the frequency characteristics of the collected sound signal corresponding to the spatial sound transfer characteristics Hls and Hlo in the measuring device 200 will be described. That is, in the measuring apparatus 200, the processing for compressing the level range of the frequency characteristics of the picked-up sound signals corresponding to the spatial sound transfer characteristics Hro and Hrs is the same as the processing described below, so description thereof will be omitted as appropriate. Similarly, the process of compressing the level range of the frequency characteristic of the collected sound signal with respect to the left and right ear canal transfer characteristics in the measuring apparatus 300 is the same as the process described below, and thus description thereof will be omitted as appropriate.

以下、図4は、測定装置200の処理装置201の構成を示すブロック図である。処理装置201は、測定信号生成部211と、収音信号取得部212と、セグメンタルパワー取得部215と、周波数特性取得部221と、レベル算出部223と、レベルレンジ設定部224と、補正部225と、調整部231と、逆変換部232と、を備えている。逆変換部232と調整部231がフィルタ生成部230として機能する。 4 is a block diagram showing the configuration of the processing device 201 of the measuring device 200. As shown in FIG. The processing device 201 includes a measurement signal generation unit 211, a collected sound signal acquisition unit 212, a segmental power acquisition unit 215, a frequency characteristic acquisition unit 221, a level calculation unit 223, a level range setting unit 224, and a correction unit. 225 , an adjustment unit 231 and an inverse transform unit 232 . The inverse transforming section 232 and the adjusting section 231 function as the filter generating section 230 .

測定信号生成部211は、D/A変換器やアンプなどを備えており、空間音響伝達特性や外耳道伝達特性を測定するための測定信号を生成する。測定信号は、例えば、インパルス信号やTSP(Time Stretched Pulse)信号等である。ここでは、測定信号としてインパルス音を用いて、測定装置200がインパルス応答測定を実施している。測定信号生成部211は、測定信号をステレオスピーカ5にそれぞれ出力する。ここでは、空間音響伝達特性Hls、Hloに対応する収音信号を取得するため、左スピーカ5Lから測定信号が出力される例について説明する。 The measurement signal generator 211 includes a D/A converter, an amplifier, and the like, and generates a measurement signal for measuring spatial sound transfer characteristics and ear canal transfer characteristics. The measurement signal is, for example, an impulse signal, a TSP (Time Stretched Pulse) signal, or the like. Here, the measurement device 200 performs impulse response measurement using impulse sound as the measurement signal. The measurement signal generator 211 outputs the measurement signals to the stereo speakers 5, respectively. Here, an example in which a measurement signal is output from the left speaker 5L in order to acquire a collected sound signal corresponding to the spatial sound transfer characteristics Hls and Hlo will be described.

マイクユニット2の左マイク2L、右マイク2Rがそれぞれ測定信号を収音し、収音信号を処理装置201に出力する。収音信号取得部212は、左マイク2L、右マイク2Rで収音された収音信号を取得する。なお、収音信号取得部212は、マイク2L、2Rからの収音信号をA/D変換するA/D変換器を備えていてもよい。収音信号取得部212は、収音信号を所定の時間で切り出す。つまり、収音信号取得部212は予め設定されたデータ数(時間幅)の収音信号を抽出する。収音信号取得部212は、複数回の測定により得られた信号を同期加算してもよい。左マイク2Lを用いて取得された収音信号をhlsとし、右マイク2Rを用いて取得された収音信号を収音信号hloとする。収音信号hls、hloはそれぞれサンプリング周波数48kHzでサンプリングされた信号である。また切り出し後の収音信号hls、hloはそれぞれフィルタ長(サンプル数)4096のフィルタとなっている。もちろん、サンプリング周波数やフィルタ長は上記の値に限られるものではない。 The left microphone 2L and the right microphone 2R of the microphone unit 2 each pick up the measurement signal and output the picked-up sound signal to the processing device 201 . The collected sound signal acquisition unit 212 acquires the collected sound signals picked up by the left microphone 2L and the right microphone 2R. The collected sound signal acquisition unit 212 may include an A/D converter that A/D converts the collected sound signals from the microphones 2L and 2R. The collected sound signal acquisition unit 212 cuts out the collected sound signal at a predetermined time. That is, the collected sound signal acquisition unit 212 extracts a preset number of data (time width) of collected sound signals. The collected sound signal acquisition unit 212 may synchronously add signals obtained by multiple measurements. The collected sound signal obtained using the left microphone 2L is defined as hls, and the collected sound signal obtained using the right microphone 2R is defined as the collected sound signal hlo. The collected sound signals hls and hlo are signals sampled at a sampling frequency of 48 kHz. Also, the collected sound signals hls and hlo after clipping are each filtered with a filter length (the number of samples) of 4096. FIG. Of course, the sampling frequency and filter length are not limited to the above values.

セグメンタルパワー取得部215は、収音信号hlsと収音信号hloのセグメンタルパワーを取得する。例えば、収音信号hlsと収音信号hloのセグメンタルパワーをhlsP、hloPとする。セグメンタルパワーhlsPは収音信号hlsに含まれる振幅値の二乗和となる。セグメンタルパワーhloPは収音信号hloに含まれる振幅値の二乗和となる。時間領域において、収音信号hlsと収音信号hloがデータ数4096とすると、4096個の振幅値の二乗和がセグメンタルパワーhlsP、hloPとなる。 The segmental power acquisition unit 215 acquires segmental powers of the collected sound signal hls and the collected sound signal hlo. For example, the segmental powers of the collected sound signal hls and the collected sound signal hlo are hlsP and hloP. The segmental power hlsP is the sum of squares of the amplitude values contained in the picked-up sound signal hls. The segmental power hloP is the sum of squares of the amplitude values contained in the collected sound signal hlo. In the time domain, if the collected sound signal hls and the collected sound signal hlo have 4096 data, the sum of the squares of the 4096 amplitude values becomes the segmental powers hlsP and hloP.

周波数特性取得部221は、収音信号hls、hloに基づいて、周波数特性を取得する。周波数特性取得部221は、離散フーリエ変換や離散コサイン変換により、収音信号hls、hloの周波数特性をそれぞれ算出する。周波数特性取得部221は、例えば、時間領域の収音信号をFFT(高速フーリエ変換)することで、周波数特性を算出する。周波数特性は、振幅スペクトルと、位相スペクトルとを含んでいる。なお、周波数特性取得部221は振幅スペクトルの代わりにパワースペクトルを生成してもよい。収音信号hls、hloの周波数振幅特性をそれぞれFhls、Fhloとする。周波数特性Fhls、Fhloは振幅スペクトルのスペクトルデータとなる。 The frequency characteristic acquisition unit 221 acquires frequency characteristics based on the collected sound signals hls and hlo. The frequency characteristic acquisition unit 221 calculates frequency characteristics of the collected sound signals hls and hlo by discrete Fourier transform and discrete cosine transform. The frequency characteristic acquisition unit 221 calculates the frequency characteristic by, for example, performing FFT (Fast Fourier Transform) on the collected sound signal in the time domain. A frequency characteristic includes an amplitude spectrum and a phase spectrum. Note that the frequency characteristic acquisition unit 221 may generate a power spectrum instead of the amplitude spectrum. Let Fhls and Fhlo be the frequency-amplitude characteristics of the collected sound signals hls and hlo, respectively. The frequency characteristics Fhls and Fhlo are spectrum data of the amplitude spectrum.

レベル算出部223は、周波数特性Fhls、Fhloにおける基準レベルを算出する。例えば、レベル算出部223は、周波数特性Fhls、Fhloの平均レベル(平均値)を算出して、基準レベルとする。例えば、フィルタ長(サンプル数)TでFFTされているとすると、周波数振幅特性の各周波数のレベル値(dB)を算出して、平均値を出す。T点FFT後のreal(実部),imag(虚部)をそれぞれreal[i],imag[i]、とする。ここでiは0~(T-1)の整数である。各i点における音圧レベルAmp_dB[i]は以下の式(1)となる。
Amp_dB[i]=log10(sqrt(real[i]*real[i]+imag[i]*imag[i])) ・・・(1)
式(1)において、i=1~(T/2+1)であり、sqrtは平方根である。
The level calculator 223 calculates reference levels in the frequency characteristics Fhls and Fhlo. For example, the level calculator 223 calculates the average level (average value) of the frequency characteristics Fhls and Fhlo and uses it as the reference level. For example, if FFT is performed with a filter length (the number of samples) T, the level value (dB) of each frequency of the frequency-amplitude characteristic is calculated and the average value is obtained. Let real (real part) and imag (imaginary part) after T-point FFT be real[i] and imag[i], respectively. Here, i is an integer from 0 to (T-1). The sound pressure level Amp_dB[i] at each i point is given by the following equation (1).
Amp_dB[i]=log10(sqrt(real[i]*real[i]+imag[i]*imag[i])) (1)
In equation (1), i=1 to (T/2+1) and sqrt is the square root.

また、i点における周波数(Hz)をfreq[i]とし、サンプリング周波数をfsとすると、freq[i]は、以下の式(2)で得られる。
freq[i]=(T/fs)*i ・・・(2)
Further, when the frequency (Hz) at the i point is freq[i] and the sampling frequency is fs, freq[i] is obtained by the following equation (2).
freq[i]=(T/fs)*i (2)

全周波数帯域での基準レベルAは以下の式(3)で得られる。

Figure 2023047706000002
A reference level A in the entire frequency band is obtained by the following equation (3).
Figure 2023047706000002

周波数特性Fhlsの基準レベルをAhlsとし、周波数特性Fhloの基準レベルとAhloとすると、基準レベルAは、(Ahls+Ahlo)/2となる。 Assuming that the reference level of the frequency characteristic Fhls is Ahls and the reference level of the frequency characteristic Fhlo is Ahlo, the reference level A is (Ahls+Ahlo)/2.

さらに、レベル算出部223は周波数振幅特性の最大レベルmaxLと最小レベルminLを算出する。最大レベルmaxLは周波数特性Fhls、Fhloの2つのスペクトルデータに含まれる振幅値の中での最大値である。最小レベルminLは周波数特性Fhls、Fhloの2つのスペクトルデータに含まれる振幅値の中での最小値となる。基準レベルA、最大レベルmaxL、最小レベルminLは2つの周波数特性Fhls、Fhloで共通の値となる。 Further, the level calculator 223 calculates the maximum level maxL and the minimum level minL of the frequency-amplitude characteristic. The maximum level maxL is the maximum value among the amplitude values included in the two spectrum data of the frequency characteristics Fhls and Fhlo. The minimum level minL is the minimum value among the amplitude values included in the two spectrum data of the frequency characteristics Fhls and Fhlo. The reference level A, the maximum level maxL, and the minimum level minL are common values for the two frequency characteristics Fhls and Fhlo.

レベルレンジ設定部224は、圧縮するレベルレンジXを設定する。レベルレンジ設定部224は、例えば、再生機器等に応じてレベルレンジXを入力する。適切な頭外定位効果を得るためにはX=40dB以上とすることが好ましい。また、再生機器のアンプなどが音声出力の効率や品質の性能等高性能でない場合、X=20dBとすることもできる。X=20dB以上40dB以下とすることが好ましいが、特にこの範囲に限られるものではない。 A level range setting unit 224 sets a level range X for compression. The level range setting unit 224 inputs the level range X according to, for example, the playback device. In order to obtain an appropriate out-of-head localization effect, it is preferable to set X=40 dB or more. In addition, when the amplifier of the playback device is not high performance such as efficiency and quality of audio output, X=20 dB can also be used. Although it is preferable that X=20 dB or more and 40 dB or less, X is not particularly limited to this range.

補正部225は、基準レベルAを含む所定のレベルレンジXに収まるように、周波数特性Fhls、Fhloを補正することで補正特性を算出する。つまり、周波数特性の振幅値がレベルレンジX内に含まれるように、補正部225が、周波数特性Fhls、Fhlo振幅レベルを圧縮する。例えば、レベルレンジX=40dBの場合、振幅値が基準レベルA±20dBの範囲に収まるように圧縮することで、補正部225が周波数特性Fhls、Fhloを補正する。補正部225で補正された特性を補正特性とする。周波数特性Fhlsの補正特性をNewFhlsとし、周波数特性Fhloの補正特性をNewFhloとする。 The correction unit 225 calculates a correction characteristic by correcting the frequency characteristics Fhls and Fhlo so that the frequency characteristics fall within a predetermined level range X including the reference level A. FIG. That is, the correction unit 225 compresses the frequency characteristics Fhls and Fhlo amplitude levels so that the amplitude values of the frequency characteristics are included in the level range X. FIG. For example, when the level range X=40 dB, the correction unit 225 corrects the frequency characteristics Fhls and Fhlo by compressing the amplitude value so that it falls within the range of the reference level A±20 dB. The characteristics corrected by the correction unit 225 are defined as corrected characteristics. Let NewFhls be the correction characteristic for the frequency characteristic Fhls, and NewFhlo be the correction characteristic for the frequency characteristic Fhlo.

ここで、任意の周波数における補正前の振幅値をLとし、補正後の振幅値をNewLとする。つまり、周波数特性Fhls、Fhloは補正前の振幅値Lの集合であり、補正特性NewFhls、NewFhloは、振幅値NewLの集合である。 Let L be the amplitude value before correction at an arbitrary frequency, and NewL be the amplitude value after correction. That is, the frequency characteristics Fhls and Fhlo are a set of amplitude values L before correction, and the corrected characteristics NewFhls and NewFhlo are a set of amplitude values NewL.

例えば、補正部225は以下の式(4)、(5)を用いて、周波数特性を補正することができる。
LがA以上の場合
NewL=A+(L-X)*(X/2)/(maxL-A) ・・・(4)
LがA未満の場合
NewL=A+(L-X)*(X/2)/(A-minL) ・・・(5)
For example, the correction unit 225 can correct the frequency characteristic using the following equations (4) and (5).
NewL=A+(L−X)*(X/2)/(maxL−A) (4) when L is greater than or equal to A
If L is less than A, NewL=A+(L−X)*(X/2)/(A−minL) (5)

このようにすることで、NewLが基準レベルを中心としたレベルレンジXに収まるようになる。つまり、NewLは(A―(X/2))以上、(A+(X/2))以下の振幅値となる。そして、補正部225は、補正帯域内の全てのデータ(振幅値L)に対して、上記の式(1)、(2)を用いて、補正後の振幅値NewLを算出する。補正後の振幅値NewLの集合が補正特性となる。周波数特性Fhlsの振幅値を補正することで、補正特性が求められる。また、(1)、(2)を用いて補正することで、補正前の周波数特性Fhls、Fhloのスペクトル形状を維持しながら、レンジを圧縮することができる。 By doing so, NewL comes to fall within the level range X centered on the reference level. That is, NewL has an amplitude value equal to or greater than (A-(X/2)) and equal to or less than (A+(X/2)). Then, the correction unit 225 calculates the post-correction amplitude value NewL for all the data (amplitude value L) within the correction band using the above equations (1) and (2). A set of amplitude values NewL after correction becomes a correction characteristic. A correction characteristic is obtained by correcting the amplitude value of the frequency characteristic Fhls. Further, by correcting using (1) and (2), the range can be compressed while maintaining the spectral shapes of the frequency characteristics Fhls and Fhlo before correction.

なお、補正部225によって補正される周波数帯域は全体帯域でもよく、一部の帯域でも良い。例えば、周波数特性Fhls、Fhloを補正する補正帯域を10Hz~20kHzとすることが可能である。つまり、補正部225は、最低周波数(例えば1Hz)以上10Hz未満の帯域、20kHzより大きく最高周波数以下の帯域では、振幅値を補正しない。よって、補正帯域以外では、周波数特性Fhls、Fhloの振幅値がそのまま用いられる。補正帯域は、頭外定位再生するヘッドホン43,つまり、図1のヘッドホン43の再生帯域に応じて変更しても良い。 Note that the frequency band corrected by the correction unit 225 may be the entire band or a part of the band. For example, the correction band for correcting the frequency characteristics Fhls and Fhlo can be 10 Hz to 20 kHz. In other words, the correction unit 225 does not correct the amplitude value in the band from the lowest frequency (for example, 1 Hz) to less than 10 Hz and in the band from 20 kHz to the highest frequency. Therefore, the amplitude values of the frequency characteristics Fhls and Fhlo are used as they are outside the correction band. The correction band may be changed according to the reproduction band of the headphone 43 for out-of-head localization reproduction, that is, the headphone 43 in FIG.

フィルタ生成部230は、補正特性に基づいて、補正フィルタを生成する。具体的には、フィルタ生成部230は、逆変換部232と、調整部231とを備えている。逆変換部232は、補正特性を逆変換して、時間領域の補正信号を生成する。逆変換部232は、逆離散フーリエ変換又は逆離散コサイン変換により、補正特性と位相特性から時間領域の補正信号を算出する。逆変換部232は、補正特性と位相特性をIFFT(逆高速フーリエ変換)することで、時間領域の補正信号を生成する。補正特性NewFhlsから得られた補正信号hls2とする。補正特性NewFhloから得られた補正信号hlo2とする。補正信号hls2、hlo2は、切り出し後の収音信号と同じフィルタ長のフィルタとなっている。 Filter generator 230 generates a correction filter based on the correction characteristic. Specifically, the filter generating section 230 includes an inverse transforming section 232 and an adjusting section 231 . The inverse transform unit 232 inverse transforms the correction characteristic to generate a time-domain correction signal. The inverse transform unit 232 calculates a correction signal in the time domain from the correction characteristic and the phase characteristic by inverse discrete Fourier transform or inverse discrete cosine transform. The inverse transform unit 232 performs IFFT (inverse fast Fourier transform) on the correction characteristic and the phase characteristic to generate a correction signal in the time domain. A correction signal hls2 obtained from the correction characteristic NewFhls is assumed. A correction signal hlo2 obtained from the correction characteristic NewFhlo is assumed. The correction signals hls2 and hlo2 are filters having the same filter length as the collected sound signal after clipping.

なお、位相特性は、周波数特性取得部221で算出された位相特性をそのまま用いることができる。つまり、逆変換部232は、周波数特性Fhlsに対応する位相特性と、補正特性NewFhlsとに対して、フーリエ逆変換を施すことで、補正信号hls2を生成する。逆変換部232は、周波数特性Fhloに対応する位相特性と、補正特性NewFhloとに対して、フーリエ逆変換を施すことで、補正信号hlo2を生成する。 As the phase characteristic, the phase characteristic calculated by the frequency characteristic acquisition unit 221 can be used as it is. That is, the inverse transform unit 232 generates the correction signal hls2 by performing inverse Fourier transform on the phase characteristic corresponding to the frequency characteristic Fhls and the correction characteristic NewFhls. The inverse transform unit 232 performs inverse Fourier transform on the phase characteristic corresponding to the frequency characteristic Fhlo and the correction characteristic NewFhlo to generate the correction signal hlo2.

セグメンタルパワー取得部215は、補正信号hls2、補正信号hlo2のセグメンタルパワーをそれぞれ取得する。上記のように、セグメンタルパワーは時間領域の信号の振幅値の二乗和とすることができる。補正信号hls2のセグメンタルパワーをhls2Pとし、補正信号hlo2のセグメンタルパワーをhlo2とする。 The segmental power acquisition unit 215 acquires segmental powers of the correction signal hls2 and the correction signal hlo2. As mentioned above, the segmental power can be the sum of the squares of the amplitude values of the signal in the time domain. Let hls2P be the segmental power of the correction signal hls2, and hlo2 be the segmental power of the correction signal hlo2.

調整部231は、左右のパワー比(エネルギー比)を維持するように、補正信号hls2、hlo2のパワーを調整する。調整部231は、補正前後でパワー比が一致するように、補正信号を増幅する。例えば、調整部231は、補正信号の振幅値を所定数倍する。補正信号hls2に対する所定数は、(hlsP/hlsP2)となり、補正信号hlo2に対する所定数は、(hloP/hloP2)となる。 The adjuster 231 adjusts the powers of the correction signals hls2 and hlo2 so as to maintain the left and right power ratio (energy ratio). The adjuster 231 amplifies the correction signal so that the power ratios before and after the correction match. For example, the adjuster 231 multiplies the amplitude value of the correction signal by a predetermined number. The predetermined number for the correction signal hls2 is (hlsP/hlsP2), and the predetermined number for the correction signal hlo2 is (hloP/hloP2).

パワー比を調整した後の補正信号hls2、hlo2を補正フィルタhls3、hlo3とする。補正信号hls2の振幅値と所定数(hlsP/hlsP2)の積が補正フィルタhls3の振幅値となる。補正信号hlo2の振幅値と所定数(hloP/hloP2)の積が補正フィルタhlo3の振幅値となる。したがって、補正フィルタhls3のセグメンタルパワーは収音信号hlsのセグメンタルパワーと同じになる。補正フィルタhlo3のセグメンタルパワーは収音信号hloのセグメンタルパワーと同じになる。 The correction signals hls2 and hlo2 after adjusting the power ratio are used as correction filters hls3 and hlo3. The product of the amplitude value of the correction signal hls2 and a predetermined number (hlsP/hlsP2) is the amplitude value of the correction filter hls3. The product of the amplitude value of the correction signal hlo2 and a predetermined number (hloP/hloP2) is the amplitude value of the correction filter hlo3. Therefore, the segmental power of the correction filter hls3 is the same as the segmental power of the collected sound signal hls. The segmental power of the correction filter hlo3 is the same as the segmental power of the collected sound signal hlo.

このようにすることで、適切な補正フィルタを生成することができる。つまり、処理装置201が、再生機器に応じた補正フィルタを生成することができる。補正フィルタhls3,hlo3が空間音響フィルタとして、図1に示す畳み込み演算部11、12に設定される。これにより、頭外定位処理装置100が、頭外定位効果の高い再生を行うことができる。 By doing so, an appropriate correction filter can be generated. That is, the processing device 201 can generate a correction filter according to the playback device. The correction filters hls3 and hlo3 are set as spatial acoustic filters in the convolution calculation units 11 and 12 shown in FIG. As a result, the out-of-head localization processing apparatus 100 can perform reproduction with a high out-of-head localization effect.

具体的には、再生機器に応じたレベルレンジXに収まるように補正特性が生成されている。したがって、再生機器に適した状態での測定や頭外定位処理が可能となる。よって、頭外定位処理に適したフィルタを生成することができる。 Specifically, the correction characteristics are generated so as to fall within the level range X according to the playback device. Therefore, measurement and out-of-head localization processing can be performed in a state suitable for playback equipment. Therefore, a filter suitable for out-of-head localization processing can be generated.

さらに、上記の実施形態では、調整部231が左右のバランスを調整している。左右のバランスのよい頭外定位再生を実現することができる。もちろん、調整部231によるパワーバランスの調整は省略することができる。例えば、単一の収音信号hlsについて、処理装置201が処理を行う場合、調整部231の処理を省略する。この場合、補正信号hls2がそのまま補正フィルタとして畳み込み演算部11に設定される。 Furthermore, in the above-described embodiment, the adjusting section 231 adjusts the left-right balance. It is possible to realize out-of-head localization reproduction with a good left/right balance. Of course, the adjustment of the power balance by the adjusting section 231 can be omitted. For example, when the processing device 201 processes a single collected sound signal hls, the processing of the adjustment unit 231 is omitted. In this case, the correction signal hls2 is directly set in the convolution calculator 11 as a correction filter.

処理装置201は、空間音響伝達特性Hro、Hrsを示す収音信号についての処理も同様に行うことができる。この場合、空間音響伝達特性Hro、Hrsを示す収音信号のセグメンタルパワー比が補正前後で維持されるように、フィルタ生成部230が補正信号を調整する。さらに、処理装置201は、両耳の外耳道伝達特性についても同様に処理することができる。処理装置201は、左耳の外耳道伝達特性ECTFLと右耳の外耳道伝達特性ECTFRとのセグメンタルパワー比が補正前後で維持されるように、フィルタ生成部230が補正信号を調整する。 The processing device 201 can similarly process the collected sound signals indicating the spatial sound transfer characteristics Hro and Hrs. In this case, the filter generating section 230 adjusts the correction signal so that the segmental power ratio of the collected sound signals indicating the spatial sound transfer characteristics Hro and Hrs is maintained before and after the correction. Furthermore, the processing device 201 can similarly process the ear canal transfer characteristics of both ears. In the processing device 201, the filter generator 230 adjusts the correction signal so that the segmental power ratio between the left ear ear canal transfer characteristic ECTFL and the right ear ear canal transfer characteristic ECTFR is maintained before and after the correction.

次に、図5を用いて、本実施の形態にかかるフィルタ生成方法について説明する。図5は、フィルタ生成方法を示すフローチャートである。 Next, a filter generation method according to this embodiment will be described with reference to FIG. FIG. 5 is a flow chart showing the filter generation method.

まず、測定装置200が、インパルス音などを用いた伝達特性の測定を行う(S101)。つまり、測定信号生成部211がインパルス音などの測定信号を左スピーカ5Lから出力する。収音信号取得部212がマイクユニット2からの収音信号を取得する(S102)。収音信号取得部212が、左マイク2Lからの収音信号と右マイク2Rからの収音信号を所定のフィルタ長で切り出す。これにより、収音信号hls、hloが得られる。 First, the measuring device 200 measures transfer characteristics using impulse sound or the like (S101). That is, the measurement signal generator 211 outputs a measurement signal such as an impulse sound from the left speaker 5L. The collected sound signal acquisition unit 212 acquires the collected sound signal from the microphone unit 2 (S102). The collected sound signal acquisition unit 212 cuts out the collected sound signal from the left microphone 2L and the collected sound signal from the right microphone 2R with a predetermined filter length. As a result, picked-up sound signals hls and hlo are obtained.

セグメンタルパワー取得部215が収音信号hls、hloのセグメンタルパワーをそれぞれ算出する(S103)。周波数特性取得部221が収音信号をフーリエ変換する(S104)。これにより、周波数特性Fhls、Fhloが得られる。周波数特性は周波数振幅特性(振幅スペクトル)であるが、周波数パワー特性(パワースペクトル)であってもよい。 The segmental power acquisition unit 215 calculates segmental powers of the collected sound signals hls and hlo (S103). The frequency characteristic acquisition unit 221 Fourier-transforms the collected sound signal (S104). As a result, frequency characteristics Fhls and Fhlo are obtained. The frequency characteristic is a frequency amplitude characteristic (amplitude spectrum), but may be a frequency power characteristic (power spectrum).

レベル算出部223が基準レベルを算出する(S105)。上記の通り、基準レベルは2つの周波数特性Fhls、Fhloの振幅値の平均値となる。さらに、レベル算出部223が周波数特性Fhls、Fhloの最大レベルと最小レベルを算出する。基準レベル、最大レベル、最小レベルは、全帯域の振幅値から算出されていてもよく、一部の帯域の振幅値から算出されていてもよい。 The level calculator 223 calculates the reference level (S105). As described above, the reference level is the average value of the amplitude values of the two frequency characteristics Fhls and Fhlo. Further, the level calculator 223 calculates the maximum level and minimum level of the frequency characteristics Fhls and Fhlo. The reference level, maximum level, and minimum level may be calculated from the amplitude values of all bands or from the amplitude values of some bands.

また、レベルレンジ設定部224が圧縮するレベルレンジを設定する(S106)。レベルレンジは再生機器等の機種、性能などに応じて設定されている。例えば、ユーザ又はフィルタ生成用のスタッフがレベルレンジXを入力してもよい。そして、補正部225が周波数特性Fhls、Fhloの振幅値が、基準レベルを含むレベルレンジXに収まるように、周波数特性Fhls、Fhloを圧縮し、補正する(S107)。これにより、補正特性NewFhls、NewFhloが得られる。補正特性NewFhls、NewFhloの振幅値は、レベルレンジXに含まれている。 Also, the level range for compression is set by the level range setting unit 224 (S106). The level range is set according to the model, performance, etc. of the playback device. For example, a user or filter generation staff may enter the level range X. Then, the correction unit 225 compresses and corrects the frequency characteristics Fhls and Fhlo so that the amplitude values of the frequency characteristics Fhls and Fhlo fall within the level range X including the reference level (S107). As a result, correction characteristics NewFhls and NewFhlo are obtained. The amplitude values of the correction characteristics NewFhls and NewFhlo are included in the level range X.

次に、逆変換部232が補正特性を逆フーリエ変換する(S108)。逆フーリエ変換において、周波数振幅特性は補正特性であり、周波数位相特性は、S104のフーリエ変換で算出された周波数位相特性である。これにより、時間領域の補正信号hls2、補正信号hlo2が得られる。 Next, the inverse transform unit 232 inverse Fourier transforms the correction characteristics (S108). In the inverse Fourier transform, the frequency-amplitude characteristic is the correction characteristic, and the frequency-phase characteristic is the frequency-phase characteristic calculated by the Fourier transform in S104. As a result, a correction signal hls2 and a correction signal hlo2 in the time domain are obtained.

調整部231が収音信号hls、hloのセグメンタルパワー比を維持するように、補正信号hls2、補正信号hlo2の振幅レベルを調整する(S109)。具体的には、調整部231が、セグメンタルパワー比に応じた所定数を補正信号hls2、補正信号hlo2にそれぞれ乗じる。これにより、補正フィルタhls3、補正フィルタhlo3が得られる。調整部231がパワー比を調整することで左右バランスの良いフィルタを生成することができる。 The amplitude levels of the correction signal hls2 and the correction signal hlo2 are adjusted so that the adjustment unit 231 maintains the segmental power ratio of the collected sound signals hls and hlo (S109). Specifically, the adjustment unit 231 multiplies the correction signal hls2 and the correction signal hlo2 by a predetermined number according to the segmental power ratio. As a result, a correction filter hls3 and a correction filter hlo3 are obtained. By adjusting the power ratio by the adjusting unit 231, a filter with good left-right balance can be generated.

(補正の処理例1)
次に、ステップS107の補正ステップの一例について、図6を用いて説明する。図6は補正部225による補正処理の処理例1を示すフローチャートである。
(Correction processing example 1)
Next, an example of the correction step of step S107 will be described with reference to FIG. FIG. 6 is a flow chart showing a processing example 1 of correction processing by the correction unit 225 .

まず、補正部225は、周波数振幅特性のレベル差がレベルレンジX以上か否かを判定する(S201)。レベル差は、最大値(最大レベルmaxL)と最小値(最小レベルminL)のレベル差(maxL-minL)である。最大レベルと最小レベルは、全体帯域における周波数振幅特性の最大値、最小値であってもよく、一部帯域の最大値、最小値であってもよい。 First, the correction unit 225 determines whether or not the level difference of the frequency-amplitude characteristics is equal to or greater than the level range X (S201). The level difference is the level difference (maxL-minL) between the maximum value (maximum level maxL) and the minimum value (minimum level minL). The maximum level and minimum level may be the maximum and minimum values of the frequency-amplitude characteristic in the entire band, or may be the maximum and minimum values of a partial band.

レベル差がレベルレンジXよりも小さい場合(S201のNO)、補正部225は、補正せずに処理を終了する。差がレベルレンジXよりも大きい場合(S201のNO)、補正部225は、各周波数のレベル(振幅値)を基準レベルに向けて圧縮する(S202)。これにより、各周波数でのレベルが、レベルレンジXに収まるように、周波数特性が補正される。 If the level difference is smaller than the level range X (NO in S201), the correction unit 225 terminates the process without correction. If the difference is greater than the level range X (NO in S201), the correction section 225 compresses the level (amplitude value) of each frequency toward the reference level (S202). As a result, the frequency characteristic is corrected so that the level at each frequency falls within the level range X. FIG.

図7は、処理例1の補正前後の周波数振幅特性を示すグラフである。つまり、図7は、補正前の周波数特性Fhlsと補正特性NewFhlsの振幅スペクトルを示している。図7に示すように、基準レベルAを中心とするレベルレンジX内に補正後の周波数振幅特性が収まっている。図7では、基準レベルA=-9.4dB、レベルレンジX=20dBとなっている。さらに、図7では、補正帯域として10Hz~20kHzが設定されている。 7 is a graph showing frequency-amplitude characteristics before and after correction in Processing Example 1. FIG. That is, FIG. 7 shows amplitude spectra of the frequency characteristic Fhls before correction and the corrected characteristic NewFhls. As shown in FIG. 7, the corrected frequency-amplitude characteristic falls within the level range X centered on the reference level A. FIG. In FIG. 7, the reference level A=-9.4 dB and the level range X=20 dB. Furthermore, in FIG. 7, 10 Hz to 20 kHz are set as the correction band.

(補正の処理例2)
次に、ステップS107の補正ステップの別の一例について、図8を用いて説明する。図8は補正部225による補正処理の処理例2を示すフローチャートである。処理例2では、補正部225は、基準レベルよりも大きいレベル(振幅値)のみを補正している。
(Correction processing example 2)
Next, another example of the correction step of step S107 will be described with reference to FIG. FIG. 8 is a flowchart showing a processing example 2 of the correction processing by the correction unit 225. FIG. In processing example 2, the correction unit 225 corrects only levels (amplitude values) greater than the reference level.

まず、補正部225が周波数振幅特性のレベル差がレベルレンジX以上か否かを判定する(S301)。レベル差は、最大値(最大レベルmaxL)と最小値(最小レベルminL)の差分値(maxL-minL)である。最大レベルと最小レベルは、全体帯域における周波数振幅特性の最大値、最小値であってもよく、一部帯域の最大値、最小値であってもよい。 First, the correction unit 225 determines whether or not the level difference of the frequency-amplitude characteristics is equal to or greater than the level range X (S301). The level difference is the difference value (maxL-minL) between the maximum value (maximum level maxL) and the minimum value (minimum level minL). The maximum level and minimum level may be the maximum and minimum values of the frequency-amplitude characteristic in the entire band, or may be the maximum and minimum values of a partial band.

レベル差がレベルレンジXよりも小さい場合(S301のNO)、補正部225は、補正せずに処理を終了する。差がレベルレンジXよりも大きい場合(S301のYES)、補正部225は、各周波数のレベル(振幅値)が基準レベルよりも大きいレベルのみ、基準レベルに向けて圧縮する(S302)。補正部225は、基準レベルよりも高いレベルを下げる。 If the level difference is smaller than the level range X (NO in S301), the correction unit 225 terminates the process without correction. If the difference is greater than the level range X (YES in S301), the correction unit 225 compresses only the levels (amplitude values) of each frequency greater than the reference level toward the reference level (S302). The correction unit 225 lowers the level higher than the reference level.

なお、処理例2では、基準レベルよりも小さいレベルについては、補正部225が補正を行わない。よって、基準レベルよりも小さい周波数では、補正前後で振幅値が一致する。 Note that, in Processing Example 2, the correction unit 225 does not perform correction for levels smaller than the reference level. Therefore, at frequencies lower than the reference level, the amplitude values match before and after the correction.

また、処理例2では、補正部225が、基準レベルよりも高いレベルのみを補正したが、基準レベルよりも低いレベルのみを補正してもよい。換言すると、処理例2では、補正部225は、基準レベルよりも高いレベル、及び基準レベルよりも低いレベルの一方のみを補正する。補正部225が、基準レベル以上のレベル、又は前記基準レベル以下のレベルのいずれかのみで、周波数特性を補正すればよい。 Further, in the processing example 2, the correction unit 225 corrects only levels higher than the reference level, but may correct only levels lower than the reference level. In other words, in Processing Example 2, the correction unit 225 corrects only one of the level higher than the reference level and the level lower than the reference level. The correction section 225 may correct the frequency characteristics only at a level equal to or higher than the reference level or at a level equal to or lower than the reference level.

図9は、処理例2の補正前後の周波数振幅特性を示すグラフである。図9では、基準レベルA=-9.4dB、レベルレンジX=20dBとなっている。さらに、図9では、補正帯域として10Hz~20kHzが設定されている。図9に示すように、基準レベルAよりも高い振幅値が、レベルレンジX内に補正後の周波数振幅特性が収まっている。この場合、基準レベルAよりも低いレベルでは、レベルレンジXに収まらないことがあり得る。換言すると、処理例2では、周波数振幅特性がminレベル以上、(A+(X/2))以下のレベルレンジに収まる。 FIG. 9 is a graph showing frequency-amplitude characteristics before and after correction in Processing Example 2. FIG. In FIG. 9, the reference level A=-9.4 dB and the level range X=20 dB. Furthermore, in FIG. 9, 10 Hz to 20 kHz are set as the correction band. As shown in FIG. 9, amplitude values higher than the reference level A have frequency-amplitude characteristics after correction within the level range X. FIG. In this case, at levels lower than the reference level A, the level range X may not be satisfied. In other words, in Processing Example 2, the frequency-amplitude characteristic falls within the level range of the min level or more and (A+(X/2)) or less.

(補正の処理例3)
処理例3では、周波数振幅特性の周波数軸を対数尺度にしている。周波数軸を対数尺度に変換する理由について説明する。一般的に人間の感覚量は対数に変換されていると言われている。そのため、聴こえる音の周波数も対数軸で考えることが重要になる。尺度変換することで、上記の感覚量においてデータが等間隔となるため、全ての周波数帯域でデータを等価に扱えるようになる。この結果、数学的な演算、周波数帯域の分割や重み付けが容易になり、安定した結果を得ることが可能になる。なお、周波数特性取得部221は、対数尺度に限らず、人間の聴覚に近い尺度(聴覚尺度と称する)へ包絡線データを変換すればよい。聴覚尺度としては、対数尺度(Logスケール)、メル(mel)尺度、バーク(Bark)尺度、ERB(Equivalent Rectangular Bandwidth)尺度等で軸変換をしてもよい。
(Correction processing example 3)
In Processing Example 3, the frequency axis of the frequency-amplitude characteristic is scaled logarithmically. The reason for converting the frequency axis to the logarithmic scale will be explained. Generally, it is said that the human sensory quantity is converted into a logarithm. Therefore, it is important to consider the frequency of the sound we hear on a logarithmic axis. By converting the scale, the data are evenly spaced in the sensory quantity, so that the data can be handled equally in all frequency bands. As a result, mathematical operations, division and weighting of frequency bands become easier, and stable results can be obtained. Note that the frequency characteristic acquisition unit 221 is not limited to the logarithmic scale, and may convert the envelope data to a scale close to human hearing (referred to as an auditory scale). As the auditory scale, the logarithmic scale, the mel scale, the Bark scale, the ERB (Equivalent Rectangular Bandwidth) scale, or the like may be used for axis conversion.

周波数特性取得部221は、データ補間により、スペクトルデータを聴覚尺度で尺度変換する。例えば、周波数特性取得部221は、聴覚尺度においてデータ間隔が粗い低周波数帯域のデータを補間することで、低周波数帯域のデータを密にする。聴覚尺度で等間隔なデータは、線形尺度(リニアスケール)では低周波数帯域が密、高周波数帯域が粗なデータとなる。このようにすることで、周波数特性取得部221は、聴覚尺度で等間隔な軸変換データを生成することができる。もちろん、軸変換データは、聴覚尺度において、完全に等間隔なデータでなくてもよい。このようにすることで、補正部225等が対数尺度の周波数振幅特性に対して、処理を行う。また、周波数位相特性とサンプル数を合わせるために、逆変換前に周波数軸を線形尺度に戻してもよい。 The frequency characteristic acquisition unit 221 scale-converts the spectrum data on an auditory scale by data interpolation. For example, the frequency characteristic acquisition unit 221 interpolates data in the low frequency band with coarse data intervals in the auditory scale, thereby increasing the density of the data in the low frequency band. Equally-spaced data on an auditory scale is dense in the low-frequency band and rough in the high-frequency band on a linear scale. By doing so, the frequency characteristic acquisition unit 221 can generate axis transformation data at equal intervals on an auditory scale. Of course, the axis-transformed data does not have to be perfectly evenly spaced data on the auditory scale. By doing so, the correction unit 225 and the like perform processing on the logarithmic scale frequency-amplitude characteristic. Also, in order to match the frequency phase characteristic and the number of samples, the frequency axis may be returned to a linear scale before the inverse transform.

(補正の処理例4)
処理例4では、補正部225が、補正帯域全体を補正するのではなく、レベルレンジXの上限値を越えたピーク周辺の周波数のみで、振幅値を補正する。処理例4について、図10を用いて説明する。図10は処理例4を示すフローチャートである。
(Correction processing example 4)
In processing example 4, the correction unit 225 corrects the amplitude value only at frequencies around the peak exceeding the upper limit value of the level range X, instead of correcting the entire correction band. Processing example 4 will be described with reference to FIG. 10 . FIG. 10 is a flowchart showing a fourth processing example.

まず、補正部225が周波数振幅特性のレベル差がレベルレンジX以上か否かを判定する(S401)。レベル差は、最大値(最大レベルmaxL)と最小値(最小レベルminL)の差分値(maxL-minL)である。最大レベルと最小レベルは、全体帯域における周波数振幅特性の最大値、最小値であってもよく、一部帯域の最大値、最小値であってもよい。 First, the correction unit 225 determines whether or not the level difference of the frequency-amplitude characteristics is equal to or greater than the level range X (S401). The level difference is the difference value (maxL-minL) between the maximum value (maximum level maxL) and the minimum value (minimum level minL). The maximum level and minimum level may be the maximum and minimum values of the frequency-amplitude characteristic in the entire band, or may be the maximum and minimum values of a partial band.

レベル差がレベルレンジXよりも小さい場合(S401のNO)、補正部225は、補正せずに処理を終了する。差がレベルレンジXよりも大きい場合(S201のNO)、補正部225は、レンジの上限値(A+X/2)を超えたピークとなるピーク周波数周辺で、振幅値を基準レベルに向けて圧縮する(S402)。 If the level difference is smaller than the level range X (NO in S401), the correction unit 225 terminates the process without correction. If the difference is greater than the level range X (NO in S201), the correction unit 225 compresses the amplitude value toward the reference level around the peak frequency that exceeds the upper limit value (A+X/2) of the range. (S402).

例えば、補正部225は、ピーク周波数の前後で上限値と交差する交差周波数を求める。補正部225は、ピーク周波数よりも低い第1交差周波数とピーク周波数よりも高い第2交差周波数をそれぞれ算出する。補正部225は、第1交差周波数と第2交差周波数で規定される周波数帯域において、振幅値を基準レベルに向けて圧縮する。 For example, the correction unit 225 obtains crossover frequencies that cross the upper limit before and after the peak frequency. The correction unit 225 calculates a first crossover frequency lower than the peak frequency and a second crossover frequency higher than the peak frequency. The correction unit 225 compresses the amplitude value toward the reference level in the frequency band defined by the first crossover frequency and the second crossover frequency.

具体的には、補正部225はピーク周波数よりも低周波数側において、レンジの上限値と交差する第1交差周波数を求める。補正部225は、ピーク周波数よりも高周波数側において、レンジの上限値と交差する第2交差周波数を求める。補正部225は第1交差周波数から第2交差周波数までの周波数帯域において、振幅値を補正する。このようにすることで、ピーク周辺において、レンジの上限値を超える振幅値を補正することができる。 Specifically, the correction unit 225 obtains a first crossover frequency that crosses the upper limit value of the range on the lower frequency side than the peak frequency. The correction unit 225 obtains a second crossover frequency that crosses the upper limit value of the range on the higher frequency side than the peak frequency. The corrector 225 corrects the amplitude value in the frequency band from the first crossover frequency to the second crossover frequency. By doing so, it is possible to correct the amplitude value exceeding the upper limit value of the range around the peak.

図11は、交差周波数で規定された3つの周波数帯域(a)~(c)を示すグラフである。周波数帯域(a)が第1ピークP1を含む周波数帯域である。つまり、周波数帯域(a)は第1ピークP1の前後の交差周波数で規定されている。周波数帯域(b)が第2ピークP2を含む周波数帯域である。周波数帯域(c)が第3ピークP3を含む周波数帯域である。また、図11に示すように、1つの周波数帯域が、互いに近接する複数のピークを含んでいてもよい。 FIG. 11 is a graph showing three frequency bands (a)-(c) defined by crossover frequencies. The frequency band (a) is the frequency band containing the first peak P1. That is, the frequency band (a) is defined by crossover frequencies before and after the first peak P1. The frequency band (b) is the frequency band containing the second peak P2. The frequency band (c) is the frequency band containing the third peak P3. Also, as shown in FIG. 11, one frequency band may include multiple peaks that are close together.

このように処理例4においては、レンジの上限値のみを超えた振幅値のみを基準レベルに向けて圧縮している。また、補正部225は、レベルレンジXの下限値(A-(X/2))を下回るディップ周辺の周波数で、振幅値を補正してもよい。この場合も、補正部225は下限値を下回るディップ前後で、下限値と交差する交差周波数を求める。補正部225は、2つの交差周波数で規定される周波数帯域における振幅値を圧縮すれば良い。もちろん、補正部225は、ピークを含む周波数帯域及びディップを含む周波数帯域の両方で振幅値を圧縮しても良い。あるいは、補正部225は、ピークを含む周波数帯域のみで振幅値を圧縮してもよく、ディップを含む周波数帯域のみで振幅値を圧縮しても良い。 In this way, in processing example 4, only amplitude values exceeding only the upper limit value of the range are compressed toward the reference level. Further, the correction section 225 may correct the amplitude value at the frequency around the dip below the lower limit of the level range X (A-(X/2)). Also in this case, the correction unit 225 obtains crossover frequencies that intersect the lower limit value before and after the dip below the lower limit value. Correction section 225 may compress the amplitude value in the frequency band defined by the two crossing frequencies. Of course, the correction section 225 may compress the amplitude values in both the frequency band including the peak and the frequency band including the dip. Alternatively, the correction unit 225 may compress the amplitude value only in the frequency band containing the peak, or may compress the amplitude value only in the frequency band containing the dip.

(補正の処理例5)
処理例5では、補正部225が異なる手法を用いて補正を行っている。具体的には、移動平均等の平滑化処理を用いて、振幅値のレベルを補正している。移動平均やSavitzky-Golayフィルタ、平滑化スプライン、ケプストラム変換、ケプストラム包絡線等の手法を用いて、周波数特性(スペクトルデータ)を平滑化する。補正部225は、周波数特性に対して平滑化処理を行うことで周波数特性がレベルレンジXに収まるように補正する。
(Correction processing example 5)
In processing example 5, the correction unit 225 performs correction using a different method. Specifically, smoothing processing such as moving average is used to correct the level of the amplitude value. The frequency characteristics (spectrum data) are smoothed using techniques such as moving average, Savitzky-Golay filter, smoothing spline, cepstrum transform, and cepstrum envelope. The correction unit 225 corrects the frequency characteristic so that it falls within the level range X by performing smoothing processing on the frequency characteristic.

(補正の処理例6)
処理例6では、外耳道伝達特性についての収音信号を処理している。つまり、図3に示す測定装置300が測定を行っている。具体的には、図4に示す処理装置201において、測定信号生成部211が、スピーカ5Lではなく、ヘッドホン43に測定信号を出力する。この場合、左右のマイク2L、2Rが左右の耳の外耳道伝達特性を示す収音信号を収音する。周波数振幅特性を取得する。基準レベル、最大レベル、最小レベルが2つの周波数振幅特性から取得される。上記の点以外の内容は、上記の実施形態及び処理例と同様であるため、説明を省略する。
(Correction processing example 6)
In processing example 6, the collected sound signal is processed for the ear canal transfer characteristics. That is, the measurement device 300 shown in FIG. 3 is performing the measurement. Specifically, in the processing device 201 shown in FIG. 4, the measurement signal generator 211 outputs the measurement signal to the headphone 43 instead of the speaker 5L. In this case, the left and right microphones 2L and 2R pick up sound pickup signals indicating the ear canal transfer characteristics of the left and right ears. Get the frequency-amplitude characteristics. A reference level, a maximum level and a minimum level are obtained from the two frequency amplitude characteristics. Contents other than the above points are the same as those of the above-described embodiment and processing example, and therefore description thereof is omitted.

(補正の処理例7)
処理例7では、5.1chや7.1ch等のマルチチャネルスピーカが用いられている。そして、チャンネル毎に収音信号のパワー比が維持されるように、調整部231が調整を行っている。
(Correction processing example 7)
In processing example 7, multi-channel speakers such as 5.1ch and 7.1ch are used. Then, the adjustment unit 231 performs adjustment so that the power ratio of the collected sound signal is maintained for each channel.

5.1chのマルチチャネルでは、左右のフロントスピーカの、左右のリアスピーカ、センタースピーカ、サブウーファが用いられる。この場合、フロントスピーカとリアスピーカのパワー比が維持されるように、調整部231が補正信号を調整する。具体的には、調整部231が、補正前後におけるセグメンタルパワー比が同じになるような係数を各補正信号に乗じる In 5.1ch multi-channel, left and right front speakers, left and right rear speakers, a center speaker, and a subwoofer are used. In this case, the adjustment section 231 adjusts the correction signal so that the power ratio between the front speakers and the rear speakers is maintained. Specifically, the adjustment unit 231 multiplies each correction signal by a coefficient that makes the segmental power ratio before and after correction the same.

具体的には、測定装置200は、異なるチャンネルのスピーカを用いた測定を順番に行う。例えば、測定信号生成部211が測定信号を生成して、各チャンネルのスピーカに順次出力する。収音信号取得部212は、各チャンネルのスピーカからの測定信号を順次収音することで、取得信号を取得する。周波数特性取得部221は、異なるチャンネルのスピーカから出力された測定信号を収音することで得られる収音信号に基づいて、複数の周波数特性を取得する。 Specifically, the measurement apparatus 200 sequentially performs measurements using speakers of different channels. For example, the measurement signal generator 211 generates measurement signals and sequentially outputs them to the speakers of each channel. The collected sound signal acquisition unit 212 acquires an acquired signal by sequentially collecting the measurement signal from the speaker of each channel. The frequency characteristic acquisition unit 221 acquires a plurality of frequency characteristics based on the collected sound signals obtained by collecting measurement signals output from speakers of different channels.

セグメンタルパワー取得部215は、チャンネル毎の収音信号の左右のセグメンタルパワーを算出する。調整部231は、パワー比を維持するように補正信号のレベルを調整する。このようにすることで、チャンネル間のバランスの良いフィルタを生成することができる。なお、レベルレンジXはチャンネル毎に異なっていてもよく、チャンネル間で同じであってもよい。 The segmental power acquisition unit 215 calculates the left and right segmental powers of the collected sound signal for each channel. The adjuster 231 adjusts the level of the correction signal so as to maintain the power ratio. By doing so, a filter with good balance between channels can be generated. Note that the level range X may be different for each channel, or may be the same between channels.

なお、チャンネル間でパワー比を維持する処理は、5.1ch等のマルチチャネルに限らず、図2に示す2chの測定装置についても適用可能である。例えば、左右のスピーカでの測定を行って、パワー比を維持するように調整してもよい。 It should be noted that the process of maintaining the power ratio between channels is not limited to multi-channel such as 5.1ch, and can also be applied to the 2ch measurement apparatus shown in FIG. For example, left and right speaker measurements may be taken and adjusted to maintain the power ratio.

上記の処理例1~7は、適宜組み合わせることも可能である。例えば、処理例4のようにピーク周波数、又はディップ周波数周辺での振幅値を補正する場合において、補正部225は、処理例3の周波数軸の軸変換処理や、処理例5の平滑化処理を用いてもよい。 The above processing examples 1 to 7 can be combined as appropriate. For example, when correcting the amplitude value around the peak frequency or the dip frequency as in Processing Example 4, the correction unit 225 performs the frequency axis conversion processing in Processing Example 3 and the smoothing processing in Processing Example 5. may be used.

このように、本実施の形態によれば、基準レベルを含む所定のレベルレンジXに収まるように周波数特性が補正される。よって、様々な再生機器、機材、測定環境であっても、適切な頭外定位効果を得ることができるフィルタを再生することができる。つまり、頭外定位処理された信号がクリップしないようなフィルタを自動で補正することができる。ユーザの好みに応じた、スピーカ、ヘッドホン、測定環境に応じた頭外定位受聴を行うことができる。さらに、再生機器に応じた自動補正が可能となる。 As described above, according to the present embodiment, the frequency characteristic is corrected so as to fall within the predetermined level range X including the reference level. Therefore, it is possible to reproduce a filter capable of obtaining an appropriate out-of-head localization effect even with various reproduction equipment, equipment, and measurement environments. In other words, it is possible to automatically correct a filter that does not clip the signal subjected to out-of-head localization processing. Out-of-head localization listening can be performed according to the user's preferences, speakers, headphones, and the measurement environment. Furthermore, automatic correction according to the playback equipment becomes possible.

実施の形態2.
実施の形態2に係る装置と方法について、図12を用いて説明する。図12は、処理装置201の構成を示すブロック図である。実施の形態2について、レベルレンジXを設定する処理を技術的特徴の一つとしている。したがって、図12に示す処理装置201には、図4の構成に対して、判定部242が追加されている。判定部242以外の構成及び処理については、実施の形態1と同様であるため、適宜説明を省略する。
Embodiment 2.
A device and method according to Embodiment 2 will be described with reference to FIG. FIG. 12 is a block diagram showing the configuration of the processing device 201. As shown in FIG. One of the technical features of the second embodiment is the process of setting the level range X. FIG. Therefore, the processing device 201 shown in FIG. 12 has a determination unit 242 added to the configuration of FIG. Configurations and processes other than the determination unit 242 are the same as those in the first embodiment, and thus description thereof will be omitted as appropriate.

判定部242は、再生機器の性能を判定する。例えば、判定部242は、再生機器のアンプの性能を評価する。レベルレンジ設定部224は、判定部242での判定結果に応じて、レベルレンジ設定部224がレベルレンジXを設定する。補正部225は、レベルレンジXに基づいて周波数特性を補正することで、補正特性を算出する。フィルタ生成部230は、補正特性に基づいて、補正フィルタを生成する。 A determination unit 242 determines the performance of the playback device. For example, the determination unit 242 evaluates the performance of the amplifier of the playback device. The level range setting section 224 sets the level range X according to the determination result of the determination section 242 . The correction unit 225 corrects the frequency characteristic based on the level range X to calculate the corrected characteristic. Filter generator 230 generates a correction filter based on the correction characteristic.

例えば、判定部242は、周波数特性取得部221が取得した周波数特性に基づいて、判定を行うことができる。判定部242は、周波数振幅特性の最大レベル(maxL)と最小レベル(minL)のレベル差(maxL-minL)を検出する。判定部242は、レベル差に基づいて、再生機器の出力レベル(出力音圧レベル)やS/N比を取得する。そして、判定部242は、出力レベル又はS/N比に基づいて、性能を判定する。判定部242は、周波数振幅特性の最大レベルと最小レベルとのレベル差に応じて、レベルレンジXを決定してもよい。 For example, the determination unit 242 can make determinations based on the frequency characteristics acquired by the frequency characteristics acquisition unit 221 . The determination section 242 detects the level difference (maxL-minL) between the maximum level (maxL) and the minimum level (minL) of the frequency-amplitude characteristic. The determination unit 242 acquires the output level (output sound pressure level) and S/N ratio of the playback device based on the level difference. Then, the determination unit 242 determines the performance based on the output level or S/N ratio. The determination section 242 may determine the level range X according to the level difference between the maximum level and the minimum level of the frequency-amplitude characteristic.

例えば、レベル差の大きい再生機器の場合、レベルレンジXはレベル差の80%程度にする。判定部242は、変数を0.8として設定する。レベル差の小さい再生機器の場合、レベルレンジXはレベル差の40%程度にする。レベルレンジ設定部224は、判定結果に応じた変数をレベル差に乗じることで、レベルレンジXを設定する。 For example, in the case of a playback device with a large level difference, the level range X should be about 80% of the level difference. The determination unit 242 sets the variable as 0.8. In the case of a playback device with a small level difference, the level range X is set to about 40% of the level difference. The level range setting unit 224 sets the level range X by multiplying the level difference by a variable according to the determination result.

また、処理装置201は、変数を用いずにレベルレンジXを設定することが可能である。例えば、判定部242は、一部の判定帯域におけるレベル差(maxL-minL)を算出する。判定帯域としては、例えば、100Hz~8kzとすることができる。つまり、判定部242は、100Hz~8kzにおける最大レベル(maxL)と最小レベル(minL)を求める。そして、判定部242は、レベル差(maxL-minL)に基づいて、判定を行う。あるいは、判定部242は、レベル差をレベルレンジXに変換するための変換式や変換テーブルを有していてもよい。 Also, the processing device 201 can set the level range X without using variables. For example, the determination section 242 calculates the level difference (maxL-minL) in some determination bands. The decision band can be, for example, 100 Hz to 8 kHz. That is, the determination section 242 obtains the maximum level (maxL) and minimum level (minL) in the range of 100 Hz to 8 kHz. Then, the determination unit 242 makes a determination based on the level difference (maxL-minL). Alternatively, the determination section 242 may have a conversion formula or a conversion table for converting the level difference into the level range X. FIG.

このように、再生機器を用いた測定で得られた収音信号の周波数特性に基づいて、判定部242が、判定を行っている。判定部242は、周波数特性の最大レベルと最小レベルとのレベル差に基づいて、判定を行っている。 In this manner, the determination unit 242 performs determination based on the frequency characteristics of the collected sound signal obtained by measurement using the playback device. The determination unit 242 makes a determination based on the level difference between the maximum level and the minimum level of the frequency characteristics.

また、判定部242は、再生機器に関する再生機器情報を取得して、再生機器情報に基づいて性能を判定しても良い。そして、レベルレンジ設定部224は、再生機器の性能に応じて、レベルレンジXを設定する。例えば、再生機器のアンプが高性能である場合、レベルレンジ設定部224が、X=40dBと設定する。アンプが低性能である場合、レベルレンジ設定部224が、X=20dBとする。もちろん、判定部242での判定は、高性能、低性能の2段階に限らず、3段階以上であってもよい。 Also, the determination unit 242 may acquire playback device information about the playback device and determine the performance based on the playback device information. Then, the level range setting section 224 sets the level range X according to the performance of the playback device. For example, if the amplifier of the playback device has high performance, the level range setting section 224 sets X=40 dB. If the amplifier has low performance, the level range setting section 224 sets X=20 dB. Of course, the determination by the determination unit 242 is not limited to two stages of high performance and low performance, and may be three stages or more.

また、判定部242は、再生機器の型番毎に、性能を示すテーブルを有していてもよい。判定部242は、再生機器の型番を示す再生機器情報を取得する。判定部242は、再生機器の型番に応じて性能を判定する。再生機器に関する再生機器情報は、例えば、自動で取得されてもよく、ユーザによって入力されてもよい。例えば、BlueTooth接続の再生機器の場合は、再生機器に関する情報を、判定部242が自動で取得することができる。 Also, the determination unit 242 may have a table showing performance for each model number of the playback device. The determination unit 242 acquires playback device information indicating the model number of the playback device. The determination unit 242 determines the performance according to the model number of the playback device. The playback device information regarding the playback device may be automatically acquired or input by the user, for example. For example, in the case of a playback device with a BlueTooth connection, the determination unit 242 can automatically acquire information about the playback device.

例えば、測定装置200又は測定装置300が、周波数特性を取得するための測定を再生機器毎に予め行っておく。そして、上記のように、判定部242が、周波数特性のレベル差に応じて性能を判定し、判定結果をテーブルに記憶する。そして、判定部242が、テーブルを参照して、判定を行うことができる。 For example, the measuring device 200 or the measuring device 300 performs measurements in advance for each playback device to acquire the frequency characteristics. Then, as described above, the determination unit 242 determines the performance according to the level difference of the frequency characteristics, and stores the determination result in the table. Then, the determination unit 242 can refer to the table and make a determination.

なお、再生機器は、図2に示すスピーカ5L、5Rやそのアンプ、あるいは図3に示すヘッドホン43であってもよい。つまり、再生機器は、測定時に用いられる再生機器であってもよい。あるいは、図1に示す頭外定位処理装置におけるヘッドホン43であってもよい。つまり、再生機器は、頭外定位受聴時に用いられるヘッドホン43やイヤホンであってもよい。実施の形態2においても上記の処理例1~7のいずれか1つ以上を用いることができる。 The reproducing device may be the speakers 5L and 5R and their amplifiers shown in FIG. 2, or the headphones 43 shown in FIG. That is, the playback device may be the playback device used during measurement. Alternatively, the headphones 43 in the out-of-head localization processing apparatus shown in FIG. 1 may be used. In other words, the playback device may be the headphones 43 or earphones used for out-of-head localization listening. Any one or more of the above processing examples 1 to 7 can also be used in the second embodiment.

このように、本実施の形態によれば、再生機器の性能に応じたレベルレンジXを自動で設定することができる。そして、補正部225が、レベルレンジXに基づいて補正を行っている。よって、様々な再生機器、機材、測定環境であっても、適切な頭外定位効果を得ることができるフィルタを再生することができる。つまり、頭外定位処理された信号がクリップしないようなフィルタを自動で補正することができる。ユーザの好みに応じた、スピーカ、ヘッドホン、測定環境に応じた頭外定位受聴を行うことができる。さらに、再生機器に応じた自動補正が可能となる。 Thus, according to the present embodiment, it is possible to automatically set the level range X according to the performance of the playback device. Then, the correction unit 225 performs correction based on the level range X. FIG. Therefore, it is possible to reproduce a filter capable of obtaining an appropriate out-of-head localization effect even with various reproduction equipment, equipment, and measurement environments. In other words, it is possible to automatically correct a filter that does not clip the signal subjected to out-of-head localization processing. Out-of-head localization listening can be performed according to the user's preferences, speakers, headphones, and the measurement environment. Furthermore, automatic correction according to the playback equipment becomes possible.

上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されてもよい。上述したプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。 A part or all of the above processes may be executed by a computer program. The programs described above include instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments. The program may be stored in a non-transitory computer-readable medium or tangible storage medium. By way of example, and not limitation, computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs -ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device. The program may be transmitted on a transitory computer-readable medium or communication medium. By way of example, and not limitation, transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。 The invention made by the present inventor has been specifically described above based on the embodiments, but the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Needless to say.

U ユーザ
1 被測定者
2 マイクユニット
2L 左マイク
2R右マイク
5 ステレオスピーカ
5L 左スピーカ
5R 右スピーカ
10 頭外定位処理部
11 畳み込み演算部
12 畳み込み演算部
21 畳み込み演算部
22 畳み込み演算部
24 加算器
25 加算器
41 フィルタ部
42 フィルタ部
43 ヘッドホン
200 測定装置
201 処理装置
211 測定信号生成部
212 収音信号取得部
215 セグメンタルパワー取得部
221 周波数特性取得部
223 レベル算出部
224 レベルレンジ設定部
225 補正部
230 フィルタ生成部
231 調整部
232 逆変換部
242 判定部
U User 1 Subject 2 Microphone unit 2L Left microphone 2R Right microphone 5 Stereo speaker 5L Left speaker 5R Right speaker 10 Out-of-head localization processor 11 Convolution calculator 12 Convolution calculator 21 Convolution calculator 22 Convolution calculator 24 Adder 25 Adder 41 filter section 42 filter section 43 headphone 200 measurement device 201 processing device 211 measurement signal generation section 212 collected sound signal acquisition section 215 segmental power acquisition section 221 frequency characteristic acquisition section 223 level calculation section 224 level range setting section 225 correction section 230 filter generation unit 231 adjustment unit 232 inverse transform unit 242 determination unit

Claims (5)

収音信号に基づいて、周波数特性を取得する周波数特性取得部と、
前記周波数特性における基準レベルを算出するレベル算出部と、
前記基準レベルを含む所定のレベルレンジに収まるように、前記周波数特性を補正することで補正特性を算出する補正部と、
前記補正特性に基づいて、補正フィルタを生成するフィルタ生成部と、を備えた、フィルタ生成装置。
a frequency characteristic acquisition unit that acquires frequency characteristics based on the collected sound signal;
a level calculator that calculates a reference level in the frequency characteristic;
a correction unit that calculates a correction characteristic by correcting the frequency characteristic so as to fall within a predetermined level range including the reference level;
and a filter generation unit that generates a correction filter based on the correction characteristic.
前記周波数特性取得部が、
ユーザの左耳に装着された左マイクで収音された第1の収音信号に基づいて、第1の周波数特性を取得し、
前記ユーザの右耳に装着された右マイクで収音された第2の収音信号に基づいて、第2の周波数特性を取得し、
前記レベル算出部が、前記第1の周波数特性及び前記第2の周波数特性に対して、共通のレベルを算出し、
前記補正部が、
前記第1の周波数特性を補正した第1の補正特性と、前記第2の周波数特性を補正した第2の補正特性とを算出し、
前記フィルタ生成部が、
前記第1の補正特性と前記第2の補正特性とをそれぞれ逆変換することで、時間領域の第1の補正信号と第2の補正信号とを生成し、
補正前後での左右のパワー比を維持するように、前記第1の補正信号と前記第2の補正信号のレベルを調整する請求項1に記載のフィルタ生成装置。
The frequency characteristic acquisition unit,
Acquiring a first frequency characteristic based on a first sound pickup signal picked up by the left microphone worn on the left ear of the user;
Acquiring a second frequency characteristic based on a second sound pickup signal picked up by a right microphone worn on the right ear of the user;
The level calculation unit calculates a common level for the first frequency characteristic and the second frequency characteristic,
The correction unit
calculating a first correction characteristic obtained by correcting the first frequency characteristic and a second correction characteristic obtained by correcting the second frequency characteristic;
The filter generation unit
generating a first correction signal and a second correction signal in the time domain by inversely transforming the first correction characteristic and the second correction characteristic, respectively;
2. The filter generation device according to claim 1, wherein the levels of said first correction signal and said second correction signal are adjusted so as to maintain a left and right power ratio before and after correction.
前記周波数特性取得部が、異なるチャンネルのスピーカから出力された測定信号を順次収音することで得られる収音信号に基づいて、複数の周波数特性を取得し、
前記チャンネル毎の収音信号のパワー比を維持するように補正信号のレベルを調整する請求項2に記載のフィルタ生成装置。
The frequency characteristic acquisition unit acquires a plurality of frequency characteristics based on a sound pickup signal obtained by sequentially collecting measurement signals output from speakers of different channels,
3. The filter generation device according to claim 2, wherein the level of the correction signal is adjusted so as to maintain the power ratio of the collected sound signal for each channel.
前記補正部が、前記基準レベル以上のレベル、又は前記基準レベル以下のレベルのいずれかのみで、前記周波数特性を補正する請求項1~3のいずれか1項に記載のフィルタ生成装置。 4. The filter generation device according to any one of claims 1 to 3, wherein the correction unit corrects the frequency characteristic only at levels equal to or higher than the reference level or at levels equal to or lower than the reference level. 収音信号に基づいて、周波数特性を取得するステップと、
前記周波数特性における基準レベルを算出するステップと
前記基準レベルを含む所定のレベルレンジに収まるように、前記周波数特性を補正することで補正特性を算出するステップと、
前記補正特性に基づいて、フィルタを生成するステップと、を備えた、フィルタ生成方法。
a step of obtaining frequency characteristics based on the collected sound signal;
calculating a reference level in the frequency characteristic; calculating a correction characteristic by correcting the frequency characteristic so as to fall within a predetermined level range including the reference level;
and generating a filter based on the correction characteristic.
JP2021156783A 2021-09-27 2021-09-27 Filter generation device and filter generation method Pending JP2023047706A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021156783A JP2023047706A (en) 2021-09-27 2021-09-27 Filter generation device and filter generation method
US17/939,883 US20230114777A1 (en) 2021-09-27 2022-09-07 Filter generation device and filter generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156783A JP2023047706A (en) 2021-09-27 2021-09-27 Filter generation device and filter generation method

Publications (1)

Publication Number Publication Date
JP2023047706A true JP2023047706A (en) 2023-04-06

Family

ID=85779306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156783A Pending JP2023047706A (en) 2021-09-27 2021-09-27 Filter generation device and filter generation method

Country Status (1)

Country Link
JP (1) JP2023047706A (en)

Similar Documents

Publication Publication Date Title
US11115743B2 (en) Signal processing device, signal processing method, and program
CN110313188B (en) Off-head positioning device, off-head positioning method, and storage medium
CN110268722B (en) Filter generation device and filter generation method
WO2018155164A1 (en) Filter generation device, filter generation method, and program
JP2023047706A (en) Filter generation device and filter generation method
JP2023047707A (en) Filter generation device and filter generation method
US20230114777A1 (en) Filter generation device and filter generation method
JP6805879B2 (en) Filter generator, filter generator, and program
JP6950405B2 (en) Processing equipment, processing methods, and programs
JP2012213114A (en) Acoustic signal processing apparatus and acoustic signal processing method
JP7115353B2 (en) Processing device, processing method, reproduction method, and program
US20230040821A1 (en) Processing device and processing method
JP2023024040A (en) Processing device and processing method
JP2023024038A (en) Processing device and processing method
US20230045207A1 (en) Processing device and processing method
US11228837B2 (en) Processing device, processing method, reproduction method, and program
WO2024147327A1 (en) Filter generation device, filter generation method, and out-of-head localization processing device
JP2024036908A (en) Out-of-head localization processing device, out-of-head localization processing method and program