JP2019169835A - Out-of-head localization processing apparatus, out-of-head localization processing method, and program - Google Patents

Out-of-head localization processing apparatus, out-of-head localization processing method, and program Download PDF

Info

Publication number
JP2019169835A
JP2019169835A JP2018055768A JP2018055768A JP2019169835A JP 2019169835 A JP2019169835 A JP 2019169835A JP 2018055768 A JP2018055768 A JP 2018055768A JP 2018055768 A JP2018055768 A JP 2018055768A JP 2019169835 A JP2019169835 A JP 2019169835A
Authority
JP
Japan
Prior art keywords
reference signal
microphone
unit
measurement
conversion function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018055768A
Other languages
Japanese (ja)
Other versions
JP6981330B2 (en
Inventor
敬洋 下条
Takahiro Shimojo
敬洋 下条
村田 寿子
Toshiko Murata
寿子 村田
優美 藤井
Yumi Fujii
優美 藤井
正也 小西
Masaya Konishi
正也 小西
邦明 高地
Kuniaki Kochi
邦明 高地
永井 俊明
Toshiaki Nagai
俊明 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2018055768A priority Critical patent/JP6981330B2/en
Publication of JP2019169835A publication Critical patent/JP2019169835A/en
Application granted granted Critical
Publication of JP6981330B2 publication Critical patent/JP6981330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an out-of-head localization processing apparatus, a method, and a program, capable of appropriately performing out-of-head localization processing.SOLUTION: An out-of-head localization processing apparatus 100 includes: a left unit 43L having a built-in microphone 48; a reference signal acquisition unit 122 for acquiring a reference signal on the basis of a sound collection signal collected by the built-in microphone; an ECTF acquisition unit 132 for acquiring transfer characteristics on the basis of a sound collection signal collected by the left microphone 2L in a measurement state; a first storage unit 141 for storing a first reference signal acquired by the reference signal acquisition unit in the measurement state; a second storage unit 142 for storing a second reference signal acquired by the reference signal acquisition unit 122 in a listening state; a conversion function calculation unit 151 for calculating a conversion function of a frequency characteristic on the basis of the first and second reference signals; and a correction unit 152 for correcting the frequency characteristics of an ECTF using the conversion function.SELECTED DRAWING: Figure 3

Description

本発明は、頭外定位処理装置、頭外定位処理方法、及びプログラムに関する。   The present invention relates to an out-of-head localization processing apparatus, an out-of-head localization processing method, and a program.

例えば、音像定位技術として、ヘッドホンを用いて受聴者の頭部の外側に音像を定位させる頭外定位技術がある。頭外定位技術では、ヘッドホンから耳(鼓膜)までの特性(外耳道伝達特性)をキャンセルし、ステレオスピーカから耳までの4本の特性(空間音響伝達特性)を与えることにより、音像を頭外に定位させている。   For example, as a sound image localization technique, there is an out-of-head localization technique in which a sound image is localized outside the listener's head using headphones. Out-of-head localization technology cancels the characteristics from the headphones to the ears (tympanic membrane) (the ear canal transmission characteristics), and gives four characteristics from the stereo speakers to the ears (spatial acoustic transmission characteristics), thereby moving the sound image out of the head. I have been localized.

頭外定位再生においては、ヘッドホンから発した測定信号(インパルス音等)を聴取者本人の耳に設置したマイクロフォン(以下、マイクとする)で録音する(特許文献1)。インパルス応答で得られた収音信号に基づいて、処理装置がヘッドホン特性を測定する。処理装置がヘッドホン特性に対する逆フィルタを作成する。処理装置が、空間音響伝達特性を畳み込んだ後、逆フィルタをさらに畳み込むことにより、頭外定位再生を実現することができる。   In the out-of-head localization reproduction, a measurement signal (impulse sound or the like) emitted from the headphones is recorded with a microphone (hereinafter referred to as a microphone) installed in the ear of the listener (Patent Document 1). Based on the collected sound signal obtained by the impulse response, the processing device measures the headphone characteristics. The processing device creates an inverse filter for the headphone characteristics. After the processing device convolves the spatial acoustic transfer characteristic, the out-of-head localization reproduction can be realized by further convolving the inverse filter.

特開2014−38608号公報JP 2014-38608 A

しかしながら、ヘッドホンの装着状態に応じて、ヘッドホンのスピーカユニットから鼓膜までの外耳道伝達特性(外耳道伝達関数ともいう)が変化してしまうことがある。例えば、ヘッドホンを装着する都度、ヘッドホンの装着位置がずれるおそれがある。この場合、ヘッドホンのスピーカユニットの位置がずれるため、外耳道伝達特性が変化してしまう。つまり、耳にマイクを装着して、外耳道伝達特性を測定する測定時と、耳からマイクを外して、頭外定位受聴を行う受聴時とで、ヘッドホンの装着位置が変わってしまう。この場合、外耳道伝達特性が変化し、適切に頭外定位処理を行うことができなくなるおそれがある。   However, the ear canal transfer characteristic (also referred to as the ear canal transfer function) from the headphone speaker unit to the eardrum may change depending on the wearing state of the headphones. For example, each time the headphones are worn, there is a possibility that the wearing position of the headphones is shifted. In this case, since the position of the speaker unit of the headphones is shifted, the ear canal transmission characteristic changes. That is, the mounting position of the headphones changes between when measuring the ear canal transmission characteristics with a microphone attached to the ear and when listening with the microphone removed from the ear and performing stereotaxic listening. In this case, the transmission characteristics of the external auditory canal are changed, and there is a possibility that the out-of-head localization process cannot be performed appropriately.

本実施形態は上記の点に鑑みなされたもので、適切に頭外定位処理を行うことができる頭外定位処理装置、頭外定位処理方法、及びプログラムを提供することを目的とする。   The present embodiment has been made in view of the above points, and an object thereof is to provide an out-of-head localization processing apparatus, an out-of-head localization processing method, and a program that can appropriately perform out-of-head localization processing.

本実施形態にかかる頭外定位処理装置は、参照用マイクを有する音声出力部と、前記参照用マイクが収音した収音信号に基づく参照信号を取得する参照信号取得部と、前記音声出力部を装着したユーザの外耳道に測定用マイクが配置された測定状態において、前記参照信号取得部が取得した第1の参照信号を記憶する第1の記憶部と、前記測定用マイクが前記外耳道から取り外された受聴状態において、前記参照信号取得部が取得した第2の参照信号を記憶する第2の記憶部と、前記測定状態において、前記測定用マイクが収音した収音信号に基づいて取得された伝達特性を記憶する第3の記憶部と、前記第1の参照信号と前記第2の参照信号とに基づいて、周波数特性の変換関数を算出する変換関数算出部と、前記変換関数を用いて、前記伝達特性の周波数特性を補正する補正部と、前記補正された周波数特性に基づいて、フィルタを生成するフィルタ生成部と、前記フィルタを用いて、頭外定位処理を行う頭外定位処理部と、を備えたものである。   The out-of-head localization processing apparatus according to the present embodiment includes an audio output unit having a reference microphone, a reference signal acquisition unit that acquires a reference signal based on a collected sound signal collected by the reference microphone, and the audio output unit In the measurement state in which the measurement microphone is arranged in the ear canal of the user wearing the first storage unit, the first storage unit that stores the first reference signal acquired by the reference signal acquisition unit, and the measurement microphone is removed from the ear canal A second storage unit that stores the second reference signal acquired by the reference signal acquisition unit in the received listening state, and a sound acquisition signal acquired by the measurement microphone in the measurement state. A third storage unit that stores the transfer characteristic, a conversion function calculation unit that calculates a conversion function of a frequency characteristic based on the first reference signal and the second reference signal, and the conversion function. And said A correction unit that corrects the frequency characteristic of the arrival characteristic, a filter generation unit that generates a filter based on the corrected frequency characteristic, an out-of-head localization processing unit that performs out-of-head localization processing using the filter, It is equipped with.

本実施形態にかかる頭外定位処理方法は、参照用マイクを有する音声出力部を装着したユーザの外耳道に測定用マイクが配置された測定状態において、前記測定用マイクで収音された収音信号に基づく伝達特性を取得するステップと、前記測定状態において、前記参照用マイクで収音された収音信号に基づく第1の参照信号を取得するステップと、前記測定用マイクが前記外耳道から取り外された受聴状態において、前記参照用マイクで収音された収音信号に基づく第2の参照信号を取得するステップと、前記第1の参照信号と前記第2の参照信号とに基づいて、周波数特性の変換関数を算出するステップと、前記変換関数を用いて、前記伝達特性の周波数特性を補正するステップと、前記補正された周波数特性に基づいて、フィルタを生成するステップと、前記フィルタを用いて、頭外定位処理を行うステップと、を備えたものである。   In the out-of-head localization processing method according to the present embodiment, the collected sound signal collected by the measurement microphone in the measurement state in which the measurement microphone is arranged in the ear canal of the user wearing the audio output unit having the reference microphone. Obtaining a transfer characteristic based on the first step, obtaining a first reference signal based on a collected sound signal collected by the reference microphone in the measurement state, and removing the measurement microphone from the ear canal In the listening state, a frequency characteristic is obtained based on the step of obtaining a second reference signal based on the collected sound signal collected by the reference microphone, and the first reference signal and the second reference signal. A step of calculating a conversion function, a step of correcting a frequency characteristic of the transfer characteristic using the conversion function, and generating a filter based on the corrected frequency characteristic A step that, using the filter, those having a step of performing out-of-head localization processing, the.

本実施形態にかかるプログラムは、コンピュータに、参照用マイクを有する音声出力部を装着したユーザの外耳道に測定用マイクが配置された測定状態において、前記測定用マイクで収音された収音信号に基づく伝達特性を取得するステップと、前記測定状態において、前記参照用マイクで収音された収音信号に基づく第1の参照信号を取得するステップと、前記測定用マイクが前記外耳道から取り外された受聴状態において、前記参照用マイクで収音された収音信号に基づく第2の参照信号を取得するステップと、前記第1の参照信号と前記第2の参照信号とに基づいて、周波数特性の変換関数を算出するステップと、前記変換関数を用いて、前記伝達特性の周波数特性を補正するステップと、前記補正された周波数特性に基づいて、フィルタを生成するステップと、前記フィルタを用いて、頭外定位処理を行うステップと、を実行させるものである。   The program according to the present embodiment is a computer program for collecting sound signals collected by the measurement microphone in a measurement state in which the measurement microphone is arranged in a user's external auditory canal equipped with a sound output unit having a reference microphone. Obtaining a transfer characteristic based on the input signal; obtaining a first reference signal based on a collected sound signal collected by the reference microphone in the measurement state; and removing the measurement microphone from the ear canal In a listening state, a step of obtaining a second reference signal based on a collected sound signal collected by the reference microphone, and a frequency characteristic based on the first reference signal and the second reference signal A step of calculating a conversion function; a step of correcting a frequency characteristic of the transfer characteristic using the conversion function; and a step of correcting a frequency characteristic based on the corrected frequency characteristic. Generating a data, by using the filter, it is intended to execute a step of performing out-of-head localization processing, the.

本実施形態によれば、適切に頭外定位処理を行うことができる頭外定位処理装置、頭外定位処理方法、及びプログラムを提供することができる。   According to the present embodiment, an out-of-head localization processing apparatus, an out-of-head localization processing method, and a program that can appropriately perform out-of-head localization processing can be provided.

本実施の形態に係る頭外定位処理装置を示すブロック図である。It is a block diagram which shows the out-of-head localization processing apparatus which concerns on this Embodiment. 外耳道伝達特性の測定構成を示す図である。It is a figure which shows the measurement structure of an external auditory canal transfer characteristic. 外耳道伝達特性を補正するための構成を示す図である。It is a figure which shows the structure for correct | amending an external auditory canal transfer characteristic. 外耳道伝達特性を補正するための処理を示すフローチャートである。It is a flowchart which shows the process for correct | amending an external auditory canal transfer characteristic. 変換関数を算出するための処理を示すフローチャートである。It is a flowchart which shows the process for calculating a conversion function. パワースペクトルの極値間のベクトルを示す図である。It is a figure which shows the vector between the extreme values of a power spectrum. ベクトルの変換手法を示す図である。It is a figure which shows the conversion method of a vector. 参照信号と外耳道伝達特性の対数パワースペクトルを示す図である。It is a figure which shows the logarithmic power spectrum of a reference signal and an external auditory canal transfer characteristic.

フィルタを用いた音像定位処理の概要について説明する。本実施形態にかかる頭外定位処理は、空間音響伝達特性と外耳道伝達特性を用いて頭外定位処理を行うものである。空間音響伝達特性は、スピーカなどの音源から外耳道までの伝達特性である。外耳道伝達特性は、ヘッドホン又はイヤホンのスピーカユニットから鼓膜までの伝達特性であり、ヘッドホン特性ともいう。本実施形態では、ヘッドホン又はイヤホンを装着した状態での外耳道伝達特性を測定し、それらの測定データを用いてフィルタを生成する処理に特徴を有するものである。   An outline of sound image localization processing using a filter will be described. The out-of-head localization processing according to the present embodiment performs out-of-head localization processing using spatial acoustic transmission characteristics and ear canal transmission characteristics. The spatial acoustic transfer characteristic is a transfer characteristic from a sound source such as a speaker to the ear canal. The ear canal transfer characteristic is a transfer characteristic from the speaker unit of the headphones or earphones to the eardrum, and is also referred to as a headphone characteristic. The present embodiment is characterized by the process of measuring the external auditory canal transfer characteristic in a state where headphones or earphones are worn, and generating a filter using those measurement data.

本実施の形態にかかる頭外定位処理は、パーソナルコンピュータ、スマートホン、タブレットPCなどのユーザ端末で実行される。ユーザ端末は、プロセッサ等の処理手段、メモリやハードディスクなどの記憶手段、液晶モニタ等の表示手段、タッチパネル、ボタン、キーボード、マウスなどの入力手段を有する情報処理装置である。ユーザ端末は、データを送受信する通信機能を有していてもよい。さらに、ユーザ端末には、左右の出力ユニットを有する音声出力部(ヘッドホン又はイヤホン)が接続される。以下、音声出力部をヘッドホンとした場合の構成について例示する。   The out-of-head localization processing according to the present embodiment is executed by a user terminal such as a personal computer, a smart phone, or a tablet PC. The user terminal is an information processing apparatus having processing means such as a processor, storage means such as a memory and a hard disk, display means such as a liquid crystal monitor, and input means such as a touch panel, buttons, a keyboard, and a mouse. The user terminal may have a communication function for transmitting and receiving data. Furthermore, an audio output unit (headphone or earphone) having left and right output units is connected to the user terminal. Hereinafter, the configuration when the audio output unit is a headphone will be exemplified.

(頭外定位処理装置)
本実施の形態にかかる音場再生装置の一例である頭外定位処理装置100を図1に示す。図1は、頭外定位処理装置100のブロック図である。頭外定位処理装置100は、ヘッドホン43を装着するユーザUに対して音場を再生する。そのため、頭外定位処理装置100は、LchとRchのステレオ入力信号XL、XRについて、音像定位処理を行う。LchとRchのステレオ入力信号XL、XRは、CD(Compact Disc)プレイヤーなどから出力されるアナログのオーディオ再生信号、又は、mp3(MPEG Audio Layer-3)等のデジタルオーディオデータである。なお、オーディオ再生信号、又はデジタルオーディオデータをまとめて再生信号と称する。すなわち、LchとRchのステレオ入力信号XL、XRが再生信号となっている。
(Out-of-head localization processor)
FIG. 1 shows an out-of-head localization processing apparatus 100 that is an example of a sound field reproducing apparatus according to the present embodiment. FIG. 1 is a block diagram of the out-of-head localization processing apparatus 100. The out-of-head localization processing apparatus 100 reproduces a sound field for the user U wearing the headphones 43. Therefore, the out-of-head localization processing apparatus 100 performs sound image localization processing on the Lch and Rch stereo input signals XL and XR. The Lch and Rch stereo input signals XL and XR are analog audio playback signals output from a CD (Compact Disc) player or the like, or digital audio data such as mp3 (MPEG Audio Layer-3). Note that audio playback signals or digital audio data are collectively referred to as playback signals. That is, the Lch and Rch stereo input signals XL and XR are reproduction signals.

なお、頭外定位処理装置100は、物理的に単一な装置に限られるものではなく、一部の処理が異なる装置で行われてもよい。例えば、一部の処理がパソコンなどにより行われ、残りの処理がヘッドホン43に内蔵されたDSP(Digital Signal Processor)などにより行われてもよい。   The out-of-head localization processing apparatus 100 is not limited to a physically single apparatus, and some processes may be performed by different apparatuses. For example, a part of the processing may be performed by a personal computer or the like, and the remaining processing may be performed by a DSP (Digital Signal Processor) built in the headphones 43 or the like.

頭外定位処理装置100は、頭外定位処理部10、フィルタ部41、フィルタ部42、及びヘッドホン43を備えている。頭外定位処理部10、フィルタ部41、及びフィルタ部42は、具体的にはプロセッサ等により実現可能である。   The out-of-head localization processing apparatus 100 includes an out-of-head localization processing unit 10, a filter unit 41, a filter unit 42, and headphones 43. Specifically, the out-of-head localization processing unit 10, the filter unit 41, and the filter unit 42 can be realized by a processor or the like.

頭外定位処理部10は、畳み込み演算部11〜12、21〜22、及び加算器24、25を備えている。畳み込み演算部11〜12、21〜22は、空間音響伝達特性を用いた畳み込み処理を行う。頭外定位処理部10には、CDプレイヤーなどからのステレオ入力信号XL、XRが入力される。頭外定位処理部10には、空間音響伝達特性が設定されている。頭外定位処理部10は、各chのステレオ入力信号XL、XRに対し、空間音響伝達特性のフィルタ(以下、空間音響フィルタとも称する)を畳み込む。空間音響伝達特性は被測定者の頭部や耳介で測定した頭部伝達関数HRTFでもよいし、ダミーヘッドまたは第三者の頭部伝達関数であってもよい。   The out-of-head localization processing unit 10 includes convolution operation units 11 to 12 and 21 to 22 and adders 24 and 25. The convolution operation units 11 to 12 and 21 to 22 perform convolution processing using spatial acoustic transfer characteristics. Stereo input signals XL and XR from a CD player or the like are input to the out-of-head localization processing unit 10. Spatial acoustic transfer characteristics are set in the out-of-head localization processing unit 10. The out-of-head localization processing unit 10 convolves a spatial acoustic transfer characteristic filter (hereinafter also referred to as a spatial acoustic filter) with respect to the stereo input signals XL and XR of each channel. The spatial acoustic transfer characteristic may be a head-related transfer function HRTF measured with the head or auricle of the measurement subject, or may be a dummy head or a third-party head-related transfer function.

4つの空間音響伝達特性Hls、Hlo、Hro、Hrsを1セットとしたものを空間音響伝達関数とする。畳み込み演算部11、12、21、22で畳み込みに用いられるデータが空間音響フィルタとなる。空間音響伝達特性Hls、Hlo、Hro、Hrsを所定のフィルタ長で切り出すことで、空間音響フィルタが生成される。   A set of four spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs is defined as a spatial acoustic transfer function. Data used for convolution in the convolution operation units 11, 12, 21, and 22 is a spatial acoustic filter. A spatial acoustic filter is generated by cutting out the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs with a predetermined filter length.

空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれは、インパルス応答測定などにより、事前に取得されている。例えば、ユーザUが左右の耳にマイクをそれぞれ装着する。ユーザUの前方に配置された左右のスピーカが、インパルス応答測定を行うための、インパルス音をそれぞれ出力する。そして、スピーカから出力されたインパルス音等の測定信号をマイクで収音する。マイクでの収音信号に基づいて、空間音響伝達特性Hls、Hlo、Hro、Hrsが取得される。左スピーカと左マイクとの間の空間音響伝達特性Hls、左スピーカと右マイクとの間の空間音響伝達特性Hlo、右スピーカと左マイクとの間の空間音響伝達特性Hro、右スピーカと右マイクとの間の空間音響伝達特性Hrsが測定される。   Each of the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs is acquired in advance by an impulse response measurement or the like. For example, the user U attaches microphones to the left and right ears. The left and right speakers arranged in front of the user U output impulse sounds for performing impulse response measurement. A measurement signal such as an impulse sound output from the speaker is collected by a microphone. Spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs are acquired based on a sound collection signal from the microphone. Spatial acoustic transmission characteristic Hls between the left speaker and the left microphone, spatial acoustic transmission characteristic Hlo between the left speaker and the right microphone, spatial acoustic transmission characteristic Hro between the right speaker and the left microphone, right speaker and right microphone The spatial acoustic transfer characteristic Hrs between the two is measured.

そして、畳み込み演算部11は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hlsに応じた空間音響フィルタを畳み込む。畳み込み演算部11は、畳み込み演算データを加算器24に出力する。畳み込み演算部21は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hroに応じた空間音響フィルタを畳み込む。畳み込み演算部21は、畳み込み演算データを加算器24に出力する。加算器24は2つの畳み込み演算データを加算して、フィルタ部41に出力する。   Then, the convolution unit 11 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hls with respect to the Lch stereo input signal XL. The convolution operation unit 11 outputs the convolution operation data to the adder 24. The convolution operation unit 21 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hro with respect to the Rch stereo input signal XR. The convolution operation unit 21 outputs the convolution operation data to the adder 24. The adder 24 adds the two convolution calculation data and outputs the result to the filter unit 41.

畳み込み演算部12は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hloに応じた空間音響フィルタを畳み込む。畳み込み演算部12は、畳み込み演算データを、加算器25に出力する。畳み込み演算部22は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hrsに応じた空間音響フィルタを畳み込む。畳み込み演算部22は、畳み込み演算データを、加算器25に出力する。加算器25は2つの畳み込み演算データを加算して、フィルタ部42に出力する。   The convolution operation unit 12 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hlo with respect to the Lch stereo input signal XL. The convolution operation unit 12 outputs the convolution operation data to the adder 25. The convolution operation unit 22 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hrs with respect to the Rch stereo input signal XR. The convolution operation unit 22 outputs the convolution operation data to the adder 25. The adder 25 adds the two convolution calculation data and outputs the result to the filter unit 42.

フィルタ部41、42にはヘッドホン特性(ヘッドホンのスピーカユニットとマイク間の特性)をキャンセルする逆フィルタが設定されている。そして、頭外定位処理部10での処理が施された再生信号(畳み込み演算信号)に逆フィルタを畳み込む。フィルタ部41で加算器24からのLch信号に対して、Lch側のヘッドホン特性の逆フィルタを畳み込む。同様に、フィルタ部42は加算器25からのRch信号に対して、Rch側のヘッドホン特性の逆フィルタを畳み込む。逆フィルタは、ヘッドホン43を装着した場合に、ヘッドホンユニットからマイクまでのヘッドホン特性をキャンセルする。マイクは、外耳道入口から鼓膜までの間ならばどこに配置してもよい。逆フィルタは、後述するように、ユーザU本人の特性の測定結果から算出されている。   In the filter units 41 and 42, an inverse filter for canceling the headphone characteristics (characteristics between the headphone speaker unit and the microphone) is set. Then, an inverse filter is convoluted with the reproduction signal (convolution operation signal) that has been processed by the out-of-head localization processing unit 10. The filter unit 41 convolves the Lch signal from the adder 24 with a headphone characteristic inverse filter on the Lch side. Similarly, the filter unit 42 convolves the Rch signal from the adder 25 with an Rch-side headphone characteristic inverse filter. The reverse filter cancels the headphone characteristics from the headphone unit to the microphone when the headphone 43 is attached. The microphone may be placed anywhere from the ear canal entrance to the eardrum. The inverse filter is calculated from the measurement result of the characteristics of the user U himself / herself, as will be described later.

フィルタ部41は、処理されたLch信号YLをヘッドホン43の左ユニット43Lに出力する。フィルタ部42は、処理されたRch信号YRをヘッドホン43の右ユニット43Rに出力する。ユーザUは、ヘッドホン43を装着している。ヘッドホン43は、Lch信号YLとRch信号YR(以下、Lch信号YLとRch信号をまとめてステレオ信号ともいう)をユーザUに向けて出力する。これにより、ユーザUの頭外に定位された音像を再生することができる。   The filter unit 41 outputs the processed Lch signal YL to the left unit 43L of the headphones 43. The filter unit 42 outputs the processed Rch signal YR to the right unit 43R of the headphones 43. User U is wearing headphones 43. The headphones 43 output the Lch signal YL and the Rch signal YR (hereinafter, the Lch signal YL and the Rch signal are collectively referred to as a stereo signal) to the user U. Thereby, the sound image localized outside the user U's head can be reproduced.

このように、頭外定位処理装置100は、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタを用いて、頭外定位処理を行っている。以下の説明において、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタとをまとめて頭外定位処理フィルタとする。2chのステレオ再生信号の場合、頭外定位フィルタは、4つの空間音響フィルタと、2つの逆フィルタとから構成されている。そして、頭外定位処理装置100は、ステレオ再生信号に対して合計6個の頭外定位フィルタを用いて畳み込み演算処理を行うことで、頭外定位処理を実行する。頭外定位フィルタは、ユーザU個人の測定に基づくものであることが好ましい。例えば,ユーザUの耳に装着されたマイクが収音した収音信号に基づいて、頭外定位フィルタが設定されている。   As described above, the out-of-head localization processing apparatus 100 performs the out-of-head localization processing using the spatial acoustic filter corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs and the inverse filter of the headphone characteristics. In the following description, a spatial acoustic filter according to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs and an inverse filter with headphone characteristics are collectively referred to as an out-of-head localization processing filter. In the case of a 2ch stereo reproduction signal, the out-of-head localization filter is composed of four spatial acoustic filters and two inverse filters. Then, the out-of-head localization processing apparatus 100 performs the out-of-head localization processing by performing convolution operation processing on the stereo reproduction signal using a total of six out-of-head localization filters. The out-of-head localization filter is preferably based on the measurement of the individual user U. For example, an out-of-head localization filter is set based on a sound collection signal collected by a microphone attached to the ear of the user U.

このように空間音響フィルタと、ヘッドホン特性の逆フィルタはオーディオ信号用のフィルタである。これらのフィルタが再生信号(ステレオ入力信号XL、XR)に畳み込まれることで、頭外定位処理装置100が、頭外定位処理を実行する。   Thus, the spatial acoustic filter and the headphone characteristic inverse filter are filters for audio signals. These filters are convolved with the reproduction signals (stereo input signals XL and XR), so that the out-of-head localization processing apparatus 100 performs out-of-head localization processing.

(外耳道伝達特性の測定装置)
次に、逆フィルタを生成するために、外耳道伝達特性を測定する測定装置200について、図2を用いて説明する。図2は、被測定者1に対して外耳道伝達特性を測定するための構成を示している。測定装置200は、マイクユニット2と、ヘッドホン43と、処理装置201と、を備えている。なお、ここでは、被測定者1は、図1のユーザUと同一人物となっている。
(Equipment for measuring ear canal transmission characteristics)
Next, a measurement apparatus 200 that measures the ear canal transfer characteristics in order to generate an inverse filter will be described with reference to FIG. FIG. 2 shows a configuration for measuring the external auditory canal transfer characteristic of the person under measurement 1. The measuring device 200 includes a microphone unit 2, headphones 43, and a processing device 201. Here, the person to be measured 1 is the same person as the user U in FIG.

処理装置201には、マイクユニット2と、ヘッドホン43と、が接続されている。なお、マイクユニット2は、ヘッドホン43に脱着可能に取り付けられていてもよい。マイクユニット2は、左マイク2Lと、右マイク2Rとを備えている。左マイク2Lは、被測定者1の左耳9Lに装着される。右マイク2Rは、被測定者1の右耳9Rに装着される。処理装置201は、頭外定位処理装置100と同じ処理装置であってもよく、異なる処理装置であってよい。以下の説明では、頭外定位処理装置100と処理装置201が同じ装置であるとして説明する。   The microphone unit 2 and the headphones 43 are connected to the processing device 201. The microphone unit 2 may be detachably attached to the headphones 43. The microphone unit 2 includes a left microphone 2L and a right microphone 2R. The left microphone 2L is attached to the left ear 9L of the person 1 to be measured. The right microphone 2R is attached to the right ear 9R of the measurement subject 1. The processing device 201 may be the same processing device as the out-of-head localization processing device 100, or may be a different processing device. In the following description, it is assumed that the out-of-head localization processing apparatus 100 and the processing apparatus 201 are the same apparatus.

ヘッドホン43は、ヘッドホンバンド43Bと、左ユニット43Lと、右ユニット43Rとを、有している。左ユニット43Lと、右ユニット43Rとはそれぞれ、左右の耳9L、9Rに対して音を出力する出力ユニットである。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとを連結する。左ユニット43Lは被測定者1の左耳9Lに向かって音を出力する。右ユニット43Rは被測定者1の右耳9Rに向かって音を出力する。ヘッドホン43は密閉型、開放型、半開放型、または半密閉型等であり、ヘッドホンの種類を問わない。マイクユニット2が被測定者1に装着された状態で、被測定者1がヘッドホン43を装着する。すなわち、左マイク2L、右マイク2Rが装着された左耳9L、右耳9Rにヘッドホン43の左ユニット43L、右ユニット43Rがそれぞれ装着される。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとをそれぞれ左耳9L、右耳9Rに押し付ける付勢力を発生する。   The headphone 43 has a headphone band 43B, a left unit 43L, and a right unit 43R. The left unit 43L and the right unit 43R are output units that output sound to the left and right ears 9L and 9R, respectively. The headphone band 43B connects the left unit 43L and the right unit 43R. The left unit 43L outputs a sound toward the left ear 9L of the person 1 to be measured. The right unit 43R outputs sound toward the right ear 9R of the person 1 to be measured. The headphones 43 are a sealed type, an open type, a semi-open type, a semi-sealed type, etc., and the type of headphones is not limited. The subject 1 wears the headphones 43 in a state where the microphone unit 2 is attached to the subject 1. That is, the left unit 43L and the right unit 43R of the headphones 43 are respectively attached to the left ear 9L and the right ear 9R to which the left microphone 2L and the right microphone 2R are attached. The headphone band 43B generates a biasing force that presses the left unit 43L and the right unit 43R against the left ear 9L and the right ear 9R, respectively.

左マイク2Lは、ヘッドホン43の左ユニット43Lから出力された音を収音する。右マイク2Rは、ヘッドホン43の右ユニット43Rから出力された音を収音する。左マイク2L、及び右マイク2Rのマイク部は、外耳孔近傍の収音位置に配置される。左マイク2L、及び右マイク2Rは、ヘッドホン43に干渉しないように構成されている。すなわち、左マイク2L、及び右マイク2Rは左耳9L、右耳9Rの適切な位置に配置された状態で、被測定者1がヘッドホン43を装着することができる。   The left microphone 2L collects sound output from the left unit 43L of the headphones 43. The right microphone 2R collects the sound output from the right unit 43R of the headphones 43. The microphone portions of the left microphone 2L and the right microphone 2R are arranged at a sound collection position near the outer ear hole. The left microphone 2L and the right microphone 2R are configured not to interfere with the headphones 43. That is, the person to be measured 1 can wear the headphones 43 in a state where the left microphone 2L and the right microphone 2R are disposed at appropriate positions of the left ear 9L and the right ear 9R.

処理装置201は、ヘッドホン43に対して測定信号を出力する。これにより、ヘッドホン43はインパルス音などを発生する。具体的には、左ユニット43Lから出力されたインパルス音を左マイク2Lで測定する。右ユニット43Rから出力されたインパルス音を右マイク2Rで測定する。測定信号の出力時に、マイク2L、2Rが収音信号を取得することで、インパルス応答測定が実施される。   The processing device 201 outputs a measurement signal to the headphones 43. Thereby, the headphones 43 generate an impulse sound or the like. Specifically, the impulse sound output from the left unit 43L is measured by the left microphone 2L. The impulse sound output from the right unit 43R is measured by the right microphone 2R. When the measurement signal is output, the microphones 2L and 2R acquire the collected sound signal, thereby performing impulse response measurement.

処理装置201は、インパルス応答測定に基づく収音信号をメモリなどに記憶する。これにより、左ユニット43Lと左マイク2Lとの間の伝達特性(すなわち、左耳の外耳道伝達特性)と、右ユニット43Rと右マイク2Rとの間の伝達特性(すなわち、右耳の外耳道伝達特性)が取得される。左マイク2Lで取得された左耳の外耳道伝達特性をLch(左ch)の外耳道伝達特性とし、右マイク2Rで取得された右耳の外耳道伝達特性をRch(右ch)の外耳道伝達特性とする。処理装置201が伝達特性の測定データを所定のフィルタ長で切り出すことで、フィルタ係数が求められる。処理装置201は、フィルタ係数から外耳道伝達特性(ヘッドホン特性)を打ち消すような逆フィルタを算出する。   The processing device 201 stores a collected sound signal based on the impulse response measurement in a memory or the like. Thereby, the transfer characteristic between the left unit 43L and the left microphone 2L (that is, the external ear canal transfer characteristic of the left ear) and the transfer characteristic between the right unit 43R and the right microphone 2R (that is, the external ear canal transfer characteristic of the right ear). ) Is acquired. The left ear external ear canal transmission characteristic acquired by the left microphone 2L is Lch (left ch) external ear canal transmission characteristic, and the right ear external ear canal transmission characteristic acquired by the right microphone 2R is Rch (right ch) external ear canal transmission characteristic. . The processing device 201 cuts out the transfer characteristic measurement data with a predetermined filter length, thereby obtaining a filter coefficient. The processing device 201 calculates an inverse filter that cancels the ear canal transfer characteristic (headphone characteristic) from the filter coefficient.

処理装置201は、伝達特性の測定データをそれぞれ記憶するメモリなどを有している。なお、処理装置201は、外耳道伝達特性を測定するための測定信号として、インパルス信号やTSP(Time Stretched Pulse)信号等を発生する。測定信号はインパルス音等の測定音を含んでいる。   The processing device 201 includes a memory that stores measurement data of transfer characteristics. The processing device 201 generates an impulse signal, a TSP (Time Stretched Pulse) signal, or the like as a measurement signal for measuring the ear canal transfer characteristic. The measurement signal includes measurement sound such as impulse sound.

(外耳道伝達特性の補正)
本実施の形態にかかる頭外定位処理装置100は、ヘッドホン43の装着状態に応じて、外耳道伝達特性を補正する。そして、頭外定位処理装置100が、補正後の外耳道伝達特性に基づいて、逆フィルタを算出している。このようにすることで、頭外定位処理装置100が、ヘッドホン装着状態に適応した逆フィルタを用いて、頭外定位処理することができる。
(Correction of ear canal transmission characteristics)
The out-of-head localization processing apparatus 100 according to the present embodiment corrects the ear canal transmission characteristics according to the wearing state of the headphones 43. Then, the out-of-head localization processing apparatus 100 calculates an inverse filter based on the corrected ear canal transfer characteristics. By doing in this way, the out-of-head localization processing apparatus 100 can perform out-of-head localization processing using an inverse filter adapted to the headphone wearing state.

図3を用いて、外耳道伝達特性の補正処理について説明する。図3は、外耳道伝達特性を補正するための構成を示す図である。図3では、説明の簡略化のため、左ユニット43Lのみを示しているが、右ユニット43Rについても同様の構成となっている。従って、右ユニット43Rに関する説明を適宜省略する。   The correction process of the ear canal transfer characteristic will be described with reference to FIG. FIG. 3 is a diagram showing a configuration for correcting the ear canal transfer characteristics. In FIG. 3, only the left unit 43L is shown for simplification of explanation, but the right unit 43R has the same configuration. Therefore, the description regarding the right unit 43R is omitted as appropriate.

頭外定位処理装置100は、測定信号生成部111と、D/Aコンバータ112と、A/Dコンバータ121と、参照信号取得部122と、A/Dコンバータ131と、ECTF取得部132と、メモリ140と、変換関数算出部151と、補正部152と、逆フィルタ生成部153と、を備えている。メモリ140は、第1の記憶部141と、第2の記憶部142と、第3の記憶部143と、を備えている。   The out-of-head localization processing apparatus 100 includes a measurement signal generation unit 111, a D / A converter 112, an A / D converter 121, a reference signal acquisition unit 122, an A / D converter 131, an ECTF acquisition unit 132, and a memory. 140, a conversion function calculation unit 151, a correction unit 152, and an inverse filter generation unit 153. The memory 140 includes a first storage unit 141, a second storage unit 142, and a third storage unit 143.

左ユニット43Lは、ハウジング45と、ヘッドホンスピーカ46と、内蔵マイク48とを備えている。ハウジング45は、耳を覆うイヤーカップを備えている。ハウジング45には、ヘッドホンスピーカ46と、内蔵マイク48とが設けられている。ヘッドホンスピーカ46は、磁器回路や振動板等を有しており、ユーザUの左耳に対して音を出力する。   The left unit 43L includes a housing 45, a headphone speaker 46, and a built-in microphone 48. The housing 45 includes an ear cup that covers the ear. The housing 45 is provided with a headphone speaker 46 and a built-in microphone 48. The headphone speaker 46 has a porcelain circuit, a diaphragm, etc., and outputs sound to the left ear of the user U.

内蔵マイク48は、左ユニット43Lに内蔵されている。内蔵マイク48は、ハウジング45で覆われた空間に配置されている。内蔵マイク48は、ヘッドホンスピーカ46から出力された音を収音する。内蔵マイク48で収音した信号を参照用収音信号とする。つまり、内蔵マイク48は、参照用収音信号を収音するための参照用マイクである。内蔵マイク48と、ヘッドホンスピーカ46は、ハウジング45に固定されている。よって、ヘッドホンスピーカ46に対する内蔵マイク48の位置は一定となる。   The built-in microphone 48 is built in the left unit 43L. The built-in microphone 48 is disposed in a space covered with the housing 45. The built-in microphone 48 collects sound output from the headphone speaker 46. The signal collected by the built-in microphone 48 is used as a reference sound collection signal. That is, the built-in microphone 48 is a reference microphone for collecting a reference sound collection signal. The built-in microphone 48 and the headphone speaker 46 are fixed to the housing 45. Therefore, the position of the built-in microphone 48 with respect to the headphone speaker 46 is constant.

なお、ヘッドホン43はBluetooth(登録商標)等の無線通信を用いたワイヤレスタイプであってもよい。さらに、ヘッドホン43は、一部の処理を実施するDSPを備えていてもよい。ヘッドホン43のDSP等が図3に示すブロックの一部、又は全ての処理を行ってもよい。例えば、D/Aコンバータ112、A/Dコンバータ121、A/Dコンバータ131等がヘッドホン43に内蔵されていてもよい。   The headphones 43 may be a wireless type using wireless communication such as Bluetooth (registered trademark). Furthermore, the headphones 43 may include a DSP that performs a part of the processing. The DSP or the like of the headphone 43 may perform a part or all of the processing shown in FIG. For example, the D / A converter 112, the A / D converter 121, the A / D converter 131, and the like may be built in the headphones 43.

さらに、左耳9L(図3では不図示)には、外耳道伝達特性を測定するための左マイク2Lが配置されている。左マイク2Lは、図2に示したように、外耳道伝達特性を測定するための測定用マイクである。左マイク2Lは左耳9Lに対して脱着可能に設けられている。外耳道伝達特性の測定時には、左耳9Lに左マイク2Lが装着される。また、ヘッドホン43により音楽を頭外定位受聴する時(以下、単に受聴時とする)、左マイク2Lは、左耳9Lから取り外される。なお、左マイク2Lは、左ユニット43Lに脱着可能に取り付けられていてもよく、左ユニット43Lとは独立した構成となっていてもよい。例えば、左マイク2Lは、左耳9Lに直接取り付けられていてもよい。   Further, a left microphone 2L for measuring the external auditory canal transfer characteristic is disposed in the left ear 9L (not shown in FIG. 3). As shown in FIG. 2, the left microphone 2L is a measurement microphone for measuring the ear canal transfer characteristics. The left microphone 2L is detachably attached to the left ear 9L. At the time of measuring the external ear canal transfer characteristic, the left microphone 2L is attached to the left ear 9L. In addition, when listening to music out of the head with headphones 43 (hereinafter simply referred to as listening), the left microphone 2L is removed from the left ear 9L. The left microphone 2L may be detachably attached to the left unit 43L, or may be configured independently of the left unit 43L. For example, the left microphone 2L may be directly attached to the left ear 9L.

外耳道伝達特性の測定時には、左耳9Lに左マイク2Lを装着した装着状態となり、この状態を測定状態とする。ヘッドホン43により音楽を頭外定位受聴する受聴時には、左耳9Lから左マイク2Lを取り外した状態を非装着状態となり、この状態を受聴状態とする。   At the time of measuring the external auditory canal transfer characteristics, the left microphone 2L is attached to the left ear 9L, and this state is set as a measurement state. At the time of listening to the headphone 43 listening to music out of the head, the state in which the left microphone 2L is removed from the left ear 9L is the non-wearing state, and this state is the listening state.

測定信号生成部111は、測定信号を生成する。測定信号生成部111で生成された測定信号は、D/Aコンバータ112でD/A変換されて、ヘッドホンスピーカ46に出力される。ヘッドホンスピーカ46が伝達特性を測定するための測定信号を出力する。   The measurement signal generator 111 generates a measurement signal. The measurement signal generated by the measurement signal generator 111 is D / A converted by the D / A converter 112 and output to the headphone speaker 46. The headphone speaker 46 outputs a measurement signal for measuring the transfer characteristic.

測定状態において、マイク2Lは、ヘッドホンスピーカ46からの測定信号を収音する。マイク2Lで収音された収音信号(特性用収音信号ともいう)は、A/Dコンバータ131でA/D変換される。A/D変換された特性用収音信号は、ECTF取得部132に出力される。なお、インパルス応答測定を複数回行って、特性用収音信号を同期加算してもよい。   In the measurement state, the microphone 2L collects the measurement signal from the headphone speaker 46. A sound collection signal (also referred to as a characteristic sound collection signal) collected by the microphone 2L is A / D converted by the A / D converter 131. The A / D converted characteristic sound pickup signal is output to the ECTF acquisition unit 132. Note that the impulse response measurement may be performed a plurality of times, and the characteristic sound pickup signals may be synchronously added.

ECTF取得部132は、特性用収音信号に基づいて、外耳道伝達特性(ECTF)を取得する。例えば、ECTF取得部132は、FFT(高速フーリエ変換)により、時間領域の特性用収音信号から周波数領域の外耳道伝達特性を算出する。これにより、外耳道伝達特性のパワー特性(パワースペクトル)と、位相特性(位相スペクトル)が生成される。なお、パワースペクトルの代わりに振幅スペクトルを生成してもよい。なお、ECTF取得部132は、離散フーリエ変換や離散コサイン変換等により、特性用収音信号を周波数領域のデータ(周波数特性)に変換することができる。   The ECTF acquisition unit 132 acquires the ear canal transfer characteristic (ECTF) based on the characteristic sound pickup signal. For example, the ECTF acquisition unit 132 calculates the external auditory canal transfer characteristic in the frequency domain from the collected sound signal for the characteristic in the time domain by FFT (Fast Fourier Transform). Thereby, the power characteristic (power spectrum) of the ear canal transmission characteristic and the phase characteristic (phase spectrum) are generated. An amplitude spectrum may be generated instead of the power spectrum. The ECTF acquisition unit 132 can convert the characteristic sound pickup signal into frequency domain data (frequency characteristics) by discrete Fourier transform, discrete cosine transform, or the like.

測定状態、及び、受聴状態の両方で、内蔵マイク48は、ヘッドホンスピーカ46からの測定信号を収音する。内蔵マイク48で収音された収音信号(参照用収音信号ともいう)は、A/Dコンバータ121でA/D変換される。A/D変換された参照用収音信号は、参照信号取得部122に出力される。具体的には、受聴者Uが左マイク2Lを装着した測定状態と、装着していない受聴状態との両方で、インパルス応答測定が実施される。なお、インパルス応答測定を複数回行って、参照用収音信号を同期加算してもよい。   The built-in microphone 48 picks up the measurement signal from the headphone speaker 46 in both the measurement state and the listening state. A sound collection signal (also referred to as a reference sound collection signal) collected by the built-in microphone 48 is A / D converted by the A / D converter 121. The A / D converted reference sound pickup signal is output to the reference signal acquisition unit 122. Specifically, impulse response measurement is performed both in the measurement state in which the listener U wears the left microphone 2L and in the listening state in which the listener U is not wearing. Note that the impulse response measurement may be performed a plurality of times, and the reference collected sound signal may be synchronously added.

参照信号取得部122は、参照用収音信号に基づいて、参照信号を取得する。例えば、参照信号取得部122は、FFT(高速フーリエ変換)により、時間領域の参照用収音信号から周波数領域の参照信号を算出する。これにより、参照用収音信号のパワー特性(パワースペクトル)と、位相特性(位相スペクトル)が生成される。なお、パワースペクトルの代わりに振幅スペクトルを生成してもよい。なお、参照信号取得部122は、離散フーリエ変換や離散コサイン変換等により、参照用収音信号を周波数領域のデータ(周波数特性)に変換することができる。   The reference signal acquisition unit 122 acquires a reference signal based on the reference sound collection signal. For example, the reference signal acquisition unit 122 calculates a reference signal in the frequency domain from the reference sound pickup signal in the time domain by FFT (Fast Fourier Transform). As a result, a power characteristic (power spectrum) and a phase characteristic (phase spectrum) of the reference collected sound signal are generated. An amplitude spectrum may be generated instead of the power spectrum. Note that the reference signal acquisition unit 122 can convert the collected sound signal for reference into frequency domain data (frequency characteristics) by discrete Fourier transform, discrete cosine transform, or the like.

ここで、測定状態において、内蔵マイク48で収音された参照用収音信号を第1の参照用収音信号とする。第1の参照用収音信号に基づいて取得された参照信号を第1の参照信号とする。第1の参照用収音信号は、特性用収音信号とは、実質的に同時に収音される。つまり、同じインパルス応答測定での測定された第1の参照用収音信号は、特性用収音信号に基づいて、第1の参照信号と外耳道伝達特性とが取得される。   Here, in the measurement state, the reference sound collection signal collected by the built-in microphone 48 is defined as a first reference sound collection signal. The reference signal acquired based on the first reference sound pickup signal is set as the first reference signal. The first reference sound pickup signal is picked up substantially simultaneously with the characteristic sound pickup signal. That is, as for the first reference sound pickup signal measured in the same impulse response measurement, the first reference signal and the ear canal transfer characteristic are acquired based on the characteristic sound pickup signal.

受聴状態において、内蔵マイク48で収音された参照用収音信号を第2の参照用収音信号とする。第2の参照用収音信号に基づいて取得された参照信号を第2の参照信号とする。第1の参照信号と第2の参照信号は、ヘッドホン43の装着状態に応じて変化する信号である。換言すると、第1の参照信号と第2の参照信号との差が、ヘッドホン43の装着状態の違いに相当する。   In the listening state, the reference sound collection signal collected by the built-in microphone 48 is set as a second reference sound collection signal. The reference signal acquired based on the second reference sound collection signal is set as the second reference signal. The first reference signal and the second reference signal are signals that change according to the wearing state of the headphones 43. In other words, the difference between the first reference signal and the second reference signal corresponds to the difference in the wearing state of the headphones 43.

メモリ140は、第1の記憶部141と、第2の記憶部142と、第3の記憶部143とを備えている。第1の記憶部141は、第1の参照信号を記憶する。第2の記憶部142は、第2の参照信号を記憶する。第3の記憶部143は、外耳道伝達特性を記憶する。第1の記憶部141、第2の記憶部142、及び第3の記憶部143は、それぞれメモリ140において静的に確保しておいてもよく、任意の領域を動的に確保してもよい。   The memory 140 includes a first storage unit 141, a second storage unit 142, and a third storage unit 143. The first storage unit 141 stores the first reference signal. The second storage unit 142 stores the second reference signal. The third storage unit 143 stores the ear canal transmission characteristics. The first storage unit 141, the second storage unit 142, and the third storage unit 143 may be statically secured in the memory 140, and arbitrary areas may be dynamically secured. .

具体的には、第3の記憶部143は、外耳道伝達特性のパワースペクトル、及び位相スペクトルを記憶する。第1の記憶部141は、第1の参照信号のパワースペクトルを記憶する。第2の記憶部142は、第2の参照信号のパワースペクトルを記憶する。第1の記憶部141、及び第2の記憶部142は、それぞれ参照信号の位相スペクトルを記憶していてもよく、記憶していなくてもよい。   Specifically, the third storage unit 143 stores the power spectrum and phase spectrum of the ear canal transfer characteristic. The first storage unit 141 stores the power spectrum of the first reference signal. The second storage unit 142 stores the power spectrum of the second reference signal. Each of the first storage unit 141 and the second storage unit 142 may or may not store the phase spectrum of the reference signal.

第1の記憶部141と、第2の記憶部142と、第3の記憶部143とは、物理的に単一なメモリ装置であってもよく、異なる装置であってもよい。例えば、1つのメモリ140が、外耳道伝達特性、第1の参照信号、及び第2の参照信号を記憶していてもよい。あるは、2つ以上のメモリに分けて、外耳道伝達特性、第1の参照信号、及び第2の参照信号が記憶されていてもよい。   The first storage unit 141, the second storage unit 142, and the third storage unit 143 may be physically single memory devices or different devices. For example, one memory 140 may store the ear canal transfer characteristic, the first reference signal, and the second reference signal. Alternatively, the ear canal transfer characteristic, the first reference signal, and the second reference signal may be stored separately in two or more memories.

変換関数算出部151は、第1の記憶部141、及び第2の記憶部142から第1の参照信号と第2の参照信号を読み出す。そして、変換関数算出部151は、第1の参照信号と第2の参照信号とに基づいて、周波数特性の変換関数を算出する。変換関数算出部151は、2つのパワースペクトルに基づいて、変換関数を算出している。つまり、変換関数算出部151は、2つの参照信号のパワースペクトルを比較することで、変換関数を算出している。   The conversion function calculation unit 151 reads the first reference signal and the second reference signal from the first storage unit 141 and the second storage unit 142. Then, the conversion function calculation unit 151 calculates a frequency characteristic conversion function based on the first reference signal and the second reference signal. The conversion function calculation unit 151 calculates a conversion function based on the two power spectra. That is, the conversion function calculation unit 151 calculates the conversion function by comparing the power spectra of the two reference signals.

補正部152は、第3の記憶部143から外耳道伝達特性を読み出す。そして、補正部152は、変換関数を用いて、外耳道伝達特性を補正する。補正部152は、外耳道伝達特性のパワースペクトルを補正している。ここでは、補正部152は、パワースペクトルのみを補正しており、位相スペクトルについては補正していないが、位相スペクトルについて補正してもよい。   The correction unit 152 reads the ear canal transfer characteristic from the third storage unit 143. Then, the correction unit 152 corrects the ear canal transfer characteristic using the conversion function. The correction unit 152 corrects the power spectrum of the ear canal transfer characteristic. Here, the correction unit 152 corrects only the power spectrum and does not correct the phase spectrum, but may correct the phase spectrum.

逆フィルタ生成部153は、補正された外耳道伝達特性(パワースペクトル)を用いて、逆フィルタを算出する。具体的には、逆フィルタ生成部153は、逆離散フーリエ変換により、補正後のパワースペクトル(振幅特性)と位相スペクトル(位相特性)とを用いて時間信号を算出する。逆フィルタ生成部153は、時間信号に基づいて、所定のフィルタ長の逆フィルタを算出する。   The inverse filter generation unit 153 calculates an inverse filter using the corrected ear canal transfer characteristic (power spectrum). Specifically, the inverse filter generation unit 153 calculates a time signal using the corrected power spectrum (amplitude characteristic) and phase spectrum (phase characteristic) by inverse discrete Fourier transform. The inverse filter generation unit 153 calculates an inverse filter having a predetermined filter length based on the time signal.

以下、逆フィルタを生成するための処理に基づいて、図4を用いて説明する。図4は、逆フィルタを生成するための処理を示すフローチャートである。   Hereinafter, a description will be given with reference to FIG. 4 based on processing for generating an inverse filter. FIG. 4 is a flowchart showing a process for generating an inverse filter.

まず、測定状態での測定により、ECTF取得部132、及び参照信号取得部122が、外耳道伝達特性ECTF、及び第1の参照信号Ref1を取得する(S11)。つまり、ユーザUがマイク2L、及びヘッドホン43を装着した装着状態で、頭外定位処理装置100がインパルス応答測定を実施する。これにより、マイク2L、及び内蔵マイク48がそれぞれ収音信号を収音する。そして、特性用収音信号に基づいて、ECTF取得部132が外耳道伝達特性を算出する。参照用収音信号に基づいて、参照信号取得部122が第1の参照信号Ref1を算出する。   First, by measurement in the measurement state, the ECTF acquisition unit 132 and the reference signal acquisition unit 122 acquire the ear canal transfer characteristic ECTF and the first reference signal Ref1 (S11). That is, with the user U wearing the microphone 2L and the headphones 43, the out-of-head localization processing apparatus 100 performs impulse response measurement. As a result, the microphone 2L and the built-in microphone 48 each pick up a sound pickup signal. Then, based on the characteristic sound pickup signal, the ECTF acquisition unit 132 calculates the ear canal transfer characteristic. Based on the reference sound pickup signal, the reference signal acquisition unit 122 calculates the first reference signal Ref1.

次に、受聴状態での測定により、参照信号取得部122が第2の参照信号Ref2を取得する(S12)。つまり、ユーザUがマイク2Lを取り外した状態で、ヘッドホン43を装着する。ユーザUがヘッドホン43のみを装着した状態で、インパルス応答測定が実施される。参照用収音信号に基づいて、参照信号取得部122が第2の参照信号Ref2を算出する。   Next, the reference signal acquisition unit 122 acquires the second reference signal Ref2 by measurement in the listening state (S12). That is, the user U wears the headphones 43 with the microphone 2L removed. Impulse response measurement is performed with the user U wearing only the headphones 43. Based on the reference sound pickup signal, the reference signal acquisition unit 122 calculates the second reference signal Ref2.

次に、変換関数算出部151が、第1の参照信号Ref1と第2の参照信号Ref2から、変換関数を算出する(S13)。補正部152が、外耳道伝達特性ECTFに対して、変換関数を適用して、補正後の外耳道伝達特性(以下、補正特性AdECTFとする)を算出する(S14)。ここでは、対数パワースペクトルに対して、変換関数が適用されている。つまり、補正部152が、対数パワースペクトルのみを補正している。逆フィルタ生成部153が補正特性AdECTFから逆フィルタを算出する(S15)。   Next, the conversion function calculation unit 151 calculates a conversion function from the first reference signal Ref1 and the second reference signal Ref2 (S13). The correction unit 152 applies a conversion function to the ear canal transfer characteristic ECTF to calculate a corrected ear canal transfer characteristic (hereinafter, referred to as a correction characteristic AdECTF) (S14). Here, a conversion function is applied to the logarithmic power spectrum. That is, the correction unit 152 corrects only the logarithmic power spectrum. The inverse filter generation unit 153 calculates an inverse filter from the correction characteristic AdECTF (S15).

次に、S13〜S15の処理について、図5を用いて詳細に説明する。図5は、S13〜S15の処理の1例を示すフローチャートである。つまり、図5は、変換関数算出部151、補正部152、及び逆フィルタ生成部153における処理を示すフローチャートである。   Next, the process of S13-S15 is demonstrated in detail using FIG. FIG. 5 is a flowchart illustrating an example of the processing of S13 to S15. That is, FIG. 5 is a flowchart illustrating processing in the conversion function calculation unit 151, the correction unit 152, and the inverse filter generation unit 153.

まず、変換関数算出部151が外耳道伝達特性ECTF、第1の参照信号Ref1、第2の参照信号Ref2の対数パワースペクトルを計算し、正規化する(S21)。変換関数算出部151、補正部152、逆フィルタ生成部153は、正規化後のデータについて、以下の処理を実施する。   First, the conversion function calculation unit 151 calculates and normalizes the logarithmic power spectrum of the ear canal transfer characteristic ECTF, the first reference signal Ref1, and the second reference signal Ref2 (S21). The conversion function calculation unit 151, the correction unit 152, and the inverse filter generation unit 153 perform the following processing on the normalized data.

変換関数算出部151が第1の参照信号Ref1と第2の参照信号の対数パワースペクトルPSD1、PSD2において、極値EX1、EX2を求める(S22)。変換関数算出部151は、第1の参照信号Ref1の対数パワースペクトルPSD1の極値EX1と、第2の参照信号Ref2の対数パワースペクトルPSD2の極値EX2を求める。図6に極値EX1,EX2を示す。図6は、対数パワースペクトルPSD1、PSD2の一部を示す図であり、横軸が周波数(Hz)、縦軸がパワー(dB)となっている。   The conversion function calculation unit 151 obtains extreme values EX1 and EX2 in the logarithmic power spectra PSD1 and PSD2 of the first reference signal Ref1 and the second reference signal (S22). The conversion function calculation unit 151 obtains the extreme value EX1 of the logarithmic power spectrum PSD1 of the first reference signal Ref1 and the extreme value EX2 of the logarithmic power spectrum PSD2 of the second reference signal Ref2. FIG. 6 shows extreme values EX1 and EX2. FIG. 6 is a diagram illustrating a part of the logarithmic power spectrum PSD1, PSD2, where the horizontal axis represents frequency (Hz) and the vertical axis represents power (dB).

対数パワースペクトルPSD1、PSD2は通常、複数の極値を有している。ここで、対数パワースペクトルPSD1の複数の極値EX1を低周波数側から順にEX1−1、EX1−2、EX1−3、・・・・EX1−Nとする。同様に、対数パワースペクトルPSD2の複数の極値EX2を低周波数側から順にEX2−1、EX2−2、EX2−3、・・・・EX2−Nとする。なお、図6ではN=4となっており、極値EX1−1〜EX1−4と極値EX2−1〜EX2−4が図示されている。   The logarithmic power spectra PSD1 and PSD2 usually have a plurality of extreme values. Here, a plurality of extreme values EX1 of the logarithmic power spectrum PSD1 are assumed to be EX1-1, EX1-2, EX1-3,... EX1-N in order from the low frequency side. Similarly, a plurality of extreme values EX2 of the logarithmic power spectrum PSD2 are set as EX2-1, EX2-2, EX2-3,... EX2-N in order from the low frequency side. In FIG. 6, N = 4, and extreme values EX1-1 to EX1-4 and extreme values EX2-1 to EX2-4 are illustrated.

変換関数算出部151は、極値EX1、EX2について、対応する極値間の変化ベクトルVを算出する(S23)。つまり、図6に示すように、変換関数算出部151は、極値EX1−1と極値EX2−1の変化ベクトルを変化ベクトルV1として求める。同様に、変換関数算出部151は、極値EX1−2と極値EX2−2の変化ベクトルを変化ベクトルV2として求める。変換関数算出部151は、変化ベクトルV1〜VNを算出する。図6の例では、N=4であるため、4つの変化ベクトルV1〜V4が図示されている。変化ベクトルVは、周波数と対数パワーとを要素とする2次元ベクトルである。   The conversion function calculation unit 151 calculates a change vector V between corresponding extreme values for the extreme values EX1 and EX2 (S23). That is, as shown in FIG. 6, the conversion function calculation unit 151 obtains a change vector between the extreme value EX1-1 and the extreme value EX2-1 as a change vector V1. Similarly, the conversion function calculation unit 151 obtains a change vector between the extreme value EX1-2 and the extreme value EX2-2 as a change vector V2. The conversion function calculation unit 151 calculates change vectors V1 to VN. In the example of FIG. 6, since N = 4, four change vectors V1 to V4 are illustrated. The change vector V is a two-dimensional vector whose elements are frequency and logarithmic power.

なお、対数パワースペクトルPSD1の極値EX1と、対数パワースペクトルPSD2の極値EX2の数が異なる場合、最も近い極値間の変化ベクトルVを求めればよい。例えば、対数パワースペクトルPSDの極値EX1の数が、対数パワースペクトルPSD2の極値EX2の数よりも小さい場合、対数パワースペクトルPSD1の極大値に最も近い対数パワースペクトルPSDの極大値をペアとして、変化ベクトルが求められる。同様に、対数パワースペクトルPSD1の極小値に最も近い対数パワースペクトルPSDの極小値をペアとして、変化ベクトルが求められる。   If the number of extreme values EX1 of the logarithmic power spectrum PSD1 and the extreme value EX2 of the logarithmic power spectrum PSD2 are different, the change vector V between the nearest extreme values may be obtained. For example, when the number of extreme values EX1 of the logarithmic power spectrum PSD is smaller than the number of extreme values EX2 of the logarithmic power spectrum PSD2, the maximum value of the logarithmic power spectrum PSD closest to the maximum value of the logarithmic power spectrum PSD1 is taken as a pair. A change vector is determined. Similarly, a change vector is obtained by using the minimum value of the logarithmic power spectrum PSD closest to the minimum value of the logarithmic power spectrum PSD1 as a pair.

次に、変換関数算出部151は、変化ベクトルVに基づいて、変換関数を求める(S24)。ここでは、変換関数算出部151は、ベクトル変換手法を用いて、変換関数を算出している。具体的には、図7に示すように、対数パワースペクトルのグラフ内に格子状の制御点を配置する。そして、複数の変化ベクトルV1〜VNに基づいて、制御点のメッシュ構造を変化させる。   Next, the conversion function calculation unit 151 obtains a conversion function based on the change vector V (S24). Here, the conversion function calculation unit 151 calculates a conversion function using a vector conversion method. Specifically, as shown in FIG. 7, grid-like control points are arranged in a logarithmic power spectrum graph. Then, the mesh structure of the control points is changed based on the plurality of change vectors V1 to VN.

例えば、(5,5)にある制御点が、(6,6)に変化した場合、隣接した制御点がその変化に連動して移動するようにする。変換関数算出部151は、極値に近い制御点を変化ベクトルVに基づいて移動させる。変換関数算出部151は、複数の変化ベクトルV1〜VNに基づいて、対数パワースペクトルのグラフ上における全制御点の移動先を求める。つまり、変換関数算出部151は、変換関数(変換用メッシュ)を設定する。本ベクトル変換手法は、例えば、画像の形状変化や3次元データのモーフィング(Morphing)などに用いられるメッシュ構造と同等の手法であるため、詳細な説明は省略する。   For example, when the control point at (5, 5) changes to (6, 6), the adjacent control point moves in conjunction with the change. The conversion function calculation unit 151 moves the control point close to the extreme value based on the change vector V. The conversion function calculation unit 151 obtains the movement destinations of all control points on the logarithmic power spectrum graph based on the plurality of change vectors V1 to VN. That is, the conversion function calculation unit 151 sets a conversion function (conversion mesh). Since this vector conversion method is a method equivalent to a mesh structure used for, for example, image shape change or morphing of three-dimensional data, detailed description thereof is omitted.

補正部152は、外耳道伝達特性ECTFの対数パワースペクトルPSDに変換関数を適用する(S25)。ここでは、説明のため、外耳道伝達特性ECTFの対数パワースペクトルをPSDとし、位相スペクトルをASDとする。補正部152は、変換関数を用いて、対数パワースペクトルPSDを補正する。補正後の対数パワースペクトルをAdPSDとする。つまり、補正部152は、対数パワースペクトルPSDに、変換関数を適用することで、補正後の対数パワースペクトルAdPSDを算出する。なお、外耳道伝達特性ECTFを補正した補正特性AdECTFは、位相スペクトルASDと、補正後の対数パワースペクトルAdPSDとから構成される。   The correcting unit 152 applies a conversion function to the logarithmic power spectrum PSD of the ear canal transfer characteristic ECTF (S25). Here, for the sake of explanation, the logarithmic power spectrum of the ear canal transfer characteristic ECTF is PSD and the phase spectrum is ASD. The correction unit 152 corrects the logarithmic power spectrum PSD using the conversion function. Let the logarithmic power spectrum after correction be AdPSD. That is, the correction unit 152 calculates a corrected logarithmic power spectrum AdPSD by applying a conversion function to the logarithmic power spectrum PSD. The correction characteristic AdECTF obtained by correcting the ear canal transmission characteristic ECTF is composed of a phase spectrum ASD and a corrected logarithmic power spectrum AdPSD.

逆フィルタ生成部153は、補正後の対数パワースペクトルAdPSDに基づいて、逆フィルタを生成する(S26)。具体的には、逆フィルタ生成部153は、逆離散フーリエ変換又は逆離散コサイン変換等により、補正後の振幅特性(対数パワースペクトルAdPSD)と位相特性(位相スペクトルASD)から時間信号を算出する。この時間信号が補正された外耳道伝達特性AdECTF(以下、時間領域の補正特性AdECTFとも称する)を示す。逆フィルタ生成部153は、時間領域の補正特性AdECTFから、振幅と位相が反転する逆フィルタを生成する。逆フィルタの生成方法については公知の手法を用いることができるため説明を省略する。   The inverse filter generation unit 153 generates an inverse filter based on the corrected logarithmic power spectrum AdPSD (S26). Specifically, the inverse filter generation unit 153 calculates a time signal from the corrected amplitude characteristic (logarithmic power spectrum AdPSD) and phase characteristic (phase spectrum ASD) by inverse discrete Fourier transform or inverse discrete cosine transform. The ear canal transfer characteristic AdECTF (hereinafter also referred to as a time domain correction characteristic AdECTF) in which the time signal is corrected is shown. The inverse filter generation unit 153 generates an inverse filter whose amplitude and phase are inverted from the correction characteristic AdECTF in the time domain. Since a known method can be used for the generation method of the inverse filter, description thereof is omitted.

この逆フィルタが図1で示したフィルタ部41に設定される。また、右ユニット43に対して同様の処理を行うことで求められた逆フィルタは、フィルタ部42に設定される。   This inverse filter is set in the filter unit 41 shown in FIG. Further, the inverse filter obtained by performing the same process on the right unit 43 is set in the filter unit 42.

図8に、外耳道伝達特性ECTFの対数パワースペクトルPSDと補正特性AdECTFの対数パワースペクトルAdPSDと、を示す。さらに、図8は、第1の参照信号Ref1の対数パワースペクトルPSD1と、第2の参照信号Ref2の対数パワースペクトルPSD2と、を示す。このように、対数パワースペクトルPSD1、PSD2に基づく変換関数を、対数パワースペクトルPSDに適用することで、補正後の対数パワースペクトルAdPSDを求めることができる。   FIG. 8 shows a logarithmic power spectrum PSD of the ear canal transfer characteristic ECTF and a logarithmic power spectrum AdPSD of the correction characteristic AdECTF. Further, FIG. 8 shows a logarithmic power spectrum PSD1 of the first reference signal Ref1 and a logarithmic power spectrum PSD2 of the second reference signal Ref2. Thus, the logarithmic power spectrum AdPSD after correction | amendment can be calculated | required by applying the conversion function based on logarithmic power spectrum PSD1, PSD2 to logarithmic power spectrum PSD.

対数パワースペクトルPSD1と対数パワースペクトルPSD2の差は、ヘッドホン43の装着状態の変化に対応する。補正部152が、対数パワースペクトルPSD1と対数パワースペクトルPSD2とに基づく変換関数を用いることで、適切に外耳道伝達特性を補正することができる。逆フィルタ生成部153が補正後の外耳道伝達特性から逆フィルタを算出している。従って、頭外定位処理装置100が精度の高い頭外定位処理を行うことができる。   The difference between the logarithmic power spectrum PSD1 and the logarithmic power spectrum PSD2 corresponds to a change in the wearing state of the headphones 43. The correction unit 152 can appropriately correct the ear canal transfer characteristic by using a conversion function based on the logarithmic power spectrum PSD1 and the logarithmic power spectrum PSD2. The inverse filter generation unit 153 calculates an inverse filter from the corrected ear canal transfer characteristics. Therefore, the out-of-head localization processing apparatus 100 can perform out-of-head localization processing with high accuracy.

具体的には、頭外定位受聴を行う前の事前測定として、測定状態でのインパルス応答測定を行う。これにより、メモリ140に、第1の参照信号Ref1、及び外耳道伝達特性ECTFを予め記憶させておくことができる。事前測定が終了したら、ユーザUがマイクユニット2を取り外す。そして、ユーザUがヘッドホン43を装着すると、受聴状態でのインパルス応答測定を実施して、第2の参照信号Ref2を取得する。ヘッドホン43を装着する毎に、参照信号取得部122が、第2の参照信号Ref2を取得することが好ましい。つまり、ユーザUがヘッドホン43を装着して、頭外定位受聴を行う前に、参照信号取得部122が、第2の参照信号Ref2を取得する。   Specifically, impulse response measurement in a measurement state is performed as a pre-measurement before listening to out-of-head localization. As a result, the first reference signal Ref1 and the ear canal transfer characteristic ECTF can be stored in the memory 140 in advance. When the preliminary measurement is completed, the user U removes the microphone unit 2. Then, when the user U wears the headphones 43, the impulse response measurement in the listening state is performed to obtain the second reference signal Ref2. It is preferable that the reference signal acquisition unit 122 acquires the second reference signal Ref2 every time the headphones 43 are worn. That is, the reference signal acquisition unit 122 acquires the second reference signal Ref2 before the user U wears the headphones 43 and performs out-of-head localization listening.

上記の処理により、頭外定位処理装置100が、外耳道伝達特性ECTF、第1の参照信号Ref1、及び第2の参照信号Ref2から逆フィルタを算出する。このようにすることで、適応化された逆フィルタを用いて頭外定位処理を行うことができる。つまり、ヘッドホン43の装着状態が変化しても、頭外定位処理装置100が、適切な逆フィルタを用いて、頭外定位処理を行うことができる。なお、受聴時にヘッドホン43を装着したことを自動検知して、受聴状態での測定を自動で行ってもよく。あるいは、ユーザUが、タッチパネルなど操作部を操作して、受聴状態での測定を行うことを指示してもよい。   Through the above processing, the out-of-head localization processing apparatus 100 calculates an inverse filter from the ear canal transfer characteristic ECTF, the first reference signal Ref1, and the second reference signal Ref2. By doing so, it is possible to perform out-of-head localization processing using an adapted inverse filter. That is, even if the wearing state of the headphones 43 changes, the out-of-head localization processing apparatus 100 can perform out-of-head localization processing using an appropriate inverse filter. Note that it is possible to automatically detect that the headphones 43 are worn at the time of listening and automatically perform the measurement in the listening state. Alternatively, the user U may instruct to perform measurement in the listening state by operating an operation unit such as a touch panel.

上記のように、変換関数算出部151は、パワースペクトルに基づいて、変換関数を算出している。したがって、第1の記憶部141、及び第2の記憶部142は、それぞれパワースペクトルのみを記憶していればよい。すなわち、第1の記憶部141と第2の記憶部142は、位相スペクトルを記憶していなくてもよい。あるいは、第1の記憶部141と第2の記憶部142は、時間領域の収音信号をそのまま参照信号として記憶していてもよい。同様に、第3の記憶部143は、時間領域の収音信号を外耳道伝達特性として記憶していてもよい。そして、変換関数算出部151が変換関数を算出する都度、離散フーリエ変換等を行って、参照信号及び外耳道伝達特性のパワースペクトルを算出するようにしてもよい。   As described above, the conversion function calculation unit 151 calculates a conversion function based on the power spectrum. Therefore, each of the first storage unit 141 and the second storage unit 142 may store only the power spectrum. That is, the first storage unit 141 and the second storage unit 142 may not store the phase spectrum. Or the 1st memory | storage part 141 and the 2nd memory | storage part 142 may memorize | store the sound-collection signal of a time domain as a reference signal as it is. Similarly, the third storage unit 143 may store a time domain sound pickup signal as an ear canal transfer characteristic. Then, each time the conversion function calculation unit 151 calculates the conversion function, the power spectrum of the reference signal and the ear canal transfer characteristic may be calculated by performing discrete Fourier transform or the like.

なお、変換関数の算出方法は上記の手法に限定されるものではない。変換関数算出部151は、上記したベクトル変換に限らず、様々なパラメータや変換手法によって、変換関数を算出することができる。例えば、対数パワースペクトルPSD1と対数パワースペクトルPSD2の差に基づいて、変換関数を求めてもよい。   Note that the calculation method of the conversion function is not limited to the above method. The conversion function calculation unit 151 can calculate the conversion function not only by the above-described vector conversion but also by various parameters and conversion methods. For example, the conversion function may be obtained based on the difference between the logarithmic power spectrum PSD1 and the logarithmic power spectrum PSD2.

補正前の外耳道伝達特性ECTFの対数パワースペクトルPSD、第1の参照信号Ref1の対数パワースペクトルPSD1、第2の参照信号Ref2の対数パワースペクトルPSD2を用いて、補正後の外耳道伝達特性ECTFの対数パワースペクトルAdPSDを以下の式(1)を変換関数とすることができる。
AdPAD=PSD+(PSD2−PSD1) ・・・(1)
Using the logarithmic power spectrum PSD of the ear canal transfer characteristic ECTF before correction, the logarithmic power spectrum PSD1 of the first reference signal Ref1, and the logarithmic power spectrum PSD2 of the second reference signal Ref2, the logarithmic power of the ear canal transfer characteristic ECTF after correction is used. The following formula (1) can be used as a conversion function for the spectrum AdPSD.
AdPAD = PSD + (PSD2-PSD1) (1)

なお、図2の処理装置201は、頭外定位処理装置100と同じ装置であってもよく、異なる装置であってもよい。頭外定位処理装置100と、処理装置201が異なる装置である場合、処理装置201によって取得された外耳道伝達特性ECTF及び第1の参照信号Ref1を、頭外定位処理装置100が用いればよい。   2 may be the same device as the out-of-head localization processing device 100, or may be a different device. When the out-of-head localization processing apparatus 100 and the processing apparatus 201 are different apparatuses, the out-of-head localization processing apparatus 100 may use the ear canal transfer characteristic ECTF and the first reference signal Ref1 acquired by the processing apparatus 201.

具体的には、処理装置201は、外耳道伝達特性ECTFと、第1の参照信号Ref1を取得するために、測定状態でのインパルス応答測定を実施する。そして、処理装置201は、外耳道伝達特性ECTFと第1の参照信号Ref1を頭外定位処理装置100に無線又は有線で送信する。あるいは、外耳道伝達特性ECTFと第1の参照信号Ref1のデータの一部又は全部は外部に保存されていてもよい。処理装置201は、外耳道伝達特性ECTFと第1の参照信号Ref1を外部記憶装置やクラウドネットワークなどに記憶させる。頭外定位処理装置100は、外部記憶装置やクラウドネットワークなどに保存されているデータを読み取る、又は受信することで、外耳道伝達特性ECTFと第1の参照信号Ref1を取得する。この場合、メモリ140は、外耳道伝達特性ECTFと第1の参照信号Ref1と第2の参照信号Ref2とを一時的に記憶するメモリであってもよい。つまり、各データの使用後に、データを消去してもよい。   Specifically, the processing device 201 performs an impulse response measurement in a measurement state in order to acquire the ear canal transfer characteristic ECTF and the first reference signal Ref1. Then, the processing device 201 transmits the ear canal transfer characteristic ECTF and the first reference signal Ref1 to the out-of-head localization processing device 100 wirelessly or by wire. Alternatively, part or all of the data of the ear canal transfer characteristic ECTF and the first reference signal Ref1 may be stored outside. The processing device 201 stores the ear canal transfer characteristic ECTF and the first reference signal Ref1 in an external storage device, a cloud network, or the like. The out-of-head localization processing apparatus 100 reads or receives data stored in an external storage device, a cloud network, or the like, thereby acquiring the ear canal transfer characteristic ECTF and the first reference signal Ref1. In this case, the memory 140 may be a memory that temporarily stores the ear canal transfer characteristic ECTF, the first reference signal Ref1, and the second reference signal Ref2. That is, the data may be deleted after each data is used.

ヘッドホン43による受聴を行う前に、頭外定位処理装置100が受聴状態でのインパルス応答測定を行って、第2の参照信号Ref2を取得する。このように取得された外耳道伝達特性ECTF、第1の参照信号Ref1、第2の参照信号Ref2を用いて、頭外定位処理装置100が上記の補正処理を実施する。したがって、頭外定位処理装置100は、ヘッドホン装着状態に適応した逆フィルタを求めることができる。これにより、適切に頭外定位処理を行うことができ、高い精度での音像定位効果を得ることができる。   Before listening to the headphones 43, the out-of-head localization processing apparatus 100 performs impulse response measurement in the listening state to obtain the second reference signal Ref2. Using the external auditory canal transfer characteristic ECTF, the first reference signal Ref1, and the second reference signal Ref2 acquired in this way, the out-of-head localization processing apparatus 100 performs the above correction processing. Therefore, the out-of-head localization processing apparatus 100 can obtain an inverse filter adapted to the headphone wearing state. Thereby, an out-of-head localization process can be performed appropriately, and a sound image localization effect with high accuracy can be obtained.

上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されてもよい。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Part or all of the above processing may be executed by a computer program. The programs described above can be stored and provided to a computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)). The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

U ユーザ
1 被測定者
10 頭外定位処理部
11 畳み込み演算部
12 畳み込み演算部
21 畳み込み演算部
22 畳み込み演算部
24 加算器
25 加算器
41 フィルタ部
42 フィルタ部
43 ヘッドホン
45 ハウジング
46 ヘッドホンスピーカ
48 内蔵マイク
100 頭外定位処理装置
111 測定信号生成部
112 D/Aコンバータ
121 A/Dコンバータ
122 参照信号取得部
131 A/Dコンバータ
132 ECTF取得部
140 メモリ
141 第1の記憶部
142 第2の記憶部
143 第3の記憶部
151 変換関数算出部
152 補正部
153 逆フィルタ生成部
U user 1 person to be measured 10 out-of-head localization processing unit 11 convolution operation unit 12 convolution operation unit 21 convolution operation unit 22 convolution operation unit 24 adder 25 adder 41 filter unit 42 filter unit 43 headphone 45 housing 46 headphone speaker 48 built-in microphone DESCRIPTION OF SYMBOLS 100 Out-of-head localization processing apparatus 111 Measurement signal production | generation part 112 D / A converter 121 A / D converter 122 Reference signal acquisition part 131 A / D converter 132 ECTF acquisition part 140 Memory 141 1st memory | storage part 142 2nd memory | storage part 143 Third storage unit 151 Conversion function calculation unit 152 Correction unit 153 Inverse filter generation unit

Claims (4)

参照用マイクを有する音声出力部と、
前記参照用マイクが収音した収音信号に基づく参照信号を取得する参照信号取得部と、
前記音声出力部を装着したユーザの外耳道に測定用マイクが配置された測定状態において、前記参照信号取得部が取得した第1の参照信号を記憶する第1の記憶部と、
前記測定用マイクが前記外耳道から取り外された受聴状態において、前記参照信号取得部が取得した第2の参照信号を記憶する第2の記憶部と、
前記測定状態において、前記測定用マイクが収音した収音信号に基づいて取得された伝達特性を記憶する第3の記憶部と、
前記第1の参照信号と前記第2の参照信号とに基づいて、周波数特性の変換関数を算出する変換関数算出部と、
前記変換関数を用いて、前記伝達特性の周波数特性を補正する補正部と、
前記補正された周波数特性に基づいて、フィルタを生成するフィルタ生成部と、
前記フィルタを用いて、頭外定位処理を行う頭外定位処理部と、を備えた頭外定位処理装置。
An audio output unit having a reference microphone;
A reference signal acquisition unit for acquiring a reference signal based on a collected sound signal collected by the reference microphone;
A first storage unit that stores the first reference signal acquired by the reference signal acquisition unit in a measurement state in which a measurement microphone is arranged in the ear canal of the user wearing the audio output unit;
A second storage unit that stores the second reference signal acquired by the reference signal acquisition unit in a listening state in which the measurement microphone is removed from the ear canal;
A third storage unit that stores a transfer characteristic acquired based on a collected sound signal collected by the measurement microphone in the measurement state;
A conversion function calculating unit that calculates a conversion function of a frequency characteristic based on the first reference signal and the second reference signal;
A correction unit that corrects the frequency characteristic of the transfer characteristic using the conversion function;
A filter generation unit that generates a filter based on the corrected frequency characteristics;
An out-of-head localization processing apparatus comprising: an out-of-head localization processing unit that performs out-of-head localization processing using the filter.
前記変換関数算出部は、前記第1の参照信号と前記第2の参照信号とのパワースペクトルの極値間の変化ベクトルを求め、
前記変化ベクトルに基づいて、前記変換関数を算出する請求項1に記載の頭外定位処理装置。
The conversion function calculation unit obtains a change vector between extreme values of power spectra of the first reference signal and the second reference signal,
The out-of-head localization processing apparatus according to claim 1, wherein the conversion function is calculated based on the change vector.
参照用マイクを有する音声出力部を装着したユーザの外耳道に測定用マイクが配置された測定状態において、前記測定用マイクで収音された収音信号に基づく伝達特性を取得するステップと、
前記測定状態において、前記参照用マイクで収音された収音信号に基づく第1の参照信号を取得するステップと、
前記測定用マイクが前記外耳道から取り外された受聴状態において、前記参照用マイクで収音された収音信号に基づく第2の参照信号を取得するステップと、
前記第1の参照信号と前記第2の参照信号とに基づいて、周波数特性の変換関数を算出するステップと、
前記変換関数を用いて、前記伝達特性の周波数特性を補正するステップと、
前記補正された周波数特性に基づいて、フィルタを生成するステップと、
前記フィルタを用いて、頭外定位処理を行うステップと、を備えた頭外定位処理方法。
Acquiring a transfer characteristic based on a collected sound signal collected by the measurement microphone in a measurement state in which the measurement microphone is arranged in the ear canal of the user wearing a sound output unit having a reference microphone;
Obtaining a first reference signal based on a collected sound signal collected by the reference microphone in the measurement state;
Obtaining a second reference signal based on a collected sound signal collected by the reference microphone in a listening state in which the measurement microphone is removed from the ear canal;
Calculating a conversion function of a frequency characteristic based on the first reference signal and the second reference signal;
Correcting the frequency characteristic of the transfer characteristic using the conversion function;
Generating a filter based on the corrected frequency characteristic;
Performing an out-of-head localization process using the filter.
コンピュータに、
参照用マイクを有する音声出力部を装着したユーザの外耳道に測定用マイクが配置された測定状態において、前記測定用マイクで収音された収音信号に基づく伝達特性を取得するステップと、
前記測定状態において、前記参照用マイクで収音された収音信号に基づく第1の参照信号を取得するステップと、
前記測定用マイクが前記外耳道から取り外された受聴状態において、前記参照用マイクで収音された収音信号に基づく第2の参照信号を取得するステップと、
前記第1の参照信号と前記第2の参照信号とに基づいて、周波数特性の変換関数を算出するステップと、
前記変換関数を用いて、前記伝達特性の周波数特性を補正するステップと、
前記補正された周波数特性に基づいて、フィルタを生成するステップと、
前記フィルタを用いて、頭外定位処理を行うステップと、
を実行させるプログラム。
On the computer,
Acquiring a transfer characteristic based on a collected sound signal collected by the measurement microphone in a measurement state in which the measurement microphone is arranged in the ear canal of the user wearing a sound output unit having a reference microphone;
Obtaining a first reference signal based on a collected sound signal collected by the reference microphone in the measurement state;
Obtaining a second reference signal based on a collected sound signal collected by the reference microphone in a listening state in which the measurement microphone is removed from the ear canal;
Calculating a conversion function of a frequency characteristic based on the first reference signal and the second reference signal;
Correcting the frequency characteristic of the transfer characteristic using the conversion function;
Generating a filter based on the corrected frequency characteristic;
Performing out-of-head localization using the filter;
A program that executes
JP2018055768A 2018-03-23 2018-03-23 Out-of-head localization processing device, out-of-head localization processing method, and program Active JP6981330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018055768A JP6981330B2 (en) 2018-03-23 2018-03-23 Out-of-head localization processing device, out-of-head localization processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018055768A JP6981330B2 (en) 2018-03-23 2018-03-23 Out-of-head localization processing device, out-of-head localization processing method, and program

Publications (2)

Publication Number Publication Date
JP2019169835A true JP2019169835A (en) 2019-10-03
JP6981330B2 JP6981330B2 (en) 2021-12-15

Family

ID=68107568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018055768A Active JP6981330B2 (en) 2018-03-23 2018-03-23 Out-of-head localization processing device, out-of-head localization processing method, and program

Country Status (1)

Country Link
JP (1) JP6981330B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021184588A (en) * 2020-05-22 2021-12-02 学校法人千葉工業大学 Head transfer function generating device, head transfer function generating program, and head transfer function generating method
US11337021B2 (en) 2020-05-22 2022-05-17 Chiba Institute Of Technology Head-related transfer function generator, head-related transfer function generation program, and head-related transfer function generation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193899A (en) * 1993-12-27 1995-07-28 Sharp Corp Stereo headphone device for controlling three-dimension sound field
JP2001285998A (en) * 2000-03-29 2001-10-12 Oki Electric Ind Co Ltd Out-of-head sound image localization device
JP2015126267A (en) * 2013-12-25 2015-07-06 株式会社Jvcケンウッド Canal type earphone mic and acoustic system
JP2017017636A (en) * 2015-07-06 2017-01-19 株式会社Jvcケンウッド Out-of-head localization filter generation device, out-of-head localization filter generation method, out-of-head localization processing device, out-of head localization processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193899A (en) * 1993-12-27 1995-07-28 Sharp Corp Stereo headphone device for controlling three-dimension sound field
JP2001285998A (en) * 2000-03-29 2001-10-12 Oki Electric Ind Co Ltd Out-of-head sound image localization device
JP2015126267A (en) * 2013-12-25 2015-07-06 株式会社Jvcケンウッド Canal type earphone mic and acoustic system
JP2017017636A (en) * 2015-07-06 2017-01-19 株式会社Jvcケンウッド Out-of-head localization filter generation device, out-of-head localization filter generation method, out-of-head localization processing device, out-of head localization processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021184588A (en) * 2020-05-22 2021-12-02 学校法人千葉工業大学 Head transfer function generating device, head transfer function generating program, and head transfer function generating method
US11337021B2 (en) 2020-05-22 2022-05-17 Chiba Institute Of Technology Head-related transfer function generator, head-related transfer function generation program, and head-related transfer function generation method

Also Published As

Publication number Publication date
JP6981330B2 (en) 2021-12-15

Similar Documents

Publication Publication Date Title
CN110612727B (en) Off-head positioning filter determination system, off-head positioning filter determination device, off-head positioning determination method, and recording medium
US11115743B2 (en) Signal processing device, signal processing method, and program
JP6790654B2 (en) Filter generator, filter generator, and program
JP6561718B2 (en) Out-of-head localization processing apparatus and out-of-head localization processing method
JP6981330B2 (en) Out-of-head localization processing device, out-of-head localization processing method, and program
JP6981325B2 (en) Processing equipment, processing methods, and programs
JP6805879B2 (en) Filter generator, filter generator, and program
JP6950405B2 (en) Processing equipment, processing methods, and programs
JP6500664B2 (en) Sound field reproduction apparatus, sound field reproduction method, and program
JP7115353B2 (en) Processing device, processing method, reproduction method, and program
WO2021131337A1 (en) Processing device, processing method, filter generation method, reproduction method, and program
JP7447719B2 (en) Extra-head localization filter generation system, processing device, extra-head localization filter generation method, and program
JP7404736B2 (en) Extra-head localization filter determination system, extra-head localization filter determination method, and program
JP7395906B2 (en) Headphones, extra-head localization filter determination device, and extra-head localization filter determination method
JP7031543B2 (en) Processing equipment, processing method, reproduction method, and program
WO2021059983A1 (en) Headphone, out-of-head localization filter determining device, out-of-head localization filter determining system, out-of-head localization filter determining method, and program
JP6988321B2 (en) Signal processing equipment, signal processing methods, and programs
JP2023024038A (en) Processing device and processing method
JP6295988B2 (en) Sound field reproduction apparatus, sound field reproduction method, and sound field reproduction program
JP2024036908A (en) Extra-head localization processing device, extra-head localization processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6981330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150