JP2020086143A - Information processing system, information processing method, measurement system and program - Google Patents

Information processing system, information processing method, measurement system and program Download PDF

Info

Publication number
JP2020086143A
JP2020086143A JP2018220907A JP2018220907A JP2020086143A JP 2020086143 A JP2020086143 A JP 2020086143A JP 2018220907 A JP2018220907 A JP 2018220907A JP 2018220907 A JP2018220907 A JP 2018220907A JP 2020086143 A JP2020086143 A JP 2020086143A
Authority
JP
Japan
Prior art keywords
sound
sound collection
ear
information processing
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018220907A
Other languages
Japanese (ja)
Inventor
恭平 北澤
Kyohei Kitazawa
恭平 北澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018220907A priority Critical patent/JP2020086143A/en
Publication of JP2020086143A publication Critical patent/JP2020086143A/en
Pending legal-status Critical Current

Links

Images

Abstract

To easily generate information on a transfer characteristic of sound corresponding to a user.SOLUTION: An information processor 100 acquires a collected sound signal on the basis of collected sound by a microphone 103R attached to a right ear of a user and on the basis of collected sound of a plurality of sounds emitted from a plurality of directions at a periphery of the right ear. The information processor 100 acquires a collected sound signal on the basis of collected sound by a microphone 103L attached to a left ear of the user and on the basis of collected sound of the plurality of sounds emitted from the plurality of directions at a periphery of the left ear. The information processor 100 generates an HRTF set being characteristic information on a transfer characteristic of sound corresponding to the user on the basis of the collected sound signal acquired on the right ear and the collected sound signal acquired on the left ear.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザに応じた音の伝達特性に関する情報を処理する技術に関するものである。 The present invention relates to a technique of processing information regarding sound transmission characteristics according to a user.

ヘッドフォンやスピーカから発した音をユーザに聞かせる場合に、そのユーザに応じた頭部伝達関数を用いて処理した音響信号を用いることで、ユーザに対して任意の方向に音像を定位させる技術がある。頭部伝達関数の測定方法としては、ユーザの頭部に対して様々な方向から測定用の音を発し、それぞれの音をユーザの耳に装着された耳栓型マイクで収音した結果に基づいて、方向ごとの音の伝達特性を測定する方法がある。また、特許文献1には、ユーザの正中面に含まれる複数の方向について測定した伝達特性を用いた信号処理と、遅延制御や音量制御などの信号処理とを行うことにより、少数の方向についての測定結果を用いて音像定位を実現することが記載されている。 When a user hears a sound emitted from headphones or a speaker, there is a technique for localizing a sound image in an arbitrary direction to the user by using an acoustic signal processed by using a head-related transfer function according to the user. is there. As a method of measuring the head-related transfer function, sound for measurement is emitted to the user's head from various directions, and each sound is collected by an earplug type microphone attached to the user's ear. Then, there is a method of measuring the transfer characteristic of sound in each direction. Further, in Patent Document 1, by performing signal processing using transfer characteristics measured in a plurality of directions included in the median plane of the user and signal processing such as delay control and volume control, a small number of directions can be obtained. It is described that sound image localization is realized using the measurement results.

特開2002−218598号公報JP, 2002-218598, A

しかしながら、従来の方法では、ユーザに応じた音の伝達特性を表す頭部伝達関数を測定するために専用の大型の設備を用いるため、伝達特性に関する情報を生成することが容易でなかった。例えば無響室や、ユーザの頭部に対して複数の方向から音を発するために、ユーザの正中面においてスピーカの位置を移動させる設備、もしくは正中面における複数の方向に設置された複数のスピーカなどが必要であった。 However, in the conventional method, it is not easy to generate information about the transfer characteristic because a large-scale dedicated apparatus is used to measure the head related transfer function representing the transfer characteristic of sound according to the user. For example, equipment for moving the position of the speaker on the median plane of the user in order to emit sound from the anechoic room or the user's head from multiple directions, or a plurality of speakers installed in multiple directions on the median plane. Was needed.

本発明は上記の課題に鑑みてなされたものであり、ユーザに応じた音の伝達特性に関する情報を容易に生成できるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to enable easy generation of information regarding sound transmission characteristics according to a user.

上記の課題を解決するため、本発明に係る情報処理システムは、例えば以下の構成を有する。すなわち、ユーザの一方の耳の位置における収音に基づく収音信号であって、前記一方の耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する第1取得手段と、前記ユーザの他方の耳の位置における収音に基づく収音信号であって、前記他方の耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する第2取得手段と、前記第1取得手段により取得された収音信号と前記第2取得手段により取得された収音信号とに基づいて、前記ユーザに応じた音の伝達特性に関する特性情報を生成する生成手段とを有する。 In order to solve the above problems, an information processing system according to the present invention has, for example, the following configuration. That is, a sound pickup signal based on sound pickup at the position of one ear of the user, and a sound pickup signal based on sound pickup of a plurality of sounds emitted from a plurality of directions around the one ear is acquired. 1 acquisition means and a sound collection signal based on sound collection at the position of the other ear of the user, the sound collection signal being based on sound collection of a plurality of sounds emitted from a plurality of directions around the other ear Based on the sound collecting signal acquired by the first acquiring means, the sound collecting signal acquired by the first acquiring means, and the sound collecting signal acquired by the second acquiring means. And generating means for generating information.

本発明によれば、ユーザに応じた音の伝達特性に関する情報を容易に生成できる。 According to the present invention, it is possible to easily generate information regarding sound transmission characteristics according to a user.

情報処理システムの構成例を示す図である。It is a figure which shows the structural example of an information processing system. 測定システムの構成例を示す図である。It is a figure which shows the structural example of a measurement system. 情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an information processing apparatus. 情報処理装置の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of an information processor. 測定システムの別の構成例を示す図である。It is a figure which shows another structural example of a measurement system. 情報処理システムの変形例を示す図である。It is a figure which shows the modification of an information processing system. 情報処理システムの動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of an information processing system.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and all combinations of the features described in the present embodiment are not necessarily essential to the solving means of the present invention. The same configurations will be described with the same reference numerals.

[情報処理システムの構成]
図1は、本実施形態に係る情報処理システム10の構成例を示す図である。情報処理システム10は、ユーザに応じた音の伝達特性に関する特性情報を生成し、その情報を用いて音響信号を処理することで、ユーザに対して任意の方向に音像を定位させることが可能な立体音響を実現するシステムである。本実施形態では、上記の特性情報として頭部伝達関数(HRTF:Head−Related Transfer Function)を表す情報を用いる場合を中心に説明する。ただし、情報処理システム10は、頭部インパルス応答を表す情報など他の特性情報を用いてもよい。
[Configuration of information processing system]
FIG. 1 is a diagram showing a configuration example of an information processing system 10 according to the present embodiment. The information processing system 10 is capable of localizing a sound image in an arbitrary direction for a user by generating characteristic information regarding a sound transmission characteristic according to the user and processing the acoustic signal using the information. It is a system that realizes three-dimensional sound. In the present embodiment, a case will be mainly described in which information indicating a head-related transfer function (HRTF) is used as the characteristic information. However, the information processing system 10 may use other characteristic information such as information indicating a head impulse response.

情報処理システム10は、測定システム20、情報処理装置100、記憶部106、及び音響信号処理部107(以降、処理部107と表記)を有する。図1では一例として単一の処理部107が記憶部106に接続されるものとしているが、複数の処理部107が記憶部106に接続されていてもよい。同様に、複数の記憶部106が情報処理装置100に接続されていてもよい。なお、本実施形態では記憶部106と処理部107はそれぞれ独立した装置として構成されているものするが、これに限らない。例えば、記憶部106と処理部107とが一体となって構成されていてもよいし、記憶部106と処理部107の少なくとも何れかが情報処理装置100に含まれていてもよい。また、情報処理装置100の構成も図1に限定されず、例えば信号出力部101が情報処理装置100とは別の装置に実装されていてもよい。 The information processing system 10 includes a measurement system 20, an information processing device 100, a storage unit 106, and an acoustic signal processing unit 107 (hereinafter referred to as the processing unit 107). Although a single processing unit 107 is connected to the storage unit 106 as an example in FIG. 1, a plurality of processing units 107 may be connected to the storage unit 106. Similarly, a plurality of storage units 106 may be connected to the information processing device 100. Although the storage unit 106 and the processing unit 107 are configured as independent devices in the present embodiment, the present invention is not limited to this. For example, the storage unit 106 and the processing unit 107 may be integrally configured, or at least one of the storage unit 106 and the processing unit 107 may be included in the information processing apparatus 100. The configuration of the information processing device 100 is not limited to that shown in FIG. 1, and the signal output unit 101 may be mounted in a device different from the information processing device 100, for example.

測定システム20は、ユーザの耳介部に応じた音の伝達特性を測定するための測定システムであり、発音装置102L、発音装置102R、マイク103L、及びマイク103Rを有する。図2(a)に示すように、発音装置102Lは固定部210によってユーザの左耳を囲うように装着される。本実施形態では、図2(a)に示すように、発音装置102Lが円環状でありユーザの耳は覆われないものとする。ただしこれに限らず、発音装置102Lはヘッドフォンの耳あて部のようにユーザの耳を内部に密閉するような形状であってもよい。この場合、発音装置102Lに吸音性の高い部材を備えてもよい。マイク103Lは、ユーザの左耳の穴の位置に装着可能なマイクロフォンであり、例えば耳穴入口をふさぐ耳栓型の装置に小型のマイクが耳穴の外側を向くように設置される。 The measurement system 20 is a measurement system for measuring the transfer characteristic of sound according to the auricle of the user, and includes a sounding device 102L, a sounding device 102R, a microphone 103L, and a microphone 103R. As shown in FIG. 2A, the sounding device 102L is mounted by the fixing portion 210 so as to surround the left ear of the user. In the present embodiment, as shown in FIG. 2A, it is assumed that the sounding device 102L has a ring shape and the user's ear is not covered. However, the sound producing device 102L is not limited to this, and may have a shape that hermetically seals the user's ear like an earpiece of a headphone. In this case, the sound producing device 102L may be provided with a member having a high sound absorbing property. The microphone 103L is a microphone that can be attached to the position of the hole of the user's left ear, and is installed in, for example, an earplug type device that closes the entrance of the ear hole so that a small microphone faces the outside of the ear hole.

図2(b)に示すように、発音装置102Lには、スピーカ201−1からスピーカ201−8までの8つの発音部が、円環の中心を向くように設置される。そのため、固定部210によって発音装置102Lがユーザに装着された場合、8つの小型スピーカがユーザの左耳に対してそれぞれ異なる方向に位置する。以降、これらの小型スピーカを特に区別しない場合はスピーカ201と表記する。本実施形態では、8つのスピーカ201が、マイク103Lの位置に対して、ユーザの左耳と右耳とを結ぶ方向に略垂直な8方向に位置する。すなわち、8つのスピーカ201とマイク103Lとが略同一平面上に位置する。ただし、発音装置102Lが有するスピーカ201の配置はこれに限定されない。また、発音装置102Lが有するスピーカ201の数はこれに限定されず、発音装置102Lは1以上のスピーカ201を有していればよい。 As shown in FIG. 2B, in the sound producing device 102L, eight sound producing units from speaker 201-1 to speaker 201-8 are installed so as to face the center of the ring. Therefore, when the sound generator 102L is attached to the user by the fixing unit 210, the eight small speakers are located in different directions with respect to the user's left ear. Hereinafter, these small speakers will be referred to as speakers 201 unless otherwise specified. In the present embodiment, the eight speakers 201 are located in eight directions substantially perpendicular to the position of the microphone 103L in the direction connecting the left and right ears of the user. That is, the eight speakers 201 and the microphone 103L are located on substantially the same plane. However, the arrangement of the speaker 201 included in the sound producing device 102L is not limited to this. Further, the number of speakers 201 included in the sound producing device 102L is not limited to this, and the sound producing device 102L may have one or more speakers 201.

複数のスピーカ201は、情報処理装置100の信号出力部101からの信号の入力に応じて、マイク103Lに対してそれぞれ異なる複数の方向から音を発する。そしてマイク103Lは、スピーカ201が発する音を収音することで得られる収音信号を、情報処理装置100の伝達特性推定部104(以降、推定部104と表記)に出力する。 The plurality of speakers 201 emit sound to the microphone 103L from a plurality of different directions in response to the input of a signal from the signal output unit 101 of the information processing apparatus 100. Then, the microphone 103L outputs a sound collection signal obtained by collecting the sound emitted by the speaker 201 to the transfer characteristic estimation unit 104 (hereinafter referred to as the estimation unit 104) of the information processing device 100.

発音装置102Rは、発音装置102Lと同様に複数のスピーカ201を有し、ユーザの右耳を囲うように装着される。マイク103Rは、マイク103Lと同様にユーザの右耳の穴の位置に装着される。本実施形態では、発音装置102Rが有するスピーカ201の数と発音装置102Lが有するスピーカ201の数とが等しいものとする。ただし、発音装置102Lと発音装置102Rとの構成は同一でなくてもよい。なお、発音装置102L、発音装置102R、マイク103L、及びマイク103Rは、図2(a)に示すような形態で装着されるものに限定されない。発音装置102L及び発音装置102Rは、各スピーカ201がユーザの耳の周辺に位置するように配置されていればよく、マイク103L及びマイク103Rはユーザの耳の穴の近傍に位置していればよい。例えばこれらの各装置が、ユーザに接しないアームによって支持されていてもよい。 Like the sounding device 102L, the sounding device 102R has a plurality of speakers 201 and is mounted so as to surround the right ear of the user. Like the microphone 103L, the microphone 103R is attached to the position of the hole of the user's right ear. In the present embodiment, the number of speakers 201 included in the sounding device 102R is equal to the number of speakers 201 included in the sounding device 102L. However, the sound producing device 102L and the sound producing device 102R do not have to have the same configuration. Note that the sound producing device 102L, the sound producing device 102R, the microphone 103L, and the microphone 103R are not limited to those mounted in the form shown in FIG. The sound generators 102L and 102R may be arranged such that the speakers 201 are located around the user's ears, and the microphones 103L and 103R may be located near the holes of the user's ears. .. For example, each of these devices may be supported by an arm that does not contact the user.

本実施形態において、マイク103Lに対するスピーカ201の方向に対応する、ユーザの耳に対する音源方向は、上昇角と側方角で表されるものとする。発音装置102Rが有する複数のスピーカ201のマイク103Rに対する方向の上昇角は、発音装置102Lが有する複数のスピーカ201のマイク103Lに対する方向の上昇角と略等しい。側方角αと上昇角βは、ユーザの頭部を基準とした方位角ψと仰角θを用いて以下のように表される。 In the present embodiment, the sound source direction with respect to the user's ear, which corresponds to the direction of the speaker 201 with respect to the microphone 103L, is represented by a rising angle and a lateral angle. The rising angles in the direction of the plurality of speakers 201 included in the sounding device 102R with respect to the microphone 103R are substantially equal to the rising angles in the direction of the plurality of speakers 201 included in the sounding device 102L with respect to the microphone 103L. The lateral angle α and the ascending angle β are expressed as follows using the azimuth angle ψ and the elevation angle θ with respect to the user's head.

Figure 2020086143
Figure 2020086143

情報処理装置100は、信号出力部101、推定部104、及び特性情報生成部105(以降、生成部105と表記)を有する。信号出力部101は、伝達特性の測定用の信号、たとえばTSP(Time Stretched Pulse)やMLS(Maximum Length Sequence)などを生成し、発音装置102R及び発音装置102Lに出力する。 The information processing device 100 includes a signal output unit 101, an estimation unit 104, and a characteristic information generation unit 105 (hereinafter referred to as the generation unit 105). The signal output unit 101 generates a signal for measuring the transfer characteristic, such as TSP (Time Stretched Pulse) or MLS (Maximum Length Sequence), and outputs the signal to the sound generator 102R and the sound generator 102L.

推定部104は、マイク103Lから出力された収音信号を取得し、その収音信号と信号出力部101から出力された測定用信号とに基づいて、音の伝達特性を推定する。この推定により得られる伝達特性は、発音装置102Lのスピーカ201から発された音がマイク103Lにより収音されるまでにユーザの左耳の耳介等によって受ける影響を反映する。また推定部104は、マイク103Rから出力された収音信号を取得し、その収音信号と信号出力部101から出力された測定用信号とに基づいて、音の伝達特性を推定する。この推定により得られる伝達特性は、発音装置102Lのスピーカ201から発された音がマイク103Lにより収音されるまでにユーザの左耳の耳介等によって受ける影響を反映する。ユーザの右耳と左耳の形状が同一でない限り、右耳での測定に基づいて得られる伝達特性と左耳での測定に基づいて得られる伝達特性とは異なる。 The estimation unit 104 acquires the sound collection signal output from the microphone 103L, and estimates the sound transfer characteristic based on the sound collection signal and the measurement signal output from the signal output unit 101. The transfer characteristic obtained by this estimation reflects the influence of the user's left auricle or the like until the sound emitted from the speaker 201 of the sound generator 102L is picked up by the microphone 103L. Further, the estimation unit 104 acquires the sound collection signal output from the microphone 103R, and estimates the transfer characteristic of the sound based on the sound collection signal and the measurement signal output from the signal output unit 101. The transfer characteristic obtained by this estimation reflects the influence of the user's left auricle or the like until the sound emitted from the speaker 201 of the sound generator 102L is picked up by the microphone 103L. Unless the shape of the user's right and left ears is the same, the transfer characteristic obtained based on the measurement at the right ear and the transfer characteristic obtained based on the measurement at the left ear are different.

生成部105は、推定部104による左右の耳それぞれに応じた伝達特性の推定結果に基づいて、ユーザの頭に応じた音の伝達特性に関する特性情報であるHRTFセットを生成する。HRTFセットには、ユーザに対する複数の方向それぞれに対応するHRTFが含まれる。特に、推定部104により生成されるHRTFセットには、ユーザの正中面に含まれる方向に対応するHRTFが含まれる。このようなHRTFを用いることにより、ユーザの正中面を基準とした指定方向への音像の定位が実現できる。なお、正中面に含まれないその他の方向に対応するHRTFがHRTFセットに含まれていてもよい。生成されたHRTFセットは、生成部105から出力されて記憶部106に記憶される。 The generation unit 105 generates an HRTF set, which is characteristic information regarding the transfer characteristic of sound corresponding to the head of the user, based on the estimation result of the transfer characteristic corresponding to each of the left and right ears by the estimation unit 104. The HRTF set includes HRTFs corresponding to a plurality of directions for the user. In particular, the HRTF set generated by the estimation unit 104 includes HRTFs corresponding to the directions included in the median plane of the user. By using such an HRTF, the sound image can be localized in the designated direction with the median plane of the user as a reference. Note that HRTFs corresponding to other directions not included in the median plane may be included in the HRTF set. The generated HRTF set is output from the generation unit 105 and stored in the storage unit 106.

例えば、推定部104は、発音装置102Lが有する1つのスピーカ201−1から発された音に応じた収音信号に基づいて、マイク103Lに対するスピーカ201−1の方向の上昇角(90°)に対応する左耳の特性情報を推定する。また、推定部104は、発音装置102Rが有する対応するスピーカ201から発された音に応じた収音信号に基づいて、同一の上昇角(90°)に対応する右耳の特性情報を推定する。そして、生成部105は、それらの特性情報の推定結果に基づいて、正中面における同一の上昇角(90°)に対応するHRTFを生成する。これらの処理を、発音装置102Lが有する8つのスピーカ201それぞれについて行うことで、正中面における8方向のHRTFを含むHRTFセットが生成される。 For example, the estimation unit 104 determines the rising angle (90°) in the direction of the speaker 201-1 with respect to the microphone 103L based on the sound collection signal corresponding to the sound emitted from the one speaker 201-1 included in the sound generator 102L. Estimate the characteristic information of the corresponding left ear. In addition, the estimation unit 104 estimates the characteristic information of the right ear corresponding to the same rising angle (90°), based on the sound collection signal corresponding to the sound emitted from the corresponding speaker 201 included in the sound generator 102R. .. And the production|generation part 105 produces|generates HRTF corresponding to the same ascending angle (90 degree) in a median surface based on the estimation result of those characteristic information. By performing these processes for each of the eight speakers 201 included in the sound generator 102L, an HRTF set including HRTFs in eight directions on the median plane is generated.

記憶部106は、例えばハードディスクやメモリなどの記憶媒体に、生成部105から出力されたHRTFセットを記憶する。測定システム20及び情報処理装置100により複数のユーザそれぞれについてHRTFセットが生成された場合には、記憶部106は各HRTFセットをユーザの識別情報と共に記憶してもよい。 The storage unit 106 stores the HRTF set output from the generation unit 105 in a storage medium such as a hard disk or a memory. When the measurement system 20 and the information processing apparatus 100 generate HRTF sets for each of a plurality of users, the storage unit 106 may store each HRTF set together with user identification information.

処理部107は、外部の装置から音響信号を取得し、記憶部106から取得したHRTFセットに基づいてその音響信号を処理することで得られる処理済み音響信号を出力する。例えば、測定システム20による測定対象となったユーザが装着したヘッドフォンに、この出力された処理済み音響信号を入力することで、立体音響を実現することができる。なお、処理対象となる音響信号は、外部の装置からの信号取得に限らず、処理部107が生成することにより取得されてもよい。 The processing unit 107 acquires an acoustic signal from an external device and outputs a processed acoustic signal obtained by processing the acoustic signal based on the HRTF set acquired from the storage unit 106. For example, stereophonic sound can be realized by inputting the output processed acoustic signal to the headphones worn by the user who is the measurement target of the measurement system 20. The acoustic signal to be processed is not limited to signal acquisition from an external device, but may be acquired by being generated by the processing unit 107.

[情報処理装置の構成]
次に、情報処理装置100のハードウェア構成について、図3を用いて説明する。情報処理装置100は、CPU301、ROM302、RAM303、補助記憶装置304、表示部305、操作部306、通信I/F307、及びバス308を有する。
[Configuration of information processing device]
Next, the hardware configuration of the information processing device 100 will be described with reference to FIG. The information processing device 100 includes a CPU 301, a ROM 302, a RAM 303, an auxiliary storage device 304, a display unit 305, an operation unit 306, a communication I/F 307, and a bus 308.

CPU301は、ROM302やRAM303に格納されているコンピュータプログラムやデータを用いて情報処理装置100の全体を制御することで、図1に示す情報処理装置100の各機能部を実現する。なお、情報処理装置100がCPU301とは異なる1又は複数の専用のハードウェアを有し、CPU301による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM302は、変更を必要としないプログラムやパラメータを格納する。RAM303は、補助記憶装置304から供給されるプログラムやデータ、及び通信I/F307を介して外部から供給されるデータなどを一時記憶する。補助記憶装置304は、例えばハードディスクドライブ等で構成され、画像データや音声データ、仮想カメラパス情報などの種々のデータを記憶する。 The CPU 301 implements each functional unit of the information processing apparatus 100 shown in FIG. 1 by controlling the entire information processing apparatus 100 using computer programs and data stored in the ROM 302 and the RAM 303. Note that the information processing apparatus 100 may include one or a plurality of dedicated hardware different from the CPU 301 and the dedicated hardware may execute at least a part of the processing by the CPU 301. Examples of dedicated hardware include ASICs (application specific integrated circuits), FPGAs (field programmable gate arrays), and DSPs (digital signal processors). The ROM 302 stores programs and parameters that do not need to be changed. The RAM 303 temporarily stores programs and data supplied from the auxiliary storage device 304, data externally supplied via the communication I/F 307, and the like. The auxiliary storage device 304 is composed of, for example, a hard disk drive, and stores various data such as image data, audio data, and virtual camera path information.

表示部305は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置100を操作するためのGUI(Graphical User Interface)などを表示する。操作部306は、例えばキーボードやマウス、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU301に入力する。通信I/F307は、発音装置102Lや記憶部106などの外部の装置との通信に用いられる。例えば、情報処理装置100が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F307に接続される。なお、情報処理装置100が外部の装置と無線通信する機能を有する場合、通信I/F307はアンテナを備える。バス308は、情報処理装置100の各部をつないで情報を伝達する。 The display unit 305 includes, for example, a liquid crystal display, an LED, and the like, and displays a GUI (Graphical User Interface) for a user to operate the information processing apparatus 100. The operation unit 306 includes, for example, a keyboard, a mouse, a touch panel, etc., and inputs various instructions to the CPU 301 in response to an operation by the user. The communication I/F 307 is used for communication with external devices such as the sounding device 102L and the storage unit 106. For example, when the information processing apparatus 100 is connected to an external device by wire, a communication cable is connected to the communication I/F 307. When the information processing device 100 has a function of wirelessly communicating with an external device, the communication I/F 307 includes an antenna. The bus 308 connects the respective units of the information processing apparatus 100 to transfer information.

本実施形態では表示部305と操作部306が情報処理装置100の内部に存在するものとするが、情報処理装置100は表示部305と操作部306との少なくとも一方を備えていなくてもよい。また、表示部305と操作部306との少なくとも一方が情報処理装置100の外部に別の装置として存在していて、CPU301が、表示部305を制御する表示制御部、及び操作部306を制御する操作制御部として動作してもよい。 In the present embodiment, the display unit 305 and the operation unit 306 are assumed to exist inside the information processing device 100, but the information processing device 100 may not include at least one of the display unit 305 and the operation unit 306. Further, at least one of the display unit 305 and the operation unit 306 exists outside the information processing apparatus 100 as another device, and the CPU 301 controls the display control unit that controls the display unit 305 and the operation unit 306. You may operate as an operation control part.

[情報処理装置の処理フロー]
情報処理装置100の処理フローについて、図4を用いて説明する。図4に示す処理は、例えば、測定システム20をユーザ装着し、情報処理装置100に測定を開始するための指示が入力されたタイミングで開始される。ただし、図4に示す処理の開始タイミングは上記に限定されない。図4に示す処理は、CPU301がROM302に格納されたプログラムをRAM303に展開して実行することで実現される。なお、図4に示す処理の少なくとも一部を、CPU301とは異なる1又は複数の専用のハードウェアにより実現してもよい。後に説明する図7のフローチャートに示す処理についても同様である。
[Processing Flow of Information Processing Device]
The processing flow of the information processing apparatus 100 will be described with reference to FIG. The process illustrated in FIG. 4 is started, for example, at the timing when the user mounts the measurement system 20 and the instruction to start the measurement is input to the information processing apparatus 100. However, the start timing of the process shown in FIG. 4 is not limited to the above. The processing illustrated in FIG. 4 is realized by the CPU 301 loading a program stored in the ROM 302 into the RAM 303 and executing the program. Note that at least a part of the processing illustrated in FIG. 4 may be realized by one or a plurality of dedicated hardware different from the CPU 301. The same applies to the processing shown in the flowchart of FIG. 7 described later.

測定処理が開始されると、情報処理装置100は、S401からS403までの処理を、左右の耳それぞれについて、測定対象となる音源方向のスピーカ201ごとに行う。具体的には、発音装置102Lが有する8つのスピーカ201それぞれについてS401からS403までの処理がおこなわれた後に、発音装置102Rが有する8つのスピーカ201それぞれについてS401からS403までの処理が行われる。ここでは左耳における測定が先に行われる例を示すが、これに限らず、右耳における測定が先に行われてもよい。また、例えば発音装置102Lが有するスピーカ201を用いる測定と発音装置102Rが有するスピーカ201を用いる測定とが交互に行われてもよい。 When the measurement processing is started, the information processing apparatus 100 performs the processing from S401 to S403 for each of the left and right ears for each speaker 201 in the sound source direction that is the measurement target. Specifically, the processes from S401 to S403 are performed on each of the eight speakers 201 included in the sounding device 102L, and then the processes from S401 to S403 are performed on each of the eight speakers 201 included in the sounding device 102R. Here, an example in which the left ear is measured first is shown, but the present invention is not limited to this, and the right ear may be measured first. Further, for example, the measurement using the speaker 201 included in the sounding device 102L and the measurement using the speaker 201 included in the sounding device 102R may be alternately performed.

S401において、信号出力部101は、測定対象となるスピーカ201を有する発音装置102Lに、所定の測定用信号を出力する。また、信号出力部101はその測定用信号を推定部104へも出力する。S402において、推定部104は、S401における測定用信号の出力に応じたマイク103Lによる収音に基づく収音信号を取得する。S403において、推定部104は、S402において取得された収音信号とS401において信号出力部101から出力された測定用信号とに基づいて、音の伝達特性を推定する。この推定により得られる伝達特性は、測定対象のスピーカ201に対応する方向から発される音が左耳の穴に届くまでに左耳の耳介等によって受ける影響を反映した伝達特性である。伝達特性の推定結果は生成部105へ出力される。 In S401, the signal output unit 101 outputs a predetermined measurement signal to the sounding device 102L having the speaker 201 to be measured. The signal output unit 101 also outputs the measurement signal to the estimation unit 104. In S402, the estimation unit 104 acquires a sound collection signal based on sound collected by the microphone 103L according to the output of the measurement signal in S401. In S403, the estimation unit 104 estimates the transfer characteristic of the sound based on the sound collection signal acquired in S402 and the measurement signal output from the signal output unit 101 in S401. The transfer characteristic obtained by this estimation is a transfer characteristic reflecting the influence of the auricle of the left ear or the like until the sound emitted from the direction corresponding to the speaker 201 to be measured reaches the hole of the left ear. The transfer characteristic estimation result is output to the generation unit 105.

発音装置102Lが有する複数のスピーカ201それぞれについてS401からS403の処理が完了すると、発音装置102Rが有するスピーカ201についてS401からS403の処理が行われる。すなわち推定部104は、左耳の場合と同様に、右耳における測定において取得された収音信号とその収音信号に対応する測定用信号とに基づいて、各スピーカ201の方向に対応する音の伝達特性を推定する。このように、発音装置102L及びマイク103Lを用いる収音期間と、発音装置102R及びマイク103Rを用いる収音期間とは、重ならないように設定される。これにより、一方の耳の周辺においてスピーカ201から発した音が他方の耳に装着されたマイクにより収音されるクロストークが発生することを抑制できる。ただし、短時間で測定を行うために、これらの収音期間の一部が重複するようにしてもよい。 When the processes of S401 to S403 are completed for each of the plurality of speakers 201 included in the sounding device 102L, the processes of S401 to S403 are performed for the speaker 201 included in the sounding device 102R. That is, as in the case of the left ear, the estimation unit 104, based on the sound collection signal acquired in the measurement in the right ear and the measurement signal corresponding to the sound collection signal, the sound corresponding to the direction of each speaker 201. Estimate the transfer characteristics of. In this way, the sound collection period using the sounding device 102L and the microphone 103L and the sound collection period using the sounding device 102R and the microphone 103R are set so as not to overlap. As a result, it is possible to suppress the occurrence of crosstalk in which the sound emitted from the speaker 201 is picked up by the microphone attached to the other ear around the one ear. However, in order to perform the measurement in a short time, these sound collection periods may partially overlap.

S404において、生成部105は、推定部104から取得した右耳における音の伝達特性の推定結果と、左耳における音の伝達特性の推定結果とに基づいて、正中面に含まれる複数の方向に対応する複数のHRTFを含むHRTFセットを生成する。S405において、生成部105は、生成されたHRTFセットを出力して、HRTFセットを記憶部106に記憶させる記憶制御を行う。 In step S<b>404, the generation unit 105 determines, based on the estimation result of the sound transfer characteristic of the right ear and the estimation result of the sound transfer characteristic of the left ear acquired from the estimation unit 104, in the plurality of directions included in the median plane. An HRTF set including a plurality of corresponding HRTFs is generated. In step S405, the generation unit 105 outputs the generated HRTF set and performs storage control to store the HRTF set in the storage unit 106.

以上のように、本実施形態における情報処理装置100は、ユーザの右耳に装着されたマイク103Rによる収音に基づく収音信号であって、右耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する。また情報処理装置100は、ユーザの左耳に装着されたマイク103Lによる収音に基づく収音信号であって、左耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する。そして情報処理装置100は、右耳について取得した収音信号と左耳について取得した収音信号とに基づいて、ユーザに応じた音の伝達特性に関する特性情報であるHRTFセットを生成する。 As described above, the information processing apparatus 100 according to the present embodiment is a sound collection signal based on a sound collected by the microphone 103R attached to the right ear of the user, and a plurality of sound signals generated from a plurality of directions around the right ear. A sound pickup signal based on the sound pickup of the sound is acquired. Further, the information processing apparatus 100 is a sound collection signal based on sound collection by the microphone 103L attached to the left ear of the user, and is based on sound collection of a plurality of sounds emitted from a plurality of directions around the left ear. Obtain a sound signal. Then, the information processing apparatus 100 generates an HRTF set, which is characteristic information regarding the transfer characteristic of the sound according to the user, based on the sound collection signal acquired for the right ear and the sound collection signal acquired for the left ear.

上記のような構成によれば、ユーザの頭部に対して正中面における複数の方向から音を発するための大型の設備を用いる必要がないため、HRTFセットを容易に生成することができる。また、発音装置102L及び発音装置102Rにおけるユーザの耳を囲う部分に吸音性の高い部材を備えることで、無響室を使用した測定と同様に雑音の影響を受けづらい測定を、簡易に実現できる。 According to the above configuration, since it is not necessary to use a large facility for emitting sounds from a plurality of directions on the median plane with respect to the user's head, it is possible to easily generate the HRTF set. Further, by providing a member having a high sound absorbing property in a portion surrounding the user's ears in the sound producing devices 102L and 102R, it is possible to easily realize the measurement which is hardly affected by noise as in the measurement using the anechoic chamber. ..

本実施形態においては、発音装置102Lが有する複数のスピーカ201のマイク103Lに対する方向と、発音装置102Rが有する複数のスピーカ201のマイク103Rに対する方向とが、左右対称である場合を中心に説明した。これにより、右耳での測定結果と左耳での測定結果とに基づいてHRTFセットを生成する処理が容易になる。ただし、発音装置102Lと発音装置102Rとが左右対称でなくてもよい。 In the present embodiment, a case has been mainly described in which the directions of the plurality of speakers 201 included in the sounding device 102L with respect to the microphone 103L and the directions of the plurality of speakers 201 included in the sounding device 102R with respect to the microphone 103R are symmetrical. This facilitates the process of generating the HRTF set based on the measurement result of the right ear and the measurement result of the left ear. However, the sound producing device 102L and the sound producing device 102R do not have to be symmetrical.

発音装置102Lとマイク103Lとの位置関係が発音装置102Rとマイク103Rとの位置関係と異なる場合には、推定部104は、左右の耳について推定した伝達特性を、スピーカ201の側方角、上昇角、及びマイクまでの距離などに基づいて補正する。この補正には、測定時のユーザ頭部の前後軸、左右軸、及び上下軸に対する、2つの発音装置間のずれを検出した結果を用いることができる。例えば、発音装置102L及び発音装置Rを装着した状態のユーザを撮影した画像に基づいて、各発音装置の装着状態(傾きや中心位置ずれ)を取得できる。あるいは発音装置102L及び発音装置102Rに姿勢センサなどを備えることで、各発音装置の装着状態を取得できるようにしてもよい。このようにして取得したずれ情報を用いることで、伝達特性を補正できる。 When the positional relationship between the sounding device 102L and the microphone 103L is different from the positional relationship between the sounding device 102R and the microphone 103R, the estimation unit 104 uses the transfer characteristics estimated for the left and right ears as the lateral angle and the rising angle of the speaker 201. , And the distance to the microphone. For this correction, it is possible to use the result of detecting the deviation between the two sounding devices with respect to the front-back axis, the left-right axis, and the vertical axis of the user's head during measurement. For example, the mounting state (tilt or center position shift) of each sounding device can be acquired based on an image of a user who has worn the sounding device 102L and the sounding device R. Alternatively, the sound producing device 102L and the sound producing device 102R may be provided with an attitude sensor or the like so that the wearing state of each sound producing device can be acquired. By using the shift information acquired in this way, the transfer characteristic can be corrected.

例えば左右の耳における測定において音源方向の上昇角が異なる場合、補正を行っていない伝達特性の推定結果を用いて生成されたHRTFセットに基づいて処理した音響信号を再生すると、ぼやけたり、音像が頭内に定位したりする虞がある。そこで推定部104は、伝達特性を上昇角方向に補間することよって左右の耳について同一の上昇角に対応する伝達特性を推定する。 For example, when the rising angles in the sound source direction are different in the measurement in the left and right ears, when an acoustic signal processed based on the HRTF set generated using the uncorrected transfer characteristic estimation result is reproduced, a blur or a sound image is generated. There is a risk of being localized in the head. Therefore, the estimation unit 104 estimates the transfer characteristics corresponding to the same rising angle for the left and right ears by interpolating the transfer characteristics in the rising angle direction.

また、発音装置102Lからマイク103Lまでの距離と発音装置102Rからマイク103Rまでの距離とが異なる場合、再生される音が右や左にずれる虞がある。これは左右の耳についての伝達関数に時間差やレベル差が発生し、先行音効果によって音が左右にずれるためである。そこで推定部104は、伝達特性を遅延時間及び音量に関して補正する。時間に関する補正方法としては、例えば推定部104で推定された伝達特性の時間波形の振幅の絶対値が最大となるピークを検出し、その時刻を合わせる方法がある。また、左右の伝達関数の最小位相成分を使用することで、左右の遅延をそろえる方法を用いてもよい。または、左右の伝達特性のラウドネスが所定の範囲内に収まるように補正してもよい。あるいは、調整つまみのような操作部に対するユーザ操作に応じて、左右のずれを調整してもよい。 Further, when the distance from the sound producing device 102L to the microphone 103L and the distance from the sound producing device 102R to the microphone 103R are different, the sound to be reproduced may be shifted to the right or left. This is because a time difference and a level difference occur in the transfer functions for the left and right ears, and the sound shifts to the left and right due to the preceding sound effect. Therefore, the estimation unit 104 corrects the transfer characteristic with respect to the delay time and the volume. As a correction method related to time, for example, there is a method of detecting a peak at which the absolute value of the amplitude of the time waveform of the transfer characteristic estimated by the estimation unit 104 is maximum and adjusting the time. Alternatively, a method of aligning the left and right delays may be used by using the minimum phase component of the left and right transfer functions. Alternatively, the loudness of the left and right transfer characteristics may be corrected so as to be within a predetermined range. Alternatively, the left/right shift may be adjusted according to a user operation on an operation unit such as an adjustment knob.

また、左右の耳における測定において音源方向の側方角が異なる場合にも、音像がぼやけたり音像の頭内定位が発生したりする虞がある。これは側方角が左右軸(両耳を通る軸)に近づくにつれて伝達特性が耳介の影響を受けにくくなるため、HRTFのノッチやピークが減衰するためである。そこで推定部104は、推定した左右の伝達特性について、第1ピークや第2ピーク、第1ノッチ、及び第2ノッチなどのスペクトラルキューの大きさに基づいて補正してもよい。例えば、第1ピーク及び第2ピークの高さの平均が左右で同程度になるようにスペクトルを強調してもよい。 Further, even when the lateral angles in the sound source direction are different in the measurement in the left and right ears, the sound image may be blurred or the sound image may be localized in the head. This is because the transfer characteristics are less likely to be affected by the auricle as the lateral angle approaches the left-right axis (the axis passing through both ears), and the notches and peaks of the HRTF are attenuated. Therefore, the estimation unit 104 may correct the estimated left and right transfer characteristics based on the magnitude of spectral cues such as the first peak, the second peak, the first notch, and the second notch. For example, the spectrum may be emphasized so that the average of the heights of the first peak and the second peak is the same on the left and right sides.

上述のような補正処理を削減するために、発音装置102Lのスピーカ201と発音装置102Rのスピーカ201は同一の上昇角に配置されることが望ましい。また、正中面のHRTFのスペクトラルキューは耳介形状の影響を受けるため、発音装置102L及び発音装置102Rのスピーカ201はユーザの耳介を含む矢状面上で耳穴から等距離になるように配置されることが望ましい。これを実現するために、情報処理システム10は、ユーザが装着した発音装置102L及び発音装置102Rの装着位置を表示部に表示したり、装着位置を補正するようにユーザに通知したりしてもよい。 In order to reduce the correction processing as described above, it is desirable that the speaker 201 of the sound producing device 102L and the speaker 201 of the sound producing device 102R be arranged at the same rising angle. Further, since the HRTF spectral cue on the median plane is affected by the shape of the auricle, the speakers 201 of the sounding devices 102L and 102R are arranged so as to be equidistant from the ear hole on the sagittal plane including the user's auricle. It is desirable to be done. In order to realize this, the information processing system 10 may display the mounting position of the sounding device 102L and the sounding device 102R worn by the user on the display unit, or may notify the user to correct the mounting position. Good.

本実施例においては、生成部105が正中面に含まれる方向に対応するHRTFを生成する場合を中心に説明したが、生成部105は正中面のHRTFに対してパンニング処理などを行うことにより、正中面に含まれない方向のHRTFを生成してもよい。そして生成部105は、それらのHRTFを含むHRTFセットを記憶部106へ記憶させてもよい。たとえば、推定された左右の同一上昇角の伝達特性に基づいて、パンニングにより同じ上昇角の任意の側方角への音像定位が実現できる。 In the present embodiment, the description has been centered on the case where the generation unit 105 generates an HRTF corresponding to the direction included in the median plane, but the generation unit 105 performs panning processing or the like on the HRTF on the median plane, An HRTF in a direction not included in the median plane may be generated. Then, the generation unit 105 may store the HRTF set including the HRTFs in the storage unit 106. For example, based on the estimated transfer characteristics of the same rising angle on the left and right, the sound image localization to the arbitrary lateral direction of the same rising angle can be realized by panning.

本実施形態においては、発音装置102L及び発音装置102Rのスピーカ201が耳介の外側に位置し、マイク103L及びマイク103Rが耳穴に位置する状態で測定が行われるものとしたが、スピーカとマイクの位置関係は相反法のように逆であってもよい。つまり、耳穴にスピーカが位置し、耳介の外側に複数のマイクが位置する状態で測定が行われてもよい。また、本実施形態において発音装置102L及び発音装置102Rにおける複数のスピーカ201は円環状に配置されるものとした。ただし、複数のスピーカ201が耳穴の周辺に位置していればよく、例えばコの字型や四角や三角に複数のスピーカ201が配置されていてもよい。 In the present embodiment, the speaker 201 of the sound producing device 102L and the sound producing device 102R is located outside the auricle, and the microphone 103L and the microphone 103R are located in the ear canal, but the measurement is performed. The positional relationship may be reversed as in the reciprocal method. That is, the measurement may be performed in a state where the speaker is located in the ear hole and the plurality of microphones are located outside the auricle. Further, in the present embodiment, the plurality of speakers 201 in the sound producing device 102L and the sound producing device 102R are arranged in an annular shape. However, it suffices that the plurality of speakers 201 be located around the ear canal, and the plurality of speakers 201 may be arranged in, for example, a U-shape, a square, or a triangle.

また、本実施形態においては左耳用に発音装置102Lとマイク103Lとを用い、右耳用に発音装置102Rとマイク103Rを用いるというように、発音装置とマイクを2つずつ用いる場合について説明した。ただし、発音装置とマイクの少なくとも何れかが1つであってもよい。この場合、発音装置とマイクの少なくとも何れかを左右で付け替えて使用することで、左右の耳それぞれにおいて伝達特性を測定できる。 Further, in the present embodiment, the case where two sound producing devices and two microphones are used, such as using the sound producing device 102L and the microphone 103L for the left ear and using the sound producing device 102R and the microphone 103R for the right ear, has been described. .. However, at least one of the sound producing device and the microphone may be one. In this case, the transfer characteristic can be measured in each of the left and right ears by replacing at least one of the sound producing device and the microphone on the left and right.

図2に示したような、発音装置102L及び発音装置102Rを備えたヘッドフォン形状の測定用装置は、小型で携帯性に優れており、伝達特性の測定を簡易にできる。ただし、伝達特性の測定に用いる装置の構成はこれに限定されない。図3(b)は、ユーザの耳介部に応じた音の伝達特性を測定するための測定システム20において、発音装置102R及び発音装置102Lの代わりに用いることができる発音装置500の構成を示す。なお、発音装置500は右耳用と左耳用で2つ用いてもよいし、1つの発音装置500を右耳での測定と左耳での測定の両方に用いてもよい。穴502を有する発音装置500のケース504の内部には、信号の入力に応じて音を発するスピーカ501と、ケース504内での音の反射を抑制する吸音部材503とが備えられている。また、発音装置500は、ケース504の穴502の位置に対するスピーカ501の位置が変化するように、穴の周りでスピーカ501を円軌道で移動させるためのレールやモータ(不図示)等の構成を有する。 The headphone-shaped measuring device including the sounding device 102L and the sounding device 102R as shown in FIG. 2 is small and excellent in portability, and the transfer characteristic can be easily measured. However, the configuration of the device used for measuring the transfer characteristic is not limited to this. FIG.3(b) shows the structure of the sounding apparatus 500 which can be used instead of the sounding apparatus 102R and the sounding apparatus 102L in the measuring system 20 for measuring the transfer characteristic of the sound according to a user's pinna. .. Two sound generators 500 may be used for the right ear and one for the left ear, or one sound generator 500 may be used for both the measurement in the right ear and the measurement in the left ear. Inside the case 504 of the sounding device 500 having the hole 502, a speaker 501 that emits sound in response to a signal input, and a sound absorbing member 503 that suppresses the reflection of sound in the case 504 are provided. Further, the sounding device 500 has a configuration such as a rail or a motor (not shown) for moving the speaker 501 in a circular path around the hole so that the position of the speaker 501 with respect to the position of the hole 502 of the case 504 changes. Have.

発音装置500を用いて右耳における測定を行う際には、図5(a)に示すように、ユーザは右耳にマイク103Rを装着して、穴502に右耳を差し込む。そして、発音装置500が有するスピーカ501がマイク103Rに対する位置を変えて複数の方向から順に音を発し、それらの音をマイク103Rが収音する。収音を行った後の処理については、上述した実施形態と同様である。このような発音装置500を用いる方法によれば、無響室での測定に近い高精度な測定が可能となる。 When performing a measurement in the right ear using the sounding device 500, the user mounts the microphone 103R on the right ear and inserts the right ear into the hole 502, as shown in FIG. Then, the speaker 501 included in the sound producing device 500 changes the position with respect to the microphone 103R and sequentially emits sounds from a plurality of directions, and the sounds are collected by the microphone 103R. The process after collecting the sound is the same as that of the above-described embodiment. According to such a method using the sounding device 500, it is possible to perform highly accurate measurement close to that in an anechoic room.

なお、図5の例では1つのスピーカ501が移動することでマイク103Rに対して複数の方向から音を発するものとした。このような構成によれば、発音装置500に多数のマイクを実装することによるコストの増加を抑制できる。ただしこれに限らず、例えば、発音装置500が複数のスピーカ501を有し、各スピーカ501が移動しながら音を発してもよい。また例えば、上述した発音装置102Rと同じように、耳の位置に対して複数の方向に位置する複数のスピーカ501が移動せずに音を発してもよい。この構成によれば、スピーカ501を移動させるためのレールやモータが不要になるため、発音装置500を小型化できる。 In the example of FIG. 5, it is assumed that the sound is emitted from the plurality of directions to the microphone 103R when one speaker 501 moves. With such a configuration, it is possible to suppress an increase in cost due to mounting a large number of microphones on the sounding device 500. However, not limited to this, for example, the sounding device 500 may include a plurality of speakers 501, and each speaker 501 may emit a sound while moving. Further, for example, similar to the sound producing device 102R described above, the plurality of speakers 501 located in a plurality of directions with respect to the position of the ear may emit sound without moving. According to this configuration, since a rail and a motor for moving the speaker 501 are not required, the sounding device 500 can be downsized.

なお、ユーザが穴502に右耳を差し込む場合と左耳を差し込む場合とで、ユーザの頭部の傾きが変化する場合がある。そこで、情報処理装置100は、測定に基づいて推定した伝達関数に対して、上述したような補正処理を行ってもよい。また他の方法として、ユーザが穴502に耳を差し入れた際にカメラやセンサによりユーザの頭部の傾きを検出し、左右の測定時におけるスピーカ501の方向の上昇角が等しくなるように、発音装置500がスピーカ501の位置を調整してもよい。この方法によれば、伝達特性を推定した後の補正処理を削減することができる。 Note that the inclination of the user's head may change depending on whether the user inserts the right ear into the hole 502 or the left ear. Therefore, the information processing apparatus 100 may perform the above-described correction process on the transfer function estimated based on the measurement. As another method, when the user puts his/her ear into the hole 502, the tilt of the user's head is detected by a camera or a sensor, and the rising angle in the direction of the speaker 501 during left/right measurement is equalized. The device 500 may adjust the position of the speaker 501. According to this method, the correction process after estimating the transfer characteristic can be reduced.

また本実施例においては、正中面のHRTFを生成するために、耳介を含む矢状面上の複数の方向のスピーカ201を用いて測定を行うものとした。ただしこれに限らず、たとえば発音装置102L及び発音装置102Rには、耳の位置を中心とする半球面上に複数のスピーカ201が3次元的に配置されていてもよい。このような構成によれば、密な方向分解能で伝達特性を測定できる。また、発音装置500においても同様に、1つの側方角だけでなく、複数の側方角にスピーカを位置させてもよい。これらの場合、両耳について同じ構成で測定するものに限らず、何れか一方の耳における測定においてのみ密な方向分解能で測定を行ってもよい。 In addition, in this embodiment, in order to generate the HRTF of the median plane, the measurement is performed using the speakers 201 in a plurality of directions on the sagittal plane including the auricle. However, the present invention is not limited to this. For example, in the sound producing device 102L and the sound producing device 102R, a plurality of speakers 201 may be three-dimensionally arranged on a hemispherical surface centered on the ear position. According to such a configuration, the transfer characteristic can be measured with a fine directional resolution. Similarly, in the sounding device 500, the speakers may be positioned not only in one lateral direction but also in a plurality of lateral directions. In these cases, the measurement is not limited to the measurement with the same configuration for both ears, and the measurement may be performed with a fine directional resolution only in the measurement in any one of the ears.

一方の耳について密な方向分解能で測定を行う場合には、音響信号の再生時に音像を定位させたい側の耳における測定を密な方向分解能で行い、その測定に基づくデータを用いることで、より定位感が良くなる。一方で、音像を定位させたい側と逆側の耳の伝達特性については、同一上昇角の耳介を含む矢状面での測定に基づくデータあるいはそれに近しいデータを用いてもよい。この場合、遅延の付加や音量(ゲイン)を下げる処理を行うことによって、目的方向に音像を定位させることができる。たとえば、側方角αと上昇角β(αは正中面より右よりとする)に音像を定位させる場合には、右耳の側方角α及び上昇角βの伝達特性と、左耳の耳介を含む矢状面上の上昇角βで測定されたデータに遅延補正を行ったデータを用いる。このようにすることで、音響信号の再生時の定位感を向上することができる。 If you want to measure with a high directional resolution for one ear, perform measurement with a close directional resolution in the ear on which you want to localize the sound image during playback of the acoustic signal, and use the data based on that measurement to improve Improves localization. On the other hand, regarding the transfer characteristics of the ear on the side where the sound image is to be localized and on the side opposite to the side, data based on measurement on the sagittal plane including the auricle of the same rising angle or data close thereto may be used. In this case, the sound image can be localized in the target direction by adding a delay or performing processing for lowering the volume (gain). For example, when the sound image is localized at the lateral angle α and the rising angle β (α is from the right side of the median plane), the transfer characteristics of the lateral angle α and the rising angle β of the right ear and the auricle of the left ear are set. The data measured with the rising angle β on the sagittal plane including the delay-corrected data is used. By doing so, it is possible to improve the localization feeling when reproducing the audio signal.

[補聴器の調整]
以上では、情報処理装置100により生成されたHRTFセットを用いて処理部107により音響信号を処理して立体音響を実現する情報処理システム10について説明した。ただし、測定システム20による測定結果の使用方法はこれに限らない。以下では、情報処理システム10の変形例としての情報処理システム30について説明する。情報処理システム30は、測定システム20による測定結果を用いて、HRTFによる音像定位を実現する補聴器の調整を行う。
[Adjustment of hearing aid]
The information processing system 10 in which the processing unit 107 processes an acoustic signal by using the HRTF set generated by the information processing apparatus 100 to realize stereophonic sound has been described above. However, the method of using the measurement result by the measurement system 20 is not limited to this. An information processing system 30 as a modified example of the information processing system 10 will be described below. The information processing system 30 uses the measurement result of the measurement system 20 to adjust the hearing aid that realizes the sound image localization by HRTF.

図6は、情報処理システム30と補聴器600の構成例を示す図である。補聴器600は、マイクアレイ601、指向性制御部602、畳み込み処理部603、フィルタ格納部604、及びスピーカ605を有する。ユーザはこのような構成の補聴器600を右耳と左耳の両方に装着して使用する。マイクアレイ601は、複数のマイク素子による収音で得られた複数チャンネルの収音信号を出力する。指向性制御部602は、マイクアレイ601から入力された複数チャンネルの収音信号を処理することで特定の方向に対応する音響信号である方向音信号を生成する。たとえば指向性制御部602は、ビームフォーミングなどのアレイ信号処理を行うことで、ユーザに対して上昇角が異なる複数の方向(前方、上方、後方、下方)にメインローブが向くような4つの方向音信号を生成し出力する。 FIG. 6 is a diagram showing a configuration example of the information processing system 30 and the hearing aid 600. The hearing aid 600 has a microphone array 601, a directivity control unit 602, a convolution processing unit 603, a filter storage unit 604, and a speaker 605. The user wears and uses the hearing aid 600 having such a configuration on both the right and left ears. The microphone array 601 outputs a sound collection signal of a plurality of channels obtained by sound collection by a plurality of microphone elements. The directivity control unit 602 processes a plurality of channels of sound pickup signals input from the microphone array 601, thereby generating a direction sound signal that is a sound signal corresponding to a specific direction. For example, the directivity control unit 602 performs array signal processing such as beam forming, so that the main lobe is oriented in a plurality of directions (forward, upward, backward, downward) having different elevation angles with respect to the user. Generates and outputs a sound signal.

畳み込み処理部603は、指向性制御部602から入力される複数の方向音信号それぞれに対して、フィルタ格納部604に格納されたフィルタデータを畳み込む。さらに畳み込み処理部603は、畳み込みにより得られた4つのチャンネルの信号を加算して1つのチャンネル信号を出力する。フィルタ格納部604は、音像定位のための信号処理に用いられるフィルタデータを格納するメモリである。スピーカ605は、ユーザの耳穴に装着される小型のスピーカ(イヤホン)であり、信号の入力に応じて耳穴内部に向けて音を発する。このようにフィルタ処理された音をユーザの両耳から聞かせることで、ユーザは補聴器600を装着した状態においても、音の方向を明確に識別できるようになる。 The convolution processing unit 603 convolves the filter data stored in the filter storage unit 604 with respect to each of the plurality of direction sound signals input from the directivity control unit 602. Further, the convolution processing unit 603 adds the signals of the four channels obtained by the convolution and outputs one channel signal. The filter storage unit 604 is a memory that stores filter data used for signal processing for sound image localization. The speaker 605 is a small speaker (earphone) attached to the user's ear canal, and emits sound toward the inside of the ear canal according to the input of a signal. By allowing the sound thus filtered to be heard from both ears of the user, the user can clearly identify the direction of the sound even when the hearing aid 600 is worn.

情報処理システム30は、測定システム20、情報処理装置100、フィルタ生成部108、及び補正情報設定部109(以降、設定部109と表記)を有する。なお、図6の例ではフィルタ生成部108と設定部109はそれぞれ独立した装置として構成されているものするが、これに限らない。例えば、フィルタ生成部108と設定部109とが一体となって構成されていてもよいし、フィルタ生成部108と設定部109との少なくとも何れかが情報処理装置100に含まれていてもよい。 The information processing system 30 includes a measurement system 20, an information processing device 100, a filter generation unit 108, and a correction information setting unit 109 (hereinafter referred to as the setting unit 109). Note that, in the example of FIG. 6, the filter generation unit 108 and the setting unit 109 are configured as independent devices, but the invention is not limited to this. For example, the filter generation unit 108 and the setting unit 109 may be integrally configured, or at least one of the filter generation unit 108 and the setting unit 109 may be included in the information processing apparatus 100.

測定システム20と情報処理装置100の構成は上述した実施形態と同様である。ただし、情報処理装置100の推定部104は、ユーザの耳に装着された補聴器600による収音に基づく方向音信号を、補聴器600の指向性制御部602から取得する。そして推定部104は、マイク103Lによる収音に基づく収音信号と、マイク103Rによる収音に基づく収音信号と、補聴器600から取得した方向音信号とに基づいて、伝達特性を推定する。生成部105は、推定部104による伝達特性の推定結果に基づいて、補聴器600のスピーカ605が発する音を補正するための特性情報を生成する。具体的には、生成部105は、補聴器600を装着した状態のユーザに適したHRTFセットを生成する。 The configurations of the measurement system 20 and the information processing device 100 are the same as those in the above-described embodiment. However, the estimation unit 104 of the information processing device 100 acquires the direction sound signal based on the sound pickup by the hearing aid 600 attached to the user's ear from the directivity control unit 602 of the hearing aid 600. Then, the estimation unit 104 estimates the transfer characteristic based on the sound collection signal based on the sound collection by the microphone 103L, the sound collection signal based on the sound collection by the microphone 103R, and the direction sound signal acquired from the hearing aid 600. The generation unit 105 generates characteristic information for correcting the sound emitted by the speaker 605 of the hearing aid 600, based on the estimation result of the transfer characteristic by the estimation unit 104. Specifically, the generation unit 105 generates an HRTF set suitable for the user wearing the hearing aid 600.

例えば、推定部104は、マイク103Lから取得した収音信号を用いて、上述の実施形態と同様に、ユーザの左耳における測定に基づく伝達特性を推定する。加えて、ユーザがマイク103Lの代わりに補聴器600を装着した状態で測定が行われ、発音装置102Lから発した音がマイクアレイ601により収音される。そして推定部104は、マイクアレイ601により得られた収音信号に基づいて指向性制御部602により生成された方向音信号を取得し、その方向音信号に基づいて、補聴器600を装着したユーザの左耳における測定に基づく伝達特性を推定する。これら2つの伝達特性は、左耳を含む矢状面上の同一上昇角で、耳穴入口から等距離で測定される。なお、補聴器600を装着した状態の伝達特性を推定するために用いられる方向音信号は、測定に用いられたスピーカ201の方向にメインローブを向けるように指向性制御部602による信号処理が行われることで得られる信号である。 For example, the estimation unit 104 estimates the transfer characteristic based on the measurement in the left ear of the user, using the sound pickup signal acquired from the microphone 103L, as in the above-described embodiment. In addition, the measurement is performed with the user wearing the hearing aid 600 instead of the microphone 103L, and the sound emitted from the sounding device 102L is collected by the microphone array 601. Then, the estimation unit 104 acquires the direction sound signal generated by the directivity control unit 602 based on the sound collection signal obtained by the microphone array 601, and based on the direction sound signal, the estimation unit 104 detects the direction of the user wearing the hearing aid 600. Estimate transfer characteristics based on measurements in the left ear. These two transfer characteristics are measured at the same elevation angle on the sagittal plane, including the left ear, and equidistant from the ear canal entrance. Note that the direction sound signal used for estimating the transfer characteristic when the hearing aid 600 is worn is subjected to signal processing by the directivity control unit 602 so that the main lobe is directed toward the speaker 201 used for measurement. This is the signal obtained.

マイクアレイ601において収音される音は、マイクが耳近傍に装着されるために耳介の影響を受ける。しかし、マイクは耳穴入口に装着されるわけではなく、また補聴器600の構造も音の伝搬に影響を与える。そのため、ユーザがマイク103Lを装着した場合とマイクアレイ601Lを装着した場合とで、音の伝達特性は異なる。そして、ユーザが補聴器600装着した状態においても正確な音像定位を実現するためには、補聴器600の影響を打ち消すように補正されたHRTFを用いるべきである。そこで推定部104は、下記のような計算を行って、補正された伝達特性を取得する。 The sound picked up by the microphone array 601 is affected by the pinna because the microphone is mounted near the ear. However, the microphone is not mounted at the entrance of the ear canal, and the structure of the hearing aid 600 also affects the sound propagation. Therefore, the sound transmission characteristics differ depending on whether the user wears the microphone 103L or the microphone array 601L. Then, in order to realize accurate sound image localization even when the user wears the hearing aid 600, the HRTF corrected so as to cancel the influence of the hearing aid 600 should be used. Therefore, the estimation unit 104 performs the following calculation to obtain the corrected transfer characteristic.

H_C(f)=H_F(f)/H_HA(f)
ここで、H_C(f)は補正された伝達特性(周波数特性)、H_F(f)は耳栓型のマイク103Lを用いた測定に基づいて推定された伝達特性、H_HA(f)は補聴器600を装着した状態の測定に基づいて推定された伝達特性を示す。この処理は左右の耳それぞれについて、音源方向ごとに行われる。そして推定部104は、複数の上昇角それぞれについて、右耳と左耳の補正された伝達特性をセットとして出力する。本処理においてH_HA(f)<<H_F(f)となるような周波数帯域では、H_C(f)の値が非常に大きくなるため、H_C(f)に上限を設けてもよい。これにより、HRTFを適用した音が耳障りな音になってしまう虞を低減できる。なお、左右の耳での測定において、あるいは耳栓型のマイク103Lとマイクアレイ601での測定において、音源方向の上昇角、側方角、及び距離の少なくともいずれかが等しくない場合があり得る。この場合には、情報処理システム10について上述したような補正処理をさらに行ってもよい。
H_C(f)=H_F(f)/H_HA(f)
Here, H_C(f) is the corrected transfer characteristic (frequency characteristic), H_F(f) is the transfer characteristic estimated based on the measurement using the earplug type microphone 103L, and H_HA(f) is the hearing aid 600. The transfer characteristic estimated based on the measurement of the mounted state is shown. This processing is performed for each of the left and right ears for each sound source direction. Then, the estimation unit 104 outputs the corrected transfer characteristics of the right ear and the left ear as a set for each of the plurality of rising angles. In the frequency band where H_HA(f)<<H_F(f) in this processing, the value of H_C(f) becomes extremely large, and therefore an upper limit may be set for H_C(f). As a result, it is possible to reduce the possibility that the sound to which the HRTF is applied becomes a jarring sound. At the time of measurement with the left and right ears, or with the earplug type microphone 103L and the microphone array 601, at least one of the rising angle, the lateral angle, and the distance in the sound source direction may not be equal. In this case, the correction processing as described above may be further performed on the information processing system 10.

生成部105は、上記のような補正された伝達特性を推定部104から取得し、これに基づいてHRTFセットを生成してフィルタ生成部108へ出力する。設定部109は、補聴器600を装着するユーザの聴力に応じた補正情報を設定する装置であり、補正情報に応じたフィルタの補正パラメータをフィルタ生成部108へ出力する。補正情報は、たとえば周波数帯ごとのゲインなどであり、専門の技師や医師による聴力検査の結果に基づいて設定される。フィルタ生成部108は、生成部105から取得したHRTFセットと設定部109から取得したパラメータとに基づいて、補聴器600において用いられるFIRフィルタを生成し、補聴器600のフィルタ格納部604へ出力する。 The generation unit 105 acquires the above-described corrected transfer characteristic from the estimation unit 104, generates an HRTF set based on this, and outputs the HRTF set to the filter generation unit 108. The setting unit 109 is a device that sets the correction information according to the hearing ability of the user who wears the hearing aid 600, and outputs the correction parameter of the filter according to the correction information to the filter generation unit 108. The correction information is, for example, a gain for each frequency band, and is set based on the result of the hearing test by a professional engineer or a doctor. The filter generation unit 108 generates an FIR filter used in the hearing aid 600 based on the HRTF set acquired from the generation unit 105 and the parameter acquired from the setting unit 109, and outputs the FIR filter to the filter storage unit 604 of the hearing aid 600.

図7は、情報処理システム30の処理フローを示す。図7の処理は、たとえば補聴器600の調整を行うための指示が情報処理システム30に入力されたタイミングで開始される。S701において、設定部109は、補正情報を設定し、設定された補正情報に応じたフィルタの補正パラメータを情報処理装置100へ出力する。S702において、測定システム20は、耳栓型のマイク103L及びマイク103Rを用いた測定を行う。この処理は上述した情報処理システム10における測定処理と同様である。S703において、情報処理装置100は、補聴器600を用いた測定の結果を取得する。なお、S702とS703の処理の順番は逆でもよい。 FIG. 7 shows a processing flow of the information processing system 30. The process of FIG. 7 is started at a timing when an instruction for adjusting the hearing aid 600 is input to the information processing system 30, for example. In step S<b>701, the setting unit 109 sets the correction information and outputs the correction parameter of the filter according to the set correction information to the information processing apparatus 100. In S702, the measurement system 20 performs measurement using the earplug type microphones 103L and 103R. This processing is similar to the measurement processing in the information processing system 10 described above. In S703, the information processing apparatus 100 acquires the result of measurement using the hearing aid 600. The order of the processes of S702 and S703 may be reversed.

S704において、情報処理装置100は、S702におよびS703における測定の結果に基づいて、伝達特性の推定および補正を行い、正中面の頭部伝達特性を再現するための特性情報を生成する。S705において、フィルタ生成部108は、S704において生成された特性情報と、S701において設定された補正情報とに基づいて、ユーザの聴覚に応じたフィルタデータを生成する。S706において、フィルタ生成部108は、各方向に対応するフィルタデータをフィルタデータのセットとして補聴器600へ出力する。以上説明したように、情報処理システム30によれば、小型の測定システム20を用いて、補聴器600による定位感を改善するための調整処理を行うことができる。 In S704, the information processing apparatus 100 estimates and corrects the transfer characteristic based on the measurement results in S702 and S703 to generate characteristic information for reproducing the head-related transfer characteristic of the median plane. In S705, the filter generation unit 108 generates filter data according to the hearing of the user based on the characteristic information generated in S704 and the correction information set in S701. In step S706, the filter generation unit 108 outputs the filter data corresponding to each direction to the hearing aid 600 as a set of filter data. As described above, according to the information processing system 30, it is possible to perform the adjustment process for improving the sense of localization by the hearing aid 600 by using the small measurement system 20.

本実施形態においては、マイクアレイ601により得られた収音信号を指向性制御部602により処理することで方向音信号を生成するものとした。ただし、マイクアレイ601の代わりに、別々の方向に向くように設置された複数の指向性マイクロフォンが用いられてもよい。その場合、補聴器600は指向性制御部602を有しなくてもよい。 In the present embodiment, the direction sound signal is generated by processing the sound collection signal obtained by the microphone array 601 by the directivity control unit 602. However, instead of the microphone array 601, a plurality of directional microphones installed so as to face in different directions may be used. In that case, the hearing aid 600 does not have to include the directivity control unit 602.

また本実施形態では、フィルタ生成部108はFIRフィルタを生成してフィルタ格納部604に出力するものとしたが、フィルタ生成部108はIIRフィルタを生成してもよい。その場合、フィルタ格納部604にはIIRフィルタのパラメータが格納され、畳み込み処理部603ではIIRフィルタの適応処理が行われる。 Further, in the present embodiment, the filter generation unit 108 generates the FIR filter and outputs it to the filter storage unit 604, but the filter generation unit 108 may generate the IIR filter. In that case, the IIR filter parameters are stored in the filter storage unit 604, and the convolution processing unit 603 performs the IIR filter adaptation processing.

本実施形態において、補聴器600と情報処理装置100との間のデータの伝送は、ケーブルを介した通信や無線通信により行われる。ただしこれに限らず、たとえば補聴器600に取り外し可能な記憶装置を備え、そこに指向性制御部602からの出力を時刻情報などの同期信号とともに記録し、測定後に記憶装置を取り外して、情報処理装置100へデータを受け渡すようにしてもよい。 In the present embodiment, data transmission between the hearing aid 600 and the information processing device 100 is performed by communication via a cable or wireless communication. However, the present invention is not limited to this. For example, the hearing aid 600 is provided with a removable storage device, in which the output from the directivity control unit 602 is recorded together with a synchronization signal such as time information, and after the measurement, the storage device is removed to remove the information processing device. Data may be transferred to 100.

上記の説明においては、ユーザが補聴器600を両耳に装着する場合について説明したが、ユーザは補聴器600を片耳に装着してもよい。この場合には、推定部104が補聴器600を装着する側の耳の伝達特性について補正を行い、その結果に応じた特性情報がフィルタ生成部108へ出力されてもよい。また、補聴器600が片耳に装着される場合、信号処理の遅延や左右の聴力の差による音像定位のずれを抑制するために、別途調整が行われてもよい。たとえば情報処理装置100は、パンニング調整により補正を行ってもよい。音像は遅延の発生しない側(補聴器600を装着していない側)に片寄る傾向にあるため、遅延の発生する補聴器600を装着した側の音量を上昇させることにより、音像が正しく定位するように補正を行うことができる。また、音量調整処理を1つの音源方向についてだけではなくすべての音源方向について行うことで、方向によって音の距離感が変化する(音量を上げた方向の音像が近く感じる)ようになることを抑制できる。 Although the case where the user wears the hearing aid 600 in both ears has been described above, the user may wear the hearing aid 600 in one ear. In this case, the estimation unit 104 may correct the transfer characteristic of the ear on which the hearing aid 600 is worn, and characteristic information corresponding to the result may be output to the filter generation unit 108. Further, when the hearing aid 600 is worn in one ear, separate adjustment may be performed in order to suppress a delay in signal processing and a deviation in sound image localization due to a difference in left and right hearing. For example, the information processing device 100 may perform the correction by panning adjustment. Since the sound image tends to be biased to the side where the delay does not occur (the side where the hearing aid 600 is not attached), the sound image is corrected so that the sound image is correctly localized by increasing the volume on the side where the delaying hearing aid 600 is attached. It can be performed. In addition, by performing the volume adjustment processing not only for one sound source direction but for all sound source directions, it is possible to prevent the distance feeling of the sound from changing depending on the direction (the sound image in the direction in which the volume is increased is felt close). it can.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit that realizes one or more functions (for example, ASIC). The program may be recorded in a computer-readable recording medium and provided.

10 情報処理システム
20 測定システム
100 情報処理装置
102L、102R 発音装置
103L、103R マイク
201 スピーカ
10 Information Processing System 20 Measurement System 100 Information Processing Device 102L, 102R Sounding Device 103L, 103R Microphone 201 Speaker

Claims (20)

ユーザの一方の耳の位置における収音に基づく収音信号であって、前記一方の耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する第1取得手段と、
前記ユーザの他方の耳の位置における収音に基づく収音信号であって、前記他方の耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する第2取得手段と、
前記第1取得手段により取得された収音信号と前記第2取得手段により取得された収音信号とに基づいて、前記ユーザに応じた音の伝達特性に関する特性情報を生成する生成手段と、を有することを特徴とする情報処理システム。
First acquisition for acquiring a sound collection signal based on sound collection at a position of one ear of the user, the sound collection signal being based on sound collection of a plurality of sounds emitted from a plurality of directions around the one ear Means and
Second, a sound collection signal based on sound collection at the position of the other ear of the user, which is based on sound collection of a plurality of sounds emitted from a plurality of directions around the other ear Acquisition means,
Generating means for generating characteristic information relating to the transfer characteristic of sound corresponding to the user, based on the sound collection signal acquired by the first acquisition means and the sound collection signal acquired by the second acquisition means. An information processing system having.
前記生成手段により生成される前記特性情報は、複数の方向それぞれに対応する伝達特性を表す情報を含むことを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the characteristic information generated by the generating unit includes information indicating a transfer characteristic corresponding to each of a plurality of directions. 前記生成手段により生成される前記特性情報は、ユーザの正中面に含まれる方向に対応する伝達特性を表す情報を含むことを特徴とする請求項1又は2に記載の情報処理システム。 The information processing system according to claim 1, wherein the characteristic information generated by the generating unit includes information indicating a transfer characteristic corresponding to a direction included in a median plane of the user. 前記生成手段により生成される前記特性情報は、頭部伝達関数又は頭部インパルス応答を表す情報であることを特徴とする請求項1乃至3の何れか1項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 3, wherein the characteristic information generated by the generation means is information representing a head related transfer function or a head related impulse response. 前記第1取得手段により取得される収音信号に対応する収音期間と、前記第2取得手段により取得される収音信号に対応する収音期間とは、重ならないことを特徴とする請求項1乃至4の何れか1項に記載の情報処理システム。 The sound collection period corresponding to the sound collection signal acquired by the first acquisition unit and the sound collection period corresponding to the sound collection signal acquired by the second acquisition unit do not overlap. The information processing system according to any one of 1 to 4. 前記第1取得手段は、前記一方の耳と前記他方の耳とを結ぶ方向に略垂直な複数の方向から前記一方の耳の位置へ向けて発された複数の音の収音に基づく収音信号を取得することを特徴とする請求項1乃至5の何れか1項に記載の情報処理システム。 The first acquisition means collects sound based on the collection of a plurality of sounds emitted from a plurality of directions substantially perpendicular to the direction connecting the one ear and the other ear to the position of the one ear. The information processing system according to claim 1, wherein a signal is acquired. 前記一方の耳の位置に対して前記一方の耳の周辺において発される複数の音の方向の上昇角と、前記他方の耳の位置に対して前記他方の耳の周辺において発される複数の音の方向の上昇角とは、略等しいことを特徴とする請求項1乃至6の何れか1項に記載の情報処理システム。 Rise angles in the direction of a plurality of sounds emitted around the one ear with respect to the position of the one ear, and a plurality of rise angles around the other ear with respect to the position of the other ear. The information processing system according to any one of claims 1 to 6, wherein the rising angles in the direction of sound are substantially equal to each other. 前記生成手段は、
前記第1取得手段により取得された収音信号に基づいて第1の伝達特性を推定する第1推定手段と、
前記第2取得手段により取得された収音信号に基づいて第2の伝達特性を推定する第2推定手段と、
前記第1推定手段による前記第1の伝達特性の推定結果と前記第2推定手段による前記第2の伝達特性の推定結果とに基づいて前記特性情報を生成することを特徴とする請求項1乃至7の何れか1項に記載の情報処理システム。
The generating means is
First estimating means for estimating a first transfer characteristic based on the sound pickup signal obtained by the first obtaining means,
Second estimating means for estimating a second transfer characteristic based on the sound collection signal acquired by the second acquiring means;
The characteristic information is generated based on an estimation result of the first transfer characteristic by the first estimating means and an estimation result of the second transfer characteristic by the second estimating means. 7. The information processing system according to any one of 7.
信号の入力に応じて音を発する1以上の発音部を有する発音装置に所定の信号を入力する入力手段を有し、
前記第1取得手段は、前記入力手段による前記所定の信号の入力に応じた収音に基づく収音信号を取得することを特徴とする請求項1乃至8の何れか1項に記載の情報処理システム。
An input device for inputting a predetermined signal to a sounding device having one or more sound generators that emit a sound in response to the input of a signal;
9. The information processing according to claim 1, wherein the first acquisition unit acquires a sound collection signal based on a sound collection according to the input of the predetermined signal by the input unit. system.
前記第1取得手段は、前記発音装置が前記一方の耳を囲う状態における収音に基づく収音信号を取得することを特徴とする請求項9に記載の情報処理システム。 The information processing system according to claim 9, wherein the first acquisition unit acquires a sound collection signal based on sound collection in a state where the sounding device surrounds the one ear. 前記第1取得手段は、前記一方の耳の近傍に位置するマイクによる収音に基づく収音信号であって、前記発音装置が有する複数の発音部により当該マイクに対して複数の方向から発された複数の音の収音に基づく収音信号を取得することを特徴とする請求項9に記載の情報処理システム。 The first acquisition unit is a sound collection signal based on sound collected by a microphone located near the one ear, and is emitted from a plurality of directions to the microphone by a plurality of sound producing units of the sound producing device. The information processing system according to claim 9, wherein a sound collection signal based on the sound collection of a plurality of sounds is acquired. 前記第1取得手段は、前記一方の耳の近傍に位置するマイクによる収音に基づく収音信号であって、前記発音装置が有する発音部が当該マイクに対する位置を変えて複数の方向から発した複数の音の収音に基づく収音信号を取得することを特徴とする請求項9に記載の情報処理システム。 The first acquisition unit is a sound collection signal based on sound collection by a microphone located near the one ear, and the sounding unit of the sounding device changes the position with respect to the microphone and emits sound from a plurality of directions. The information processing system according to claim 9, wherein a sound collection signal based on sound collection of a plurality of sounds is acquired. 前記生成手段により生成された前記特性情報を記憶部に記憶させる記憶制御手段を有することを特徴とする請求項1乃至12の何れか1項に記載の情報処理システム。 The information processing system according to claim 1, further comprising a storage control unit that stores the characteristic information generated by the generation unit in a storage unit. 音響信号を取得する信号取得手段と、
前記信号取得手段により取得された音響信号を前記生成手段により生成された前記特性情報に基づいて処理することで得られる処理済み音響信号を出力する出力手段を有することを特徴とする請求項1乃至13の何れか1項に記載の情報処理システム。
Signal acquisition means for acquiring an acoustic signal,
The output means for outputting a processed acoustic signal obtained by processing the acoustic signal acquired by the signal acquisition means based on the characteristic information generated by the generation means. 13. The information processing system according to any one of 13.
前記一方の耳に装着された補聴器による収音に基づく信号を取得する第3取得手段を有し、
前記生成手段は、前記第1取得手段により取得された収音信号と、前記第2取得手段により生成された収音信号と、前記第3取得手段により取得された信号とに基づいて、前記補聴器が発する音を補正するための前記特性情報を生成することを特徴とする請求項1乃至14の何れか1項に記載の情報処理システム。
A third acquisition means for acquiring a signal based on the sound collection by the hearing aid attached to the one ear,
The hearing aid is based on the sound pickup signal acquired by the first acquisition means, the sound collection signal generated by the second acquisition means, and the signal acquired by the third acquisition means. The information processing system according to any one of claims 1 to 14, wherein the characteristic information for correcting the sound emitted by the is generated.
ユーザの一方の耳の位置における収音に基づく収音信号であって、前記一方の耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する第1取得工程と、
前記ユーザの他方の耳の位置における収音に基づく収音信号であって、前記他方の耳の周辺において複数の方向から発された複数の音の収音に基づく収音信号を取得する第2取得工程と、
前記第1取得工程により取得された収音信号と前記第2取得工程により取得された収音信号とに基づいて、前記ユーザに応じた音の伝達特性に関する特性情報を生成する生成工程と、を有することを特徴とする情報処理方法。
First acquisition for acquiring a sound collection signal based on sound collection at a position of one ear of the user, the sound collection signal being based on sound collection of a plurality of sounds emitted from a plurality of directions around the one ear Process,
Second, a sound collection signal based on sound collection at the position of the other ear of the user, which is based on sound collection of a plurality of sounds emitted from a plurality of directions around the other ear Acquisition process,
A generation step of generating characteristic information regarding a sound transmission characteristic according to the user, based on the sound collection signal acquired in the first acquisition step and the sound collection signal acquired in the second acquisition step. An information processing method comprising:
前記第1取得工程において取得される収音信号に対応する収音期間と、前記第2取得工程において取得される収音信号に対応する収音期間とは、重ならないことを特徴とする請求項16に記載の情報処理方法。 The sound collection period corresponding to the sound collection signal acquired in the first acquisition step and the sound collection period corresponding to the sound collection signal acquired in the second acquisition step do not overlap. 16. The information processing method described in 16. ユーザの耳介部に応じた音の伝達特性を測定するための測定システムであって、
前記ユーザの耳に装着可能なマイクと、
信号の入力に応じて音を発する複数の発音部を有する発音装置と、
前記複数の発音部が前記ユーザの耳に対してそれぞれ異なる方向に位置するように、前記発音装置を前記ユーザに装着させるための装着手段と、を有することを特徴とする測定システム。
A measurement system for measuring a sound transfer characteristic according to a user's auricle,
A microphone wearable on the user's ear,
A sounding device having a plurality of sounding units that emit sounds in response to signal input,
A mounting system for mounting the sounding device to the user such that the plurality of sounding units are located in different directions with respect to the user's ear, respectively.
ユーザの耳介部に応じた音の伝達特性を測定するための測定システムであって、
前記ユーザの耳に装着可能なマイクと、
前記ユーザの耳を差し入れ可能な穴を有するケースと、
信号の入力に応じて音を発する発音部であって、前記ケースの内部に位置する発音部と、
前記ケースの穴の位置に対する前記発音部の位置が変化するように、前記発音部の位置を移動させる制御手段と、を有することを特徴とする測定システム。
A measurement system for measuring a sound transfer characteristic according to a user's auricle,
A microphone wearable on the user's ear,
A case having a hole into which the user's ear can be inserted;
A sounding unit that emits sound in response to the input of a signal, and a sounding unit located inside the case,
And a control unit that moves the position of the sounding unit so that the position of the sounding unit with respect to the position of the hole of the case changes.
コンピュータを、請求項1乃至15の何れか1項に記載の情報処理システムが有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit included in the information processing system according to claim 1.
JP2018220907A 2018-11-27 2018-11-27 Information processing system, information processing method, measurement system and program Pending JP2020086143A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220907A JP2020086143A (en) 2018-11-27 2018-11-27 Information processing system, information processing method, measurement system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220907A JP2020086143A (en) 2018-11-27 2018-11-27 Information processing system, information processing method, measurement system and program

Publications (1)

Publication Number Publication Date
JP2020086143A true JP2020086143A (en) 2020-06-04

Family

ID=70907824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220907A Pending JP2020086143A (en) 2018-11-27 2018-11-27 Information processing system, information processing method, measurement system and program

Country Status (1)

Country Link
JP (1) JP2020086143A (en)

Similar Documents

Publication Publication Date Title
US10939225B2 (en) Calibrating listening devices
US11706582B2 (en) Calibrating listening devices
US10431239B2 (en) Hearing system
EP3103269B1 (en) Audio signal processing device and method for reproducing a binaural signal
TWI540915B (en) Audio signal output device, method of processing an audio signal, and headset
US20180146319A1 (en) Audio Source Spatialization Relative to Orientation Sensor and Output
KR100878457B1 (en) Sound image localizer
US10412530B2 (en) Out-of-head localization processing apparatus and filter selection method
US9392367B2 (en) Sound reproduction apparatus and sound reproduction method
JP6143571B2 (en) Sound image localization device
US11832082B2 (en) Self-calibrating microphone and loudspeaker arrays for wearable audio devices
EP3280154B1 (en) System and method for operating a wearable loudspeaker device
JP6515720B2 (en) Out-of-head localization processing device, out-of-head localization processing method, and program
EP2822301B1 (en) Determination of individual HRTFs
EP3625976B1 (en) A method for determining distance between ears of a wearer of a sound generating object and an ear-worn, sound generating object
JP2020086143A (en) Information processing system, information processing method, measurement system and program
US11653163B2 (en) Headphone device for reproducing three-dimensional sound therein, and associated method
JP7010649B2 (en) Audio signal processing device and audio signal processing method
US20070127750A1 (en) Hearing device with virtual sound source
JP4691662B2 (en) Out-of-head sound localization device
WO2023061130A1 (en) Earphone, user device and signal processing method
US11937072B2 (en) Headphones, out-of-head localization filter determination device, out-of-head localization filter determination system, out-of-head localization filter determination method, and program
JP2021052273A (en) Out-of-head localization filter determination system, out-of-head localization filter determination method, and program
JP2019061108A (en) Signal processing device, signal processing method, and program