JP2016212312A - Acoustic characteristic measurement device, method and program - Google Patents

Acoustic characteristic measurement device, method and program Download PDF

Info

Publication number
JP2016212312A
JP2016212312A JP2015097129A JP2015097129A JP2016212312A JP 2016212312 A JP2016212312 A JP 2016212312A JP 2015097129 A JP2015097129 A JP 2015097129A JP 2015097129 A JP2015097129 A JP 2015097129A JP 2016212312 A JP2016212312 A JP 2016212312A
Authority
JP
Japan
Prior art keywords
characteristic
terminal device
difference data
acoustic
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015097129A
Other languages
Japanese (ja)
Other versions
JP6532284B2 (en
Inventor
慶太 丹野
Keita Tanno
慶太 丹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2015097129A priority Critical patent/JP6532284B2/en
Publication of JP2016212312A publication Critical patent/JP2016212312A/en
Application granted granted Critical
Publication of JP6532284B2 publication Critical patent/JP6532284B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an acoustic characteristic measurement device, method and program that can suppress reduction in measurement accuracy of acoustic characteristics arising from directions of portable terminal devices.SOLUTION: An on-vehicle device 1 includes: an information acquisition unit 53 that outputs a measurement sound from a speaker 22FR to acquire characteristic information on sounds collected by a microphone 118 of a portable terminal device 90 while making a pose of the portable terminal device different; a difference calculation unit 54 that calculates difference data between two kinds of the characteristic information; a difference database 55A that acquires difference data calculated by the difference calculation unit in a similar way as changing a combination of two poses thereof in a state where the measurement sound is outputted from a sound source having a position relationship with the portable terminal device 90 known, and store the acquired difference data; a database retrieval unit 55 that retrieves the difference data closest to the difference data calculated by the difference calculation unit 54 from the database 55A; a sound source specification unit 56 that specifies a direction of the sound source on the basis of a retrieval result; and an acoustic characteristic determination unit 58 that determines an acoustic characteristic at a hearing position on the basis of the retrieval result.SELECTED DRAWING: Figure 1

Description

本発明は、車室内等における利用者の聴取位置での音響特性を測定する音響特性測定装置、方法およびプログラムに関する。   The present invention relates to an acoustic characteristic measuring apparatus, method, and program for measuring acoustic characteristics at a listening position of a user in a passenger compartment or the like.

従来から、車室内に配置された携帯電話機のマイク部を利用して音響特性の測定を行うようにした車載システムが知られている(例えば、特許文献1参照。)。携帯電話機のマイク部を利用することにより、車両の運転席以外の任意の場所においても音の測定データを取得することができ、この場所での心地よい音を提供できるようになる。   2. Description of the Related Art Conventionally, an in-vehicle system in which acoustic characteristics are measured using a microphone unit of a mobile phone disposed in a vehicle compartment is known (for example, see Patent Document 1). By using the microphone part of the cellular phone, sound measurement data can be obtained at any place other than the driver's seat of the vehicle, and a comfortable sound at this place can be provided.

特許第4407571号公報Japanese Patent No. 4407571

ところで、特許文献1に開示された車載システムのように音響特性の測定に携帯電話機のマイク部を用いる場合に、マイク部自身の指向性や携帯電話機の筐体による影響などがあるため、携帯電話機の向きによる音の測定結果のばらつきが大きく、携帯電話機(携帯端末装置)を用いた音響特性の測定精度が低下するという問題があった。   By the way, when the microphone part of the mobile phone is used for measuring the acoustic characteristics as in the in-vehicle system disclosed in Patent Document 1, there is an influence of the directivity of the microphone part itself or the case of the mobile phone. There is a problem that the measurement result of the sound characteristic varies greatly depending on the direction of the sound, and the measurement accuracy of the acoustic characteristics using the mobile phone (mobile terminal device) is lowered.

本発明は、このような点に鑑みて創作されたものであり、その目的は、携帯端末装置の向きに起因する音響特性の測定精度の低下を抑制することができる音響特性測定装置、方法およびプログラムを提供することにある。   The present invention was created in view of the above points, and an object of the present invention is to provide an acoustic characteristic measuring device, method, and method that can suppress a decrease in measurement accuracy of acoustic characteristics caused by the orientation of the mobile terminal device. To provide a program.

上述した課題を解決するために、本発明の音響特性測定装置は、音響空間内に設置されたスピーカと、スピーカから所定の測定音を出力したときに、スピーカから離間した位置に配置された携帯端末装置に備わったマイクロホンにより集音された音の特性情報を、携帯端末装置の姿勢を異ならせて各姿勢に対応させて取得する特性取得手段と、特性取得手段によって取得した2種類の特性情報の差分を算出する差分算出手段と、携帯端末装置との位置関係が既知である音源から測定音を出力した状態で、携帯端末装置の姿勢を変更しながら、携帯端末装置に備わったマイクロホンにより集音された音の特性情報を測定し、2つの姿勢に対応した特性情報の差分を算出する処理を、2つの姿勢の組み合わせを変更して行った結果を格納した差分データ格納手段と、差分算出手段によって算出された差分データに最も近い差分データを差分データ格納手段から検索する差分データ検索手段と、差分データ検索手段によって検索された差分データに対応して既知の位置関係を有する音源の方向を特定する音源方向特定手段と、音源方向特定手段によって特定された音源の方向に基づいて、最も近い差分データに対応する特性情報を特定し、この特性情報を用いて、音響空間内に配置された携帯端末装置を聴取位置としたときのその位置での音響特性を決定する音響特性決定手段とを備えている。   In order to solve the above-described problems, an acoustic characteristic measuring apparatus according to the present invention includes a speaker installed in an acoustic space and a portable phone disposed at a position away from the speaker when a predetermined measurement sound is output from the speaker. Two types of characteristic information acquired by the characteristic acquisition means and characteristic acquisition means for acquiring the characteristic information of the sound collected by the microphone provided in the terminal device in correspondence with each posture by changing the posture of the mobile terminal device The difference calculation means for calculating the difference between the mobile terminal device and the mobile terminal device while changing the attitude of the mobile terminal device while measuring sound is output from a sound source whose positional relationship with the mobile terminal device is known. The difference which stored the result of having changed the combination of two postures, and calculating the difference of the characteristic information corresponding to two postures by measuring the characteristic information of the sound that was sounded Data storage means, difference data search means for searching difference data closest to the difference data calculated by the difference calculation means from the difference data storage means, and known data corresponding to the difference data searched by the difference data search means Based on the sound source direction specifying means for specifying the direction of the sound source having the positional relationship, and the direction of the sound source specified by the sound source direction specifying means, the characteristic information corresponding to the nearest difference data is specified, and this characteristic information is used. And an acoustic characteristic determining means for determining an acoustic characteristic at the position when the portable terminal device arranged in the acoustic space is set as the listening position.

また、本発明の音響特性測定方法は、音響空間内に設置されたスピーカから所定の測定音を出力したときに、スピーカから離間した位置に配置された携帯端末装置に備わったマイクロホンにより集音された音の特性情報を、携帯端末装置の姿勢を異ならせて各姿勢に対応させて特性取得手段によって取得するステップと、特性取得手段によって取得した2種類の特性情報の差分を差分算出手段によって算出するステップと、携帯端末装置との位置関係が既知である音源から測定音を出力した状態で、携帯端末装置の姿勢を変更しながら、携帯端末装置に備わったマイクロホンにより集音された音の特性情報を測定し、2つの姿勢に対応した特性情報の差分を算出する処理を、2つの姿勢の組み合わせを変更しながら行った結果を格納した差分データ格納手段を用いるステップであって、差分算出手段によって算出された差分データに最も近い差分データを差分データ格納手段から差分データ検索手段によって検索するステップと、差分データ検索手段によって検索された差分データに対応して既知の位置関係を有する音源の方向を音源方向特定手段によって特定するステップと、音源方向特定手段によって特定された音源の方向に基づいて、最も近い差分データに対応する特性情報を特定し、この特性情報を用いて、音響空間内に配置された携帯端末装置を聴取位置としたときのその位置での音響特性を音響特性決定手段によって決定するステップとを有している。   The acoustic characteristic measurement method of the present invention collects sound by a microphone provided in a mobile terminal device arranged at a position away from the speaker when a predetermined measurement sound is output from the speaker installed in the acoustic space. The characteristic acquisition unit calculates the difference between the two types of characteristic information acquired by the characteristic acquisition unit and the step of acquiring the characteristic information of the sound by the characteristic acquisition unit corresponding to each posture by changing the attitude of the mobile terminal device Characteristics of the sound collected by the microphone provided in the mobile terminal device while changing the attitude of the mobile terminal device in a state in which the measurement sound is output from a sound source whose positional relationship with the mobile terminal device is known The difference which stored the result which measured the information and calculated the difference of the characteristic information corresponding to two postures while changing the combination of two postures Using the data storage means, the step of searching the difference data closest to the difference data calculated by the difference calculation means from the difference data storage means by the difference data search means, and the difference searched by the difference data search means The step of specifying the direction of the sound source having a known positional relationship corresponding to the data by the sound source direction specifying means, and the characteristic information corresponding to the nearest difference data based on the direction of the sound source specified by the sound source direction specifying means Identifying and using this characteristic information, the acoustic characteristic determination means determines the acoustic characteristic at that position when the portable terminal device arranged in the acoustic space is set as the listening position.

また、本発明の音響特性測定プログラムは、コンピュータを、音響空間内に設置されたスピーカから所定の測定音を出力したときに、スピーカから離間した位置に配置された携帯端末装置に備わったマイクロホンにより集音された音の特性情報を、携帯端末装置の姿勢を異ならせて各姿勢に対応させて取得する特性取得手段と、特性取得手段によって取得した2種類の特性情報の差分を算出する差分算出手段と、携帯端末装置との位置関係が既知である音源から測定音を出力した状態で、携帯端末装置の姿勢を変更しながら、携帯端末装置に備わったマイクロホンにより集音された音の特性情報を測定し、2つの姿勢に対応した特性情報の差分を算出する処理を、2つの姿勢の組み合わせを変更して行った結果を格納した差分データ格納手段を用いて、差分算出手段によって算出された差分データに最も近い差分データを差分データ格納手段から検索する差分データ検索手段と、差分データ検索手段によって検索された差分データに対応して既知の位置関係を有する音源の方向を特定する音源方向特定手段と、音源方向特定手段によって特定された音源の方向に基づいて、最も近い差分データに対応する特性情報を特定し、この特性情報を用いて、音響空間内に配置された携帯端末装置を聴取位置としたときのその位置での音響特性を決定する音響特性決定手段として機能させる。   Also, the acoustic characteristic measurement program of the present invention uses a microphone provided in a portable terminal device disposed at a position away from a speaker when a computer outputs a predetermined measurement sound from a speaker installed in an acoustic space. A characteristic acquisition unit that acquires characteristic information of the collected sound according to each attitude by changing the attitude of the mobile terminal device, and a difference calculation that calculates a difference between the two types of characteristic information acquired by the characteristic acquisition unit The characteristic information of the sound collected by the microphone provided in the mobile terminal device while changing the attitude of the mobile terminal device in a state where the measurement sound is output from the sound source whose positional relationship between the means and the mobile terminal device is known Difference data storage means storing the result of measuring the difference between the two postures and calculating the difference between the characteristic information corresponding to the two postures Difference data search means for searching the difference data closest to the difference data calculated by the difference calculation means from the difference data storage means, and a known positional relationship corresponding to the difference data searched by the difference data search means. Based on the direction of the sound source specified by the sound source direction specifying means and the sound source direction specifying means for specifying the direction of the sound source, characteristic information corresponding to the nearest difference data is specified, and using this characteristic information, the acoustic space When the mobile terminal device arranged inside is set as a listening position, the mobile terminal device is caused to function as an acoustic characteristic determining means for determining an acoustic characteristic at the position.

特に、上述した差分データ格納手段に格納された差分データの算出を行うために行われた特性情報の測定は無響室において行われることが望ましい。   In particular, it is desirable that the measurement of the characteristic information performed for calculating the difference data stored in the difference data storage means described above is performed in an anechoic room.

携帯端末装置のマイクロホンで集音した音の特性情報の2つの姿勢間の差分を算出し、携帯端末装置との位置関係が既知である音源を用いた同種の差分データの中から近いものを抽出することにより、音響空間内に配置された携帯端末装置に対する音源(スピーカ)の方向を特定することができるため、マイクロホンの指向性による影響を取り除くことができ、携帯端末装置の向きに起因する音響特性の測定精度の低下を抑制することができる。   Calculates the difference between the two poses of the characteristic information of the sound collected by the microphone of the mobile terminal device, and extracts similar data from the same type of difference data using a sound source whose positional relationship with the mobile terminal device is known By doing so, the direction of the sound source (speaker) relative to the mobile terminal device arranged in the acoustic space can be specified, so that the influence of the directivity of the microphone can be removed, and the sound caused by the orientation of the mobile terminal device A decrease in measurement accuracy of characteristics can be suppressed.

また、上述したスピーカから出力される測定音と、差分データ格納手段に格納された差分データの算出を行うために用いられる測定音は、可聴帯域内の全ての周波数成分を含んでいることが望ましい。これにより、音源の方向がわかったときに、携帯端末装置の向きによって変化する特性(指向性)を無響室での測定結果から得ることができるため、携帯端末装置に組み込まれたマイクロホンの実際の指向性を知ることができ、携帯端末装置の向きに起因する音響特性の測定精度の低下をさらに抑制することができる。   Moreover, it is desirable that the measurement sound output from the above-described speaker and the measurement sound used for calculating the difference data stored in the difference data storage means include all frequency components within the audible band. . Thus, when the direction of the sound source is known, characteristics (directivity) that change depending on the orientation of the mobile terminal device can be obtained from the measurement results in the anechoic room. , And the deterioration of the measurement accuracy of the acoustic characteristics due to the orientation of the mobile terminal device can be further suppressed.

また、上述した音響特性決定手段によって決定された音響特性に基づいて、スピーカから出力するオーディオ音に対する補正特性を決定する補正特性決定手段をさらに備えることが望ましい。特に、上述した特性情報は、周波数特性であることが望ましい。また、上述した補正特性は、スピーカから聴取位置に到達するまでに発生する周波数成分の減衰分を補償する特性であることが望ましい。これにより、聴取位置において理想的な音響特性を実現することが可能となる。   In addition, it is desirable to further include a correction characteristic determination unit that determines a correction characteristic for the audio sound output from the speaker based on the acoustic characteristic determined by the acoustic characteristic determination unit. In particular, it is desirable that the above-described characteristic information is a frequency characteristic. The correction characteristic described above is preferably a characteristic that compensates for the attenuation of the frequency component that occurs before reaching the listening position from the speaker. This makes it possible to achieve ideal acoustic characteristics at the listening position.

また、上述したスピーカから出力される測定音が携帯端末装置に到達するまでの所要時間を取得し、この所要時間に基づいてスピーカから携帯端末装置までの距離を算出する距離算出手段と、距離算出手段によって算出された距離と、音源方向特定手段によって特定された音源の方向とに基づいて聴取位置を決定する聴取位置決定手段とをさらに備えることが望ましい。これにより、指向性を有する携帯端末装置のマイクロホンを用いた場合であっても、正確な聴取位置を求めることが可能となる。   Further, distance calculation means for acquiring a required time until the measurement sound output from the speaker described above reaches the mobile terminal device, and calculating a distance from the speaker to the mobile terminal device based on the required time, distance calculation It is desirable to further include listening position determining means for determining the listening position based on the distance calculated by the means and the direction of the sound source specified by the sound source direction specifying means. Thereby, even when a microphone of a portable terminal device having directivity is used, an accurate listening position can be obtained.

また、上述した音響空間は、車両の室内空間であることが望ましい。あるいは、上述した音響空間は、屋内の室内空間であることが望ましい。これにより、車両や屋内における反射等の影響を取り除いた聴取位置での音響特性を精度よく求めることができる。   The acoustic space described above is preferably an indoor space of the vehicle. Alternatively, the acoustic space described above is desirably an indoor space. Thereby, it is possible to accurately obtain the acoustic characteristics at the listening position excluding the influence of reflection in the vehicle or indoors.

一実施形態の車載システムの構成を示す図である。It is a figure which shows the structure of the vehicle-mounted system of one Embodiment. 携帯端末装置の構成を示す図である。It is a figure which shows the structure of a portable terminal device. 車載装置で用いられる差分データベースの作成方法を示す図である。It is a figure which shows the preparation method of the difference database used with a vehicle-mounted apparatus. 一組の周波数特性を示す図である。It is a figure which shows a set of frequency characteristics. 図4に示した一組の周波数特性の差分を示す図である。It is a figure which shows the difference of a set of frequency characteristics shown in FIG. 車載装置において音響特性を決定する動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure which determines an acoustic characteristic in a vehicle-mounted apparatus. 携帯端末装置の動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure of a portable terminal device. 聴取位置決定に必要な車載装置内の制御部の変形例を示す図である。It is a figure which shows the modification of the control part in a vehicle-mounted apparatus required for listening position determination. 聴取位置決定に必要な携帯端末装置内の制御部の変形例を示す図である。It is a figure which shows the modification of the control part in a portable terminal device required for listening position determination. 聴取位置までの距離算出に必要な車載装置の動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure of the vehicle-mounted apparatus required for distance calculation to a listening position. 聴取位置までの距離算出に必要な携帯端末装置の動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure of a portable terminal device required for the distance calculation to a listening position. 位相特性の一例を示す図である。It is a figure which shows an example of a phase characteristic. 2つの位相特性の差分を算出した結果を示す図である。It is a figure which shows the result of having calculated the difference of two phase characteristics.

以下、本発明を適用した一実施形態の車載システムについて、図面を参照しながら説明する。図1は、一実施形態の車載システムの構成を示す図である。図1に示すように、本実施形態の車載システムは、車載装置1と携帯端末装置90を含んで構成されている。   Hereinafter, an in-vehicle system according to an embodiment to which the present invention is applied will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of an in-vehicle system according to an embodiment. As shown in FIG. 1, the in-vehicle system according to the present embodiment includes an in-vehicle device 1 and a mobile terminal device 90.

車載装置1は、ナビゲーション処理部10、オーディオ処理部20、スピーカ22FR、22FL、22RR、22RL、操作部30、入力制御部32、表示処理部34、表示装置36、ハードディスク装置(HDD)40、制御部50、ブルートゥース(登録商標)・インタフェース部(BT IF)70を備えている。   The in-vehicle device 1 includes a navigation processing unit 10, an audio processing unit 20, speakers 22FR, 22FL, 22RR, 22RL, an operation unit 30, an input control unit 32, a display processing unit 34, a display device 36, a hard disk device (HDD) 40, and a control. Unit 50 and Bluetooth (registered trademark) interface unit (BT IF) 70.

ナビゲーション処理部10は、ハードディスク装置40に記憶されている地図データを用いて車載装置1が搭載された車両の走行を案内するナビゲーション動作を行う。自車位置を検出するGPS装置12とともに用いられ、車両の走行を案内するナビゲーション動作には、地図表示、経路探索・誘導のほかに周辺施設やPOI(Point Of Interest)を検索して表示する動作などが含まれる。なお、自車位置検出は、GPS12の他にジャイロセンサや車速センサ等の自律航法センサを組み合わせて用いるようにしてもよい。   The navigation processing unit 10 performs a navigation operation for guiding the traveling of the vehicle on which the in-vehicle device 1 is mounted, using the map data stored in the hard disk device 40. Used in conjunction with the GPS device 12 for detecting the position of the host vehicle, the navigation operation for guiding the running of the vehicle searches for and displays peripheral facilities and POIs (Point Of Interest) in addition to map display and route search / guidance. Etc. are included. The vehicle position detection may be performed using a combination of autonomous navigation sensors such as a gyro sensor and a vehicle speed sensor in addition to the GPS 12.

オーディオ処理部20は、圧縮されてハードディスク装置40に記憶されている音楽データ等を読み出して再生する処理を行う。なお、音楽データ等は、ディスク読取装置(図示せず)を用いてCDやDVDから読み取ったものを用いたり、携帯端末装置90等から送られてくるものをブルートゥース・インタフェース部70経由で受信して用いるようにしてもよい。本実施形態では、車内の前後左右の4箇所に4つのスピーカ、具体的には、運転席の右前にスピーカ22FRが、助手席の左前にスピーカ22FLが、後部座席の右後ろにスピーカ22RRが、後部座席の左後ろにスピーカ22RLが設置されている。これら4つのスピーカ22FR、22FL、22RR、22RLには、オーディオ処理部20から複数の聴取位置を考慮して互いに音圧や出力タイミング、位相などが制御されたオーディオ信号が入力され、各聴取位置において所定の音場が実現される。なお、スピーカの数は4以外であってもよい。   The audio processing unit 20 performs a process of reading and reproducing music data and the like that are compressed and stored in the hard disk device 40. Note that music data or the like is read from a CD or DVD using a disk reader (not shown), or received from the mobile terminal device 90 or the like via the Bluetooth interface unit 70. May be used. In the present embodiment, there are four speakers at the front, rear, left and right in the vehicle, specifically, the speaker 22FR at the front right of the driver's seat, the speaker 22FL at the front left of the passenger seat, and the speaker 22RR at the right rear of the rear seat, A speaker 22RL is installed at the rear left of the rear seat. These four speakers 22FR, 22FL, 22RR, and 22RL receive audio signals that are controlled in sound pressure, output timing, phase, and the like from the audio processing unit 20 in consideration of a plurality of listening positions. A predetermined sound field is realized. Note that the number of speakers may be other than four.

操作部30は、車載装置1に対する利用者による操作を受け付けるためのものであり、表示装置36の周囲に配置された各種の操作キー、操作スイッチ、操作つまみ等を含んで構成されている。また、表示装置36に各種の操作画面や入力画面が表示された時点で、これらの操作画面や入力画面の一部を利用者が指などで直接指し示すことにより、操作画面や入力画面の表示項目を選択することができるようになっており、このような操作画面や入力画面を用いた操作を可能とするために、指し示された指などの位置を検出するタッチパネルが操作部30の一部として備わっている。なお、タッチパネルを用いる代わりに、リモートコントロールユニット等を用いて操作画面や入力画面の一部を利用者の指示に応じて選択するようにしてもよい。入力制御部32は、操作部30を監視しており、その操作内容を決定する。   The operation unit 30 is for receiving an operation by the user on the in-vehicle device 1 and includes various operation keys, operation switches, operation knobs, and the like arranged around the display device 36. Further, when various operation screens and input screens are displayed on the display device 36, the display items of the operation screens and input screens can be obtained by directly pointing a part of these operation screens and input screens with a finger or the like. A touch panel that detects the position of the finger pointed to is a part of the operation unit 30 in order to enable operation using such an operation screen or an input screen. As provided. Instead of using the touch panel, a part of the operation screen or the input screen may be selected according to a user instruction using a remote control unit or the like. The input control unit 32 monitors the operation unit 30 and determines the operation content.

表示処理部34は、各種の操作画面や入力画面等を表示する映像信号を出力して表示装置36にこれらの画面を表示するとともに、ナビゲーション処理部10によるナビゲーション動作によって作成された地図画像等を表示する映像信号を出力して表示装置36にこれらの画面を表示する。表示装置36は、運転席と助手席の中央前方に設置されており、例えば液晶表示装置(LCD)を用いて構成されている。   The display processing unit 34 outputs video signals for displaying various operation screens, input screens, and the like, displays these screens on the display device 36, and displays map images and the like created by the navigation operation by the navigation processing unit 10. A video signal to be displayed is output and these screens are displayed on the display device 36. The display device 36 is installed in the center front of the driver seat and the passenger seat, and is configured by using, for example, a liquid crystal display device (LCD).

制御部50は、車載装置1の全体を制御するためのものであり、ROMやRAMなどに格納された所定のプログラムをCPUで実行することにより実現される。ブルートゥース・インタフェース部70は、ブルートゥースによって車載装置1と携帯端末装置90等との間で各種データの送受信を行う通信装置(ブルートゥース機器)である。   The control part 50 is for controlling the whole vehicle-mounted apparatus 1, and is implement | achieved by running the predetermined program stored in ROM, RAM, etc. by CPU. The Bluetooth interface unit 70 is a communication device (Bluetooth device) that transmits and receives various data between the in-vehicle device 1 and the mobile terminal device 90 and the like by Bluetooth.

また、上述した制御部50は、周囲のブルートゥース機器の検索やペアリングを行うとともに、車室内に配置された携帯端末装置90の位置を聴取位置としたときにこの聴取位置における音響特性の測定等を行うために、BT(ブルートゥース)処理部51、測定音出力部52、情報取得部53、差分算出部54、データベース(DB)検索部55、音源方向特定部56、マイク指向性補正部57、音響特性決定部58、補正特性決定部59を有する。   In addition, the control unit 50 described above searches and pairs the surrounding Bluetooth devices, and measures the acoustic characteristics at the listening position when the position of the mobile terminal device 90 disposed in the vehicle interior is set as the listening position. BT (Bluetooth) processing unit 51, measurement sound output unit 52, information acquisition unit 53, difference calculation unit 54, database (DB) search unit 55, sound source direction identification unit 56, microphone directivity correction unit 57, An acoustic characteristic determination unit 58 and a correction characteristic determination unit 59 are included.

BT処理部51は、携帯端末装置90との間でブルートゥースによるデータの送受信を行うために必要な設定、例えばペアリング設定などを行う。   The BT processing unit 51 performs settings necessary for transmitting / receiving data with the mobile terminal device 90 via Bluetooth, such as pairing settings.

測定音出力部52は、携帯端末装置90において音の特性情報を作成するために所定の測定音をスピーカから出力する。例えば、この測定音は、可聴帯域内の全ての周波数成分を含んでおり、スピーカ22FRから出力される。   The measurement sound output unit 52 outputs a predetermined measurement sound from the speaker in order to create sound characteristic information in the mobile terminal device 90. For example, this measurement sound includes all frequency components within the audible band and is output from the speaker 22FR.

情報取得部53は、スピーカ22FRから測定音を出力したときに、スピーカ22FRから離間した位置に配置された携帯端末装置90に備わったマイクロホンにより集音された音の特性情報を、携帯端末装置90の姿勢を異ならせて各姿勢に対応させて取得する。具体的には、この特性情報としては、周波数特性が用いられる。   When the measurement sound is output from the speaker 22FR, the information acquisition unit 53 uses the characteristic information of the sound collected by the microphone included in the mobile terminal device 90 disposed at a position separated from the speaker 22FR, as the mobile terminal device 90. Different postures are acquired to correspond to each posture. Specifically, frequency characteristics are used as the characteristic information.

差分算出部54は、情報取得部53によって取得した2種類の特性情報(周波数特性)の差分を算出する。   The difference calculation unit 54 calculates the difference between the two types of characteristic information (frequency characteristics) acquired by the information acquisition unit 53.

データベース検索部55は、差分算出部54によって算出された差分データに最も近い差分データを差分データベース(DB)55Aから検索する。この差分データベース55Aには、携帯端末装置90との位置関係が既知である音源から測定音を出力した状態で、携帯端末装置90の姿勢を変更しながら、携帯端末装置90に備わったマイクロホンにより集音された音の特性情報(周波数特性)を測定し、2つの姿勢に対応した特性情報の差分を算出する処理を、2つの姿勢の組み合わせを変更して行った結果が格納されている。この差分データベース55Aは、例えばハードディスク装置40に格納されている。   The database search unit 55 searches the difference database (DB) 55A for difference data closest to the difference data calculated by the difference calculation unit 54. The difference database 55A is collected by a microphone provided in the mobile terminal device 90 while changing the attitude of the mobile terminal device 90 in a state where measurement sound is output from a sound source whose positional relationship with the mobile terminal device 90 is known. Stored is a result of measuring the characteristic information (frequency characteristic) of the sound that is sounded and calculating the difference between the characteristic information corresponding to the two postures by changing the combination of the two postures. The difference database 55A is stored in the hard disk device 40, for example.

音源方向特定部56は、データベース検索部55によって検索された差分データに対応して既知の位置関係を有する音源(スピーカ22FR)の方向を特定する。   The sound source direction specifying unit 56 specifies the direction of the sound source (speaker 22FR) having a known positional relationship corresponding to the difference data searched by the database search unit 55.

音響特性決定部58は、音源方向特定部56によって特定された音源の方向に基づいて、差分データベースの中から最も近い差分データに対応する特性情報を特定し、この特性情報を用いて、音響空間内(車両の室内空間内)に配置された携帯端末装置90の位置を聴取位置としたときのその位置での音響特性を決定する。   Based on the direction of the sound source specified by the sound source direction specifying unit 56, the acoustic characteristic determining unit 58 specifies the characteristic information corresponding to the nearest difference data from the difference database, and using this characteristic information, the acoustic space The acoustic characteristic at the position when the position of the portable terminal device 90 arranged inside (in the vehicle interior space) is set as the listening position is determined.

補正特性決定部59は、音響特性決定部58によって決定された音響特性に基づいて、スピーカ22FRから出力するオーディオ音に対する補正特性を決定する。   The correction characteristic determination unit 59 determines a correction characteristic for the audio sound output from the speaker 22FR based on the acoustic characteristic determined by the acoustic characteristic determination unit 58.

上述した情報取得部53が特性取得手段に、差分算出部54が差分算出手段に、差分データベース55Aが差分データ格納手段に、データベース検索部55が差分データ検索手段に、音源方向特定部56が音源方向特定手段に、音響特性決定部58が音響特性決定手段に、補正特性決定部59が補正特性決定手段にそれぞれ対応する。   The information acquisition unit 53 described above is a characteristic acquisition unit, the difference calculation unit 54 is a difference calculation unit, the difference database 55A is a difference data storage unit, the database search unit 55 is a difference data search unit, and the sound source direction specifying unit 56 is a sound source. As the direction specifying means, the acoustic characteristic determination unit 58 corresponds to the acoustic characteristic determination means, and the correction characteristic determination unit 59 corresponds to the correction characteristic determination means.

図2は、携帯端末装置90の構成を示す図である。図2に示すように、本実施形態の携帯端末装置90は、一般にスマートフォンと称されるものであり、携帯電話機と携帯情報端末の機能を有する。この携帯端末装置90は、制御部100、操作部110、表示部112、デジタル−アナログ変換器(D/A)114、スピーカ116、マイクロホン118、アナログ−デジタル変換器(A/D)120、GPS(Global Positioning System)受信機130、姿勢センサ132、電話処理部140、ブルートゥース・インタフェース部(BT I/F)150を備えている。   FIG. 2 is a diagram illustrating a configuration of the mobile terminal device 90. As shown in FIG. 2, the mobile terminal device 90 of this embodiment is generally called a smartphone, and has functions of a mobile phone and a mobile information terminal. The portable terminal device 90 includes a control unit 100, an operation unit 110, a display unit 112, a digital-analog converter (D / A) 114, a speaker 116, a microphone 118, an analog-digital converter (A / D) 120, a GPS. (Global Positioning System) A receiver 130, an attitude sensor 132, a telephone processing unit 140, and a Bluetooth interface unit (BT I / F) 150 are provided.

制御部100は、携帯端末装置90の全体を制御するためのものであり、CPU、RAM、ROMなどを含んで構成され、RAMやROMに格納されたプログラムやメモリ(図示せず)に格納された各種のアプリケーションプログラムを実行することにより各種の動作を行う。   The control unit 100 is for controlling the entire mobile terminal device 90, and includes a CPU, a RAM, a ROM, etc., and is stored in a program or memory (not shown) stored in the RAM or ROM. Various operations are performed by executing various application programs.

操作部110は、テンキーやその他のキーおよび各種のスイッチを含んでおり、利用者の操作指示や各種の入力を受け付ける。タッチパネルで構成した操作部110を用いて、画面に表示したテンキー等を利用者が指等で指し示すようにしてもよい。表示部112は、LCD(液晶表示装置)等で構成されており、操作部110を用いた操作内容や制御部100による制御内容および処理内容(地図表示等)などが表示される。   The operation unit 110 includes a numeric keypad, other keys, and various switches, and accepts user operation instructions and various inputs. Using the operation unit 110 configured with a touch panel, the user may point the numeric keypad displayed on the screen with a finger or the like. The display unit 112 is configured by an LCD (Liquid Crystal Display) or the like, and displays operation content using the operation unit 110, control content and processing content (such as map display) by the control unit 100, and the like.

デジタル−アナログ変換器114は、携帯端末装置90を電話機として使用した際の音声データや、測定音データをアナログ信号に変換してスピーカ116から出力する。マイクロホン118は、周囲の音声や車載装置1のスピーカ22FRから出力される測定音を集音する。集音した音声や測定音は、アナログ−デジタル変換器120によってデジタルデータに変換される。   The digital-analog converter 114 converts voice data and measured sound data when the mobile terminal device 90 is used as a telephone into an analog signal and outputs the analog signal from the speaker 116. The microphone 118 collects ambient sound and measurement sound output from the speaker 22FR of the in-vehicle device 1. The collected sound and measurement sound are converted into digital data by the analog-digital converter 120.

GPS受信機130は、複数のGPS衛星から送信される信号を受信し、自装置の位置(自車位置)を示す測位データを所定の時間間隔で出力する。姿勢センサ132は、携帯端末装置90の姿勢を検出するセンサであって、具体的には3軸センサが用いられる。例えば、携帯端末装置90の筐体を薄型の直方体としたときに、対向する各面に平行にX軸、Y軸、Z軸を設定し、それぞれの軸周りの角度(図3に示した例では、X軸周りのピッチ、Y軸周りのロール、Z軸周りのヨー)が検出される。   The GPS receiver 130 receives signals transmitted from a plurality of GPS satellites, and outputs positioning data indicating the position of the own device (own vehicle position) at predetermined time intervals. The orientation sensor 132 is a sensor that detects the orientation of the mobile terminal device 90, and specifically, a 3-axis sensor is used. For example, when the casing of the mobile terminal device 90 is a thin rectangular parallelepiped, the X axis, the Y axis, and the Z axis are set in parallel to the opposing surfaces, and the angles around the respective axes (example shown in FIG. 3) Then, a pitch around the X axis, a roll around the Y axis, and a yaw around the Z axis are detected.

電話処理部140は、携帯電話機としての処理を行う。例えば、電話処理部140は、基地局との間で発着信処理を行って通話処理やインターネット接続処理等を行う。ブルートゥース・インタフェース部150は、ブルートゥースによって携帯端末装置90と車載装置1との間で各種データの送受信を行う通信装置(ブルートゥース機器)である。   The telephone processing unit 140 performs processing as a mobile phone. For example, the telephone processing unit 140 performs outgoing / incoming processing with a base station to perform telephone call processing, Internet connection processing, and the like. The Bluetooth interface unit 150 is a communication device (Bluetooth device) that transmits and receives various data between the mobile terminal device 90 and the in-vehicle device 1 by Bluetooth.

また、上述した制御部100は、周囲のブルートゥース機器の検索やペアリングを行うとともに、携帯端末装置90の姿勢の検出や測定音の集音、特性情報の作成を行い、それらの結果を車載装置1に送信するために、BT処理部101、姿勢検出部102、測定音集音部103、特性情報作成部104、情報送信部105を有する。   In addition, the control unit 100 described above searches and pairs with surrounding Bluetooth devices, detects the attitude of the mobile terminal device 90, collects measurement sound, and creates characteristic information. 1, a BT processing unit 101, an attitude detection unit 102, a measurement sound collection unit 103, a characteristic information creation unit 104, and an information transmission unit 105 are included.

BT処理部101は、車載装置1との間でブルートゥースによるデータの送受信を行うために必要な設定、例えばペアリング設定などを行う。   The BT processing unit 101 performs settings necessary for transmitting and receiving data with Bluetooth from the in-vehicle device 1, for example, pairing settings.

姿勢検出部102は、姿勢センサ132の出力に基づいて、携帯端末装置90の姿勢を検出し、この検出結果が含まれる姿勢情報を作成する。   The posture detection unit 102 detects the posture of the mobile terminal device 90 based on the output of the posture sensor 132 and creates posture information including the detection result.

測定音集音部103は、車載装置1のスピーカ22FRから出力される測定音をマイクロホン118で集音する。   The measurement sound collection unit 103 collects the measurement sound output from the speaker 22FR of the in-vehicle device 1 with the microphone 118.

特性情報作成部104は、測定音集音部103によって集音した測定音に基づいて、この測定音の特性情報を作成する。具体的には、一定時間集音した測定音の周波数特性が作成される。   The characteristic information creation unit 104 creates characteristic information of the measurement sound based on the measurement sound collected by the measurement sound collection unit 103. Specifically, the frequency characteristic of the measurement sound collected for a certain time is created.

情報送信部105は、姿勢検出部102によって作成された姿勢情報と、特性情報作成部104によって作成された特性情報とをブルートゥースによって車載装置1に向けて送信する。   The information transmission unit 105 transmits the posture information created by the posture detection unit 102 and the characteristic information created by the characteristic information creation unit 104 to the in-vehicle device 1 via Bluetooth.

本実施形態の車載システムはこのような構成を有しており、次に、車載装置1と携帯端末装置90とを連携させて、携帯端末装置90が配置された利用者の聴取位置における音響特性等を決定する動作を説明する。   The in-vehicle system of the present embodiment has such a configuration. Next, the in-vehicle device 1 and the mobile terminal device 90 are linked to each other, and the acoustic characteristics at the listening position of the user in which the mobile terminal device 90 is arranged. The operation for determining the above will be described.

図3は、車載装置1で用いられる差分データベース55Aの作成方法を示す図である。図3に示すスピーカSPと携帯端末装置90は、互いの位置関係が既知であって、無響室内に配置されている。そして、スピーカSPから可聴帯域内の全ての周波数成分を含む測定音が出力され、携帯端末装置90に備わったマイクロホン118(図2)で集音した結果に基づいて周波数特性が算出される。このような測定音の出力、集音および周波数特性の算出が、携帯端末装置90の姿勢を変更しながら行われる。例えば、携帯端末装置90の姿勢を3軸周りの角度(X軸周りのピッチ、Y軸周りのロール、Z軸周りのヨー)で表するものとすると、ピッチ、ロール、ヨーのそれぞれを10°(あるいは15°)ずつずらしながら、測定音の出力、集音および周波数特性の算出が行われる。さらに、このようにして得られた2つの周波数特性が取り出され、その差分が算出される。この算出によって得られる差分データは、2つの周波数特性の組み合わせに対応する数だけ存在し、各差分データとその算出の元となった周波数特性と各周波数特性に対応する姿勢情報とが一組となって差分データベース55Aが作成される。このようにして予め作成された差分データベース55Aが車載装置1のハードディスク装置40に格納されている。   FIG. 3 is a diagram illustrating a method of creating the difference database 55A used in the in-vehicle device 1. The speaker SP and the mobile terminal device 90 shown in FIG. 3 have a known positional relationship and are arranged in an anechoic chamber. Then, measurement sound including all frequency components within the audible band is output from the speaker SP, and the frequency characteristics are calculated based on the result of sound collection by the microphone 118 (FIG. 2) provided in the mobile terminal device 90. Such measurement sound output, sound collection, and frequency characteristic calculation are performed while changing the attitude of the mobile terminal device 90. For example, assuming that the attitude of the mobile terminal device 90 is expressed by angles around three axes (pitch around the X axis, roll around the Y axis, yaw around the Z axis), each of the pitch, roll, and yaw is 10 °. The measurement sound output, sound collection and frequency characteristics are calculated while shifting by (or 15 °). Further, the two frequency characteristics obtained in this way are taken out, and the difference between them is calculated. Difference data obtained by this calculation exists in the number corresponding to the combination of two frequency characteristics, and each difference data, the frequency characteristic that is the basis of the calculation, and the posture information corresponding to each frequency characteristic are a set. Thus, the difference database 55A is created. The differential database 55A created in advance in this way is stored in the hard disk device 40 of the in-vehicle device 1.

図4は、一組の周波数特性を示す図である。図4(A)は、姿勢a(例えば、ロール=0°、ピッチ=0°、ヨー=0°)のときの周波数特性であり、横軸が周波数を、縦軸が各周波数成分の信号強度を示している。また、図4(B)は、姿勢b(例えば、ロール=0°、ピッチ=0°、ヨー=90°)のときの周波数特性であり、横軸が周波数を、縦軸が各周波数成分の信号強度を示している。   FIG. 4 is a diagram illustrating a set of frequency characteristics. FIG. 4A shows frequency characteristics when the posture is a (for example, roll = 0 °, pitch = 0 °, yaw = 0 °), the horizontal axis indicates the frequency, and the vertical axis indicates the signal intensity of each frequency component. Is shown. FIG. 4B shows frequency characteristics when the posture is b (for example, roll = 0 °, pitch = 0 °, yaw = 90 °), the horizontal axis represents frequency, and the vertical axis represents each frequency component. Signal strength is shown.

図5は、図4に示した一組の周波数特性の差分を示す図である。図5に示す差分データは、横軸が周波数を、縦軸が信号強度の差分値を示している。図5に示す差分データが、図4に示す一組の周波数特性とそれぞれに対応する姿勢a、bとともに差分データベース55Aに格納される。   FIG. 5 is a diagram showing the difference between the set of frequency characteristics shown in FIG. In the difference data shown in FIG. 5, the horizontal axis indicates the frequency, and the vertical axis indicates the difference value of the signal intensity. The difference data shown in FIG. 5 is stored in the difference database 55A together with the set of frequency characteristics shown in FIG. 4 and the corresponding postures a and b.

図6は、車載装置1において音響特性を決定する動作手順を示す流れ図である。この動作手順を開始する時点で、携帯端末装置90は、利用者によって聴取位置(例えば、顔や耳の位置)に保持されているものとする。   FIG. 6 is a flowchart showing an operation procedure for determining acoustic characteristics in the in-vehicle device 1. It is assumed that the mobile terminal device 90 is held at the listening position (for example, the position of the face or ear) by the user at the time of starting this operation procedure.

まず、測定音出力部52は、姿勢Aを維持して携帯端末装置90の準備が完了したか否かを判定する(ステップ100)。本実施形態では、周波数特性を取得する携帯端末装置90の一方の姿勢をA、他方の姿勢をBとする。姿勢Aの準備が終了するまで否定判断が行われ、この判定が繰り返される。また、姿勢Aの準備が完了するとステップ100の判定において肯定判断が行われる。   First, the measurement sound output unit 52 determines whether or not the preparation of the mobile terminal device 90 is completed while maintaining the posture A (step 100). In the present embodiment, one posture of the mobile terminal device 90 that acquires frequency characteristics is A, and the other posture is B. A negative determination is made until the preparation of the posture A is completed, and this determination is repeated. Further, when the preparation for the posture A is completed, an affirmative determination is made in the determination of step 100.

また、測定音出力部52は、スピーカ22FRから所定の測定音を出力する(ステップ102)。その後、情報取得部53は、携帯端末装置90から送られてくる姿勢Aに対応する姿勢情報と特性情報をブルートゥースによって受信して取得する(ステップ104)。   The measurement sound output unit 52 outputs a predetermined measurement sound from the speaker 22FR (step 102). Thereafter, the information acquisition unit 53 receives and acquires posture information and characteristic information corresponding to the posture A sent from the mobile terminal device 90 by Bluetooth (step 104).

その後、姿勢Bについて同様の動作が行われる。すなわち、測定音出力部52は、姿勢Bを維持して携帯端末装置90の準備が完了したか否かを判定する(ステップ106)。姿勢Bの準備が終了するまで否定判断が行われ、この判定が繰り返される。また、姿勢Bの準備が完了するとステップ106の判定において肯定判断が行われる。次に、測定音出力部52は、スピーカ22FRから所定の測定音を出力する(ステップ108)。また、情報取得部53は、携帯端末装置90から送られてくる姿勢Bに対応する姿勢情報と特性情報をブルートゥースによって受信して取得する(ステップ110)。   Thereafter, the same operation is performed for the posture B. That is, the measurement sound output unit 52 determines whether or not the preparation of the mobile terminal device 90 is completed while maintaining the posture B (step 106). A negative determination is made until the preparation of posture B is completed, and this determination is repeated. Further, when the preparation for the posture B is completed, an affirmative determination is made in the determination of step 106. Next, the measurement sound output unit 52 outputs a predetermined measurement sound from the speaker 22FR (step 108). Further, the information acquisition unit 53 receives and acquires posture information and characteristic information corresponding to the posture B sent from the mobile terminal device 90 via Bluetooth (step 110).

次に、差分算出部54は、ステップ104、110で取得した2種類の特性情報(周波数特性)の差分を算出する(ステップ112)。また、データベース検索部55は、差分算出部54によって算出された差分データに最も近い差分データを差分データベース55Aから抽出する(ステップ114)。   Next, the difference calculation unit 54 calculates the difference between the two types of characteristic information (frequency characteristics) acquired in Steps 104 and 110 (Step 112). Further, the database search unit 55 extracts difference data closest to the difference data calculated by the difference calculation unit 54 from the difference database 55A (step 114).

次に、音源方向特定部56は、データベース検索部55によって検索された差分データに対応して既知の位置関係を有する音源(スピーカ22FR)の方向を特定する(ステップ116)。図3に示したように、この差分データを作成するために用いられた2種類の姿勢a、bとスピーカSPとの関係は予めわかっているため、用いる差分データを特定することができれば、スピーカ22FRに対応する携帯端末装置90の姿勢a、b、すなわち携帯端末装置90から見た音源(スピーカ22FR)の方向を知ることができる。また、この差分データを算出するために用いられた一方の周波数特性が姿勢aに対応するものであり、他方の周波数特性が姿勢bに対応するものであることが特定できる。これらの周波数特性は、姿勢a、bのそれぞれにおけるマイクロホン118の指向性を示すものであり、マイクロホン118の指向性に伴って姿勢a、bのそれぞれにおける各周波数成分の減衰の程度を知ることができる。   Next, the sound source direction specifying unit 56 specifies the direction of the sound source (speaker 22FR) having a known positional relationship corresponding to the difference data searched by the database search unit 55 (step 116). As shown in FIG. 3, since the relationship between the two types of postures a and b used to create the difference data and the speaker SP is known in advance, if the difference data to be used can be specified, the speaker It is possible to know the postures a and b of the mobile terminal device 90 corresponding to 22FR, that is, the direction of the sound source (speaker 22FR) viewed from the mobile terminal device 90. Further, it can be specified that one frequency characteristic used for calculating the difference data corresponds to the posture a, and the other frequency characteristic corresponds to the posture b. These frequency characteristics indicate the directivity of the microphone 118 in each of the postures a and b, and the degree of attenuation of each frequency component in each of the postures a and b can be known along with the directivity of the microphone 118. it can.

次に、音響特性決定部58は、音源方向特定部56によって特定された音源の方向に基づいて、差分データベース55Aの中から最も近い差分データに対応する特性情報(周波数特性)を特定し、この周波数特性を用いて、音響空間内に配置された携帯端末装置90の位置を聴取位置としたときのその位置での音響特性を決定する(ステップ118)。   Next, the acoustic characteristic determination unit 58 specifies the characteristic information (frequency characteristic) corresponding to the nearest difference data from the difference database 55A based on the direction of the sound source specified by the sound source direction specifying unit 56. Using the frequency characteristic, the acoustic characteristic at the position when the position of the mobile terminal device 90 arranged in the acoustic space is set as the listening position is determined (step 118).

上述したように、差分データベース55Aの中から特定された最も近い差分データに対応する姿勢a、bの周波数特性は、それぞれの姿勢における各周波数成分の減衰の程度を示すものである。一方、ステップ104、110において取得された周波数特性は、マイクロホン118の指向性に起因する減衰に加え、車室内空間を形成する壁面や座席等による影響などのその他の要因も加味されたものといえる。したがって、ステップ104、110において取得された周波数特性に対して、各姿勢における各周波数成分の減衰の程度を打ち消すように補正を行うことにより、実際の音響空間内での聴取位置における音響特性を決定することができる。   As described above, the frequency characteristics of the postures a and b corresponding to the closest difference data specified from the difference database 55A indicate the degree of attenuation of each frequency component in each posture. On the other hand, it can be said that the frequency characteristics acquired in steps 104 and 110 take into account other factors such as the influence of wall surfaces and seats forming the vehicle interior space in addition to the attenuation due to the directivity of the microphone 118. . Therefore, the acoustic characteristics at the listening position in the actual acoustic space are determined by correcting the frequency characteristics acquired in steps 104 and 110 so as to cancel out the degree of attenuation of each frequency component in each posture. can do.

次に、補正特性決定部59は、音響特性決定部58によって決定された音響特性に基づいて、スピーカ22FRから出力するオーディオ音に対する補正特性を決定する(ステップ120)。この補正特性とは、マイクロホン118の指向性以外の要因による周波数特性の減衰等を打ち消すための特性であり、ステップ118で特定された音響特性を各周波数成分がフラットな周波数特性に戻すためのフィルタ特性に相当する。このような補正特性を決定することができれば、実際の音響空間毎の違いを相殺して理想的な音場を実現することが可能となる。   Next, the correction characteristic determination unit 59 determines a correction characteristic for the audio sound output from the speaker 22FR based on the acoustic characteristic determined by the acoustic characteristic determination unit 58 (step 120). This correction characteristic is a characteristic for canceling the attenuation of the frequency characteristic due to factors other than the directivity of the microphone 118, and a filter for returning the acoustic characteristic specified in step 118 to a frequency characteristic in which each frequency component is flat. It corresponds to a characteristic. If such a correction characteristic can be determined, an ideal sound field can be realized by offsetting the difference between actual acoustic spaces.

図7は、携帯端末装置90の動作手順を示す流れ図である。まず、姿勢検出部102は、姿勢センサ132の出力に基づいて、姿勢Aの準備が完了したか否かを判定する(ステップ200)。例えば、利用者が携帯端末装置90を姿勢Aで保持して操作部110を用いて所定の操作を行ったときに姿勢Aの準備が完了したものとする。準備が完了していない場合には否定判断が行われ、この判定が繰り返される。また、姿勢Aの準備が完了するとステップ200の判定において肯定判断が行われる。この場合には、姿勢検出部102は、姿勢Aの準備が完了した旨をブルートゥースによって車載装置1に通知する(ステップ202)。   FIG. 7 is a flowchart showing an operation procedure of the mobile terminal device 90. First, the posture detection unit 102 determines whether or not the preparation of the posture A is completed based on the output of the posture sensor 132 (step 200). For example, it is assumed that the preparation of the posture A is completed when the user holds the mobile terminal device 90 in the posture A and performs a predetermined operation using the operation unit 110. If the preparation is not completed, a negative determination is made and this determination is repeated. Further, when the preparation for the posture A is completed, an affirmative determination is made in the determination of step 200. In this case, the posture detection unit 102 notifies the in-vehicle device 1 via Bluetooth that the preparation of the posture A has been completed (step 202).

次に、姿勢検出部102は、姿勢センサ132の出力に基づいて、携帯端末装置90の姿勢を検出し(ステップ204)、この検出結果が含まれる姿勢情報を作成する(ステップ206)。   Next, the posture detection unit 102 detects the posture of the mobile terminal device 90 based on the output of the posture sensor 132 (step 204), and creates posture information including the detection result (step 206).

また、測定音集音部103は、車載装置1のスピーカ22FRから出力される測定音をマイクロホン118で集音する(ステップ208)。特性情報作成部104は、測定音集音部103によって集音した測定音に基づいて、この測定音の特性情報を作成(周波数特性を算出)する(ステップ210)。その後、情報送信部105は、姿勢検出部102によって作成された姿勢情報と、特性情報作成部104によって作成された特性情報とをブルートゥースによって車載装置1に向けて送信する(ステップ212)。   In addition, the measurement sound collection unit 103 collects the measurement sound output from the speaker 22FR of the in-vehicle device 1 with the microphone 118 (step 208). The characteristic information creation unit 104 creates characteristic information (calculates frequency characteristics) of the measurement sound based on the measurement sound collected by the measurement sound collection unit 103 (step 210). Thereafter, the information transmission unit 105 transmits the posture information created by the posture detection unit 102 and the characteristic information created by the characteristic information creation unit 104 to the in-vehicle device 1 via Bluetooth (step 212).

その後、姿勢Bについて同様の動作が行われる。すなわち、姿勢検出部102は、姿勢センサ132の出力に基づいて、姿勢Bの準備が完了したか否かを判定する(ステップ214)。例えば、利用者が携帯端末装置90を姿勢Bで保持して操作部110を用いて所定の操作を行ったときに姿勢Bの準備が完了したものとする。準備が完了していない場合には否定判断が行われ、この判定が繰り返される。また、姿勢Bの準備が完了するとステップ214の判定において肯定判断が行われる。この場合には、姿勢検出部102は、姿勢Bの準備が完了した旨をブルートゥースによって車載装置1に通知する(ステップ216)。   Thereafter, the same operation is performed for the posture B. That is, the posture detection unit 102 determines whether or not the preparation for the posture B is completed based on the output of the posture sensor 132 (step 214). For example, it is assumed that the preparation of the posture B is completed when the user holds the mobile terminal device 90 in the posture B and performs a predetermined operation using the operation unit 110. If the preparation is not completed, a negative determination is made and this determination is repeated. When the preparation for posture B is completed, an affirmative determination is made in the determination of step 214. In this case, the posture detection unit 102 notifies the in-vehicle device 1 via Bluetooth that the preparation of the posture B is completed (step 216).

次に、姿勢検出部102は、姿勢センサ132の出力に基づいて、携帯端末装置90の姿勢を検出し(ステップ218)、この検出結果が含まれる姿勢情報を作成する(ステップ220)。   Next, the posture detection unit 102 detects the posture of the mobile terminal device 90 based on the output of the posture sensor 132 (step 218), and creates posture information including the detection result (step 220).

また、測定音集音部103は、車載装置1のスピーカ22FRから出力される測定音をマイクロホン118で集音する(ステップ222)。特性情報作成部104は、測定音集音部103によって集音した測定音に基づいて、この測定音の特性情報を作成(周波数特性を算出)する(ステップ224)。その後、情報送信部105は、姿勢検出部102によって作成された姿勢情報と、特性情報作成部104によって作成された特性情報とをブルートゥースによって車載装置1に向けて送信する(ステップ226)。   In addition, the measurement sound collection unit 103 collects the measurement sound output from the speaker 22FR of the in-vehicle device 1 with the microphone 118 (step 222). The characteristic information creation unit 104 creates characteristic information (calculates frequency characteristics) of the measurement sound based on the measurement sound collected by the measurement sound collection unit 103 (step 224). Thereafter, the information transmission unit 105 transmits the posture information created by the posture detection unit 102 and the characteristic information created by the characteristic information creation unit 104 to the in-vehicle device 1 via Bluetooth (step 226).

このように、本実施形態の車載システムでは、携帯端末装置90のマイクロホン118で集音した音の特性情報の2つの姿勢間の差分を算出し、携帯端末装置90との位置関係が既知である音源を用いた同種の差分データの中から近いものを抽出することにより、音響空間内に配置された携帯端末装置90に対する音源(スピーカ22FR)の方向を特定することができるため、マイクロホン118の指向性による影響を取り除くことができ、携帯端末装置90の向きに起因する音響特性の測定精度の低下を抑制することができる。   As described above, in the in-vehicle system of the present embodiment, the difference between the two postures of the characteristic information of the sound collected by the microphone 118 of the portable terminal device 90 is calculated, and the positional relationship with the portable terminal device 90 is known. By extracting close ones of the same kind of difference data using the sound source, the direction of the sound source (speaker 22FR) with respect to the mobile terminal device 90 arranged in the acoustic space can be specified. The influence by the property can be removed, and the decrease in the measurement accuracy of the acoustic characteristics due to the orientation of the mobile terminal device 90 can be suppressed.

また、スピーカ22FRから出力される測定音と、差分データベース55Aに格納された差分データの算出を行うために用いられる測定音は、可聴帯域内の全ての周波数成分を含んでいる。これにより、音源の方向がわかったときに、携帯端末装置90の向きによって変化する特性(指向性)を無響室での測定結果から得ることができるため、携帯端末装置90に組み込まれたマイクロホン118の実際の指向性を知ることができ、携帯端末装置90の向きに起因する音響特性の測定精度の低下をさらに抑制することができる。   In addition, the measurement sound output from the speaker 22FR and the measurement sound used for calculating the difference data stored in the difference database 55A include all frequency components within the audible band. Thereby, when the direction of the sound source is known, a characteristic (directivity) that changes depending on the orientation of the mobile terminal device 90 can be obtained from the measurement result in the anechoic chamber. The actual directivity of 118 can be known, and the deterioration of the measurement accuracy of the acoustic characteristics due to the orientation of the mobile terminal device 90 can be further suppressed.

また、音響特性決定部58によって決定された音響特性に基づいて、スピーカ22FRから出力するオーディオ音に対する補正特性を決定する補正特性決定部59を備えている。特に、この補正特性を、スピーカ22FRから聴取位置に到達するまでに発生する周波数成分の減衰分を補償する特性とすることにより、聴取位置において理想的な音響特性を実現することが可能となる。   In addition, a correction characteristic determination unit 59 that determines a correction characteristic for the audio sound output from the speaker 22FR based on the acoustic characteristic determined by the acoustic characteristic determination unit 58 is provided. In particular, it is possible to realize ideal acoustic characteristics at the listening position by making the correction characteristic compensate for the attenuation of the frequency component generated before reaching the listening position from the speaker 22FR.

なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。例えば、上述した実施形態では、車室内空間における聴取位置の音響特性や、聴取位置において理想的な音響特性を実現するために必要な補正特性を求めるようにしたが、携帯端末装置90に対する音源(スピーカ22FR)の向きがわかることから、これらの間の距離を求めることで、車室内空間における携帯端末装置90の位置(聴取位置)を決定するようにしてもよい。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation implementation is possible within the range of the summary of this invention. For example, in the above-described embodiment, the acoustic characteristics of the listening position in the vehicle interior space and the correction characteristics necessary for realizing the ideal acoustic characteristics at the listening position are obtained. Since the direction of the speaker 22FR) is known, the position (listening position) of the mobile terminal device 90 in the vehicle interior space may be determined by obtaining the distance between them.

図8は、聴取位置決定に必要な車載装置1内の制御部の変形例を示す図である。図8に示す制御部50Aは、図1に示した制御部50に対して、時刻設定部60、到達時刻取得部61、距離算出部62、聴取位置決定部63が追加された点が異なっている。その他の構成は、図1に示した車載装置1と同じであり、詳細な説明は省略する。   FIG. 8 is a diagram illustrating a modification of the control unit in the in-vehicle device 1 necessary for determining the listening position. The control unit 50A shown in FIG. 8 differs from the control unit 50 shown in FIG. 1 in that a time setting unit 60, an arrival time acquisition unit 61, a distance calculation unit 62, and a listening position determination unit 63 are added. Yes. Other configurations are the same as those of the in-vehicle device 1 shown in FIG. 1, and detailed description thereof is omitted.

時刻設定部60は、車載装置1の動作と携帯端末装置90の動作を、時刻同期したタイミングで行うために、これらの動作に共通の時刻を設定する。例えば、GPS受信機12によってGPS衛星から受信した信号に含まれる時刻情報に同期するように時刻の設定が行われる。   The time setting unit 60 sets a time common to these operations in order to perform the operation of the in-vehicle device 1 and the operation of the mobile terminal device 90 at timing synchronized with each other. For example, the time is set so as to be synchronized with the time information included in the signal received from the GPS satellite by the GPS receiver 12.

到達時刻取得部61は、スピーカ22FRから出力された測定音が携帯端末装置90に到達した時刻を取得する。例えば、携帯端末装置90から測定音の到達時刻を含む情報がブルートゥースによって送信され、この情報から到達時刻が抽出される。   The arrival time acquisition unit 61 acquires the time when the measurement sound output from the speaker 22FR reaches the mobile terminal device 90. For example, information including the arrival time of the measurement sound is transmitted from the mobile terminal device 90 via Bluetooth, and the arrival time is extracted from this information.

距離算出部62は、スピーカ22FRから出力された測定音が携帯端末装置90に到達するまでの所要時間を取得し、この所要時間に基づいてスピーカ22FRから携帯端末装置90までの距離を算出する。   The distance calculation unit 62 acquires a required time until the measurement sound output from the speaker 22FR reaches the mobile terminal device 90, and calculates a distance from the speaker 22FR to the mobile terminal device 90 based on the required time.

聴取位置決定部63は、距離算出部62によって算出された距離と、音源方向特定部56によって特定された音源(スピーカ22FR)の方向とに基づいて、聴取位置(携帯端末装置90の位置)を決定する。   The listening position determination unit 63 determines the listening position (the position of the mobile terminal device 90) based on the distance calculated by the distance calculation unit 62 and the direction of the sound source (speaker 22FR) specified by the sound source direction specifying unit 56. decide.

図9は、聴取位置決定に必要な携帯端末装置90内の制御部の変形例を示す図である。図9に示す制御部100Aは、図2に示した制御部100に対して、時刻設定部106、到達時刻送信部107が追加された点が異なっている。その他の構成は、図2に示した携帯端末装置90と同じであり、詳細な説明は省略する。   FIG. 9 is a diagram illustrating a modification of the control unit in the mobile terminal device 90 necessary for determining the listening position. The control unit 100A illustrated in FIG. 9 is different from the control unit 100 illustrated in FIG. 2 in that a time setting unit 106 and an arrival time transmission unit 107 are added. The other configuration is the same as that of the mobile terminal device 90 shown in FIG. 2, and detailed description thereof is omitted.

時刻設定部106は、車載装置1の動作と携帯端末装置90の動作を、時刻同期したタイミングで行うために、これらの動作に共通の時刻を設定する。例えば、GPS受信機130によってGPS衛星から受信した信号に含まれる時刻情報に同期するように時刻の設定が行われる。   The time setting unit 106 sets a time common to these operations in order to perform the operation of the in-vehicle device 1 and the operation of the mobile terminal device 90 at timing synchronized with each other. For example, the time is set so as to be synchronized with the time information included in the signal received from the GPS satellite by the GPS receiver 130.

到達時刻送信部107は、測定音集音部103によって集音された測定音の到達時刻を含む情報をブルートゥースによって車載装置1に向けて送信する。   The arrival time transmitting unit 107 transmits information including the arrival time of the measurement sound collected by the measurement sound collecting unit 103 to the in-vehicle device 1 via Bluetooth.

図10は、聴取位置までの距離算出に必要な車載装置1の動作手順を示す流れ図である。最初に、時刻設定部60は、GPS衛星から受信した信号に含まれる時刻情報に同期するように時刻を設定する(ステップ300)。   FIG. 10 is a flowchart showing an operation procedure of the in-vehicle device 1 necessary for calculating the distance to the listening position. First, the time setting unit 60 sets the time so as to synchronize with the time information included in the signal received from the GPS satellite (step 300).

次に、測定音出力部52は、スピーカ22FRから、所定の時刻t1に測定音を出力する(ステップ302)。この測定音が携帯端末装置90に到達すると、この携帯端末装置90からはこの測定音の到達時刻が送信され、到達時刻取得部61は、この到達時刻を受信して取得する(ステップ304)。   Next, the measurement sound output unit 52 outputs the measurement sound from the speaker 22FR at a predetermined time t1 (step 302). When the measurement sound reaches the mobile terminal device 90, the arrival time of the measurement sound is transmitted from the mobile terminal device 90, and the arrival time acquisition unit 61 receives and acquires the arrival time (step 304).

次に、距離算出部62は、スピーカ22FRから出力された測定音が携帯端末装置90に到達するまでの所要時間を取得(算出)し、この所要時間に基づいてスピーカ22FRから携帯端末装置90までの距離を算出する(ステップ306)。   Next, the distance calculation unit 62 acquires (calculates) a required time until the measurement sound output from the speaker 22FR reaches the mobile terminal device 90, and from the speaker 22FR to the mobile terminal device 90 based on the required time. Is calculated (step 306).

図11は、聴取位置までの距離算出に必要な携帯端末装置90の動作手順を示す流れ図である。まず、時刻設定部106は、GPS衛星から受信した信号に含まれる時刻情報に同期するように時刻を設定する(ステップ400)。次に、測定音集音部103は、車載装置1のスピーカ22FRから出力された測定音をマイクロホン118で集音し(ステップ402)、到達時刻送信部107は、この測定音の到達時刻を車載装置1に向けて送信する(ステップ404)。   FIG. 11 is a flowchart showing an operation procedure of the mobile terminal device 90 necessary for calculating the distance to the listening position. First, the time setting unit 106 sets the time so as to synchronize with the time information included in the signal received from the GPS satellite (step 400). Next, the measurement sound collecting unit 103 collects the measurement sound output from the speaker 22FR of the in-vehicle device 1 with the microphone 118 (step 402), and the arrival time transmitting unit 107 determines the arrival time of the measurement sound on the vehicle. It transmits toward the apparatus 1 (step 404).

車載装置1の聴取位置決定部63は、このようにして距離算出部62によって算出された距離(図10のステップ306)と、音源方向特定部56によって特定された音源の方向(図6のステップ116)とに基づいて、聴取位置としての携帯端末装置90の位置を決定することができる。これにより、指向性を有する携帯端末装置のマイクロホンを用いた場合であっても、正確な聴取位置を求めることが可能となる。   The listening position determination unit 63 of the in-vehicle device 1 performs the distance calculated in this manner by the distance calculation unit 62 (step 306 in FIG. 10) and the direction of the sound source specified by the sound source direction specifying unit 56 (step in FIG. 6). 116), the position of the mobile terminal device 90 as the listening position can be determined. Thereby, even when a microphone of a portable terminal device having directivity is used, an accurate listening position can be obtained.

また、上述した実施形態では、差分を算出する対象となる2つの特性情報として周波数特性を用いたが、その他の特性情報を用いるようにしてもよい。例えば、周波数特性の代わりに位相特性を用いるようにしてもよい。図12は、位相特性の一例を示す図である。図12において、横軸は経過時間を、縦軸は信号強度を示している。また、図13は、2つの位相特性の差分を算出した結果を示す図である。図13において、横軸は経過時間を、縦軸は信号強度の差分値を示している。   In the above-described embodiment, the frequency characteristic is used as the two characteristic information for which the difference is calculated. However, other characteristic information may be used. For example, phase characteristics may be used instead of frequency characteristics. FIG. 12 is a diagram illustrating an example of phase characteristics. In FIG. 12, the horizontal axis represents elapsed time, and the vertical axis represents signal intensity. FIG. 13 is a diagram illustrating a result of calculating a difference between two phase characteristics. In FIG. 13, the horizontal axis indicates the elapsed time, and the vertical axis indicates the difference value of the signal intensity.

また、上述した実施形態では、車両の室内空間を音響空間として本発明を適用したが、屋内の室内空間を音響空間とする場合や、屋外その他の音響空間についても本発明を適用して、特定の聴取位置における音響特性等を決定するようにしてもよい。   In the above-described embodiment, the present invention is applied with the vehicle interior space as the acoustic space. However, the present invention is also applied to the case where the indoor interior space is the acoustic space, or the outdoor acoustic space. The acoustic characteristics at the listening position may be determined.

上述したように、本発明によれば、携帯端末装置のマイクロホンで集音した音の特性情報の2つの姿勢間の差分を算出し、携帯端末装置との位置関係が既知である音源を用いた同種の差分データの中から近いものを抽出することにより、音響空間内に配置された携帯端末装置に対する音源(スピーカ)の方向を特定することができるため、マイクロホンの指向性による影響を取り除くことができ、携帯端末装置の向きに起因する音響特性の測定精度の低下を抑制することができる。   As described above, according to the present invention, the difference between the two postures of the characteristic information of the sound collected by the microphone of the mobile terminal device is calculated, and the sound source whose positional relationship with the mobile terminal device is known is used. By extracting the closest of the same type of difference data, the direction of the sound source (speaker) with respect to the mobile terminal device arranged in the acoustic space can be specified, so that the influence of the directivity of the microphone can be removed. It is possible to suppress a decrease in measurement accuracy of acoustic characteristics due to the orientation of the mobile terminal device.

1 車載装置
12、130 GPS受信機
22FR、22FL、22RR、22R、116 スピーカ
50、100 制御部
70、150 ブルートゥース・インタフェース部(BT IF)
51、101 BT(ブルートゥース)処理部
52 測定音出力部
53 情報取得部
54 差分算出部
55 データベース(DB)検索部
56 音源方向特定部
58 音響特性決定部
59 補正特性決定部
60、106 時刻設定部
61 到達時刻取得部
62 距離算出部
63 聴取位置算出部
90 携帯端末装置
118 マイクロホン
1 In-vehicle device 12, 130 GPS receiver 22FR, 22FL, 22RR, 22R, 116 Speaker 50, 100 Control unit 70, 150 Bluetooth interface unit (BT IF)
51, 101 BT (Bluetooth) processing unit 52 Measurement sound output unit 53 Information acquisition unit 54 Difference calculation unit 55 Database (DB) search unit 56 Sound source direction identification unit 58 Acoustic characteristic determination unit 59 Correction characteristic determination unit 60, 106 Time setting unit 61 arrival time acquisition unit 62 distance calculation unit 63 listening position calculation unit 90 mobile terminal device 118 microphone

Claims (11)

音響空間内に設置されたスピーカと、
前記スピーカから所定の測定音を出力したときに、前記スピーカから離間した位置に配置された携帯端末装置に備わったマイクロホンにより集音された音の特性情報を、前記携帯端末装置の姿勢を異ならせて各姿勢に対応させて取得する特性取得手段と、
前記特性取得手段によって取得した2種類の特性情報の差分を算出する差分算出手段と、
前記携帯端末装置との位置関係が既知である音源から測定音を出力した状態で、前記携帯端末装置の姿勢を変更しながら、前記携帯端末装置に備わった前記マイクロホンにより集音された音の特性情報を測定し、2つの姿勢に対応した前記特性情報の差分を算出する処理を、前記2つの姿勢の組み合わせを変更して行った結果を格納した差分データ格納手段と、
前記差分算出手段によって算出された差分データに最も近い差分データを前記差分データ格納手段から検索する差分データ検索手段と、
前記差分データ検索手段によって検索された差分データに対応して既知の位置関係を有する前記音源の方向を特定する音源方向特定手段と、
前記音源方向特定手段によって特定された前記音源の方向に基づいて、前記最も近い差分データに対応する特性情報を特定し、この特性情報を用いて、前記音響空間内に配置された前記携帯端末装置を聴取位置としたときのその位置での音響特性を決定する音響特性決定手段と、
を備えることを特徴とする音響特性測定装置。
A speaker installed in the acoustic space;
When the predetermined measurement sound is output from the speaker, the characteristic information of the sound collected by the microphone provided in the mobile terminal device arranged at a position separated from the speaker is changed to the posture of the mobile terminal device. Characteristic acquisition means for acquiring corresponding to each posture;
A difference calculating means for calculating a difference between two types of characteristic information acquired by the characteristic acquiring means;
Characteristics of sound collected by the microphone provided in the mobile terminal device while changing the attitude of the mobile terminal device in a state where measurement sound is output from a sound source whose positional relationship with the mobile terminal device is known A difference data storage unit that stores a result of measuring information and calculating a difference between the characteristic information corresponding to two postures by changing a combination of the two postures;
Difference data search means for searching the difference data closest to the difference data calculated by the difference calculation means from the difference data storage means;
Sound source direction specifying means for specifying the direction of the sound source having a known positional relationship corresponding to the difference data searched by the difference data search means;
Based on the direction of the sound source specified by the sound source direction specifying means, characteristic information corresponding to the nearest difference data is specified, and the portable terminal device arranged in the acoustic space using this characteristic information Acoustic characteristic determining means for determining the acoustic characteristics at that position when
An acoustic characteristic measuring apparatus comprising:
請求項1において、
前記差分データ格納手段に格納された差分データの算出を行うために行われた前記特性情報の測定は無響室において行われることを特徴とする音響特性測定装置。
In claim 1,
The acoustic characteristic measurement apparatus according to claim 1, wherein the measurement of the characteristic information performed to calculate the differential data stored in the differential data storage means is performed in an anechoic room.
請求項2において、
前記スピーカから出力される前記測定音と、前記前記差分データ格納手段に格納された差分データの算出を行うために用いられる前記測定音は、可聴帯域内の全ての周波数成分を含んでいることを特徴とする音響特性測定装置。
In claim 2,
The measurement sound output from the speaker and the measurement sound used for calculating the difference data stored in the difference data storage means include all frequency components within an audible band. A characteristic acoustic characteristic measuring device.
請求項1〜3のいずれか一項において、
前記音響特性決定手段によって決定された音響特性に基づいて、前記スピーカから出力するオーディオ音に対する補正特性を決定する補正特性決定手段をさらに備えることを特徴とする音響特性測定装置。
In any one of Claims 1-3,
An acoustic characteristic measuring apparatus, further comprising: a correction characteristic determining unit that determines a correction characteristic for the audio sound output from the speaker based on the acoustic characteristic determined by the acoustic characteristic determining unit.
請求項4において、
前記特性情報は、周波数特性であることを特徴とする音響特性測定装置。
In claim 4,
The acoustic characteristic measuring device, wherein the characteristic information is a frequency characteristic.
請求項5において、
前記補正特性は、前記スピーカから前記聴取位置に到達するまでに発生する周波数成分の減衰分を補償する特性であることを特徴とする音響特定測定装置。
In claim 5,
The acoustic specific measurement apparatus according to claim 1, wherein the correction characteristic is a characteristic that compensates for an attenuation of a frequency component that occurs before the speaker reaches the listening position.
請求項1〜6のいずれかにおいて、
前記スピーカから出力される前記測定音が前記携帯端末装置に到達するまでの所要時間を取得し、この所要時間に基づいて前記スピーカから前記携帯端末装置までの距離を算出する距離算出手段と、
前記距離算出手段によって算出された距離と、前記音源方向特定手段によって特定された前記音源の方向とに基づいて前記聴取位置を決定する聴取位置決定手段と、
をさらに備えることを特徴とする音響特性測定装置。
In any one of Claims 1-6,
A distance calculating unit that obtains a required time until the measurement sound output from the speaker reaches the mobile terminal device, and calculates a distance from the speaker to the mobile terminal device based on the required time;
Listening position determining means for determining the listening position based on the distance calculated by the distance calculating means and the direction of the sound source specified by the sound source direction specifying means;
An acoustic characteristic measuring device further comprising:
請求項1〜7のいずれか一項において、
前記音響空間は、車両の室内空間であることを特徴とする音響特性測定装置。
In any one of Claims 1-7,
The acoustic characteristic measuring apparatus, wherein the acoustic space is an interior space of a vehicle.
請求項1〜7のいずれか一項において、
前記音響空間は、屋内の室内空間であることを特徴とする音響特性測定装置。
In any one of Claims 1-7,
The acoustic characteristic measuring apparatus, wherein the acoustic space is an indoor space.
音響空間内に設置されたスピーカから所定の測定音を出力したときに、前記スピーカから離間した位置に配置された携帯端末装置に備わったマイクロホンにより集音された音の特性情報を、前記携帯端末装置の姿勢を異ならせて各姿勢に対応させて特性取得手段によって取得するステップと、
前記特性取得手段によって取得した2種類の特性情報の差分を差分算出手段によって算出するステップと、
前記携帯端末装置との位置関係が既知である音源から測定音を出力した状態で、前記携帯端末装置の姿勢を変更しながら、前記携帯端末装置に備わった前記マイクロホンにより集音された音の特性情報を測定し、2つの姿勢に対応した前記特性情報の差分を算出する処理を、前記2つの姿勢の組み合わせを変更しながら行った結果を格納した差分データ格納手段を用いるステップであって、前記差分算出手段によって算出された差分データに最も近い差分データを前記差分データ格納手段から差分データ検索手段によって検索するステップと、
前記差分データ検索手段によって検索された差分データに対応して既知の位置関係を有する前記音源の方向を音源方向特定手段によって特定するステップと、
前記音源方向特定手段によって特定された前記音源の方向に基づいて、前記最も近い差分データに対応する特性情報を特定し、この特性情報を用いて、前記音響空間内に配置された前記携帯端末装置を聴取位置としたときのその位置での音響特性を音響特性決定手段によって決定するステップと、
を有することを特徴とする音響特性測定方法。
When the predetermined measurement sound is output from the speaker installed in the acoustic space, the characteristic information of the sound collected by the microphone provided in the portable terminal device arranged at a position away from the speaker is obtained from the portable terminal. Obtaining the characteristic acquisition means corresponding to each posture by changing the posture of the device;
Calculating a difference between the two types of characteristic information acquired by the characteristic acquisition means by a difference calculation means;
Characteristics of sound collected by the microphone provided in the mobile terminal device while changing the attitude of the mobile terminal device in a state where measurement sound is output from a sound source whose positional relationship with the mobile terminal device is known Measuring the information and calculating the difference between the characteristic information corresponding to two postures, using a difference data storage means storing a result obtained by changing the combination of the two postures, Searching for difference data closest to the difference data calculated by the difference calculation means from the difference data storage means by the difference data search means;
Identifying a direction of the sound source having a known positional relationship corresponding to the difference data searched by the difference data search means by a sound source direction specifying means;
Based on the direction of the sound source specified by the sound source direction specifying means, characteristic information corresponding to the nearest difference data is specified, and the portable terminal device arranged in the acoustic space using this characteristic information Determining the acoustic characteristics at the position when the position is the listening position by the acoustic characteristic determination means;
A method for measuring acoustic characteristics, comprising:
コンピュータを、
音響空間内に設置されたスピーカから所定の測定音を出力したときに、前記スピーカから離間した位置に配置された携帯端末装置に備わったマイクロホンにより集音された音の特性情報を、前記携帯端末装置の姿勢を異ならせて各姿勢に対応させて取得する特性取得手段と、
前記特性取得手段によって取得した2種類の特性情報の差分を算出する差分算出手段と、
前記携帯端末装置との位置関係が既知である音源から測定音を出力した状態で、前記携帯端末装置の姿勢を変更しながら、前記携帯端末装置に備わった前記マイクロホンにより集音された音の特性情報を測定し、2つの姿勢に対応した前記特性情報の差分を算出する処理を、前記2つの姿勢の組み合わせを変更して行った結果を格納した差分データ格納手段を用いて、前記差分算出手段によって算出された差分データに最も近い差分データを前記差分データ格納手段から検索する差分データ検索手段と、
前記差分データ検索手段によって検索された差分データに対応して既知の位置関係を有する前記音源の方向を特定する音源方向特定手段と、
前記音源方向特定手段によって特定された前記音源の方向に基づいて、前記最も近い差分データに対応する特性情報を特定し、この特性情報を用いて、前記音響空間内に配置された前記携帯端末装置を聴取位置としたときのその位置での音響特性を決定する音響特性決定手段と、
して機能させるための音響特性測定プログラム。
Computer
When the predetermined measurement sound is output from the speaker installed in the acoustic space, the characteristic information of the sound collected by the microphone provided in the portable terminal device arranged at a position away from the speaker is obtained from the portable terminal. Characteristic acquisition means for acquiring the device according to each posture by changing the posture of the device,
A difference calculating means for calculating a difference between two types of characteristic information acquired by the characteristic acquiring means;
Characteristics of sound collected by the microphone provided in the mobile terminal device while changing the attitude of the mobile terminal device in a state where measurement sound is output from a sound source whose positional relationship with the mobile terminal device is known The difference calculation unit uses a difference data storage unit that stores a result of measuring information and calculating a difference between the characteristic information corresponding to two postures by changing a combination of the two postures. Difference data search means for searching the difference data closest to the difference data calculated by the difference data storage means;
Sound source direction specifying means for specifying the direction of the sound source having a known positional relationship corresponding to the difference data searched by the difference data search means;
Based on the direction of the sound source specified by the sound source direction specifying means, characteristic information corresponding to the nearest difference data is specified, and the portable terminal device arranged in the acoustic space using this characteristic information Acoustic characteristic determining means for determining the acoustic characteristics at that position when
Acoustic characteristic measurement program to make it function.
JP2015097129A 2015-05-12 2015-05-12 Acoustic characteristic measuring apparatus, method and program Active JP6532284B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015097129A JP6532284B2 (en) 2015-05-12 2015-05-12 Acoustic characteristic measuring apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015097129A JP6532284B2 (en) 2015-05-12 2015-05-12 Acoustic characteristic measuring apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2016212312A true JP2016212312A (en) 2016-12-15
JP6532284B2 JP6532284B2 (en) 2019-06-19

Family

ID=57550006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015097129A Active JP6532284B2 (en) 2015-05-12 2015-05-12 Acoustic characteristic measuring apparatus, method and program

Country Status (1)

Country Link
JP (1) JP6532284B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006491A1 (en) * 2019-07-10 2021-01-14 김영언 Sound source visualization device and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006054599A1 (en) * 2004-11-16 2006-05-26 Nihon University Sound source direction judging device and method
JP2013247456A (en) * 2012-05-24 2013-12-09 Toshiba Corp Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system
US20150063069A1 (en) * 2013-08-30 2015-03-05 Honda Motor Co., Ltd. Sound processing device, sound processing method, and sound processing program
JP2015513832A (en) * 2012-02-21 2015-05-14 インタートラスト テクノロジーズ コーポレイション Audio playback system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006054599A1 (en) * 2004-11-16 2006-05-26 Nihon University Sound source direction judging device and method
US7672196B1 (en) * 2004-11-16 2010-03-02 Nihon University Sound source localizing apparatus and method
JP2015513832A (en) * 2012-02-21 2015-05-14 インタートラスト テクノロジーズ コーポレイション Audio playback system and method
JP2013247456A (en) * 2012-05-24 2013-12-09 Toshiba Corp Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system
US20150063069A1 (en) * 2013-08-30 2015-03-05 Honda Motor Co., Ltd. Sound processing device, sound processing method, and sound processing program
JP2015050610A (en) * 2013-08-30 2015-03-16 本田技研工業株式会社 Sound processing device, sound processing method and sound processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006491A1 (en) * 2019-07-10 2021-01-14 김영언 Sound source visualization device and method
US11927682B2 (en) 2019-07-10 2024-03-12 Young Eon Kim Sound source visualization device and method

Also Published As

Publication number Publication date
JP6532284B2 (en) 2019-06-19

Similar Documents

Publication Publication Date Title
US20230213349A1 (en) Audio Processing Apparatus
CN109565629B (en) Method and apparatus for controlling processing of audio signals
US8204785B2 (en) Information processing system, portable information terminal and its control method, information providing device and its control method, and program
US9658079B2 (en) Accelerometer system and method
US20140323162A1 (en) System and method for generating a positioning map of two or more mobile devices according to relative locations
US10247575B2 (en) Accelerometer system and method
US10820093B2 (en) Sound collecting terminal, sound providing terminal, sound data processing server, and sound data processing system using the same
KR101413605B1 (en) System and method for Navigation
US20170123037A1 (en) Method for calculating angular position of peripheral device with respect to electronic apparatus, and peripheral device with function of the same
JP5292316B2 (en) Position recognition apparatus, correction method, and correction program
JP2014085116A (en) Navigation system
JPH07286854A (en) Electronic map device
US20090143978A1 (en) Portable electronic device and travel time forecast method
JP6532284B2 (en) Acoustic characteristic measuring apparatus, method and program
WO2013145187A1 (en) Acoustic device, output sound management device, terminal device, and output sound control method
WO2023087774A1 (en) Electric vehicle's low-speed pedestrian alert sound design method and system, and terminal and storage medium
KR101440518B1 (en) mobile communication device and method for controlling thereof
KR101673812B1 (en) Sound Collecting Terminal, Sound Providing Terminal, Sound Data Processing Server and Sound Data Processing System using thereof
EP4325885A1 (en) Acoustic apparatus and transfer function determination method therefor
JP2016171405A (en) Hearing position setting device
CN104023130B (en) Position reminding method and apparatus
KR101595706B1 (en) Sound Collecting Terminal, Sound Providing Terminal, Sound Data Processing Server and Sound Data Processing System using thereof
JP2012063367A (en) Feature image data notification device, feature image data notification method, and feature image data notification program
JP2008309546A (en) Moving body position information correction device and program
JP4895123B2 (en) Feature image data change notification device and feature image data change notification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190521

R150 Certificate of patent or registration of utility model

Ref document number: 6532284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150