JP6621706B2 - Sound source detection device - Google Patents

Sound source detection device Download PDF

Info

Publication number
JP6621706B2
JP6621706B2 JP2016100641A JP2016100641A JP6621706B2 JP 6621706 B2 JP6621706 B2 JP 6621706B2 JP 2016100641 A JP2016100641 A JP 2016100641A JP 2016100641 A JP2016100641 A JP 2016100641A JP 6621706 B2 JP6621706 B2 JP 6621706B2
Authority
JP
Japan
Prior art keywords
sound
time
vibration
coherence
series data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016100641A
Other languages
Japanese (ja)
Other versions
JP2017207398A (en
Inventor
莉紗 ▲高▼橋
莉紗 ▲高▼橋
幹也 伊藤
幹也 伊藤
千尋 鈴木
千尋 鈴木
昌之 小西
昌之 小西
真智子 瀬戸
真智子 瀬戸
睦 坪山
睦 坪山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ono Sokki Co Ltd
Original Assignee
Ono Sokki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ono Sokki Co Ltd filed Critical Ono Sokki Co Ltd
Priority to JP2016100641A priority Critical patent/JP6621706B2/en
Publication of JP2017207398A publication Critical patent/JP2017207398A/en
Application granted granted Critical
Publication of JP6621706B2 publication Critical patent/JP6621706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

本発明は、機械から発生する音の要因である音源を検出する音源検出装置に関する。   The present invention relates to a sound source detection apparatus that detects a sound source that is a cause of sound generated from a machine.

一般機械や輸送機械などの多数の駆動部を有する機械は、そこから異音等の音が発生したとしてもその音の発生源(音源)を特定することが容易でないことが少なくない。そこで従来、音源検出装置として、異音等の音の音源を特定するための技術等が適用された装置が知られている。そして、こうした技術の演算アルゴリズムとして、ビームフォーミング法と音響インテンシティ法とがよく知られている。ビームフォーミング法では空間的な音圧分布が算出され、音響インテンシティ法では音のインテンシティ(音の強さと方向)が算出される。これらビームフォーミング法と音響インテンシティ法は、算出内容が互いに異なり、またいずれも長短があるため、両者が併用されることも多い。例えば、そうした技術を用いた音源検出装置の一例が特許文献1に記載されている。   In a machine having a large number of drive units such as a general machine and a transport machine, it is not easy to specify a sound source (sound source) even if an abnormal sound or the like is generated therefrom. Therefore, conventionally, as a sound source detection device, a device to which a technique for specifying a sound source of a sound such as an abnormal sound is applied is known. As a calculation algorithm of such a technique, a beam forming method and an acoustic intensity method are well known. In the beam forming method, a spatial sound pressure distribution is calculated, and in the sound intensity method, sound intensity (sound intensity and direction) is calculated. The beam forming method and the sound intensity method are different from each other in calculation content, and both are long and short, so both are often used together. For example, Patent Document 1 describes an example of a sound source detection device using such a technique.

特許文献1に記載の音源検出装置は、音響インテンシティ法で採用される4個のマイクロホン等、少数のマイクロホンを使って高い分解能の音圧分布を得る装置である。具体的には、3個もしくは4個の音センサ、例えば正四面体の4つの頂点に1つずつ配置された4個の音センサで受音して得た音信号を入力し、入力した音信号に基づいて最小分散法(Capon法)を適用したビームフォーミング演算により音源を含む音源平面内の音圧分布を得て音の到来方向を探査し探査結果を提示する。   The sound source detection device described in Patent Document 1 is a device that obtains a high-resolution sound pressure distribution using a small number of microphones such as four microphones employed in the sound intensity method. Specifically, sound signals obtained by receiving sound by three or four sound sensors, for example, four sound sensors arranged one by one at four vertices of a regular tetrahedron, are input, and the input sound Based on the signal, the sound pressure distribution in the sound source plane including the sound source is obtained by beam forming calculation using the minimum dispersion method (Capon method), the direction of sound arrival is searched, and the search result is presented.

特開2015−219138号公報JP2015-219138A

上述した特許文献1に記載の音源検出装置によれば、音の発生している部分をその音の強さに応じて可視化することにより、機械の表面から音の発生している部分を特定することができる。   According to the sound source detection device described in Patent Document 1 described above, the portion where sound is generated is identified from the surface of the machine by visualizing the portion where sound is generated according to the intensity of the sound. be able to.

しかし、機械の表面から音の発生している部分が分かったとしても、その部分が音を発生させている要因である音源であるとは限らない。例えば、機械は、音源となりそうな振動部分が多数あるとともに、剛性が高く振動が伝わりやすいため、音の発生している部分が音源から離れていることも少なくない。そのため、たとえ音の発生している部分が特定されたとしても、その部分からさらに、その音の音源を探さなければならないといった手間を要することも少なくない。   However, even if the part where the sound is generated is found from the surface of the machine, the part is not necessarily the sound source that is the factor that generates the sound. For example, a machine has many vibration parts that are likely to be sound sources and has high rigidity and easy transmission of vibrations. Therefore, it is not uncommon for a part where sound is generated to be away from the sound source. For this reason, even if the part where the sound is generated is specified, it is often necessary to search for the sound source of the sound from that part.

本発明は、このような実情に鑑みてなされたものであって、その目的は、機械から発生する音の音源を高い精度で検出することができる音源検出装置を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a sound source detection apparatus capable of detecting a sound source of a sound generated from a machine with high accuracy.

上記課題を解決する音源検出装置は、複数の振動源を有する検出対象物から発生する音の音源を検出する音源検出装置であって、前記検出対象物から発生した音である対象音の時系列データと、前記複数の振動源がそれぞれ出力する音または振動の時系列データとを記憶する記憶部と、前記対象音の時系列データと前記音または振動の時系列データとの所定の期間長におけるコヒーレンスを、所定の期間長の一部が重なるようにシフトさせた各期間について算出して時系列コヒーレンスとして得るコヒーレンス計算部とを備え、前記コヒーレンス計算部は、前記時系列コヒーレンスを前記振動源毎に算出して、前記対象音に関連する前記振動源を選択する第1算出部と、前記第1算出部で選択した1または複数の振動源に対応する各音または振動の時系列データを重ねて得る1つの時系列データと前記対象音の時系列データとの時系列コヒーレンスを算出して、前記選択した1または複数の振動源が前記対象音を構成していることを判定する第2算出部と、前記第2算出部で判定された1または複数の振動源に対応する音または振動の時系列データ毎に前記対象音の時系列データとの時系列コヒーレンスを算出して、前記対象音に対する前記振動源毎に寄与している度合を算出する第3算出部とを備える。   A sound source detection apparatus that solves the above problem is a sound source detection apparatus that detects a sound source of a sound generated from a detection target having a plurality of vibration sources, and is a time series of target sound that is a sound generated from the detection target. A storage unit that stores data and sound or vibration time-series data output from each of the plurality of vibration sources; and a predetermined period length of the time-series data of the target sound and the time-series data of the sound or vibration A coherence calculation unit that calculates coherence for each period shifted so that a part of a predetermined period length overlaps and obtains time-series coherence, and the coherence calculation unit includes the time-series coherence for each vibration source. A first calculation unit that calculates the vibration source related to the target sound, and each sound corresponding to one or a plurality of vibration sources selected by the first calculation unit or The time series coherence between one time series data obtained by superimposing dynamic time series data and the time series data of the target sound is calculated, and the selected one or more vibration sources constitute the target sound. A time series coherence between the second calculation unit for determining the time and the time series data of the target sound for each sound or vibration time series data corresponding to the one or more vibration sources determined by the second calculation unit. And a third calculation unit that calculates the degree of contribution to each vibration source with respect to the target sound.

検出対象物としての機械から得られる対象音は複合的な要因に基づいて発生しているため、機械の振動源のうち、どの振動源が対象音の発生に高い度合で寄与しているのかは容易には分からない。この点、このような構成によれば、対象音に対する各振動源の寄与の度合が算出されることから、機械から発生する対象音に寄与の度合が高い振動源、すなわち対象音の音源ともいえる振動源を高い精度で検出することができる。例えば、対象音の発生部分から離れた部分にある振動源であれ、それを音源として特定することも可能になる。そして、特定した対象音に寄与している振動源に対して必要な対処、例えば静穏化などの対処が行えるようになる。   Since the target sound obtained from the machine as the detection target is generated based on multiple factors, which of the machine's vibration sources contributes to the generation of the target sound to a high degree. Not easy to understand. In this respect, according to such a configuration, since the degree of contribution of each vibration source to the target sound is calculated, it can be said that the vibration source has a high degree of contribution to the target sound generated from the machine, that is, the sound source of the target sound. The vibration source can be detected with high accuracy. For example, it is possible to specify a vibration source located in a part away from the target sound generation part as a sound source. Then, necessary countermeasures such as calming can be performed on the vibration source contributing to the identified target sound.

また、対象音の音源は機械の振動する部分である振動源であるから、対象音を振動源の発生する音ではなく発生する振動と比較することもできる。すなわち、対象音と振動源とのコヒーレンスを、「音」と「音」、及び「音」と「振動」のいずれの関係に基づいてであっても算出できる。さらに、音または振動の時系列コヒーレンスを所定の期間長に対して算出するから、識別に必要な音や振動の長さが所定の期間長程度であれば比較的短い音等についても、その寄与の度合を算出することができる。これによっても、機械から発生する対象音に寄与が高い振動源(音源)を高い精度で検出することができるようになる。   Moreover, since the sound source of the target sound is a vibration source that is a vibrating part of the machine, the target sound can be compared with the generated vibration instead of the sound generated by the vibration source. That is, the coherence between the target sound and the vibration source can be calculated based on any relationship between “sound” and “sound” and “sound” and “vibration”. Furthermore, since the time series coherence of sound or vibration is calculated for a predetermined period length, if the sound required for identification or the length of vibration is about the predetermined period length, the contribution also to relatively short sounds, etc. The degree of can be calculated. This also makes it possible to detect with high accuracy a vibration source (sound source) that contributes greatly to the target sound generated from the machine.

好ましい構成として、前記コヒーレンス計算部は、前記所定の期間長を、前記振動源の音または振動の時系列データから前記振動源を特定することができる長さに設定する。
振動源の特定に必要となる音または振動の時系列データの長さは、音や振動の特徴などによって相違する。そこで、この構成のように、所定の期間長を振動源が特定可能な所定の期間にすることで、振動源が音源として特定される可能性が高められる。
As a preferred configuration, the coherence calculation unit sets the predetermined period length to a length that allows the vibration source to be identified from time series data of sound or vibration of the vibration source.
The length of sound or vibration time-series data required for specifying the vibration source differs depending on the characteristics of the sound and vibration. Thus, as in this configuration, by setting the predetermined period length to a predetermined period in which the vibration source can be specified, the possibility that the vibration source is specified as the sound source is increased.

好ましい構成として、前記コヒーレンス計算部は、前記所定の期間長を、前記1または複数の振動源を各特定することができる長さのうち最も短い期間の長さに設定する。
振動源毎に、当該振動源の特定に必要となる音または振動の時系列データの長さは相違する。そこで、この構成のように、所定の期間長を特定に必要な時系列データの長さが最も短い振動源に設定することで検出対象になる振動源を多くすることができる。
As a preferred configuration, the coherence calculation unit sets the predetermined period length to the length of the shortest period among the lengths that can identify each of the one or more vibration sources.
For each vibration source, the length of time series data of sound or vibration necessary for specifying the vibration source is different. Therefore, as in this configuration, the number of vibration sources to be detected can be increased by setting the predetermined period length to the vibration source with the shortest time-series data length necessary for identification.

好ましい構成として、前記音及び振動の周波数には可聴周波数及び非可聴周波数を含む。
このような構成によれば、聞こえる周波数の音や振動及び聞こえない周波数の音や振動のいずれの音や振動に対してもその音源を特定することができるようになる。
As a preferred configuration, the sound and vibration frequencies include an audible frequency and an inaudible frequency.
According to such a configuration, it becomes possible to specify the sound source for any sound or vibration of a frequency or sound that can be heard and for a sound or vibration of a frequency that cannot be heard.

好ましい構成として、前記音源検出装置は、前記対象音の測定に先立ち、前記振動源の時系列データを前記記憶部に保持する。
このような構成によれば、振動源の時系列データを予め保持することで、より適切な条件における振動源の時系列データを取得可能になる。また、対象音の検出処理と同時期における処理負荷の増加が抑えられる。
As a preferred configuration, the sound source detection device holds time series data of the vibration source in the storage unit prior to measurement of the target sound.
According to such a configuration, it is possible to acquire the time series data of the vibration source under more appropriate conditions by holding the time series data of the vibration source in advance. In addition, an increase in processing load at the same time as the target sound detection process is suppressed.

好ましい構成として、前記音源検出装置は、前記振動源の時系列データの収集と前記対象音の時系列データの収集を同じタイミングで行う。
このような構成によれば、対象音と振動源の時系列データを同じタイミングで取得することで、測定に要する時間を短くすることができる。また、取得された対象音の時系列データと振動源の時系列データとの関連が好適に維持されることが期待される。
As a preferred configuration, the sound source detection device collects time series data of the vibration source and time series data of the target sound at the same timing.
According to such a configuration, the time required for measurement can be shortened by acquiring the time series data of the target sound and the vibration source at the same timing. In addition, it is expected that the relationship between the acquired time series data of the target sound and the time series data of the vibration source is suitably maintained.

上記音源検出装置によれば、機械から発生する音の音源を高い精度で検出することができる。   According to the sound source detection device, the sound source of the sound generated from the machine can be detected with high accuracy.

音源検出装置を具体化した一実施形態について、その概略構成を示すブロック図。The block diagram which shows the schematic structure about one Embodiment which actualized the sound source detection apparatus. 同実施形態において、音源に対応する音または振動の時系列データを収集する概略構成を示すブロック図。The block diagram which shows schematic structure which collects the time series data of the sound or vibration corresponding to a sound source in the embodiment. 同実施形態において、音源検出装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the sound source detection apparatus in the embodiment. 同実施形態において、検出対象物から発生した音(対象音)と、その音に含まれる各音源の音との関係を模式的に示す模式図。In the embodiment, the schematic diagram which shows typically the relationship between the sound (target sound) which generate | occur | produced from the detection target object, and the sound of each sound source contained in the sound. 従来算出されるコヒーレンスの例を示す図。The figure which shows the example of the coherence calculated conventionally. 上記一実施形態において、時系列コヒーレンスを説明するための図。The figure for demonstrating time-sequential coherence in the said one Embodiment. 同実施形態において、音源検出装置の音源検出処理の処理手順を示すフローチャート。5 is a flowchart showing a processing procedure of sound source detection processing of the sound source detection device in the embodiment. 同実施形態において、コヒーレンスを説明するための音の例を示す図であって、(a)〜(d)は振幅が相違する4つの音の時間変化をそれぞれ模式的に示す図。In the embodiment, it is a figure which shows the example of the sound for demonstrating coherence, Comprising: (a)-(d) is a figure which each shows the time change of four sounds from which an amplitude differs each typically. 同実施形態において、図8に示した4つの音が重なって発生する対象音の時間変化の例を模式的に示す図。The figure which shows typically the example of the time change of the target sound which the four sounds shown in FIG. 8 overlap and generate | occur | produce in the same embodiment. 同実施形態において、(a)〜(d)は図8に示した4つの音のそれぞれの周波数応答を示す図。In the embodiment, (a)-(d) is a figure which shows each frequency response of the four sounds shown in FIG. 同実施形態において、図8に示した4つの音を重ねた音と対象音とのマルチコヒーレンスを示す図。The figure which shows the multi-coherence of the sound which piled up the four sounds shown in FIG. 8, and the object sound in the same embodiment. 同実施形態において、(a)〜(d)は図8に示した4つの音のそれぞれと対象音とのパーシャルコヒーレンスを示す図。In the embodiment, (a)-(d) is a figure which shows the partial coherence of each of four sounds shown in FIG. 8, and an object sound. 同実施形態において、音の時間変化波形と周波数特性とを示す図であって、(a)は第1の音源に対応する図、(b)は第2の音源に対応する図、(c)第3の音源に対応する図、(d)は1つの対象音に対応する図。In the same embodiment, it is a figure which shows the time change waveform and frequency characteristic of a sound, Comprising: (a) is a figure corresponding to a 1st sound source, (b) is a figure corresponding to a 2nd sound source, (c). The figure corresponding to a 3rd sound source, (d) is a figure corresponding to one object sound. 同実施形態において、対象音と各音源からの音とのコヒーレンスをそれぞれ示す図であって、(a)は第1音源からの音とのコヒーレンスを示す図、(b)は第2音源からの音とのコヒーレンスを示す図、(c)は第3音源からの音とのコヒーレンスを示す図。In the same embodiment, it is a figure which each shows the coherence of an object sound and the sound from each sound source, (a) is a figure which shows the coherence with the sound from a 1st sound source, (b) is a figure from a 2nd sound source. The figure which shows the coherence with a sound, (c) is a figure which shows the coherence with the sound from a 3rd sound source. 同実施形態において、対象音と選択された2つの音が重なる音とのマルチコヒーレンスを示す図。The figure which shows multi-coherence with the sound in which the target sound and two selected sounds overlap in the embodiment. 同実施形態において、対象音と各選択された音とのパーシャルコヒーレンスを示す図であって、(a)は対象音における第1音源の音の寄与度合を示す図、(b)は対象音における第2音源の音の寄与度合を示す図。In the same embodiment, it is a figure which shows the partial coherence of an object sound and each selected sound, Comprising: (a) is a figure which shows the contribution degree of the sound of the 1st sound source in an object sound, (b) is in an object sound. The figure which shows the contribution degree of the sound of a 2nd sound source.

図1〜図16を参照して、音源検出装置の一実施形態について説明する。
図1に示すように、本実施形態の音源検出装置10は、検出対象物としての自動車1のドア1Aが閉められたとき、その自動車1から発生する音を対象音Nとして測定し、その測定した対象音Nの発生源である音源を検出する。
With reference to FIGS. 1-16, one Embodiment of a sound source detection apparatus is described.
As shown in FIG. 1, the sound source detection device 10 of the present embodiment measures the sound generated from the automobile 1 as the target sound N when the door 1A of the automobile 1 as a detection target is closed, and the measurement. A sound source that is a generation source of the target sound N is detected.

まず、図2に示す時系列データ収集装置3で、音源検出装置10で音源検出に用いる部分の音の時系列データ5(図3参照)を収集することについて説明する。
図2に示す時系列データ収集装置3は、ドアのラッチ音N1の時系列データ5A、ドアパネルの放射音N3の時系列データ5B、及びドアとフレームの当たり音N2の時系列データ5Cを収集する。そして、時系列データ収集装置3で収集された時系列データが、音源検出処理に先立ち音源検出装置10に保持される。
First, it will be described how the time series data collection device 3 shown in FIG. 2 collects the time series data 5 (see FIG. 3) of the sound of the portion used for sound source detection by the sound source detection device 10.
The time-series data collection device 3 shown in FIG. 2 collects time-series data 5A of the door latch sound N1, time-series data 5B of the door panel radiated sound N3, and time-series data 5C of the door-to-frame hit sound N2. . Then, the time series data collected by the time series data collection device 3 is held in the sound source detection device 10 prior to the sound source detection process.

詳述すると、時系列データ収集装置3は、音及び振動を検出するセンサ体4A,4B,4Cが接続され、各センサ体4A,4B,4Cからの音及び振動の信号を時系列データとして取得する。すなわち、各センサ体4A,4B,4Cは、音センサ及び振動センサを備えている。センサ体4Aは、「ドアのラッチ」の近傍に配置され、センサ体4Cは、「ドアパネル」の近傍に配置され、センサ体4Bは、「ドアとフレームの当たり」の近傍に配置されている。よって、時系列データ収集装置3は、センサ体4Aを介してドアのラッチ音N1とドアのラッチに関連する振動とを含む時系列データ5Aを取得する。同様に、時系列データ収集装置3は、センサ体4Cを介してドアパネルの放射音N3とドアパネルの放射に関連する振動とを含む時系列データ5Bを取得し、センサ体4Bを介してドアとフレームの当たり音N2とドアとフレームの当たりに関連する振動とを含む時系列データ5Cを取得する。各時系列データは、ドア閉めを行ったり、各部品の単体でドア閉め音を発生させることで取得される。さらに、ドアのラッチ音N1の時系列データ5Aの時間長さは少なくとも、その時系列データ5Aからドアのラッチ音N1であることが識別できる時間長さである。同様に、ドアパネルの放射音N3の時系列データ5Bの長さは少なくとも、その時系列データ5Bからドアパネルの放射音N3であることが識別できる時間長さであり、ドアとフレームの当たり音N2の時系列データ5Cの時間長さは少なくとも、時系列データ5Cからドアとフレームの当たり音N2であることが識別できる時間長さである。なお、各時系列データ5A,5B,5Cは、音と振動とのうち音源検出処理で用いる一方の時系列データのみを含んでいるものでもよい。   More specifically, the time series data collection device 3 is connected to sensor bodies 4A, 4B, and 4C that detect sound and vibration, and acquires sound and vibration signals from the sensor bodies 4A, 4B, and 4C as time series data. To do. That is, each sensor body 4A, 4B, 4C includes a sound sensor and a vibration sensor. The sensor body 4A is disposed in the vicinity of the “door latch”, the sensor body 4C is disposed in the vicinity of the “door panel”, and the sensor body 4B is disposed in the vicinity of “the door and the frame hit”. Therefore, the time-series data collection device 3 acquires the time-series data 5A including the door latch sound N1 and the vibration related to the door latch via the sensor body 4A. Similarly, the time-series data collection device 3 acquires time-series data 5B including the radiated sound N3 of the door panel and vibration related to the radiation of the door panel via the sensor body 4C, and the door and frame via the sensor body 4B. The time series data 5C including the hit sound N2 and the vibration related to the door and frame hit are acquired. Each time-series data is acquired by closing a door or generating a door closing sound for each part alone. Further, the time length of the time series data 5A of the door latching sound N1 is at least a time length capable of identifying the door latching sound N1 from the time series data 5A. Similarly, the length of the time series data 5B of the door panel radiated sound N3 is at least a time length that allows the door panel radiated sound N3 to be identified from the time series data 5B. The time length of the series data 5C is at least a time length that can be identified from the time series data 5C as the door-to-frame hit sound N2. Each time series data 5A, 5B, 5C may include only one time series data used in sound source detection processing among sound and vibration.

図1及び図3に示す音源検出装置10は、音圧センサ2を介して、自動車1から発生する対象音Nを測定するとともに、その測定した対象音Nについての時系列データ12を記憶する。また、音源検出装置10は、対象音Nの音源の候補である部分の音の時系列データ5を保持している。なお、部分の音の時系列データ5には、時系列データ収集装置3で収集されたドアのラッチ音N1の時系列データ5A、ドアパネルの放射音N3の時系列データ5B、及びドアとフレームの当たり音N2の時系列データ5Cが含まれている。そして、音源検出装置10は、測定した対象音Nと、3つの部分の音であるドアのラッチ音N1、ドアパネルの放射音N3及びドアとフレームの当たり音N2との間でコヒーレンス関数の演算に基づいて、対象音Nに対する各音源の音の相関の高さ(寄与度)を算出する。   The sound source detection device 10 shown in FIGS. 1 and 3 measures the target sound N generated from the automobile 1 via the sound pressure sensor 2 and stores time-series data 12 for the measured target sound N. Further, the sound source detection device 10 holds time-series data 5 of the sound of the portion that is a candidate for the sound source of the target sound N. The time series data 5 of the sound of the part includes the time series data 5A of the door latch sound N1 collected by the time series data collection device 3, the time series data 5B of the radiated sound N3 of the door panel, and the door and frame. The time series data 5C of the hit sound N2 is included. The sound source detection device 10 calculates a coherence function between the measured target sound N, the door latch sound N1 which is the sound of three parts, the door panel radiated sound N3, and the door and frame hit sound N2. Based on this, the correlation height (contribution) of the sound of each sound source to the target sound N is calculated.

図4に示すように、本実施形態では、対象音Nはその振幅がグラフL10に示す時系列変化をする。対象音Nは、振幅がグラフL11に示す時系列変化をするドアのラッチ音N1、振幅がグラフL12に示す時系列変化をするドアパネルの放射音N3、及び振幅がグラフL13に示す時系列変化をするドアとフレームの当たり音N2が重ね合わされた音である。もし、対象音の音源が上記と異なる要因である場合、または異なる要因であると推定される場合、上記とは異なる要因に対応する位置にセンサ体が配置される。また、音源またはその候補が3つより多ければ、センサ体を3つよりも多く設けてもよい。   As shown in FIG. 4, in the present embodiment, the target sound N changes in time series as shown in the graph L10. The target sound N includes a door latch sound N1 whose amplitude changes in time series shown in the graph L11, a door panel radiated sound N3 whose amplitude changes in time series shown in the graph L12, and a time series change in which the amplitude shows in the graph L13. This is a sound in which the hitting sound N2 of the door and the frame is superimposed. If the sound source of the target sound has a different factor from the above or is estimated to be a different factor, the sensor body is disposed at a position corresponding to a factor different from the above. Further, if there are more than three sound sources or candidates, more than three sensor bodies may be provided.

図4で対象音Nは、時刻t0からt4までの間では、ドアのラッチ音N1と、ドアとフレームの当たり音N2と、ドアパネルの放射音N3とに相関が高い。一方、期間を細かく区切ると、対象音Nに対するドアのラッチ音N1、ドアとフレームの当たり音N2及びドアパネルの放射音N3の相関の高さ(寄与の度合)が異なることも示されている。具体的には、時刻t0から時刻t1までの期間はドアのラッチ音N1の相関が特に高く、時刻t1から時刻t2までの期間はフレームの当たり音N2の相関が特に高い。また、時刻t2から時刻t3までの期間はドアとフレームの当たり音N2とドアパネルの放射音N3との相関が特に高く、時刻t3から時刻t4までの期間はドアパネルの放射音N3の相関が特に高い。よって、対象音Nに対する相関の高さを算出する期間の設定や、コヒーレンス関数の演算に使うデータの長さによって、音源に対する相関の高さに変化が生じる。換言すると、対象音Nにおける相関の高さを算出する期間の設定や、コヒーレンス関数の演算に使うデータの長さ設定によって、相関の高い音源の検出精度を変更することができる。   In FIG. 4, the target sound N is highly correlated with the door latching sound N1, the door-to-frame hitting sound N2, and the door panel radiating sound N3 between times t0 and t4. On the other hand, when the period is divided finely, it is also shown that the level of correlation (degree of contribution) of the door latch sound N1, the door-to-frame hit sound N2, and the door panel radiated sound N3 with respect to the target sound N is different. Specifically, during the period from time t0 to time t1, the correlation of the door latching sound N1 is particularly high, and during the period from time t1 to time t2, the correlation of the frame hitting sound N2 is particularly high. Further, the correlation between the door and frame hit sound N2 and the door panel radiated sound N3 is particularly high during the period from time t2 to time t3, and the correlation between the door panel radiated sound N3 is particularly high during the period from time t3 to time t4. . Therefore, the correlation height with respect to the sound source varies depending on the setting of the period for calculating the correlation height for the target sound N and the length of data used for the calculation of the coherence function. In other words, the detection accuracy of a sound source having a high correlation can be changed by setting a period for calculating the level of correlation in the target sound N and setting the length of data used for calculating the coherence function.

図3に示す音源検出装置10は、CPUやROM、RAM等で構成されたマイクロコンピュータで構成される。音源検出装置10は、例えばROMやRAMに保持された各種プログラムをCPUで実行することにより音源検出装置10における各種処理を実行する。本実施形態では、音源検出装置10は音源検出処理として、自動車1から発生した音を測定して得た対象音の時系列データ12に対して音源を検出する処理を行う。   A sound source detection apparatus 10 shown in FIG. 3 is configured by a microcomputer including a CPU, a ROM, a RAM, and the like. The sound source detection device 10 executes various processes in the sound source detection device 10 by executing various programs held in, for example, a ROM or RAM by the CPU. In the present embodiment, the sound source detection device 10 performs a sound source detection process on the time series data 12 of the target sound obtained by measuring the sound generated from the automobile 1 as the sound source detection process.

音源検出装置10は、上述したドアのラッチ音N1の時系列データ5A、ドアパネルの放射音N3の時系列データ5B、及びドアとフレームの当たり音N2の時系列データ5Cが部品の音の時系列データ5を保持する記憶部11を備えている。また、記憶部11には、音圧センサ2を介して取得した対象音Nの時系列データ12が保持される。   The sound source detection device 10 includes the time series data 5A of the door latching sound N1, the time series data 5B of the radiated sound N3 of the door panel, and the time series data 5C of the door-to-frame hitting sound N2 as described above. A storage unit 11 that holds data 5 is provided. Further, the storage unit 11 holds time-series data 12 of the target sound N acquired through the sound pressure sensor 2.

音源検出装置10は、対象音Nに対する音源の相関の高さを示す指標であるコヒーレンス関数を演算するコヒーレンス計算部15を備えている。
コヒーレンス計算部15は、多点入力多点出力(MIMO:Multiple Input and Multiple Output)解析を行う。MIMO解析は、構造の実験モード解析でその構造の固有振動周波数や振動形状等の振動特性を得る際、複数の加振点を設け、同時入力に対する周波数応答関数やコヒーレンス関数を得るための解析手法である。本実施形態では、コヒーレンス計算部15は、入力が1点及び出力が1点の少なくとも一方であってもMIMO解析を行うことができる。本実施形態では、コヒーレンス計算部15は、コヒーレンス関数の演算、特に、時系列コヒーレンスの演算を行う。また、コヒーレンス計算部15は、時系列コヒーレンスについて3種類のコヒーレンスを算出する。そこで、以下順に、コヒーレンス関数の演算、時系列コヒーレンスの演算及び3種類のコヒーレンスの算出について説明する。
The sound source detection device 10 includes a coherence calculation unit 15 that calculates a coherence function that is an index indicating the level of correlation of the sound source with the target sound N.
The coherence calculation unit 15 performs a multi-point input multi-point output (MIMO: Multiple Input and Multiple Output) analysis. MIMO analysis is an analysis method for obtaining a frequency response function and coherence function for simultaneous inputs by providing multiple excitation points when obtaining vibration characteristics such as the natural vibration frequency and vibration shape of the structure in the experimental mode analysis of the structure. It is. In the present embodiment, the coherence calculator 15 can perform MIMO analysis even when at least one of the input and the output is one point. In the present embodiment, the coherence calculation unit 15 performs a coherence function calculation, particularly a time-series coherence calculation. In addition, the coherence calculator 15 calculates three types of coherence for the time-series coherence. Therefore, in the following, the calculation of the coherence function, the calculation of the time series coherence, and the calculation of the three types of coherence will be described.

まず、コヒーレンス関数の演算の概要について説明する。
コヒーレンス関数γは、系の入力と出力の相関の高さの度合を示すもので、「0」から「1」までの間の値が演算結果として得られる。ここでは、コヒーレンス関数γ(f)の演算結果が、周波数fに関して、系の出力が系の入力に相関する高さの割合として得られる。例えば、コヒーレンス関数γ(f)が「1」の場合、周波数fにおいて、系の出力がすべて系の入力に起因している(相関が高い)ことが示される。また、コヒーレンス関数γ(f)が「0」の場合、周波数fについては、系の出力が系の入力に全く関係ない(相関がない)ことが示される。「0<γ(f)<1」である場合、系の出力には系の入力とは無関係な信号が含まれることが示される。系の入力とは無関係な信号としては、未知の入力、系内部で発生しているノイズ、系の非直線性または系の時間遅延が挙げられる。
First, the outline of the calculation of the coherence function will be described.
The coherence function γ 2 indicates the degree of correlation between the input and output of the system, and a value between “0” and “1” is obtained as a calculation result. Here, the calculation result of the coherence function γ 2 (f) is obtained as the ratio of the height at which the system output correlates with the system input with respect to the frequency f. For example, when the coherence function γ 2 (f) is “1”, it is indicated that all the outputs of the system are caused by the inputs of the system at the frequency f (high correlation). Further, when the coherence function γ 2 (f) is “0”, for the frequency f, it is indicated that the output of the system is completely unrelated to the input of the system (no correlation). When “0 <γ 2 (f) <1”, it is indicated that the system output includes a signal unrelated to the system input. Signals irrelevant to system inputs include unknown inputs, noise generated within the system, system nonlinearity, or system time delay.

コヒーレンス関数γは下記式(1)で示される。但し、フーリエ変換によって求められた入力の複素スペクトルを「X」、同求められた出力の複素スペクトルを「Y」とする。また、「X」にその共役複素数をかけた入力側のパワースペクトルを「Wxx」、「Y」にその共役複素数をかけた出力側のパワースペクトルを「Wyy」、1つの信号(「X」)の複素スペクトルの複素共役に、もう一つの信号(「Y」)の複素スペクトルをかけて求められるクロススペクトルを「Wxy」とする。 The coherence function γ 2 is expressed by the following formula (1). However, the input complex spectrum obtained by Fourier transform is “X”, and the obtained output complex spectrum is “Y”. The power spectrum on the input side obtained by multiplying “X” by the conjugate complex number is “Wxx”, the power spectrum on the output side obtained by multiplying “Y” by the conjugate complex number is “Wyy”, and one signal (“X”). The cross spectrum obtained by multiplying the complex conjugate of the complex spectrum of the second signal by the complex spectrum of another signal (“Y”) is defined as “Wxy”.

つまり、コヒーレンス関数γは、クロススペクトルWxyの絶対値の二乗を系の入力及び系の出力の各々のパワースペクトルWxx,Wyyで割算したものであって、入力と出力との2つで決まるパワーの周波数成分を示す。そして、異なるフレームについて算出した複数のコヒーレンス関数γの値をコヒーレンスが算出される期間に存する数で平均化することで相関の高さを示すコヒーレンスの値が得られる。例えば、本実施形態では、パワースペクトルWyyが対象音Nに基づいて設定され、パワースペクトルWxxが音源の音N1〜N3のうちから入力として選択した1または複数の音に基づいて設定される。また、平均化するフレームの数は、時系列コヒーレンスの1データを構成する所定の数、例えば「5」とする。 That is, the coherence function γ 2 is obtained by dividing the square of the absolute value of the cross spectrum Wxy by the power spectra Wxx and Wyy of the input and output of the system, and is determined by two of the input and the output. Indicates the frequency component of power. Then, by averaging the values of the plurality of coherence functions γ 2 calculated for different frames by the number existing in the period during which the coherence is calculated, a coherence value indicating the degree of correlation is obtained. For example, in the present embodiment, the power spectrum Wyy is set based on the target sound N, and the power spectrum Wxx is set based on one or more sounds selected as inputs from the sounds N1 to N3 of the sound source. The number of frames to be averaged is a predetermined number constituting one data of time series coherence, for example, “5”.

例えば、図5は、一つの音源から音が出ている場合のコヒーレンスの例を示している。音源の振動がグラフL50、測定される音の強度がグラフL51で示される場合、演算されるコヒーレンスがグラフL52で示される。なお、グラフL52は、色が濃いほど、コヒーレンスの値が高い、つまり相関が高いことを示している。つまり、時刻ta0に近いほど、その音の各周波数に対する音源の振動の相関が高いことが示されている。そして、音源の振動が小さくなるに応じて相関が低くなるが、再度、時刻ta1で音源が振動することに応じて音が大きくなり、音の各周波数に対して音源の振動の相関が高くなることが示されている。なお通常、コヒーレンス関数は経過した時間でも平均化する。例えば、時刻ta0から演算が開始されると、時刻ta0における相関は、音源が振動している期間である時刻ta0に近い期間における時間平均に基づく相関であるから比較的高くなる。一方、時刻ta1における相関は、音源が振動していない期間を含んでいる時刻ta0から時刻ta1までの時間平均に基づくことから低く抑えられ、時刻ta2における相関は、音源が振動していない期間を長く含んでいる時刻ta0から時刻ta2までの時間平均に基づくことからより低く抑えられる。   For example, FIG. 5 shows an example of coherence when sound is emitted from one sound source. When the vibration of the sound source is indicated by a graph L50 and the intensity of the measured sound is indicated by a graph L51, the calculated coherence is indicated by a graph L52. The graph L52 indicates that the darker the color, the higher the coherence value, that is, the higher the correlation. That is, it is shown that the closer the time ta0 is, the higher the correlation of the vibration of the sound source with respect to each frequency of the sound. Then, the correlation decreases as the vibration of the sound source decreases, but again, the sound increases as the sound source vibrates at time ta1, and the correlation of the vibration of the sound source increases with respect to each frequency of the sound. It has been shown. Normally, the coherence function is averaged even over time. For example, when the calculation is started from time ta0, the correlation at time ta0 becomes relatively high because the correlation is based on the time average in the period close to time ta0, which is the period in which the sound source is vibrating. On the other hand, the correlation at time ta1 is kept low because it is based on the time average from time ta0 to time ta1 including the period in which the sound source is not vibrating, and the correlation at time ta2 is the period in which the sound source is not vibrating. Since it is based on the time average from time ta0 to time ta2 that is included for a long time, it is kept lower.

次に、時系列コヒーレンスの算出の概要を説明する。
図6を参照して、時系列コヒーレンスの概要を説明する。時系列コヒーレンスでは、コヒーレンス関数の演算に使うデータの時間長さを所定の期間長としてのフレーム長LFとして定めるとともに、フレーム長LFよりも短い間隔で算出タイミングを複数設ける。そして、各算出タイミングにおいて、フレーム長LFの期間のコヒーレンス関数の演算を平均して時系列コヒーレンスとする。つまり、時系列コヒーレンスは、算出タイミングがフレーム長LFよりも短い間隔で、例えば、図6ではフレーム長LF中に5回の算出タイミングが設けられている。そして、コヒーレンスの算出結果がグラフL57とし示されている。グラフL57は、フレーム長LF中にグラフL55の振動部分が含まれている場合、相関が高いことを示し、グラフL55の振動部分を含まない場合、相関が低いことを示す。
Next, an outline of time series coherence calculation will be described.
An overview of time-series coherence will be described with reference to FIG. In time-series coherence, the time length of data used for the calculation of the coherence function is determined as a frame length LF as a predetermined period length, and a plurality of calculation timings are provided at intervals shorter than the frame length LF. At each calculation timing, the calculation of the coherence function during the frame length LF is averaged to obtain time-series coherence. That is, the time-series coherence is calculated at intervals shorter than the frame length LF, for example, in FIG. 6, five calculation timings are provided in the frame length LF. And the calculation result of coherence is shown as the graph L57. The graph L57 indicates that the correlation is high when the vibration portion of the graph L55 is included in the frame length LF, and indicates that the correlation is low when the vibration portion of the graph L55 is not included.

そして、本実施形態のコヒーレンス計算部15について詳述する。
図3に示す、コヒーレンス計算部15は、対象音Nの時系列データと各音源の音N1〜N3の時系列データとについて、算出タイミングごとに、フレーム長LFにおけるコヒーレンスを算出する。このとき、コヒーレンス計算部15は、一部が重なる各フレーム長についてそれぞれコヒーレンスを算出し、これらを時系列コヒーレンスとする。2つの算出タイミングの間隔が所定のシフト時間である。例えば、フレーム長が100[ms]、シフト時間が20[ms]であれば、2つのコヒーレンスはそれらの80[ms]が相互に重なる一方、20[ms]が相互に重ならない期間になる。なお、フレーム長は、予め設定された値から選択してもよいし、コヒーレンスを算出する過程においてより安定する値を探して、それを設定するようにしてもよい。
The coherence calculator 15 of this embodiment will be described in detail.
The coherence calculation unit 15 illustrated in FIG. 3 calculates the coherence at the frame length LF for each calculation timing for the time series data of the target sound N and the time series data of the sounds N1 to N3 of each sound source. At this time, the coherence calculation unit 15 calculates coherence for each of the overlapping frame lengths, and sets these as time-series coherence. The interval between the two calculation timings is a predetermined shift time. For example, if the frame length is 100 [ms] and the shift time is 20 [ms], the two coherences are periods in which 80 [ms] overlap each other while 20 [ms] do not overlap each other. Note that the frame length may be selected from preset values, or a more stable value may be found and set in the process of calculating coherence.

以下、本実施形態でのコヒーレンスは、時系列コヒーレンスであるものとする。
図3及び図7に示すように、コヒーレンス計算部15は、通常のコヒーレンスを算出する第1算出部20と、マルチコヒーレンスを算出する第2算出部30と、パーシャルコヒーレンスを算出する第3算出部40とを備える。本実施形態では、「通常のコヒーレンス」、「マルチコヒーレンス」及び「パーシャルコヒーレンス」はそれぞれ、コヒーレンス計算部15で算出する際、入力である音源の音N1〜N3の組み合わせが相違したり、コヒーレンスを算出する周波数範囲が相違したりしている。
Hereinafter, the coherence in the present embodiment is assumed to be time-series coherence.
As shown in FIGS. 3 and 7, the coherence calculator 15 includes a first calculator 20 that calculates normal coherence, a second calculator 30 that calculates multi-coherence, and a third calculator that calculates partial coherence. 40. In the present embodiment, when “normal coherence”, “multi-coherence”, and “partial coherence” are calculated by the coherence calculation unit 15, the combinations of the sounds N1 to N3 of the sound source as input are different, or the coherence is The frequency range to be calculated is different.

まず、図8〜図12を参照して、上述した3種類のコヒーレンスについての概要を説明する。図8(a)〜(d)には、入力である無相関の4つの入力信号L20〜L23の時間変化が示され、図9には、4つの入力信号L20〜L23に基づく出力である出力信号L30の時間変化が示されている。なお、4つの入力信号L20〜L23は、図8(a)の入力信号L20の振幅を「1倍」としたとき、図8(b)の入力信号L21の振幅は「1.4倍」、図8(c)の入力信号L22の振幅は「2倍」、図8(d)の入力信号L23の振幅は「0.5倍」である。また、出力信号L30は振幅が大きいところで「4倍」程度である。さらに、図8及び図9は、振幅が略一定の周波数信号を示すが、図示の便宜上、一定幅の信号のように図示されている。   First, an overview of the three types of coherence described above will be described with reference to FIGS. 8A to 8D show temporal changes of four uncorrelated input signals L20 to L23 as inputs, and FIG. 9 shows an output that is an output based on the four input signals L20 to L23. The time change of the signal L30 is shown. The four input signals L20 to L23 have an amplitude of "1.4 times" when the amplitude of the input signal L20 of FIG. 8A is "1". The amplitude of the input signal L22 in FIG. 8C is “2 times”, and the amplitude of the input signal L23 in FIG. 8D is “0.5 times”. The output signal L30 is about “4 times” where the amplitude is large. Further, FIG. 8 and FIG. 9 show frequency signals with substantially constant amplitude, but for convenience of illustration, they are shown as signals with a constant width.

3種類のコヒーレンスのうち「通常のコヒーレンス」は、無相関の複数入力源における、ある入力と出力の相関の高さが算出される。ある1つの入力と1つの出力との相関が高ければ値は「1」に近くなり、入力以外の影響を受けると値は「1」よりも小さくなる。   Of the three types of coherence, “normal coherence” is calculated as a high correlation between a certain input and output in a plurality of uncorrelated input sources. If the correlation between one input and one output is high, the value is close to “1”, and the value is smaller than “1” when influenced by other than the input.

図10(a)〜(d)に示すように、「通常のコヒーレンス」では、入力信号L20の出力信号L30への相関の高さが算出され(グラフL40)、入力信号L21の出力信号L30への相関の高さが算出される(グラフL41)。また、入力信号L22の出力信号L30への相関の高さが算出され(グラフL42)、入力信号L23の出力信号L30への相関の高さが算出される(グラフL43)。この算出処理によれば、出力信号L30に高い相関を有する入力信号を選択することができるようになる。換言すると、出力信号L30に相関のない入力信号を除外することができる。つまり、この算出処理により出力への相関の有無が不明な多数の音源を入力としたときであれ、それらの入力から出力に高い相関を有する音源が適切に選択されるようになる。   As shown in FIGS. 10A to 10D, in “normal coherence”, the level of correlation between the input signal L20 and the output signal L30 is calculated (graph L40), and the input signal L21 is output to the output signal L30. Is calculated (graph L41). Further, the height of the correlation between the input signal L22 and the output signal L30 is calculated (graph L42), and the height of the correlation between the input signal L23 and the output signal L30 is calculated (graph L43). According to this calculation process, an input signal having a high correlation with the output signal L30 can be selected. In other words, an input signal that is not correlated with the output signal L30 can be excluded. That is, even when a large number of sound sources whose correlation with the output is unknown are input by this calculation process, sound sources having high correlation with the output from those inputs are appropriately selected.

本実施形態では、コヒーレンス計算部15の第1算出部20で「通常のコヒーレンス」を算出することで、複数入力の各入力がそれぞれ出力に相関があるか否かが判断される。また当初、出力に相関を有する入力(音源)は推定されるが、その真偽は不明であるところ、この算出処理により出力に無関係な入力を特定し、その特定された無関係な入力を音源検出処理から除外することができる。   In this embodiment, the first calculation unit 20 of the coherence calculation unit 15 calculates “normal coherence” to determine whether or not each input of a plurality of inputs has a correlation with the output. Initially, the input (sound source) that has a correlation with the output is estimated, but its authenticity is unknown, but this calculation process identifies the input unrelated to the output, and the identified unrelated input is detected as the sound source. Can be excluded from processing.

また、「マルチコヒーレンス」は、いわゆる多重関連度関数であって、全ての入力と1つの出力との相関の高さ(寄与の度合)が算出される。全ての入力と1つの出力との相関が高ければ値は「1」に近くなり、入力以外の影響を受けると値は「1」よりも小さくなる。   “Multi-coherence” is a so-called multiple relevance function, and the degree of correlation (degree of contribution) between all inputs and one output is calculated. If the correlation between all the inputs and one output is high, the value is close to “1”, and if affected by other than the input, the value is smaller than “1”.

図8,図9及び図11に示すように、無相関である4つの入力信号L20〜L23を同時刻で重ね合わせた信号である出力信号L30への相関の高さが算出される(グラフL44)。この算出処理により、無相関である4つの入力信号L20〜L23のそれぞれが出力信号L30に高い相関があるか否か判定される。例えば、出力に対する音源が不明である場合、入力が不足しているおそれもある。そこで、この算出処理で、「1」であれば、出力と相関のある全ての入力が選択されていることが示され、「1」より小さければ、いくつかの音源が入力されていない可能性が示される。   As shown in FIGS. 8, 9, and 11, the height of the correlation with the output signal L30, which is a signal obtained by superimposing four uncorrelated input signals L20 to L23 at the same time, is calculated (graph L44). ). By this calculation process, it is determined whether or not each of the four uncorrelated input signals L20 to L23 has a high correlation with the output signal L30. For example, if the sound source for the output is unknown, the input may be insufficient. Therefore, in this calculation process, if “1”, it indicates that all inputs correlated with the output are selected, and if it is smaller than “1”, there is a possibility that some sound sources are not input. Is shown.

本実施形態では、選択された全ての入力で出力が充足されるか否かが判断される。この算出処理で、全ての入力によって出力が充足されると判定されれば、入力が不足なく適切に選択されていることが示される。一方、全ての入力では出力が充足されないと判定されれば、選択された入力には不足があること等が示される。そして、先の「通常のコヒーレンス」とこの「マルチコヒーレンス」との2つの算出処理が組合せられることによって、出力に無関係な入力の除外が行われるとともに、不足する入力の有無を判断することができる。   In the present embodiment, it is determined whether or not the output is satisfied with all the selected inputs. If it is determined in this calculation process that the output is satisfied by all the inputs, it is indicated that the inputs are appropriately selected without being insufficient. On the other hand, if it is determined that all the inputs do not satisfy the output, it indicates that the selected input is insufficient. Then, by combining the two “normal coherence” and the “multi-coherence”, the input irrelevant to the output is excluded, and it is possible to determine whether there is an insufficient input. .

また、「パーシャルコヒーレンス」は、いわゆる偏関連度関数であって、多点入力のうちで、ある1入力と1出力との間のみの相関の高さが算出される。ここでも、ある1つの入力と1つの出力との相関が高ければ値は「1」に近くなり、入力以外の影響を受けると値は「1」よりも小さくなる。   Further, “partial coherence” is a so-called partial relevance function, and a high correlation between only one input and one output among multi-point inputs is calculated. Again, if the correlation between one input and one output is high, the value is close to “1”, and if affected by other than the input, the value is smaller than “1”.

図12(a)〜(d)に示すように、無相関である4つの入力信号L20〜L23のそれぞれについて出力信号L30への相関の高さが独立して算出される。例えば、入力信号L20の相関の高さは「0.15」程度(グラフL45)、入力信号L21の相関の高さは「0.3」程度(グラフL46)、入力信号L22の相関の高さは「0.5」程度(グラフL47)、入力信号L23の相関の高さは「0.05」未満程度(グラフL48)である。つまり、無相関な入力信号L20〜L23にそれぞれ算出された相関の高さの合計は略「1」(=0.15+0.3+0.5+0.05)である。換言すると、無相関な各入力の相関の高さの合計が、全入力の出力に対する相関の高さとして算出される。よって、無相関な各音源の相関の高さが全体に対する割合として得られる。   As shown in FIGS. 12A to 12D, the correlation height to the output signal L30 is calculated independently for each of the four uncorrelated input signals L20 to L23. For example, the correlation level of the input signal L20 is about “0.15” (graph L45), the correlation level of the input signal L21 is about “0.3” (graph L46), and the correlation level of the input signal L22 is high. Is about “0.5” (graph L47), and the correlation level of the input signal L23 is less than “0.05” (graph L48). That is, the sum of the correlation heights calculated for the uncorrelated input signals L20 to L23 is approximately “1” (= 0.15 + 0.3 + 0.5 + 0.05). In other words, the sum of the correlation heights of the uncorrelated inputs is calculated as the correlation height for the outputs of all the inputs. Therefore, the correlation height of each uncorrelated sound source is obtained as a ratio to the whole.

このように本実施形態では、「通常のコヒーレンス」と「マルチコヒーレンス」との2つの算出処理で過不足なく選択された音源が入力になるから、これら入力の出力への相関は高く、略「1」である。そこで、各入力の出力への相関の高さはそれぞれ、出力に対する寄与の度合いとしても得られる。   As described above, in the present embodiment, since the sound source selected without excess or deficiency in the two calculation processes of “normal coherence” and “multi-coherence” is input, the correlation of these inputs to the output is high. 1 ”. Therefore, the degree of correlation of each input to the output can also be obtained as the degree of contribution to the output.

なお、さらに、1つの入力の出力に対する「パーシャルコヒーレンス」を算出する周波数範囲を絞り込んだり、時間範囲を絞り込んだりすることで、出力のうち相関が高い周波数範囲や時間範囲を絞り込むこともできるようになる。   Furthermore, by narrowing down the frequency range for calculating “partial coherence” for the output of one input, or by narrowing down the time range, it is possible to narrow down the frequency range and time range with high correlation among the outputs. Become.

続いて、図7を参照して、音源検出装置10で行う音源検出処理の動作の一例について説明する。なお、音源検出処理が行われるに先立ち、音源検出装置10は、入力とするデータを保持する。またこのとき、事前の調査等で音源を検出する必要がある音である対象音が、図13(d)に示す時間T及び周波数範囲Fからなる対象範囲KNに存在するという特徴を有していることが分かっているものとする。対象音は、例えば、変動音や騒音、気になる音である。   Next, an example of the operation of the sound source detection process performed by the sound source detection device 10 will be described with reference to FIG. Prior to the sound source detection process being performed, the sound source detection device 10 holds data to be input. Further, at this time, there is a feature that the target sound that is a sound that needs to detect the sound source in a prior investigation or the like exists in the target range KN including the time T and the frequency range F shown in FIG. It is assumed that it is known. The target sound is, for example, fluctuating sound, noise, or anxious sound.

図13(a)〜(c)に示すように、音源検出処理が行われるに先立ち、音源検出装置10は、入力とするデータを保持する。このとき、入力として第1の部分の音の時系列データが、図13(a)に示す時間変化のグラフL60として得られるものとする。このグラフL60は、対象範囲KNと同じ範囲M60に対応する周波数範囲Fに特徴を有するとともに、この特徴が時間Tだけ継続することを示している。つまり、第1の部分の音は、範囲M60に、気になる音の特徴に対して高いコヒーレンスを有すると考えられる。このとき、対象範囲KNからはずれる時間範囲及び周波数範囲は算出対象としない。また、第2の部分の音の時系列データが、図13(b)に示す時間変化のグラフL61として得られるものとする。このグラフL61は、対象範囲KNと同じ範囲M61に対応する周波数範囲Fに特徴を有するとともに、この特徴が時間Tだけ継続することを示している。つまり、第2の部分の音も、範囲M61に、気になる音の特徴に対して高いコヒーレンスを有すると考えられる。さらに、第3の部分の音の時系列データが、図13(c)に示す時間変化のグラフL62として得られるものとする。このグラフL62は、第3の部分の音は対象範囲KN外となる時間範囲及び周波数範囲に特徴を有しているものとする。   As shown in FIGS. 13A to 13C, the sound source detection apparatus 10 holds data to be input before the sound source detection process is performed. At this time, it is assumed that time series data of the sound of the first portion is obtained as a time change graph L60 shown in FIG. This graph L60 has a characteristic in the frequency range F corresponding to the same range M60 as the target range KN, and shows that this characteristic lasts for the time T. That is, the sound of the first portion is considered to have high coherence in the range M60 with respect to the characteristic of the sound to be worried about. At this time, the time range and frequency range deviating from the target range KN are not calculated. Also, it is assumed that the time-series data of the sound of the second part is obtained as a time change graph L61 shown in FIG. This graph L61 has a characteristic in the frequency range F corresponding to the same range M61 as the target range KN, and shows that this characteristic lasts for the time T. That is, the sound of the second portion is also considered to have high coherence in the range M61 with respect to the characteristic of the sound that is of interest. Furthermore, it is assumed that the time-series data of the sound of the third portion is obtained as a time change graph L62 shown in FIG. This graph L62 is characterized in that the sound of the third portion is characterized by a time range and a frequency range that are outside the target range KN.

図7に示すように、音源検出装置10は、対象音の時系列データを取得する(図7のステップS10)。このステップS10では、入力する対象音の時系列データが、図13(d)に示す時間変化のグラフL63として得られるものとする。このグラフL63は、対象範囲KNに対応する周波数範囲Fに特徴を有するとともに、この特徴が時間Tだけ継続する。このとき、対象音のグラフL63は、グラフL61とグラフL62とに対応する区間「A」と、グラフL63に対応する区間「B」とを有する。しかし、区間「B」は、周波数特性の時間範囲及び周波数範囲が対象範囲KNから外れるため図示されていない。   As shown in FIG. 7, the sound source detection device 10 acquires time-series data of the target sound (step S10 in FIG. 7). In step S10, it is assumed that the time-series data of the input target sound is obtained as a time change graph L63 shown in FIG. This graph L63 has a characteristic in the frequency range F corresponding to the target range KN, and this characteristic lasts for the time T. At this time, the target sound graph L63 includes a section “A” corresponding to the graphs L61 and L62, and a section “B” corresponding to the graph L63. However, the section “B” is not shown because the time range and frequency range of the frequency characteristics are out of the target range KN.

続いて、図7に示すように、音源検出装置10は、コヒーレンス計算部15の第1算出部20で通常コヒーレンスの算出(図7のステップS11)を行い、第2算出部30でマルチコヒーレンスの算出(図7のステップS12)を行い、第3算出部40でパーシャルコヒーレンスの算出(図7のステップS13)を行う。   Subsequently, as illustrated in FIG. 7, in the sound source detection device 10, the first calculation unit 20 of the coherence calculation unit 15 performs normal coherence calculation (step S <b> 11 in FIG. 7), and the second calculation unit 30 performs multicoherence. The calculation (step S12 in FIG. 7) is performed, and the third calculation unit 40 calculates partial coherence (step S13 in FIG. 7).

このうち、図7及び図14に示すように、ステップS11では「通常のコヒーレンス」が算出される。
第1算出部20は、入力の時系列データをグラフL60としたとき、出力である対象音の時系列データ(グラフL63)への相関の高さを算出する。ここでは、グラフL60の特徴ある時間及び周波数特性範囲の範囲M60と、グラフL63の特徴ある時間及び周波数特性範囲の対象範囲KNとが重なり、相関が高いことが算出される(図14(a)参照)。同様に、第1算出部20は、入力の時系列データをグラフL61としたとき、出力である対象音の時系列データ(グラフL63)への相関の高さを算出する。ここでは、グラフL61の特徴ある時間及び周波数特性範囲の範囲M61と、グラフL63の特徴ある時間及び周波数特性範囲の対象範囲KNとが重なり、相関が高いことが算出される(図14(b)参照)。また、第1算出部20は、入力の時系列データをグラフL62としたときの出力である対象音の時系列データ(グラフL63)への相関の高さを算出する。ここでは、グラフL62の特徴ある時間及び周波数特性範囲の範囲と、グラフL63の特徴ある時間及び周波数特性範囲の対象範囲KNとが重ならず、相関が低いことが算出される(図14(c)参照)。
Among these, as shown in FIGS. 7 and 14, “normal coherence” is calculated in step S11.
When the input time-series data is represented by a graph L60, the first calculator 20 calculates the level of correlation of the target sound that is the output with the time-series data (graph L63). Here, the characteristic time and frequency characteristic range range M60 of the graph L60 overlaps with the characteristic time and frequency characteristic range target range KN of the graph L63, and it is calculated that the correlation is high (FIG. 14A). reference). Similarly, when the input time-series data is a graph L61, the first calculator 20 calculates the level of correlation of the target sound that is the output to the time-series data (graph L63). Here, the characteristic time and frequency characteristic range range M61 of the graph L61 overlaps the characteristic time and frequency characteristic range target range KN of the graph L63, and it is calculated that the correlation is high (FIG. 14B). reference). Further, the first calculation unit 20 calculates the level of correlation of the target sound, which is an output when the input time-series data is the graph L62, with the time-series data (graph L63). Here, it is calculated that the characteristic time and frequency characteristic range range of the graph L62 and the characteristic time and frequency characteristic range target range KN of the graph L63 do not overlap and the correlation is low (FIG. 14 (c). )reference).

この図7に示すステップS11の「通常のコヒーレンス」の算出に基づいて、対象音の時系列データ(グラフL63)への相関が、グラフL60とグラフL61とは高く、グラフL62は低いことが判定される。そこで、以降の処理では相関の高いグラフL60とグラフL61とに対して音源検出処理を行うようにし、無関係等の相関の低いグラフL62を処理から省くことができる。なお、相関の高低の判定は、算出された「通常のコヒーレンス」の値と第1の閾値との比較により行う。第1の閾値は、相関の有無の判定に用いられる閾値であって、判定に適した値が「0」以上「1」以下から設定される。   Based on the calculation of “normal coherence” in step S11 shown in FIG. 7, it is determined that the correlation of the target sound with the time series data (graph L63) is high in graph L60 and graph L61, and low in graph L62. Is done. Therefore, in the subsequent processing, the sound source detection processing is performed on the graphs L60 and L61 with high correlation, and the low-correlation graph L62 such as irrelevant can be omitted from the processing. Whether the correlation is high or low is determined by comparing the calculated “normal coherence” value with the first threshold value. The first threshold value is a threshold value used for determining whether or not there is a correlation, and a value suitable for the determination is set from “0” to “1”.

そして、図7及び図15に示すように、ステップS12では、ステップS11の「通常のコヒーレンス」の算出で相関が高いと判定された入力に基づいて「マルチコヒーレンス」が算出される。   Then, as shown in FIGS. 7 and 15, in step S <b> 12, “multi-coherence” is calculated based on the input determined to have a high correlation in the calculation of “normal coherence” in step S <b> 11.

つまり、第2算出部30は、第1算出部20で相関の高いと判定されたグラフL60とグラフL61とが重なる音の時系列データの、対象音の時系列データ(グラフL63)への相関の高さを算出する。ここでは、上記重なる音の時系列データの特徴ある時間及び周波数特性範囲の範囲M65と、グラフL63の特徴ある時間及び周波数特性範囲の対象範囲KNとが重なり、相関が高いことが算出される(図15参照)。換言すると、入力から、対象音に無関係な時系列データを除いた全入力の時系列データの対象音の時系列データ(グラフL63)への相関の高さを算出する。こうした算出結果として相関の高さの値が「1」に近ければ、グラフL60とグラフL61とからなる入力が、グラフL63の音源であることが確認される。一方、算出結果として相関の高さの値が「0」であれば、グラフL60とグラフL61とからなる入力は、グラフL63の音源ではないことが確認される。また、算出結果として相関の高さの値が「1」未満で「0」より大きいのであれば、グラフL63の音源として、グラフL60とグラフL61と以外の音が含まれる可能性が示される。なお、相関が高いか低いかは、算出された「マルチコヒーレンス」の値を第2の閾値と比較することにより行う。第2の閾値は、グラフL63が選択された音源から構成されているかの判定に用いられる閾値であって、判定に適した値が「0」以上「1」以下から設定される。   That is, the second calculation unit 30 correlates the time-series data of the sound in which the graph L60 and the graph L61, which are determined to be highly correlated by the first calculation unit 20, with the time-series data of the target sound (graph L63). Calculate the height of. Here, it is calculated that the characteristic time and frequency characteristic range range M65 of the time series data of the overlapping sound overlaps the characteristic time and frequency characteristic range target range KN of the graph L63, and the correlation is high ( FIG. 15). In other words, the level of correlation of all input time-series data to the time-series data of the target sound (graph L63), excluding time-series data irrelevant to the target sound, is calculated from the input. If the value of the correlation height is close to “1” as a result of such calculation, it is confirmed that the input composed of the graph L60 and the graph L61 is the sound source of the graph L63. On the other hand, if the value of the correlation height is “0” as a calculation result, it is confirmed that the input composed of the graph L60 and the graph L61 is not the sound source of the graph L63. Further, if the value of the correlation height is less than “1” and greater than “0” as a calculation result, it is indicated that the sound source of the graph L63 may include sounds other than the graph L60 and the graph L61. Whether the correlation is high or low is determined by comparing the calculated “multicoherence” value with a second threshold value. The second threshold value is a threshold value used for determining whether the graph L63 is composed of the selected sound source, and a value suitable for the determination is set from “0” to “1”.

つまり、図7に示す音源検出処理は、ステップS11で余計な入力を除外し、ステップS12で入力の不足がないことを確認することで、選択された入力が対象音の音源として適切であるか否かを判定する。そして、入力が音源として適切であれば、次のステップS13の処理を行い、逆に、入力が音源として不適切であれば、音源検出処理を中止する。この場合、対象音の音源として推定される部分の再選定を行うようにすればよい。   That is, in the sound source detection process shown in FIG. 7, whether or not the selected input is appropriate as the sound source of the target sound by excluding unnecessary inputs in step S11 and confirming that there is no shortage of inputs in step S12. Determine whether or not. If the input is appropriate as a sound source, the process of the next step S13 is performed. Conversely, if the input is inappropriate as a sound source, the sound source detection process is stopped. In this case, the portion estimated as the sound source of the target sound may be reselected.

最後に、図7及び図16に示すように、ステップS13では、ステップS12で対象音Nの音源として判定されたグラフL60とグラフL61とのそれぞれについて対象音の時系列データ(グラフL63)との「パーシャルコヒーレンス」を算出する。このとき、例えば、特徴のある周波数範囲Fを2つに分割した第1の周波数範囲f1と第2の周波数範囲f2とについての相関の高さをそれぞれ算出する。   Finally, as shown in FIGS. 7 and 16, in step S13, the time series data (graph L63) of the target sound for each of the graph L60 and the graph L61 determined as the sound source of the target sound N in step S12. Calculate “partial coherence”. At this time, for example, the correlation height is calculated for each of the first frequency range f1 and the second frequency range f2 obtained by dividing the characteristic frequency range F into two.

第2算出部30で選択された入力が出力の音源として適切であると判定されたとき、第3算出部40は、まず、入力をグラフL60としたとき、第1の周波数範囲f1と第2の周波数範囲f2とにおける対象音の時系列データ(グラフL63)への相関の高さをそれぞれ算出する。このとき、例えば、グラフL60は第1の周波数範囲f1のとき、時間及び周波数範囲M66で相関が高いことが判定され、逆に、第2の周波数範囲f2のときは相関が高くないことが判定される(図16(a)参照)。また、第3算出部40は、グラフL61は第2の周波数範囲f2のとき、時間及び周波数範囲M67で相関が高いことが判定され、逆に、第1の周波数範囲f1のときは相関が高くないことが判定される(図16(b)参照)。なお、相関が高いか低いかは、算出された「パーシャルコヒーレンス」の値と第3の閾値との比較により行う。第3の閾値は、対象音の全体または一部に音源の相関が高いか低いかの判定に用いられる閾値であって、判定に適した値が「0」以上「1」以下から設定される。   When it is determined that the input selected by the second calculation unit 30 is appropriate as an output sound source, the third calculation unit 40 first sets the first frequency range f1 and the second frequency when the input is a graph L60. The height of the correlation to the time series data (graph L63) of the target sound in the frequency range f2 is calculated. At this time, for example, when the graph L60 is in the first frequency range f1, it is determined that the correlation is high in the time and frequency range M66, and conversely, in the second frequency range f2, it is determined that the correlation is not high. (See FIG. 16A). Further, the third calculating unit 40 determines that the correlation is high in the time and frequency range M67 when the graph L61 is in the second frequency range f2, and conversely, when the graph L61 is in the first frequency range f1, the correlation is high. It is determined that there is not (see FIG. 16B). Whether the correlation is high or low is determined by comparing the calculated “partial coherence” value with the third threshold value. The third threshold value is a threshold value used for determining whether the correlation of the sound source is high or low for all or part of the target sound, and a value suitable for the determination is set from “0” to “1”. .

これにより、音源検出装置は、対象音の時系列データ(グラフL63)のうちグラフL60の特徴は時間T及び周波数範囲M66に相関が高いことが検出するとともに、グラフL61の特徴は時間T及び周波数範囲M67に相関が高いことが検出される。   Accordingly, the sound source detection device detects that the feature of the graph L60 is highly correlated with the time T and the frequency range M66 in the time-series data (graph L63) of the target sound, and the feature of the graph L61 is the time T and the frequency. It is detected that the correlation is high in the range M67.

こうして、「通常のコヒーレンス」と「マルチコヒーレンス」との算出を通じて適切に絞り込まれた入力について、その出力に対して「パーシャルコヒーレンス」が算出されることで、算出されるコヒーレンスには対象音に対する相関の高さ(寄与度)が高い精度で反映される。対象音に対する相関の高さの精度が高ければ、音源に対する適切な対策を行いやすくなり、音源検出装置による音源検出処理の利用価値が高められるようになる。   In this way, for the input that is appropriately narrowed down through the calculation of “normal coherence” and “multi-coherence”, “partial coherence” is calculated for the output, so that the calculated coherence has a correlation with the target sound. Is reflected with high accuracy. If the accuracy of the high correlation with the target sound is high, it is easy to take appropriate measures against the sound source, and the utility value of the sound source detection processing by the sound source detection device is increased.

以上説明したように、本実施形態に係る音源検出装置によれば、以下に記載する効果が得られる。
(1)検出対象物としての自動車から得られる対象音Nは複合的な要因に基づいて発生しているため、自動車の振動源のうち、どの振動源が対象音の発生に高い度合で寄与しているのかは容易には分からない。この点、本実施形態では、対象音Nに対する各音源の相関の高さ(寄与の度合)が算出されることから、自動車1から発生する対象音Nに寄与の度合が高い音源を高い精度で検出することができる。例えば、対象音Nの発生部分から離れた部分にある音源であれ、それを音源として特定することも可能になる。そして、特定した対象音Nに寄与している音源に対して必要な対処、例えば静穏化などの対処が行えるようになる。
As described above, according to the sound source detection device according to the present embodiment, the following effects can be obtained.
(1) Since the target sound N obtained from the automobile as the detection target is generated based on multiple factors, which vibration source among the automobile vibration sources contributes to the generation of the target sound to a high degree. It is not easy to see if it is. In this respect, in this embodiment, since the level of correlation (degree of contribution) of each sound source with respect to the target sound N is calculated, a sound source having a high degree of contribution to the target sound N generated from the automobile 1 can be obtained with high accuracy. Can be detected. For example, even if the sound source is in a portion away from the portion where the target sound N is generated, it can be specified as the sound source. Then, necessary countermeasures such as calming can be performed on the sound source contributing to the identified target sound N.

また、時系列コヒーレンスを所定のフレーム長(期間長)に対して算出するから、識別に必要な音や振動の長さが所定のフレーム長程度であれば比較的短い音等についても、その寄与の度合を算出することができる。これによっても、自動車1から発生する対象音Nに寄与が高い音源を高い精度で検出することができるようになる。   In addition, since time-series coherence is calculated for a predetermined frame length (period length), if the sound required for identification or the length of vibration is about the predetermined frame length, the contribution to relatively short sounds, etc. The degree of can be calculated. This also makes it possible to detect a sound source that has a high contribution to the target sound N generated from the automobile 1 with high accuracy.

(2)音源の特定に必要となる音の時系列データの長さは、音や振動の特徴などによって相違する。よって、フレーム長を振動源が特定可能な所定の期間にすることで、振動源が音源として特定される可能性が高められる。   (2) The length of sound time-series data necessary for specifying a sound source differs depending on the characteristics of sound and vibration. Therefore, by setting the frame length to a predetermined period in which the vibration source can be specified, the possibility that the vibration source is specified as the sound source is increased.

(3)音源の時系列データ5A〜5Cを予め保持することで、より適切な条件における振動源の時系列データを取得可能になる。また、対象音Nの検出処理と同時期における処理負荷の増加が抑えられる。   (3) By holding the time series data 5A to 5C of the sound source in advance, it becomes possible to acquire the time series data of the vibration source under more appropriate conditions. In addition, an increase in processing load at the same time as the detection process of the target sound N is suppressed.

(その他の実施形態)
なお上記実施形態は、以下の態様で実施することもできる。
・上記実施形態では、音源の音の時系列データを事前に収集する場合について例示したが、これに限らず、音源の音の時系列データを対象音の収集と同時に行ってもよい。対象音と音源の時系列データを同じタイミングで取得することで、測定に要する時間を短くすることができる。また、取得された対象音の時系列データと音源の時系列データとの関連が好適に維持されることが期待される。
(Other embodiments)
In addition, the said embodiment can also be implemented with the following aspects.
In the above embodiment, the case where the time series data of the sound of the sound source is collected in advance is illustrated, but the present invention is not limited to this, and the time series data of the sound of the sound source may be performed simultaneously with the collection of the target sound. By acquiring the time series data of the target sound and the sound source at the same timing, the time required for measurement can be shortened. In addition, it is expected that the relationship between the acquired time series data of the target sound and the time series data of the sound source is suitably maintained.

・上記実施形態では、音の周波数については特に規定していないが、音の周波数は可聴周波数でも、非可聴周波数でもよいし、それらが混在していてもよい。これにより、聞こえる音はもとより、聞こえない音であっても、それらの音に対してもその音源を特定することができるようになる。   -In the said embodiment, although the frequency of a sound is not prescribed | regulated in particular, the frequency of a sound may be an audible frequency, a non-audible frequency, and those may be mixed. As a result, not only the sound that can be heard but also the sound that cannot be heard, the sound source can be specified for those sounds.

・上記実施形態では、フレーム長は、予め設定された値から選択してもよいし、コヒーレンスを算出する過程においてより安定する値を探して、それを設定するようにしてもよい。前記実施形態では後者の場合について例示した。また、振動源毎に、当該振動源の特定に必要となる音または時系列データの長さは相違する。よって、フレーム長は、特定に必要な時系列データの長さが最も短い振動源に設定するようにしてもよい。これにより音源として検出対象になる振動源を多くすることができる。   In the above embodiment, the frame length may be selected from preset values, or a more stable value may be found and set in the process of calculating coherence. In the above embodiment, the latter case is illustrated. Further, the length of sound or time-series data required for specifying the vibration source differs for each vibration source. Therefore, the frame length may be set to the vibration source having the shortest time-series data length necessary for identification. As a result, the number of vibration sources to be detected as sound sources can be increased.

・上記実施形態では、音源の音及び振動の時系列データを時系列データ収集装置3で収集する場合について例示したが、これに限らず、音源の音及び振動の時系列データを音源検出装置で収集してもよい。例えば、音源検出装置にセンサ体を接続して、その音源検出装置で振動源の音及び振動の時系列データを収集してもよい。   In the above embodiment, the case where the time series data of the sound and vibration of the sound source is collected by the time series data collection device 3 is illustrated, but the present invention is not limited to this, and the time series data of the sound and vibration of the sound source is collected by the sound source detection device. May be collected. For example, a sensor body may be connected to the sound source detection device, and the sound source detection device may collect sound and vibration time-series data of the vibration source.

・上記実施形態では、音源の音及び振動の時系列データを収集する場合について例示したが、これに限らず、音源となる振動源の音または振動の時系列データのいずれか一方のみを収集してもよい。対象音を振動源の発する音に変えて同発する振動と比較しても相関を得ることができる。つまり、対象音と振動源とのコヒーレンスを、「音」と「音」、及び「音」と「振動」のいずれの関係に基づいてであっても算出できる。   In the above-described embodiment, the case of collecting time-series data of sound and vibration of a sound source has been illustrated. However, the present invention is not limited thereto, and only one of sound or vibration time-series data of a vibration source serving as a sound source is collected. May be. Correlation can be obtained even if the target sound is changed to the sound emitted from the vibration source and compared with the vibration generated simultaneously. That is, the coherence between the target sound and the vibration source can be calculated based on any relationship between “sound” and “sound” and “sound” and “vibration”.

・上記実施形態では、各センサ体4A〜4Cは、音センサ及び振動センサを備えている場合について例示した。しかしこれに限らず、センサ体は、音センサまたは振動センサのみを備えていてもよい。また、複数のセンサ体としては、それらが音センサのみを有するものであっても、振動センサを有するものであっても、音センサを有するものと振動センサを有するものとが混在しているものであってもよい。そしてこの場合であれ、上述したように、センサ体により取得された音源の音または振動のいずれか一方の時系列データと対象音とを比較することで相関を得ることができる。   -In above-mentioned embodiment, each sensor body 4A-4C illustrated about the case provided with the sound sensor and the vibration sensor. However, the present invention is not limited to this, and the sensor body may include only a sound sensor or a vibration sensor. In addition, as a plurality of sensor bodies, those having only a sound sensor, those having a vibration sensor, those having a sound sensor and those having a vibration sensor are mixed. It may be. Even in this case, as described above, the correlation can be obtained by comparing the target sound with the time-series data of either the sound or vibration of the sound source acquired by the sensor body.

・上記実施形態では、1つの部分の音を一つの時系列データとして取得する場合について例示した。しかしこれに限らず、2つ以上の部分の音を一つの時系列データとして取得してもよい。この場合、対象音が2つ以上の部分の音からなる一つの時系列データに高い相関があることが判定されたときには、時系列データの対象部分を小さくしていくことにより音源となる部分を絞り込むようにしてもよい。   In the above-described embodiment, the case where one part of sound is acquired as one time-series data has been illustrated. However, the present invention is not limited to this, and two or more portions of sound may be acquired as one time-series data. In this case, when it is determined that there is a high correlation in one time-series data consisting of two or more parts of the target sound, the target part of the time-series data is reduced by reducing the target part of the time-series data. You may make it narrow down.

・上記実施形態では、対象音が1つである場合について例示したが、これに限らず、対象音が複数であってもよい。それぞれの対象音と部品の音との各種コヒーレンスを適切に算出することができればよい。   -In the above-mentioned embodiment, although the case where there was one object sound was illustrated, it is not restricted to this but a plurality of object sounds may be sufficient. It is only necessary to appropriately calculate various coherences between the respective target sounds and component sounds.

・上記実施形態では、自動車のドアを閉めるときの音についてその音源を検出する場合について例示した。しかしこれに限らず、音源の検出対象となる音は、自動車のエンジン周囲の音や、自動車のアイドリング時の音、ボンネットやトランクの開閉時の音、ドアを開けるときの音など、自動車で生じるどのような音であってもよい。   In the above embodiment, the case where the sound source is detected with respect to the sound when the door of the automobile is closed is illustrated. However, not limited to this, the sound that is detected by the sound source is generated in the car, such as the sound around the engine of the car, the sound when idling the car, the sound when opening and closing the hood and trunk, and the sound when opening the door. Any sound may be used.

・上記実施形態では、自動車から発生する音についてその音源を検出する場合について例示した。しかしこれに限らず、音を発生する対象物は、複数の音源等を有する一般機械や輸送機械であればよい。   In the above embodiment, the case where the sound source is detected for the sound generated from the automobile is illustrated. However, the present invention is not limited to this, and the object that generates sound may be a general machine or a transport machine having a plurality of sound sources.

1…自動車、1A…ドア、2…音圧センサ、4A〜4C…センサ体、10…音源検出装置、11…記憶部、15…コヒーレンス計算部、20…第1算出部、30…第2算出部、40…第3算出部。   DESCRIPTION OF SYMBOLS 1 ... Automobile, 1A ... Door, 2 ... Sound pressure sensor, 4A-4C ... Sensor body, 10 ... Sound source detection apparatus, 11 ... Memory | storage part, 15 ... Coherence calculation part, 20 ... 1st calculation part, 30 ... 2nd calculation Part, 40 ... 3rd calculation part.

Claims (6)

複数の振動源を有する検出対象物から発生する音の音源を検出する音源検出装置であって、
前記検出対象物から発生した音である対象音の時系列データと、前記複数の振動源がそれぞれ出力する音または振動の時系列データとを記憶する記憶部と、
前記対象音の時系列データと前記音または振動の時系列データとの所定の期間長におけるコヒーレンスを、所定の期間長の一部が重なるようにシフトさせた各期間について算出して時系列コヒーレンスとして得るコヒーレンス計算部とを備え、
前記コヒーレンス計算部は、前記時系列コヒーレンスを前記振動源毎に算出して、前記対象音に関連する前記振動源を選択する第1算出部と、前記第1算出部で選択した1または複数の振動源に対応する各音または振動の時系列データを重ねて得る1つの時系列データと前記対象音の時系列データとの時系列コヒーレンスを算出して、前記選択した1または複数の振動源が前記対象音を構成していることを判定する第2算出部と、前記第2算出部で判定された1または複数の振動源に対応する音または振動の時系列データ毎に前記対象音の時系列データとの時系列コヒーレンスを算出して、前記対象音に対する前記振動源毎に寄与している度合を算出する第3算出部とを備える
ことを特徴とする音源検出装置。
A sound source detection device for detecting a sound source of a sound generated from a detection target having a plurality of vibration sources,
A storage unit that stores time-series data of a target sound that is a sound generated from the detection target object, and time-series data of a sound or vibration output from each of the plurality of vibration sources;
As the time series coherence, the coherence in the predetermined period length of the time series data of the target sound and the time series data of the sound or vibration is calculated for each period shifted so that a part of the predetermined period length overlaps. A coherence calculator to obtain,
The coherence calculation unit calculates the time-series coherence for each vibration source and selects the vibration source related to the target sound, and the one or more selected by the first calculation unit The time series coherence between one time series data obtained by superimposing the time series data of each sound or vibration corresponding to the vibration source and the time series data of the target sound is calculated, and the selected one or more vibration sources are A second calculation unit that determines that the target sound is configured; and a sound corresponding to one or a plurality of vibration sources determined by the second calculation unit or the time of the target sound for each time-series data of vibration. A sound source detection apparatus comprising: a third calculation unit that calculates time series coherence with the sequence data and calculates the degree of contribution to each vibration source with respect to the target sound.
前記コヒーレンス計算部は、前記所定の期間長を、前記振動源の音または振動の時系列データから前記振動源を特定することができる長さに設定する
請求項1に記載の音源検出装置。
The sound source detection device according to claim 1, wherein the coherence calculation unit sets the predetermined period length to a length capable of specifying the vibration source from sound or vibration time-series data of the vibration source.
前記コヒーレンス計算部は、前記所定の期間長を、前記1または複数の振動源を各特定することができる長さのうち最も短い期間の長さに設定する
請求項2に記載の音源検出装置。
The sound source detection device according to claim 2, wherein the coherence calculation unit sets the predetermined period length to a length of a shortest period among lengths that can identify each of the one or the plurality of vibration sources.
前記音及び振動の周波数には可聴周波数及び非可聴周波数を含む
請求項1〜3のいずれか一項に記載の音源検出装置。
The sound source detection device according to claim 1, wherein the sound and vibration frequencies include an audible frequency and a non-audible frequency.
前記音源検出装置は、前記対象音の測定に先立ち、前記振動源の時系列データを前記記憶部に保持する
請求項1〜4のいずれか一項に記載の音源検出装置。
The sound source detection device according to any one of claims 1 to 4, wherein the sound source detection device holds time-series data of the vibration source in the storage unit prior to measurement of the target sound.
前記音源検出装置は、前記振動源の時系列データの収集と前記対象音の時系列データの収集を同じタイミングで行う
請求項1〜4のいずれか一項に記載の音源検出装置。
The sound source detection device according to any one of claims 1 to 4, wherein the sound source detection device collects time series data of the vibration source and time series data of the target sound at the same timing.
JP2016100641A 2016-05-19 2016-05-19 Sound source detection device Active JP6621706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016100641A JP6621706B2 (en) 2016-05-19 2016-05-19 Sound source detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016100641A JP6621706B2 (en) 2016-05-19 2016-05-19 Sound source detection device

Publications (2)

Publication Number Publication Date
JP2017207398A JP2017207398A (en) 2017-11-24
JP6621706B2 true JP6621706B2 (en) 2019-12-18

Family

ID=60417134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016100641A Active JP6621706B2 (en) 2016-05-19 2016-05-19 Sound source detection device

Country Status (1)

Country Link
JP (1) JP6621706B2 (en)

Also Published As

Publication number Publication date
JP2017207398A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
US11361782B2 (en) Abnormal noise determination apparatus and method
JP4644819B2 (en) Minute displacement measurement method and apparatus
US8401823B2 (en) Method and arrangement for detecting, localizing and classifying defects of a device under test
US20150331095A1 (en) Sound detection device and sound detection method
US20150117652A1 (en) Sound source detection device, noise model generation device, noise reduction device, sound source direction estimation device, approaching vehicle detection device and noise reduction method
JP2007093221A (en) Waveform analytical method for signal and program therefor, and analytical method for vehicle operation characteristic using waveform analytical method for signal and program therefor
JP2013522601A5 (en)
JP2013068434A (en) Sound source detection device
RU2014135771A (en) METHOD AND DEVICE FOR PROCESSING SEISMIC DATA
JP2010281700A5 (en)
Swaminathan et al. Utilization of blind source separation techniques for modal analysis
US10948376B2 (en) Apparatus and method of detecting leak sound in plant equipment using time-frequency transformation
JP6621706B2 (en) Sound source detection device
JP2015078884A (en) Monitoring device, monitoring program, and monitoring method
CN111157115B (en) Underwater Brillouin scattering spectrum acquisition method and device
JP2014521073A (en) Apparatus and method for detecting at least one periodically occurring defect in a subject
JP2017207399A (en) Sound source survey device and sound source survey method
JP6457456B2 (en) Vibration source search apparatus and vibration source search method
RU2331893C1 (en) Method of discrete component separation in signal spectre and device for its implementation
JP2003502779A (en) Correlation analysis in the phase domain
Moschioni et al. Sound source identification using coherence-and intensity-based methods
JP2014016308A (en) Sound source search method and sound source search device
JP6531187B2 (en) Body sound analysis device, body sound analysis method, computer program and recording medium
WO2017130417A1 (en) Biological sound analysis device, biological sound analysis method, computer program, and recording medium
CN112334067A (en) Method for providing a method for determining the number of steps of a person

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191120

R150 Certificate of patent or registration of utility model

Ref document number: 6621706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250