JP2014116727A - Sound extraction device, sound extraction method, and sound extraction program - Google Patents

Sound extraction device, sound extraction method, and sound extraction program Download PDF

Info

Publication number
JP2014116727A
JP2014116727A JP2012268153A JP2012268153A JP2014116727A JP 2014116727 A JP2014116727 A JP 2014116727A JP 2012268153 A JP2012268153 A JP 2012268153A JP 2012268153 A JP2012268153 A JP 2012268153A JP 2014116727 A JP2014116727 A JP 2014116727A
Authority
JP
Japan
Prior art keywords
sound
dut
signal
data
under test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012268153A
Other languages
Japanese (ja)
Other versions
JP6060661B2 (en
Inventor
Takeshi Yanase
剛 柳瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012268153A priority Critical patent/JP6060661B2/en
Publication of JP2014116727A publication Critical patent/JP2014116727A/en
Application granted granted Critical
Publication of JP6060661B2 publication Critical patent/JP6060661B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sound extraction device, sound extraction method, and sound extraction program capable of accurately extracting the sound of a test object.SOLUTION: A sound extraction device includes: a detection unit for detecting the passage of a tested body in the neighborhood of a sound recording microphone; a storage unit for storing the output sound of a tested subject as sound recording data with the use of a sound recording microphone when the detection unit has detected the passage; a recognition unit for recognizing the program search signal of a frequency individually determined for a tested body from the sound recording data; and an extraction unit for extracting multiple pieces of period data on the basis of the program search signal recognized by the recognition unit and extracting the output sound of a tested body by acquiring the logical product of the period data.

Description

本発明は、音抽出装置、音抽出方法、および音抽出プログラムに関する。   The present invention relates to a sound extraction device, a sound extraction method, and a sound extraction program.

ライン上を流れる被試験体にテスト音を再生させ、当該テスト音を解析することによって、音再生機能が正常であるか判定する技術が開示されている(例えば、特許文献1参照)。   There has been disclosed a technique for determining whether a sound reproduction function is normal by reproducing a test sound on a test object flowing on a line and analyzing the test sound (see, for example, Patent Document 1).

特開2004−297368号公報JP 2004-297368 A

しかしながら、被試験体と通信などを行うことなく非同期で試験を行おうとする場合、被試験体はテスト音を連続で再生する。この場合、特定の被試験体を検査している最中に他の被試験体がテスト音を再生することになるため、当該他の被試験体のテスト音はノイズとなる。   However, when the test is to be performed asynchronously without communicating with the device under test, the device under test reproduces the test sound continuously. In this case, since the other test object reproduces the test sound while inspecting the specific test object, the test sound of the other test object becomes noise.

本発明は上記課題に鑑みなされたものであり、試験対象の音を精度良く抽出することができる音抽出装置、音抽出方法、および音抽出プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a sound extraction device, a sound extraction method, and a sound extraction program that can accurately extract a test target sound.

上記課題を解決するために、明細書開示の音抽出装置は、被試験体が録音マイク近傍を通過することを検出する検出部と、前記検出部によって前記通過が検出された場合に、前記録音マイクを用いて前記被試験体の出力音を録音データとして記憶する記憶部と、前記被試験体に個別に決められた周波数の頭出し信号を前記録音データから認識する認識部と、前記認識部によって認識された頭出し信号を基に、複数の周期データを抽出し、当該周期データの論理積を求めることによって前記被試験体の出力音を抽出する抽出部と、を備える。   In order to solve the above-described problem, the sound extraction device disclosed in the specification includes a detection unit that detects that a device under test passes in the vicinity of a recording microphone, and the recording unit when the passage is detected by the detection unit. A storage unit for storing the output sound of the device under test as recording data using a microphone; a recognition unit for recognizing a cueing signal having a frequency individually determined for the device under test; and the recognition unit An extraction unit that extracts a plurality of period data based on the cue signal recognized by the step C, and extracts an output sound of the DUT by obtaining a logical product of the period data.

明細書開示の音抽出装置、音抽出方法、および音抽出プログラムによれば、試験対象の音を精度良く抽出することができる。   According to the sound extraction device, the sound extraction method, and the sound extraction program disclosed in the specification, it is possible to accurately extract the sound to be tested.

音試験に用いられる音試験装置の概略を説明するための図である。It is a figure for demonstrating the outline of the sound test apparatus used for a sound test. (a)および(b)は出力音を表す図である。(A) And (b) is a figure showing an output sound. 実施例1に係る音抽出装置および被試験体の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the sound extraction apparatus which concerns on Example 1, and a test object. 処理部の各機能を表すブロック図である。It is a block diagram showing each function of a processing part. 通過検出センサ、バーコードリーダ、録音マイク、および被試験体の位置関係を説明するための模式図である。It is a schematic diagram for demonstrating the positional relationship of a passage detection sensor, a barcode reader, a recording microphone, and a device under test. 処理部のハードウェア構成を説明するためのブロック図である。It is a block diagram for demonstrating the hardware constitutions of a process part. (a)および(b)は音源信号を表す図である。(A) And (b) is a figure showing a sound source signal. (a)は各パターンを表し、(b)はテーブルを表す図である。(A) represents each pattern, (b) is a figure showing a table. (a)はパターンA〜Cの出力音の重ね合わせを表す図であり、(b)は(a)の合成音に対する周波数分析の結果を表す図である。(A) is a figure showing the superimposition of the output sound of patterns A-C, (b) is a figure showing the result of the frequency analysis with respect to the synthesized sound of (a). (a)は録音データの切り出しを表す図であり、(b)は切り出された周期データを表す図である。(A) is a figure showing cut-out of sound-recording data, (b) is a figure showing the cut-out period data. (a)〜(d)は各周期データを表し、(e)〜(g)は最小値演算の結果である。(A)-(d) represents each period data, (e)-(g) is the result of the minimum value calculation. (a)〜(c)は抽出されたパターンBの出力音に対する音試験の例を表す図である。(A)-(c) is a figure showing the example of the sound test with respect to the output sound of the extracted pattern B. FIG. (a)および(b)は音量補正を表す図である。(A) And (b) is a figure showing volume correction | amendment. (a)〜(c)は音量補正を表す図である。(A)-(c) is a figure showing volume correction. (a)および(b)は音試験の際に実行されるフローチャートの一例を説明するための図である。(A) And (b) is a figure for demonstrating an example of the flowchart performed in the case of a sound test. 音試験の際に実行されるフローチャートの一例を説明するための図である。It is a figure for demonstrating an example of the flowchart performed in the case of a sound test. ステップS30の詳細を表すフローチャートである。It is a flowchart showing the detail of step S30. 振幅に基づいて出力音を抽出する例である。It is an example which extracts an output sound based on an amplitude.

実施例の説明に先立って、音試験について説明する。音試験とは、パソコン、携帯電話、音響機器などに備わる音出力装置を被試験体とし、当該被試験体の音出力特性を検査する試験である。例えば、音出力の有無、音質異常(周波数特性、ノイズ、ビビリ、音割れなど)が検査される。図1は、音試験に用いられる音試験装置の概略を説明するための図である。図1を参照して、音試験においては、コンベアライン1上を移動する被試験体のスピーカ2から出力された音信号が音センサ(録音マイク)3によって検出され、検出された音信号の特性が測定される。   Prior to the description of the examples, the sound test will be described. The sound test is a test in which a sound output device provided in a personal computer, a mobile phone, an acoustic device, or the like is used as a test object and the sound output characteristics of the test object are inspected. For example, the presence or absence of sound output and sound quality abnormality (frequency characteristics, noise, chatter, sound cracking, etc.) are inspected. FIG. 1 is a diagram for explaining an outline of a sound test apparatus used for a sound test. With reference to FIG. 1, in the sound test, a sound signal output from a speaker 2 of a device under test moving on the conveyor line 1 is detected by a sound sensor (recording microphone) 3, and characteristics of the detected sound signal Is measured.

特定の被試験体No.2のスピーカ2の出力のみをオンし、他の被試験体No.1,No.3のスピーカ2の出力をオフするためには、検査装置および各被試験対に無線LANなどの同期設備を設けることになる。この方式では、被試験体No.2が録音マイク3の下を通過する期間に被試験体No.2の出力をオンし、他の被試験体No.1,No.3の出力をオフする。それにより、図2(a)を参照して、被試験体No.2の出力音を精度良く試験することができる。   Specific test object No. Only the output of the speaker 2 is turned on. 1, No. 1 In order to turn off the output of the speaker 2 of No. 3, a synchronization facility such as a wireless LAN is provided in the inspection apparatus and each pair to be tested. In this method, the test object No. No. 2 in the period during which 2 passes under the recording microphone 3. No. 2 is turned on, and other DUT No. 1, No. 1 3 output is turned off. Thereby, referring to FIG. 2 output sounds can be tested with high accuracy.

しかしながら、通信異常等が発生すると、他の被試験体No.1,No.3の音声出力をオフできなくなる。そのため、図2(b)を参照して、例えば、被試験体No.1が出力する音がノイズとして検出されてしまう。その結果、被試験体No.2の音質が不良と判定されるおそれがある。そこで、以下の実施例では、音試験の対象となる被試験体の出力音を精度良く抽出することができる音抽出装置、音抽出方法、および音抽出プログラムについて説明する。   However, when a communication abnormality or the like occurs, another device under test No. 1, No. 1 3 cannot be turned off. For this reason, referring to FIG. The sound output by 1 is detected as noise. As a result, the test object No. 2 may be determined to be poor. Therefore, in the following embodiments, a sound extraction device, a sound extraction method, and a sound extraction program that can accurately extract the output sound of a test object to be subjected to a sound test will be described.

図3は、実施例1に係る音抽出装置100および被試験体200の構成を説明するためのブロック図である。図3を参照して、音抽出装置100は、通過検出センサ10、バーコードリーダ20、通信制御部30、録音マイク40、処理部50などを備える。被試験体200は、音源データ記憶部201、制御部202、スピーカ203などを備える。図4は、処理部50の各機能を表すブロック図である。図4を参照して、処理部50は、録音データ記憶部51、音源情報記憶部52、フーリエ変換部53、抽出部54、音量補正部55、判定部56、および出力部57として機能する。   FIG. 3 is a block diagram for explaining the configuration of the sound extraction device 100 and the DUT 200 according to the first embodiment. Referring to FIG. 3, the sound extraction device 100 includes a passage detection sensor 10, a barcode reader 20, a communication control unit 30, a recording microphone 40, a processing unit 50, and the like. The DUT 200 includes a sound source data storage unit 201, a control unit 202, a speaker 203, and the like. FIG. 4 is a block diagram illustrating each function of the processing unit 50. Referring to FIG. 4, processing unit 50 functions as recording data storage unit 51, sound source information storage unit 52, Fourier transform unit 53, extraction unit 54, volume correction unit 55, determination unit 56, and output unit 57.

図5は、通過検出センサ10、バーコードリーダ20、録音マイク40、および被試験体200の位置関係を説明するための模式図である。図5を参照して、被試験体200は、ベルトコンベア204の上に載置されている。通過検出センサ10、バーコードリーダ20および録音マイク40は、ベルトコンベア204上の被試験体200と離間した位置に配置されている。   FIG. 5 is a schematic diagram for explaining the positional relationship among the passage detection sensor 10, the barcode reader 20, the recording microphone 40, and the DUT 200. With reference to FIG. 5, the DUT 200 is placed on a belt conveyor 204. The passage detection sensor 10, the barcode reader 20, and the recording microphone 40 are disposed at positions separated from the DUT 200 on the belt conveyor 204.

図6は、処理部50のハードウェア構成を説明するためのブロック図である。図6を参照して、処理部50は、CPU101、RAM102、記憶装置103、インタフェース104などを備える。これらの各機器は、バスなどによって接続されている。CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。CPU101が音抽出プログラムを実行することによって、処理部50は、録音データ記憶部51、音源情報記憶部52、フーリエ変換部53、抽出部54、音量補正部55、判定部56、および出力部57として機能する。   FIG. 6 is a block diagram for explaining the hardware configuration of the processing unit 50. Referring to FIG. 6, the processing unit 50 includes a CPU 101, a RAM 102, a storage device 103, an interface 104, and the like. Each of these devices is connected by a bus or the like. A CPU (Central Processing Unit) 101 is a central processing unit. The CPU 101 includes one or more cores. A RAM (Random Access Memory) 102 is a volatile memory that temporarily stores programs executed by the CPU 101, data processed by the CPU 101, and the like. The storage device 103 is a nonvolatile storage device. As the storage device 103, for example, a ROM (Read Only Memory), a solid state drive (SSD) such as a flash memory, a hard disk driven by a hard disk drive, or the like can be used. When the CPU 101 executes the sound extraction program, the processing unit 50 includes a recording data storage unit 51, a sound source information storage unit 52, a Fourier transform unit 53, an extraction unit 54, a volume correction unit 55, a determination unit 56, and an output unit 57. Function as.

続いて、被試験体200および音抽出装置100の各部の動作について説明する。音源データ記憶部201は、ROM(リードオンリメモリ)、ハードディスク、フラッシュメモリなどの不揮発性メモリであり、音試験用の音源信号データを記憶している。制御部202は、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)などを備え、音源データ記憶部201に記憶されている音源信号データから音試験用の音源信号を生成する。スピーカ203は、音源信号に応じて音を出力する。   Next, the operation of each part of the DUT 200 and the sound extraction device 100 will be described. The sound source data storage unit 201 is a nonvolatile memory such as a ROM (read only memory), a hard disk, or a flash memory, and stores sound source signal data for sound tests. The control unit 202 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and generates a sound source signal for sound test from the sound source signal data stored in the sound source data storage unit 201. The speaker 203 outputs sound according to the sound source signal.

通過検出センサ10は、物体の通過を検出するセンサであり、本実施例においては、ベルトコンベア204の移動方向において被試験体200が録音マイク40の近傍の通過を開始した否かを検出する。バーコードリーダ20は、被試験体200に関連付けられたバーコードを読み取るセンサである。バーコードは、各被試験体200を特定するためのIDなどである。バーコードの場所は特に限定されるものではなく、例えば、被試験体200に貼り付けてあってもよく、被試験体200が載置されているトレイなどに貼り付けてあってもよい。バーコードリーダ20は、通過検出センサ10が被試験体200の通過を検出した際にバーコードを読み取り、当該読み取られたバーコードは、通信制御部30を介して処理部50に送られる。それにより、通過が検出された被試験体が特定される。録音マイク40は、音センサであり、スピーカ203が出力する音を検出する。   The passage detection sensor 10 is a sensor that detects the passage of an object. In the present embodiment, the passage detection sensor 10 detects whether the DUT 200 has started passing near the recording microphone 40 in the moving direction of the belt conveyor 204. The barcode reader 20 is a sensor that reads a barcode associated with the device under test 200. The barcode is an ID for identifying each device under test 200 or the like. The location of the barcode is not particularly limited. For example, the barcode may be attached to the device under test 200 or may be attached to a tray or the like on which the device under test 200 is placed. The barcode reader 20 reads the barcode when the passage detection sensor 10 detects the passage of the device under test 200, and the read barcode is sent to the processing unit 50 via the communication control unit 30. Thereby, the device under test in which the passage is detected is specified. The recording microphone 40 is a sound sensor and detects sound output from the speaker 203.

処理部50は、録音マイク40が検出する音を録音する。具体的には、録音データ記憶部51が、録音マイク40が検出した音を録音データとして記憶する。音源情報記憶部52は、音試験用の音源信号に関する情報を記憶している。処理部50は、録音データ記憶部51に記憶されている録音データと、音源情報記憶部52に記憶されている音源信号に関する情報とに基づいて、被試験体200の音出力特性を検査する。続いて、処理部50の動作の詳細について説明する。   The processing unit 50 records the sound detected by the recording microphone 40. Specifically, the recording data storage unit 51 stores the sound detected by the recording microphone 40 as recording data. The sound source information storage unit 52 stores information related to the sound source signal for the sound test. The processing unit 50 inspects the sound output characteristics of the device under test 200 based on the recording data stored in the recording data storage unit 51 and the information on the sound source signal stored in the sound source information storage unit 52. Next, details of the operation of the processing unit 50 will be described.

まず、被試験体200によって再生される音源信号の一例について説明する。図7(a)および図7(b)は、音源信号の例を表している。図7(a)および図7(b)を参照して、音源信号は、周波数一定の頭出し信号と、当該頭出し信号の後の被試験信号とを含む。頭出し信号は、各被試験体200を識別するための音源信号である。頭出し信号の周波数は、被試験体200ごとに異なっている。図7(a)の例では、頭出し信号の周波数は、1KHzで一定である。図7(b)の例では、頭出し信号の周波数は、2KHzで一定である。   First, an example of a sound source signal reproduced by the device under test 200 will be described. FIG. 7A and FIG. 7B show examples of sound source signals. Referring to FIGS. 7A and 7B, the sound source signal includes a cue signal having a constant frequency and a signal under test after the cue signal. The cue signal is a sound source signal for identifying each device under test 200. The frequency of the cueing signal is different for each device under test 200. In the example of FIG. 7A, the frequency of the cue signal is constant at 1 KHz. In the example of FIG. 7B, the frequency of the cueing signal is constant at 2 KHz.

被試験信号は、音出力特性試験に用いることができる音源信号であり、一例として、チャープ信号である。チャープ信号とは、可聴域20Hz〜20kHz等の掃引正弦波信号であり、スエプト・サイン波信号とも呼ばれている。具体的には、チャープ信号は、周波数を低周波から高周波にかけて連続的に変化(掃引)させた信号、または、高周波から低周波にかけて連続的に変化(掃引)させた信号である。被試験信号の再生時間は、被試験体200ごとに異なっている。図7(a)の例では、被試験信号の再生時間tnは、一例として5秒である。図7(b)の例では、被試験信号の再生時間tnは、一例として3秒である。   The signal under test is a sound source signal that can be used for a sound output characteristic test, and is, for example, a chirp signal. The chirp signal is a swept sine wave signal having an audible range of 20 Hz to 20 kHz or the like, and is also called a swept sine wave signal. Specifically, the chirp signal is a signal whose frequency is continuously changed (swept) from a low frequency to a high frequency, or a signal whose frequency is continuously changed (swept) from a high frequency to a low frequency. The reproduction time of the signal under test is different for each device under test 200. In the example of FIG. 7A, the reproduction time tn of the signal under test is 5 seconds as an example. In the example of FIG. 7B, the reproduction time tn of the signal under test is 3 seconds as an example.

なお、頭出し信号の再生時間t1は、各被試験体200について同じであってもよく、異なっていてもよい。また、頭出し信号の終了時点から被試験信号の開始時点までの間隔t2も、各被試験体200について同じであってもよく、異なっていてもよい。各音源信号の再生周期は、(再生時間t1+間隔t2+再生時間tn)である。各音源信号の再生周期は、被試験体200ごとに異なっている。この再生周期は、各被試験体200について、互いに整数倍にならないように設定されていることが好ましい。   Note that the reproduction time t1 of the cue signal may be the same for each device under test 200 or may be different. Further, the interval t2 from the end time of the cueing signal to the start time of the signal under test may be the same or different for each device under test 200. The reproduction cycle of each sound source signal is (reproduction time t1 + interval t2 + reproduction time tn). The reproduction cycle of each sound source signal is different for each device under test 200. This reproduction cycle is preferably set so that each of the DUTs 200 is not an integral multiple of each other.

図8(a)を参照して、各被試験体200は、上述した音源信号を繰り返し再生する。すなわち、各被試験体200は、頭出し信号および被試験信号を交互に再生する。各被試験体200の頭出し信号の周波数および被試験信号の再生周期は、あらかじめ決められている。一例として、頭出し信号の周波数および被試験信号の再生周期の組み合わせは、No.1の被試験体200ではパターンAであり、No.2の被試験体200ではパターンBであり、No.3の被試験体200ではパターンCである。   Referring to FIG. 8A, each device under test 200 repeatedly reproduces the sound source signal described above. That is, each device under test 200 alternately reproduces the cue signal and the signal under test. The frequency of the cueing signal of each device under test 200 and the reproduction cycle of the signal under test are determined in advance. As an example, the combination of the frequency of the cue signal and the reproduction period of the signal under test is No. No. 1 to be tested 200 is pattern A. No. 2 to be tested 200 is pattern B. In the test object 200 of No. 3, it is the pattern C.

図8(b)を参照して、音源情報記憶部52は、各被試験体200のパターンをテーブルとして保持している。音抽出装置100は、バーコードリーダ20の読み取りの結果、通過が検出された被試験体200のパターンを取得する。音抽出装置100は、取得したパターンに応じて、録音マイク40に最も近づいている被試験体200(図8(a)の例ではNo.2)の出力音を抽出する。以下、出力音の抽出の詳細について説明する。   Referring to FIG. 8B, the sound source information storage unit 52 holds the pattern of each device under test 200 as a table. The sound extraction device 100 acquires the pattern of the device under test 200 in which passage is detected as a result of reading by the barcode reader 20. The sound extraction device 100 extracts the output sound of the device under test 200 that is closest to the recording microphone 40 (No. 2 in the example of FIG. 8A) according to the acquired pattern. Details of the output sound extraction will be described below.

図9(a)は、パターンA〜Cの出力音の重ね合わせ(合成音)を表す図である。図9(a)の例では、No.1〜No.3の被試験体200が音源信号を再生するため、録音データ記憶部51に記憶される録音データは、図9(a)のような合成音となる。フーリエ変換部53は、この合成音に対して周波数分析(短時間フーリエ変換など)を行う。短時間フーリエ変換(StFt:Short−time Fourier Transform)は、窓関数を微小時間Δtずつずらしながら掛け、順次フーリエ変換してゆくことで、周波数スペクトルの時間変化を解析する方法である。短時間フーリエ変換は、音などの時間変化する信号に対して一般的に使用されている方法である。同様の目的でウェーブレット変換を用いてもよい。   FIG. 9A is a diagram illustrating the superposition (synthetic sound) of the output sounds of patterns A to C. In the example of FIG. 1-No. Since the third device under test 200 reproduces the sound source signal, the recording data stored in the recording data storage unit 51 is a synthesized sound as shown in FIG. The Fourier transform unit 53 performs frequency analysis (such as short-time Fourier transform) on the synthesized sound. Short-time Fourier transform (StFt: Short-time Fourier Transform) is a method of analyzing a time change of a frequency spectrum by multiplying a window function while shifting it by a minute time Δt and sequentially performing Fourier transform. The short-time Fourier transform is a method generally used for a time-varying signal such as sound. A wavelet transform may be used for the same purpose.

図9(b)は、図9(a)の合成音に対する周波数分析の結果を表す図である。図9(b)において、パターンに応じて傾きが異なっているのは、上述した被試験信号の再生時間が異なっているからである。パターンAの再生時間が最も長いため、傾きが最も小さくなっている。パターンCの再生時間が最も短いため、傾きが最も大きくなっている。図9(a)および図9(b)を参照して、最初の頭出し信号が同時に出力されたとしても、次回以降の頭出し信号の出力タイミングは異なっている。   FIG. 9B is a diagram showing the result of frequency analysis for the synthesized sound of FIG. 9A. In FIG. 9B, the inclination differs depending on the pattern because the reproduction time of the signal under test described above is different. Since the reproduction time of the pattern A is the longest, the inclination is the smallest. Since the reproduction time of the pattern C is the shortest, the inclination is the largest. Referring to FIG. 9A and FIG. 9B, even if the first cue signal is output at the same time, the output timing of the next cue signal is different.

次に、図10(a)を参照して、抽出部54は、音試験の対象としている被試験体200の再生周期で、録音データを切り出す。具体的には、抽出部54は、パターンBの頭出し信号の周波数が所定時間(再生時間t1)連続している箇所を検索によって認識し、当該頭出し信号の周期で録音データを切り出す。図10(b)は、複数回にわたって切り出された録音データ(周期データ)を表す図である。   Next, referring to FIG. 10A, the extraction unit 54 cuts out the recording data at the reproduction cycle of the device under test 200 that is the subject of the sound test. Specifically, the extraction unit 54 recognizes a part where the frequency of the cueing signal of the pattern B is continuous for a predetermined time (reproduction time t1), and cuts out the recording data at the period of the cueing signal. FIG. 10B is a diagram showing recorded data (periodic data) cut out a plurality of times.

次に、抽出部54は、図10(b)の各周期データの論理積を求めることによって、パターンBの出力音を抽出する。例えば、抽出部54は、時間分解能(Δt)と周波数分解能(Δf)の微小区間(Δt×Δf)ごとの振幅値の最小値演算を実施する。この場合、パターンBの出力音は全ての周期データに含まれているため、最小値として残る。一方、音試験の対象外の出力音や間欠的な外来雑音成分は、複数の周期データにおいて1回でも含まれないと除去される。したがって、最小値演算の結果、パターンBの出力音が抽出される。なお、平均値演算を行ってもよい。   Next, the extraction part 54 extracts the output sound of the pattern B by calculating | requiring the logical product of each period data of FIG.10 (b). For example, the extraction unit 54 performs the minimum value calculation of the amplitude value for each minute section (Δt × Δf) of the time resolution (Δt) and the frequency resolution (Δf). In this case, since the output sound of pattern B is included in all periodic data, it remains as the minimum value. On the other hand, output sound and intermittent external noise components that are not subjected to the sound test are removed if they are not included even once in the plurality of periodic data. Therefore, the output sound of pattern B is extracted as a result of the minimum value calculation. An average value calculation may be performed.

図11(a)〜図11(d)は、各周期データを表す。図11(e)は、図11(a)の周期データと図11(b)の周期データとの間の最小値演算の結果である。図11(f)は、図11(e)の結果と図11c)の周期データとの間の最小値演算の結果である。図11(g)は、図11(f)の結果と図11(d)の周期データとの間の最小値演算の結果である。図11(e)〜図11(g)を参照して、音試験の対象外の出力音は除去されている。なお、周期データの数が多いほど精度が高くなるが、少なくとも2つの周期データの論理積を求めることによって、音試験の対象としている出力音を抽出することができる。   Fig.11 (a)-FIG.11 (d) represent each period data. FIG. 11E shows the result of the minimum value calculation between the period data in FIG. 11A and the period data in FIG. FIG. 11F shows the result of the minimum value calculation between the result of FIG. 11E and the period data of FIG. 11C. FIG. 11G shows the result of the minimum value calculation between the result of FIG. 11F and the period data of FIG. 11D. Referring to FIGS. 11 (e) to 11 (g), the output sound that is not the subject of the sound test is removed. Although the accuracy increases as the number of period data increases, the output sound that is the object of the sound test can be extracted by obtaining the logical product of at least two period data.

図12(a)〜図12(c)は、抽出されたパターンBの出力音に対する音試験の例を表す図である。図12(a)は、パターンBの出力音が正常である場合の例である。図12(a)を参照して、出力音が正常であれば、複数の周期データに対する論理積演算の結果、パターンBの頭出し信号と被試験信号とが得られる。   12A to 12C are diagrams illustrating an example of a sound test for the output sound of the extracted pattern B. FIG. FIG. 12A shows an example when the output sound of pattern B is normal. Referring to FIG. 12A, if the output sound is normal, a cueing signal of pattern B and a signal under test are obtained as a result of a logical product operation on a plurality of period data.

図12(b)は、パターンBの音源信号が再生されていない場合の例である。図12(b)を参照して、各周期データにパターンBが含まれなくなる。この場合、論理積演算の結果、出力音が抽出されなくなる。したがって、パターンBの音源信号が再生されていないと判定することができる。なお、論理積演算を行わなくても、パターンBの頭出し信号が検出されない場合に、パターンBの音源信号が再生されていないと判定してもよい。   FIG. 12B shows an example in which the sound source signal of pattern B is not reproduced. Referring to FIG. 12B, the pattern B is not included in each period data. In this case, the output sound is not extracted as a result of the AND operation. Therefore, it can be determined that the sound source signal of pattern B is not reproduced. Even if the logical product operation is not performed, it may be determined that the sound source signal of pattern B is not reproduced when the cueing signal of pattern B is not detected.

図12(c)は、パターンBの出力音に筐体取り付け不良などに起因する共振(ビビリ)などの高調波が含まれる場合の例である。図12(c)を参照して、各周期データの論理積演算の結果、特定の周波数成分が検出される。このように、頭出し信号および被試験信号の他に検出される成分に応じて、出力音にビビリ、割れ、ノイズなどが含まれていないか判定することができる。   FIG. 12C shows an example of the case where the output sound of the pattern B includes harmonics such as resonance due to poor housing attachment. Referring to FIG. 12C, a specific frequency component is detected as a result of the logical product operation of each period data. In this way, it is possible to determine whether the output sound contains chatter, cracks, noise, or the like according to components detected in addition to the cue signal and the signal under test.

ところで、被試験体200はベルトコンベア204上を移動していることから、録音マイク40で検出される音量が変化することが考えられる。そこで、音試験の対象としている出力音の音量を補正してもよい。図13(a)を参照して、音量補正部55は、音源情報記憶部52に記憶されている特定周波数(Fp)を読み込み、各チャープ信号から特定周波数(Fp)のピーク振幅値Apを取得する。音量補正部55は、各チャープ信号に対して特定周波数(Fp)におけるピーク振幅値Ap1,Ap2,…,ApNを取得する。被試験体200は、録音マイク40に対して相対移動することから、図13(b)を参照して、各ピーク振幅値は異なる値となる。   By the way, since the device under test 200 is moving on the belt conveyor 204, it is conceivable that the volume detected by the recording microphone 40 changes. Therefore, the volume of the output sound that is the subject of the sound test may be corrected. Referring to FIG. 13A, the volume correction unit 55 reads the specific frequency (Fp) stored in the sound source information storage unit 52, and acquires the peak amplitude value Ap of the specific frequency (Fp) from each chirp signal. To do. The volume correction unit 55 obtains peak amplitude values Ap1, Ap2,..., ApN at a specific frequency (Fp) for each chirp signal. Since the DUT 200 moves relative to the recording microphone 40, each peak amplitude value becomes a different value with reference to FIG. 13B.

音量補正部55は、各ピーク振幅値の点列データに最も当てはまる近似曲線f(t)を生成する。近似曲線(回帰曲線)は、最小二乗法などの高次多項式曲線あてはめ(Curve Fitting)等の数値計算法により生成することができる。近似曲線は、最低でも二次式であり、3個(多項式の次数+1)以上の点列データから生成される。図14(a)は、各ピーク振幅値から算出された近似曲線の一例を説明するための図である。   The sound volume correction unit 55 generates an approximate curve f (t) most applicable to the point sequence data of each peak amplitude value. The approximate curve (regression curve) can be generated by a numerical calculation method such as high-order polynomial curve fitting (Curve Fitting) such as the least square method. The approximate curve is at least a quadratic expression, and is generated from point sequence data of three (degree of polynomial + 1) or more. FIG. 14A is a diagram for explaining an example of an approximate curve calculated from each peak amplitude value.

近似曲線f(t)の最大値である最大振幅値Apcは、録音マイク40がスピーカ203との最短距離の地点を通過した際の音量に相当すると推定される。また、最大振幅値Apcに対応する時刻Tpcは、録音マイク40がスピーカ203との最短距離の地点を通過した時刻に相当すると推定される。このように、スピーカ203と録音マイク40との最短距離で特定周波数(Fp)が出現しなくても、録音マイク40がスピーカ203との最短距離の地点を通過した際の音量および時刻を推定することができる。   The maximum amplitude value Apc, which is the maximum value of the approximate curve f (t), is estimated to correspond to the sound volume when the recording microphone 40 passes through the point of the shortest distance from the speaker 203. Further, the time Tpc corresponding to the maximum amplitude value Apc is estimated to correspond to the time when the recording microphone 40 passes through the point of the shortest distance from the speaker 203. Thus, even when the specific frequency (Fp) does not appear at the shortest distance between the speaker 203 and the recording microphone 40, the sound volume and time when the recording microphone 40 passes through the shortest distance from the speaker 203 are estimated. be able to.

音量補正部55は、近似曲線f(t)の逆数に対して最大振幅値Apcを乗算することによって、音量補正曲線[Apc/f(t)]を算出する。次に、図14(b)を参照して、音量補正部55は、時刻を一致させて録音信号に対して音量補正曲線[Apc/f(t)]を乗算することによって、録音信号を補正する。特に、最大振幅値Apcを用いていることから、各録音信号を録音マイク40とスピーカ203とが最短距離の地点に位置する状態に補正することができる。図14(c)は、補正後の録音信号を表している。図14(c)を参照して、補正された録音信号では、スピーカ203の相対移動の影響が回避されている。   The volume correction unit 55 calculates a volume correction curve [Apc / f (t)] by multiplying the reciprocal of the approximate curve f (t) by the maximum amplitude value Apc. Next, referring to FIG. 14B, the volume correction unit 55 corrects the recording signal by matching the time and multiplying the recording signal by a volume correction curve [Apc / f (t)]. To do. In particular, since the maximum amplitude value Apc is used, each recording signal can be corrected to a state where the recording microphone 40 and the speaker 203 are located at the shortest distance point. FIG. 14C shows the corrected recording signal. Referring to FIG. 14C, the influence of the relative movement of the speaker 203 is avoided in the corrected recording signal.

図15(a)、図15(b)および図16は、音抽出装置100による音試験の際に実行されるフローチャートの一例を説明するための図である。図15(a)のフローチャートは、被試験体200が実行するフローチャートである。図15(a)を参照して、各被試験体200は、音源データ記憶部201に記憶されている音源信号データに応じてスピーカ203から音を出力する(ステップS1)。   FIGS. 15A, 15 </ b> B, and 16 are diagrams for explaining an example of a flowchart executed in the sound test by the sound extraction device 100. The flowchart in FIG. 15A is a flowchart executed by the device under test 200. Referring to FIG. 15A, each device under test 200 outputs sound from the speaker 203 according to the sound source signal data stored in the sound source data storage unit 201 (step S1).

図15(a)のフローチャートと並行して、図15(b)のフローチャートが音抽出装置100によって実行される。図15(b)を参照して、通過検出センサ10は、被試験体200の通過を監視する(ステップS11)。次に、通過検出センサ10は、いずれかの被試験体200の通過が開始されたか否かを判定する(ステップS12)。具体的には、通過検出センサ10がオンするか否かが判定される。ステップS12で「No」と判定された場合、ステップS11が再度実行される。   In parallel with the flowchart of FIG. 15A, the flowchart of FIG. 15B is executed by the sound extraction device 100. Referring to FIG. 15B, the passage detection sensor 10 monitors the passage of the device under test 200 (step S11). Next, the passage detection sensor 10 determines whether or not the passage of any device under test 200 has been started (step S12). Specifically, it is determined whether or not the passage detection sensor 10 is turned on. If it is determined “No” in step S12, step S11 is executed again.

ステップS12で「Yes」と判定された場合、バーコードリーダ20は、通過が検出された被試験体200に関連付けられているバーコードを読み込む(ステップS13)。次に、抽出部54は、読み込まれたバーコードに対応する音声パターンを取得する(ステップS14)。次に、録音データ記憶部51は、出力音の録音を開始する(ステップS15)。次に、通過検出センサ10は、被試験体200の通過を監視する(ステップS16)。次に、通過検出センサ10は、通過している被試験体200の通過が終了したか否かを判定する(ステップS17)。具体的には、通過検出センサ10がオフするか否かが判定される。ステップS17で「No」と判定された場合、ステップS16が再度実行される。   When it is determined as “Yes” in Step S12, the barcode reader 20 reads a barcode associated with the DUT 200 in which passage is detected (Step S13). Next, the extraction unit 54 acquires an audio pattern corresponding to the read barcode (step S14). Next, the recording data storage unit 51 starts recording the output sound (step S15). Next, the passage detection sensor 10 monitors the passage of the device under test 200 (step S16). Next, the passage detection sensor 10 determines whether or not the passage of the DUT 200 that has passed has been completed (step S17). Specifically, it is determined whether or not the passage detection sensor 10 is turned off. If it is determined “No” in step S17, step S16 is executed again.

ステップS17で「Yes」と判定された場合、録音データ記憶部51は、出力音の録音を終了する(ステップS18)。次に、録音データ記憶部51は、録音データを保存する(ステップS19)。次に、抽出部54は、音試験の対象としている出力音の抽出処理を行う(ステップS20)。図16は、ステップS20の詳細を表すフローチャートである。   If it is determined as “Yes” in step S17, the recording data storage unit 51 ends the recording of the output sound (step S18). Next, the recording data storage unit 51 stores the recording data (step S19). Next, the extraction unit 54 performs an extraction process of the output sound that is the subject of the sound test (step S20). FIG. 16 is a flowchart showing details of step S20.

図16を参照して、音量補正部55は、録音データ記憶部51に保存されている録音データを読み込み、図13(a)〜図14(b)で説明した手順に従って、音量の補正を行う(ステップS21)。次に、フーリエ変換部53は、ステップ21で補正された録音データに対して短時間フーリエ変換を行う(ステップS22)。次に、抽出部54は、ステップS14で読み込まれた音声パターンの頭出し信号の周波数成分を検出し、頭出し信号が検出されたらフラグを微小区間ごと(Δt×Δf)に設定する(ステップS23)。   Referring to FIG. 16, volume correction unit 55 reads the recording data stored in recording data storage unit 51, and corrects the volume according to the procedure described in FIGS. 13 (a) to 14 (b). (Step S21). Next, the Fourier transform unit 53 performs short-time Fourier transform on the recording data corrected in Step 21 (Step S22). Next, the extraction unit 54 detects the frequency component of the cueing signal of the voice pattern read in step S14, and when the cueing signal is detected, sets a flag for each minute section (Δt × Δf) (step S23). ).

次に、抽出部54は、フラグが1つ以上検出されたか否かを判定する(ステップS24)。ステップS24で「Yes」と判定された場合、抽出部54は、検出カウンタNを「0」に設定する(ステップS25)。次に、抽出部54は、フラグのオンの期間が頭出し信号の再生時間t1と等しいか否かを判定する(ステップS26)。ステップS26で「Yes」と判定された場合、抽出部54は、検出された頭出し信号の開始時間を開始時間変数にセットし、検出カウンタNに「1」を加算する(ステップS27)。   Next, the extraction unit 54 determines whether one or more flags are detected (step S24). When it is determined as “Yes” in Step S24, the extraction unit 54 sets the detection counter N to “0” (Step S25). Next, the extraction unit 54 determines whether or not the flag ON period is equal to the reproduction time t1 of the cue signal (step S26). If it is determined as “Yes” in step S26, the extraction unit 54 sets the start time of the detected cueing signal as a start time variable, and adds “1” to the detection counter N (step S27).

ステップS27の実行後、またはステップS26で「No」と判定された場合、抽出部54は、全てのフラグを走査したか否かを判定する(ステップS28)。ステップS28で「No」と判定された場合、ステップS26が再度実行される。ステップS28で「Yes」と判定された場合、抽出部54は、開始時間変数が4以上になったか否かを判定する(ステップS29)。すなわち、抽出部54は、周期データを4つ取得したか否かを判定する。ステップS29で「Yes」と判定された場合、抽出部54は、4つの周期データを用いて最小値演算を行うことによって、音試験の対象としている出力音を抽出する(ステップS30)。次に、判定部56は、抽出された出力音の周波数特性などの試験を行い、出力部57は試験結果を通知するための情報を出力する(ステップS31)。その後、フローチャートの実行が終了する。   After the execution of step S27 or when it is determined “No” in step S26, the extraction unit 54 determines whether or not all the flags have been scanned (step S28). If it is determined “No” in step S28, step S26 is executed again. When it is determined as “Yes” in Step S <b> 28, the extraction unit 54 determines whether or not the start time variable is 4 or more (Step S <b> 29). That is, the extraction unit 54 determines whether four pieces of periodic data have been acquired. When it is determined as “Yes” in step S29, the extraction unit 54 extracts the output sound that is the subject of the sound test by performing the minimum value calculation using the four period data (step S30). Next, the determination unit 56 performs a test such as the frequency characteristics of the extracted output sound, and the output unit 57 outputs information for notifying the test result (step S31). Thereafter, the execution of the flowchart ends.

ステップS24で「No」と判定された場合またはステップS29で「No」と判定された場合には、出力部57は、音試験の対象としている被試験体200の音出力に異常が生じている旨を通知するための情報を出力する(ステップS32)。その後、フローチャートの実行が終了する。   If “No” is determined in step S24 or “No” is determined in step S29, the output unit 57 has an abnormality in the sound output of the DUT 200 that is the subject of the sound test. Information for notifying is output (step S32). Thereafter, the execution of the flowchart ends.

図17は、ステップS30の詳細を表すフローチャートである。図17を参照して、抽出部54は、各種変数UF[m][n]、m、nをクリアする(ステップS41)。変数UF[m]「n」は、音試験の対象としている出力音の変数である。変数mは、時間分解能Δtの変数である。変数nは、周波数分解能Δfの変数である。次に、抽出部54は、4つの周期データの微小区間の中で、振幅最小値を変数UF[m]「n」に格納する(ステップS42)。具体的には、抽出部54は、4つの周期データの周期T=0,1,2,3から、最小値の振幅成分F[T][m][n]を変数UF[m]「n」に格納する(T:最小値となる周期)。   FIG. 17 is a flowchart showing details of step S30. Referring to FIG. 17, the extraction unit 54 clears various variables UF [m] [n], m, n (step S41). The variable UF [m] “n” is a variable of the output sound that is the subject of the sound test. The variable m is a variable with a time resolution Δt. The variable n is a variable of the frequency resolution Δf. Next, the extraction unit 54 stores the minimum amplitude value in the variable UF [m] “n” in the minute sections of the four periodic data (step S42). Specifically, the extraction unit 54 converts the minimum amplitude component F [T] [m] [n] from the period T = 0, 1, 2, 3 of the four period data to the variable UF [m] “n”. (T: period of minimum value).

次に、抽出部54は、変数nが最大値となっているか否かを判定する(ステップS43)。ステップS43で「No」と判定された場合、抽出部54は、変数nに「1」を加算する(ステップS44)。ステップS44の実行後は、ステップS42が再度実行される。ステップS44で「Yes」と判定された場合、抽出部54は、変数mが最大値となっているか否かを判定する(ステップS45)。ステップS45で「Yes」と判定された場合、抽出部54は、変数mに「1」を加算する(ステップS46)。ステップS46の実行後は、ステップS42が再度実行される。ステップS44で「Yes」と判定された場合、図17のフローチャートは終了する。   Next, the extraction unit 54 determines whether or not the variable n is the maximum value (step S43). When it is determined as “No” in Step S43, the extraction unit 54 adds “1” to the variable n (Step S44). After step S44 is executed, step S42 is executed again. When it is determined as “Yes” in Step S44, the extraction unit 54 determines whether or not the variable m is the maximum value (Step S45). When it is determined as “Yes” in Step S45, the extraction unit 54 adds “1” to the variable m (Step S46). After execution of step S46, step S42 is executed again. When it is determined “Yes” in step S44, the flowchart of FIG. 17 ends.

ステップS42〜S44が繰り返されることによって、周波数分解能Δfの変数nが最大値になるまで最小値演算が繰り返される。また、ステップS42,S45,S46が繰り返されることによって、時間分解能Δtの変数mが最大値になるまで最小値演算が繰り返される。   By repeating steps S42 to S44, the minimum value calculation is repeated until the variable n of the frequency resolution Δf reaches the maximum value. Further, by repeating steps S42, S45, and S46, the minimum value calculation is repeated until the variable m of the time resolution Δt reaches the maximum value.

本実施例によれば、被試験体200に個別に決められた周波数の頭出し信号を検出することから、複数の被試験体200の出力音から、音試験の対象とする出力音の再生周期を特定することができる。また、複数の周期データに対して論理積演算を行うことによって、音試験の対象とする出力音を抽出することができる。それにより、複数の被試験体200が同時に音を出力していても、音試験の対象とする出力音を抽出することができる。また、通過検出センサ10によって通過が検出される被試験体200が切り替わると、抽出される出力音が切り替わることから、同一ライン上の複数の被試験体200に対して順に試験を行うことができる。また、各被試験体200の出力をオンオフしなくてもよいため、音抽出装置100と被試験体200とを同期しなくてもよい。それにより、同期設備などが不要となって、コストを抑制することができる。   According to the present embodiment, since a cueing signal having a frequency individually determined for the device under test 200 is detected, the reproduction period of the output sound to be subjected to the sound test from the output sound of the plurality of devices under test 200. Can be specified. Further, by performing a logical product operation on a plurality of period data, it is possible to extract an output sound to be subjected to a sound test. As a result, even if a plurality of devices under test 200 output sound simultaneously, it is possible to extract the output sound to be subjected to the sound test. Further, since the output sound to be extracted is switched when the DUT 200 whose passage is detected by the passage detection sensor 10 is switched, the test can be sequentially performed on a plurality of DUTs 200 on the same line. . Further, since it is not necessary to turn on / off the output of each device under test 200, the sound extraction device 100 and the device under test 200 need not be synchronized. Thereby, a synchronous installation etc. become unnecessary and it can suppress cost.

なお、本実施例においては、通過検出センサ10が、被試験体200が録音マイク40近傍を通過することを検出する検出部として機能する。録音データ記憶部51が、被試験体200の出力音を録音データとして記憶する記憶部として機能する。抽出部54が、録音データから頭出し信号を認識する認識部として機能し、被試験体200の出力音を抽出する抽出部として機能する。音源情報記憶部52が、被試験体200と、各被試験体200に個別に決められた頭出し信号の周波数との関係を保持する保持部として機能する。   In the present embodiment, the passage detection sensor 10 functions as a detection unit that detects that the DUT 200 passes near the recording microphone 40. The recording data storage unit 51 functions as a storage unit that stores the output sound of the DUT 200 as recording data. The extracting unit 54 functions as a recognizing unit that recognizes a cue signal from the recorded data, and functions as an extracting unit that extracts the output sound of the DUT 200. The sound source information storage unit 52 functions as a holding unit that holds the relationship between the DUT 200 and the frequency of the cue signal determined individually for each DUT 200.

ところで、通過が検出された被試験体200と録音マイク40との距離が小さくなって音量が大きくなることに着目し、録音データに含まれる各出力音の振幅にフィルタをかける方法が考えられる。この場合、図18を参照して、振幅がしきい値を超える信号だけを抽出することによって、音試験の対象とする出力音を抽出できるとも考えられる。しかしながら、音試験の対象外の被試験体200の音量が異常等に起因して大きくなっていると、音試験の対象外の出力音の振幅がしきい値を超えてしまう。以上のことから、各出力音の振幅にフィルタをかける方法では、音試験の対象とする出力音のみを抽出することは困難である。   By the way, paying attention to the fact that the distance between the DUT 200 in which passage has been detected and the recording microphone 40 is reduced and the volume is increased, a method of filtering the amplitude of each output sound included in the recording data is conceivable. In this case, with reference to FIG. 18, it is considered that the output sound to be subjected to the sound test can be extracted by extracting only the signal whose amplitude exceeds the threshold value. However, if the volume of the device under test 200 that is not subject to the sound test is increased due to an abnormality or the like, the amplitude of the output sound that is not subject to the sound test exceeds the threshold value. From the above, it is difficult to extract only the output sound to be subjected to the sound test by the method of filtering the amplitude of each output sound.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

10 通過検出センサ
20 バーコードリーダ
30 通信制御部
40 録音マイク
50 処理部
51 録音データ記憶部
52 音源情報記憶部
53 フーリエ変換部
54 抽出部
55 音量補正部
56 判定部
57 出力部
100 音抽出装置
101 CPU
102 RAM
103 記憶装置
200 被試験体
201 音源データ記憶部
202 制御部
203 スピーカ
204 ベルトコンベア
DESCRIPTION OF SYMBOLS 10 Pass detection sensor 20 Barcode reader 30 Communication control part 40 Recording microphone 50 Processing part 51 Recording data storage part 52 Sound source information storage part 53 Fourier transform part 54 Extraction part 55 Volume correction part 56 Determination part 57 Output part 100 Sound extraction apparatus 101 CPU
102 RAM
DESCRIPTION OF SYMBOLS 103 Storage apparatus 200 Test object 201 Sound source data storage part 202 Control part 203 Speaker 204 Belt conveyor

Claims (11)

被試験体が録音マイク近傍を通過することを検出する検出部と、
前記検出部によって前記通過が検出された場合に、前記録音マイクを用いて前記被試験体の出力音を録音データとして記憶する記憶部と、
前記被試験体に個別に決められた周波数の頭出し信号を前記録音データから認識する認識部と、
前記認識部によって認識された頭出し信号を基に、複数の周期データを抽出し、当該周期データの論理積を求めることによって前記被試験体の出力音を抽出する抽出部と、を備えることを特徴とする音抽出装置。
A detector for detecting that the DUT passes through the vicinity of the recording microphone;
When the passage is detected by the detection unit, a storage unit that stores output sound of the DUT as recording data using the recording microphone;
A recognizing unit for recognizing a cueing signal having a frequency individually determined for the DUT from the recorded data;
An extraction unit that extracts a plurality of period data based on the cue signal recognized by the recognition unit and extracts an output sound of the DUT by obtaining a logical product of the period data. A featured sound extraction device.
前記周期データは、前記通過が検出された被試験体の頭出し信号から次の頭出し信号までの周期データであることを特徴とする請求項1記載の音抽出装置。   2. The sound extraction device according to claim 1, wherein the periodic data is periodic data from a cue signal of the DUT in which the passage is detected to a next cue signal. 各被試験体と、各被試験体に個別に決められた頭出し信号の周波数との関係を保持する保持部を備え、
前記認識部は、前記通過が検出された被試験体に対応する周波数の頭出し信号を前記録音データから認識することを特徴とする請求項1または2記載の音抽出装置。
A holding unit that holds the relationship between each DUT and the frequency of the cue signal determined individually for each DUT,
The sound extraction apparatus according to claim 1, wherein the recognition unit recognizes a cueing signal having a frequency corresponding to the DUT in which the passage is detected from the recorded data.
被試験体が繰り返し再生する音の周期は、被試験体ごとに異なっていることを特徴とする請求項1〜3のいずれか一項に記載の音抽出装置。   The sound extraction apparatus according to any one of claims 1 to 3, wherein a period of sound repeatedly reproduced by the DUT is different for each DUT. 前記繰り返し再生する音は、前記頭出し信号とチャープ信号とを含むことを特徴とする請求項4記載の音抽出装置。   The sound extraction apparatus according to claim 4, wherein the sound to be repeatedly reproduced includes the cue signal and the chirp signal. 被試験体が録音マイク近傍を通過することを検出し、
前記通過が検出された場合に、前記録音マイクを用いて前記被試験体の出力音を録音データとして記憶し、
前記被試験体に個別に決められた周波数の頭出し信号を前記録音データから認識し、
認識された頭出し信号を基に、複数の周期データを抽出し、当該周期データの論理積を求めることによって前記被試験体の出力音を抽出する、ことを特徴とする音抽出方法。
Detect that the DUT passes near the recording microphone,
When the passage is detected, the output sound of the device under test is stored as recording data using the recording microphone,
Recognizing the cue signal of the frequency individually determined for the test object from the recorded data,
A sound extraction method comprising: extracting a plurality of period data based on a recognized cueing signal; and extracting an output sound of the DUT by obtaining a logical product of the period data.
前記周期データは、前記通過が検出された被試験体の頭出し信号から次の頭出し信号までの周期データであることを特徴とする請求項6記載の音抽出方法。   The sound extraction method according to claim 6, wherein the periodic data is periodic data from a cue signal of the DUT in which the passage is detected to a next cue signal. 各被試験体と、各被試験体に個別に決められた頭出し信号の周波数との関係を保持し、
前記通過が検出された被試験体に対応する周波数の頭出し信号を前記録音データから認識することを特徴とする請求項6または7記載の音抽出方法。
Maintains the relationship between each device under test and the frequency of the cue signal determined individually for each device under test,
8. The sound extraction method according to claim 6 or 7, wherein a cueing signal having a frequency corresponding to the test object in which the passage is detected is recognized from the recorded data.
被試験体が繰り返し再生する音の周期は、被試験体ごとに異なっていることを特徴とする請求項6〜8のいずれか一項に記載の音抽出方法。   The sound extraction method according to any one of claims 6 to 8, wherein the period of the sound repeatedly reproduced by the device under test is different for each device under test. 前記繰り返し再生する音は、前記頭出し信号とチャープ信号とを含むことを特徴とする請求項9記載の音抽出方法。   The sound extraction method according to claim 9, wherein the sound to be repeatedly reproduced includes the cue signal and the chirp signal. コンピュータに、
被試験体が録音マイク近傍を通過することを検出するステップと、
前記通過が検出された場合に、前記録音マイクを用いて前記被試験体の出力音を録音データとして記憶するステップと、
前記被試験体に個別に決められた周波数の頭出し信号を前記録音データから認識するステップと、
認識された頭出し信号を基に、複数の周期データを抽出し、当該周期データの論理積を求めることによって前記被試験体の出力音を抽出するステップと、を実行させることを特徴とする音抽出プログラム。
On the computer,
Detecting that the DUT passes near the recording microphone;
Storing the output sound of the device under test as recording data using the recording microphone when the passage is detected;
Recognizing a cueing signal having a frequency individually determined for the DUT from the recorded data;
Extracting a plurality of periodic data based on the recognized cue signal and extracting the output sound of the device under test by obtaining a logical product of the periodic data. Extraction program.
JP2012268153A 2012-12-07 2012-12-07 Sound extraction apparatus, sound extraction method, and sound extraction program Expired - Fee Related JP6060661B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012268153A JP6060661B2 (en) 2012-12-07 2012-12-07 Sound extraction apparatus, sound extraction method, and sound extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012268153A JP6060661B2 (en) 2012-12-07 2012-12-07 Sound extraction apparatus, sound extraction method, and sound extraction program

Publications (2)

Publication Number Publication Date
JP2014116727A true JP2014116727A (en) 2014-06-26
JP6060661B2 JP6060661B2 (en) 2017-01-18

Family

ID=51172331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012268153A Expired - Fee Related JP6060661B2 (en) 2012-12-07 2012-12-07 Sound extraction apparatus, sound extraction method, and sound extraction program

Country Status (1)

Country Link
JP (1) JP6060661B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016127212A (en) * 2015-01-07 2016-07-11 株式会社ノリタケカンパニーリミテド Conductive composition

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297368A (en) * 2003-03-26 2004-10-21 Yamaha Corp Array speaker inspection apparatus, array speaker device, and method for determining wiring of device
JP2006279753A (en) * 2005-03-30 2006-10-12 Yamaha Corp Speaker inspection method, speaker inspection apparatus and sound reproducing apparatus
JP2007318551A (en) * 2006-05-26 2007-12-06 Yamaha Corp Audio conference device
JP2013195158A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Sound volume correcting method and sound testing apparatus
JP2013197780A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Speaker inspection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297368A (en) * 2003-03-26 2004-10-21 Yamaha Corp Array speaker inspection apparatus, array speaker device, and method for determining wiring of device
JP2006279753A (en) * 2005-03-30 2006-10-12 Yamaha Corp Speaker inspection method, speaker inspection apparatus and sound reproducing apparatus
JP2007318551A (en) * 2006-05-26 2007-12-06 Yamaha Corp Audio conference device
JP2013195158A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Sound volume correcting method and sound testing apparatus
JP2013197780A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Speaker inspection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016127212A (en) * 2015-01-07 2016-07-11 株式会社ノリタケカンパニーリミテド Conductive composition

Also Published As

Publication number Publication date
JP6060661B2 (en) 2017-01-18

Similar Documents

Publication Publication Date Title
CN110307994B (en) Abnormal sound detection device and abnormal sound detection method
Jelil et al. Spoof Detection Using Source, Instantaneous Frequency and Cepstral Features.
US8949118B2 (en) System and method for robust estimation and tracking the fundamental frequency of pseudo periodic signals in the presence of noise
CN104854635B (en) The audio frequency of man-machine interface safety is played
KR102212225B1 (en) Apparatus and Method for correcting Audio data
Deshpande et al. Effective glottal instant detection and electroglottographic parameter extraction for automated voice pathology assessment
JP6281273B2 (en) Acoustic device inspection apparatus, acoustic device inspection method, and acoustic device inspection program
JP5835039B2 (en) Volume correction method and sound test apparatus
JP2015079151A (en) Music discrimination device, discrimination method of music discrimination device, and program
Schaeffler et al. Reliability of clinical voice parameters captured with smartphones–measurements of added noise and spectral tilt
JP2010266327A (en) Facility diagnosis device and facility diagnosis method
JP5395399B2 (en) Mobile terminal, beat position estimating method and beat position estimating program
JP6060661B2 (en) Sound extraction apparatus, sound extraction method, and sound extraction program
JP6920445B2 (en) Music analysis device and music analysis program
JP5938771B2 (en) Test method and test apparatus
JP5845991B2 (en) Speaker inspection device
JP5539437B2 (en) Pure tone inspection apparatus and control method thereof
CN114882912A (en) Method and device for testing transient defects of time domain of acoustic signal
JP6136628B2 (en) Apparatus and method for inspecting sound output of device under test
JP6467780B2 (en) Voice inspection apparatus, voice inspection method, and voice inspection program
JP2012185195A (en) Audio data feature extraction method, audio data collation method, audio data feature extraction program, audio data collation program, audio data feature extraction device, audio data collation device, and audio data collation system
JP2014098566A (en) Vibration analyzer, vibration analysis method, and vibration analysis program
US7064556B2 (en) Frequency rectification tool for shorter waveforms
CN111314536B (en) Method and equipment for detecting listening module of terminal equipment
JP6298339B2 (en) Respiratory sound analysis device, respiratory sound analysis method, computer program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161128

R150 Certificate of patent or registration of utility model

Ref document number: 6060661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees