JP7272631B2 - Sound or vibration determination method and information processing system for determination - Google Patents

Sound or vibration determination method and information processing system for determination Download PDF

Info

Publication number
JP7272631B2
JP7272631B2 JP2019042392A JP2019042392A JP7272631B2 JP 7272631 B2 JP7272631 B2 JP 7272631B2 JP 2019042392 A JP2019042392 A JP 2019042392A JP 2019042392 A JP2019042392 A JP 2019042392A JP 7272631 B2 JP7272631 B2 JP 7272631B2
Authority
JP
Japan
Prior art keywords
sound
vibration
determined
determination
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019042392A
Other languages
Japanese (ja)
Other versions
JP2020144063A (en
Inventor
晋太 木村
慎一 田中
将之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Animo Ltd
Original Assignee
Animo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Animo Ltd filed Critical Animo Ltd
Priority to JP2019042392A priority Critical patent/JP7272631B2/en
Publication of JP2020144063A publication Critical patent/JP2020144063A/en
Application granted granted Critical
Publication of JP7272631B2 publication Critical patent/JP7272631B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音響又は振動による機械などの診断技術に関する。 The present invention relates to diagnostic techniques for acoustic or vibrational machines and the like.

近年、診断対象の機械などの状態(例えば正常状態と異常状態の別など)を、診断対象の機械などが発する音や振動を解析することで自動的に判定することが行われている。しかしながら、診断対象の機械などが発する音や振動は、診断対象の機械などによって異なるので、同一の診断ロジックでは対応できない。 2. Description of the Related Art In recent years, the state of a machine or the like to be diagnosed (for example, whether it is normal or abnormal) is automatically determined by analyzing the sound or vibration emitted by the machine or the like to be diagnosed. However, since the sound and vibration emitted by the machine to be diagnosed differ depending on the machine to be diagnosed, the same diagnostic logic cannot be used.

また、ある文献(例えば特許文献1)には、診断対象からの評価すべき音を収集する収音部と、収音部で収集された音波形を演算・抽出する波形抽出部と、予め登録された複数の基準波形で表される原因別基準空間における評価すべき音波形の空間距離を演算する空間距離演算部と、空間距離演算部から出力される距離演算結果に基づいて評価すべき音を解析して判断する解析判断部とを有する音源診断装置が開示されている。そして、解析判断部は、所定の診断タイミングにて取り込んだ評価すべき音の複数の空間距離データの変動範囲が許容範囲内にあるか否かにより、評価すべき音を診断する、とされている。この文献では、複写機などの事務機器を診断対象としているため、原因別基準空間にて空間距離を計算するが、その後は空間距離の変動範囲が許容範囲内にあるか否かにて評価するだけである。 In addition, in a document (for example, Patent Document 1), a sound pickup unit that collects sounds to be evaluated from a diagnosis target, a waveform extraction unit that calculates and extracts the sound waveform collected by the sound pickup unit, and a pre-registered A spatial distance calculator that calculates the spatial distance of the sound waveform to be evaluated in the cause-specific reference space represented by the plurality of reference waveforms, and the sound to be evaluated based on the distance calculation result output from the spatial distance calculator. is disclosed. Then, the analysis/judgment unit diagnoses the sound to be evaluated based on whether or not the fluctuation range of the plurality of spatial distance data of the sound to be evaluated, which is captured at a predetermined diagnosis timing, is within the allowable range. there is In this document, office equipment such as copiers are targeted for diagnosis, so the spatial distance is calculated in the reference space for each cause, but after that, evaluation is performed based on whether the fluctuation range of the spatial distance is within the allowable range. Only.

複写機などの事務機器という特定の機器であれば、特定の機器のいずれの状態にも対応できる上記のような診断装置を用意すれば良いが、診断対象の機械などが発する音や振動に詳しくない者は、どの機械などにどの診断ロジックが適しているのか分からないことが多い。診断対象の機械などに適した診断ロジックを適用しなければ、その状態について適切な判定を自動的に行うことができない。 In the case of specific equipment such as office equipment such as copiers, it is sufficient to prepare a diagnostic device such as the one described above that can respond to any state of the specific equipment. Those who do not often do not know which diagnostic logic is suitable for which machine or the like. Unless appropriate diagnostic logic is applied to the machine or the like to be diagnosed, it is not possible to automatically make an appropriate determination of its condition.

特開2004-205215号公報Japanese Patent Application Laid-Open No. 2004-205215 特開2004-309449号公報JP 2004-309449 A 特開2009-186273号公報JP 2009-186273 A

従って、本発明の目的は、一側面によれば、多様な診断対象について容易に適切な判定ができるようにするための技術を提供することである。 Therefore, according to one aspect, an object of the present invention is to provide a technique for easily making appropriate determinations for various diagnosis targets.

本発明に係る判定方法は、(A)判定対象の音又は振動を表すデータから、当該判定対象の音又は振動の種別を判別するステップと、(B)予め音又は振動の種別に対応して用意され且つ判定対象の状態を判定する複数の判定部のうち、判別された判定対象の音又は振動の種別に対応する判定部を選択するステップと、(C)選択された判定部により上記データを処理して、判定対象の状態を判定するステップとを含む。 The determination method according to the present invention includes (A) a step of determining the type of sound or vibration to be determined from data representing the sound or vibration to be determined; (C) a step of selecting a determination unit corresponding to the type of sound or vibration to be determined from among a plurality of determination units that are prepared and determine a state to be determined; and determining the state to be determined.

一側面によれば、多様な診断対象について容易に適切な判定ができるようになる。 According to one aspect, it becomes possible to easily and appropriately determine various diagnostic targets.

図1は、実施の形態に係るシステムの概要を示す図である。FIG. 1 is a diagram showing an outline of a system according to an embodiment. 図2は、分析部の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an analysis unit. 図3(a)乃至(c)は、音量の時系列データの例を示す図である。FIGS. 3A to 3C are diagrams showing examples of volume time-series data. 図4は、判定部の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of a determination unit; 図5は、実施の形態に係る処理フローを示す図である。FIG. 5 is a diagram illustrating a processing flow according to the embodiment;

本発明の一実施の形態に係るシステム構成例を図1に示す。 FIG. 1 shows a system configuration example according to one embodiment of the present invention.

本実施の形態に係る情報処理装置100は、マイク1と、アンプ部3と、AD(Analog-Digital)変換部5と、分析部7と、音種別判別部9と、判別用データベース11と、切替部13と、打音判定部15と、回転音判定部17と、摺動音判定部19と、出力部21とを有する。なお、ここでは、打音と回転音と摺動音とに対応することを想定しているが、流音などの他の音に対応する場合には、そのための判定部を追加することになる。また、判別用データベース11にもそのためのデータを追加する。 The information processing apparatus 100 according to the present embodiment includes a microphone 1, an amplifier section 3, an AD (Analog-Digital) conversion section 5, an analysis section 7, a sound type discrimination section 9, a discrimination database 11, It has a switching unit 13 , a hammering sound determination unit 15 , a rotation sound determination unit 17 , a sliding sound determination unit 19 , and an output unit 21 . It should be noted that, here, it is assumed that it corresponds to hitting sounds, rotating sounds, and sliding sounds, but if it corresponds to other sounds such as flowing sounds, a determination unit for that purpose will be added. . Further, data for that purpose is added to the determination database 11 as well.

マイク1は、集音した音入力信号をアンプ部3に出力する。アンプ部3は、音入力信号を増幅して、音信号X(t)をAD変換部5に出力する。AD変換部5は、音信号X(t)に対してA/D変換を行って、入力音データ{xi}を生成し、分析部7に出力する。 The microphone 1 outputs a collected sound input signal to the amplifier section 3 . The amplifier section 3 amplifies the sound input signal and outputs the sound signal X(t) to the AD conversion section 5 . The AD conversion unit 5 performs A/D conversion on the sound signal X(t) to generate input sound data {x i } and outputs it to the analysis unit 7 .

分析部7は、例えば、図2に示した構成を有する。分析部7は、フレーム分割部71と、音量計算部73と、切り出し部75とを有する。 The analysis unit 7 has, for example, the configuration shown in FIG. The analysis unit 7 has a frame division unit 71 , a volume calculation unit 73 and a clipping unit 75 .

フレーム分割部71は、入力音データ{xi}を予め設定されているフレーム周期(フレーム幅とも呼ぶ)毎に分割して、フレーム毎の入力音データを音量計算部73に出力する。音量計算部73は、フレームj毎に、音量pjを算出し、切り出し部75に出力する。切り出し部75は、音量pjの時系列データのうち閾値Thp以上となっている部分を切り出して、音種別判別部9に出力する。 The frame division unit 71 divides the input sound data {x i } by a predetermined frame period (also called frame width), and outputs the input sound data for each frame to the volume calculation unit 73 . The volume calculator 73 calculates the volume p j for each frame j, and outputs it to the clipping unit 75 . The cutout unit 75 cuts out a portion of the time-series data of the volume p j that is equal to or greater than the threshold value Thp, and outputs the cutout portion to the sound type determination unit 9 .

判別用データベース11は、判別すべき音の種別毎に、音量の時系列データを格納している。例えば、予め、判定すべき音の種別毎に、標準音をマイク1から入力してAD変換部5で入力音データを生成し、分析部7で音量の時系列データを生成して、格納しておく。 The determination database 11 stores volume time series data for each type of sound to be determined. For example, for each type of sound to be determined, a standard sound is input from the microphone 1 in advance, the AD conversion unit 5 generates input sound data, and the analysis unit 7 generates and stores volume time series data. Keep

判別用データベース11に格納される音量の時系列データの例を図3に示す。図3(a)は、打音の場合における音量の時間変化例を示し、図3(b)は、回転音の場合における音量の時間変化例を示し、図3(c)は、摺動音の場合における時間変化例を示す。打音の場合、インパクト部に音量が集中するようになっている。回転音の場合、だんだん音量が増す加速部と、定常的な音量が継続する定常回転部と、だんだん音量が減少する減速部とを含む。摺動音の場合、音量が小さい停止部の間に音量の大きい摺動部が挟まれるようになっている。このように、音種別毎に、その音種別に特徴的な音量の時間変化が発生する。音量以外の音色に関するスペクトルの情報は、このような特徴を有する音種別を判別するためには用いられない。これは、装置の機種毎に音色が異なっており、機種毎に判別用のデータを用意するのは現実的ではないためである。音量の時間変化は、機種に依存せず、判定対象の構造や動作との対応関係を表す情報である。 FIG. 3 shows an example of volume time-series data stored in the determination database 11 . FIG. 3(a) shows an example of volume change over time for a tapping sound, FIG. 3(b) shows an example of volume change over time for a rotating sound, and FIG. 3(c) shows a sliding sound. shows an example of time change in the case of In the case of hitting sound, the volume is concentrated at the impact portion. In the case of the rotating sound, it includes an acceleration section where the volume gradually increases, a steady rotation section where the steady volume continues, and a deceleration section where the volume gradually decreases. In the case of a sliding sound, a sliding portion with a large volume is sandwiched between stop portions with a low volume. In this way, for each sound type, a characteristic volume change over time occurs for that sound type. Spectral information related to timbre other than volume is not used to discriminate a sound type having such characteristics. This is because the timbre is different for each device model, and it is not realistic to prepare data for discrimination for each model. The change in volume over time is information representing the correspondence relationship with the structure or operation to be determined, regardless of the model.

音種別判別部9は、判別用データベース11に格納されている音種別毎の音量の時系列データと、分析部7から出力された判定対象の音量pjの時系列データとについて、距離又は類似度の計算を実行し、例えば最も距離が短い又は類似度が最大となる音種別を判別する。そして、音種別判別部9は、判別した音種別に対応する判定部に対してAD変換部5の出力を処理させるように、切替部13に出力する。 The sound type discriminating unit 9 compares the time-series data of the sound volume for each sound type stored in the discriminating database 11 and the time-series data of the sound volume p j to be determined output from the analysis unit 7 to determine distance or similarity. A degree calculation is performed to determine, for example, the sound type with the shortest distance or the highest degree of similarity. Then, the sound type determination unit 9 outputs to the switching unit 13 so that the output of the AD conversion unit 5 is processed by the determination unit corresponding to the determined sound type.

切替部13は、音種別判定部9からの出力に応じて、AD変換部5の出力を、打音判定部15と回転音判定部17と摺動音判定部19とのうちいずれかに入力する。 The switching unit 13 inputs the output of the AD conversion unit 5 to one of the hitting sound determination unit 15, the rotation sound determination unit 17, and the sliding sound determination unit 19 according to the output from the sound type determination unit 9. do.

打音判定部15と回転音判定部17と摺動音判定部19には、それぞれ打音、回転音、摺動音について、例えば正常状態と異常状態の何れであるかを判断するためのロジックが組み込まれている。 The hammering sound determining unit 15, the rotating sound determining unit 17, and the sliding sound determining unit 19 each have a logic for determining whether the hammering sound, the rotating sound, and the sliding sound are in a normal state or an abnormal state, respectively. is built in.

判定部の基本構成例を図4に示す。 FIG. 4 shows a basic configuration example of the determination unit.

上で述べた判定部(15-19)は、第2分析部31と、照合部33と、状態判定部35と、判定用データベース37とを有する。 The determination unit (15-19) described above has a second analysis unit 31, a collation unit 33, a state determination unit 35, and a database 37 for determination.

第2分析部31は、入力音データから特定の音種別に係る特徴部分を切り出し、高速フーリエ変換(FFT:Fast Fourier Transform)等を実行して、スペクトルデータを生成し、当該スペクトルデータに対して所定の分析処理を実行する。音種別が打音であれば、打音によるインパクト部を切り出して分析処理を実行する。音種別が回転音であれば、加速部、減速部、定常回転分を切り出し、それぞれについて分析処理を実行する。音種別が摺動音であれば、摺動部を切り出し、分析処理を実行する。 The second analysis unit 31 cuts out a characteristic portion related to a specific sound type from the input sound data, executes Fast Fourier Transform (FFT) or the like to generate spectrum data, and performs Executes a predetermined analysis process. If the sound type is a hammering sound, the impact part of the hammering sound is cut out and analyzed. If the sound type is a rotating sound, an acceleration portion, a deceleration portion, and a steady rotation portion are cut out, and analysis processing is performed for each of them. If the sound type is sliding sound, the sliding portion is cut out and analysis processing is executed.

判定用データベース37は、特定の音種別に係る正常音の分析結果を格納している。すなわち、音種別が打音であれば、正常な打音のインパクト部のスペクトルデータに対する分析結果を格納している。音種別が回転音であれば、正常な回転音の加速部、減速部、定常回転部のそれぞれのスペクトルデータに対する分析結果を格納している。音種別が摺動音であれば、正常な摺動音の摺動部のスペクトルデータについての分析結果を格納している。 The determination database 37 stores analysis results of normal sounds of specific sound types. That is, if the sound type is hammering sound, the analysis results for the spectrum data of the impact portion of the normal hammering sound are stored. If the sound type is rotating sound, the analysis results are stored for each spectrum data of the acceleration portion, deceleration portion, and steady rotation portion of the normal rotating sound. If the sound type is sliding sound, the analysis result of the spectral data of the sliding portion of the normal sliding sound is stored.

照合部33は、第2分析部31の分析結果と、判定用データベース37に格納されている正常状態についての分析結果とを照合して、予め定義された距離又は類似度を算出し、状態判定部35に出力する。状態判定部35は、距離又は類似度を予め定められた閾値とを比較して、例えば正常か否かを判定する。すなわち、距離が閾値を超える場合や類似度が閾値未満であれば、異常と判断する。そして、状態判定部35は、出力部21に出力する。出力部21は、例えば表示装置などに、判定結果を出力する。 The matching unit 33 compares the analysis result of the second analysis unit 31 with the analysis result of the normal state stored in the determination database 37, calculates a predefined distance or similarity, and performs state determination. Output to unit 35 . The state determination unit 35 compares the distance or the degree of similarity with a predetermined threshold to determine, for example, whether it is normal. That is, if the distance exceeds the threshold or if the degree of similarity is less than the threshold, it is determined to be abnormal. Then, the state determination section 35 outputs to the output section 21 . The output unit 21 outputs the determination result to, for example, a display device.

このような判定部の構成は一例であって、様々なロジックにて適切に判定対象の状態を判定できる構成を採用できる。例えば、機械学習によって予め正常な音と異常な音とを学習させておき、この学習済みモデルにて、正常か否かを判断するようにしても良い。 Such a configuration of the determination unit is an example, and a configuration that can appropriately determine the state of the determination target by various logics can be adopted. For example, normal sounds and abnormal sounds may be learned in advance by machine learning, and whether or not the sound is normal may be determined using this learned model.

次に、情報処理装置100の動作内容を図5を用いて説明する。 Next, operation contents of the information processing apparatus 100 will be described with reference to FIG.

まず、マイク1からの音入力信号をアンプ部3で増幅し、AD変換部5で音信号X(t)をディジタル化して入力音データ{xi}を生成する(ステップS1)。 First, a sound input signal from the microphone 1 is amplified by the amplifier section 3, and the sound signal X(t) is digitized by the AD conversion section 5 to generate input sound data {x i } (step S1).

AD変換部5では、標本化定理に基づき標本化周波数(サンプリング周波数)が、入力音に含まれる最高周波数成分の周波数の2倍以上に設定される。例えば入力音に5KHzまでの成分が含まれている場合、標本化周波数はその2倍の10KHz以上に設定される。標本化周波数が10KHzの場合には、標本化間隔(xiとxi+1の時間間隔)は0.0001秒となる。 In the AD converter 5, the sampling frequency (sampling frequency) is set to twice or more the frequency of the highest frequency component contained in the input sound based on the sampling theorem. For example, if the input sound contains components up to 5 KHz, the sampling frequency is set to 10 KHz or higher, which is twice the frequency. If the sampling frequency is 10 KHz, the sampling interval (the time interval between x i and x i+1 ) will be 0.0001 seconds.

次に、分析部7のフレーム分割部71は、入力音データ{xi}をフレーム分割して、音量計算部73は、フレーム毎に音量計算を実行して、音量pjの時系列データを生成する(ステップS3)。 Next, the frame division unit 71 of the analysis unit 7 divides the input sound data {x i } into frames, and the volume calculation unit 73 performs volume calculation for each frame to obtain time-series data of the volume p j . Generate (step S3).

フレーム周期は、音量の変化の最高周波数の2倍以上の周波数の逆数に設定される。例えば音量の変化の最高周波数が5Hzの場合、フレームの周波数は10Hz以上となり、フレーム周期は0.1秒以下(上記の標本化周波数が10KHzである場合、入力音データ1000個以下)となる。 The frame period is set to the reciprocal of a frequency that is at least twice the maximum frequency of changes in volume. For example, if the maximum frequency of volume change is 5 Hz, the frame frequency is 10 Hz or higher, and the frame period is 0.1 seconds or less (when the sampling frequency is 10 kHz, the input sound data is 1000 or less).

音量計算部73は、フレームj毎に下記の式に従って音量pj(dB値)を算出する。
j=10×log10(Σk∈frame jk 2
The volume calculator 73 calculates the volume p j (dB value) according to the following formula for each frame j.
p j =10×log 10k∈frame j × k 2 )

これによって、フレーム毎の音量が計算され、音量の時間変化が得られる。 As a result, the volume for each frame is calculated, and the change in volume over time is obtained.

さらに、切り出し部75は、音量の時系列データを所定の閾値Thpで切り出す(ステップS5)。すなわち、音量pjの時系列データのうち閾値Thp以上となっている部分を切り出して、音種別判別部9に出力する。 Further, the cutout unit 75 cuts out the volume time-series data at a predetermined threshold Thp (step S5). That is, a portion of the time-series data of the volume p j that is equal to or greater than the threshold value Thp is cut out and output to the sound type discrimination section 9 .

そして、音種別判別部9は、判別用データベース11に登録された各音種別の音量時系列データに対して、分析部7から出力された音量の時系列データとの距離又は類似度を計算する(ステップS7)。 Then, the sound type discrimination unit 9 calculates the distance or similarity between the volume time series data of each sound type registered in the discrimination database 11 and the volume time series data output from the analysis unit 7. (Step S7).

一般に、判別用データベース11に登録されている音量時系列データと、分析部7からの音量の時系列データとでは、長さ(フレーム数)が異なるので、例えば後者について線形伸縮させてから距離又は類似度の計算を行う。または、動的計画法を用いて最適な非線形伸縮を行ってから距離又は類似度の計算を行うようにしても良い。 In general, the volume time-series data registered in the determination database 11 and the volume time-series data from the analysis unit 7 have different lengths (number of frames). Calculate similarity. Alternatively, the distance or similarity may be calculated after performing optimal nonlinear expansion and contraction using dynamic programming.

音種別判別9は、算出した距離又は類似度に基づき音種別を判別する(ステップS9)。例えば、最も距離が短い又は最も類似度が大きい音種別を特定する。但し、特定された音種別の距離が判別閾値より長い場合や、類似度が判別閾値より小さい場合には、適切に判別できていない可能性がある。 Sound type discrimination 9 discriminates the sound type based on the calculated distance or similarity (step S9). For example, the sound type with the shortest distance or the highest degree of similarity is specified. However, when the distance of the identified sound type is longer than the discrimination threshold, or when the similarity is smaller than the discrimination threshold, there is a possibility that appropriate discrimination cannot be made.

従って、音種別判別部9は、ステップS9で音種別が判別できたか否かを判断する(ステップS11)。例えば、特定された音種別の距離が判別閾値以下である場合、類似度が判別閾値以上である場合には判別できたものとし、それ以外については判別できなかったものとする。 Accordingly, the sound type discriminating section 9 determines whether or not the sound type has been discriminated in step S9 (step S11). For example, when the distance of the specified sound type is equal to or less than the discrimination threshold value, it is assumed that the similarity is equal to or greater than the discrimination threshold value, the discrimination is possible, and otherwise the discrimination is not possible.

判別できなかった場合には、音種別判別部9は、ユーザに対して音種別が判別できなかったことを示して、音種別を入力するように促す。例えば、最も距離が短い又は最も類似度が大きい音種別を提示しても良い。ユーザは、これに対して適切な音種別を指定する。音種別判別部9は、この指定を受け付ける(ステップS13)。 If the sound type cannot be determined, the sound type determining unit 9 indicates to the user that the sound type could not be determined, and prompts the user to input the sound type. For example, the sound type with the shortest distance or the highest degree of similarity may be presented. The user designates an appropriate sound type for this. The sound type discrimination section 9 accepts this specification (step S13).

判別できた場合又はステップS13の後に、音種別判別部9は、判別又は指定された音種別を切替部13に出力する。 When the determination is made or after step S<b>13 , the sound type determining unit 9 outputs the determined or designated sound type to the switching unit 13 .

切替部13は、判別又は指定された音種別の判定部に、入力音データを出力する(ステップS15)。入力音データが入力された判定部は、入力音データに基づき状態の判定処理を実行する(ステップS17)。打音判定部15、回転音判定部17、摺動音判定部19のいずれかが判定処理を実行する。処理結果については、出力部21が、表示装置などに出力する。 The switching unit 13 outputs the input sound data to the determination unit of the determined or designated sound type (step S15). The determination unit to which the input sound data is input executes state determination processing based on the input sound data (step S17). Any one of the hitting sound determination unit 15, the rotation sound determination unit 17, and the sliding sound determination unit 19 executes determination processing. The output unit 21 outputs the processing result to a display device or the like.

このような情報処理装置100を用いることで、機械などの音又は振動に詳しくない作業者でも、適切に機械などの状態を判定できるようになる。 By using such an information processing apparatus 100, even a worker who is unfamiliar with the sound or vibration of a machine can appropriately determine the state of the machine.

以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、図1、図2及び図4の機能ブロック構成は一例であって、プログラムモジュール構成とは一致しない場合がある。図5に示した処理フローについても、処理結果が同じであれば、並列実行したり順番を入れ替えたりしても良いステップが含まれる場合もある。 Although the embodiment of the present invention has been described above, the present invention is not limited to this. For example, the functional block configurations of FIGS. 1, 2, and 4 are examples, and may not match the program module configuration. The processing flow shown in FIG. 5 may also include steps that may be executed in parallel or whose order may be changed as long as the processing results are the same.

上では、音を対象とするためマイク1を設けているが、振動を対象とする場合には、振動センサを代わりに用いれば良い。また、判別用データベース11にはそのための時系列データを蓄積しておく。判定部(15-19)についても、そのための判定部を用意する。 In the above, the microphone 1 is provided for sound, but when vibration is the object, a vibration sensor may be used instead. In addition, time-series data for that purpose is accumulated in the discrimination database 11 . As for the determination unit (15-19), a determination unit for that purpose is also prepared.

また、打音、回転音、摺動音がそれぞれ1種類の場合を示したが、それぞれについて1又は複数種類(例えば回転音1(例えば観覧車の回転音)と回転音2(例えば模型用小型モータ)とを区別するなど)対応可能な形にしても良い。上でも述べたが、音種別については追加又は変更しても良い。 In addition, although one type of hammering sound, rotating sound, and sliding sound is shown, one or more types for each (for example, rotating sound 1 (for example, the rotating sound of a Ferris wheel) and rotating sound 2 (for example, a small size for a model) (motor), etc.) may be adapted. As described above, sound types may be added or changed.

また、情報処理装置100は、一台の装置として実施される場合もあれば、複数の装置として実施される場合もある。例えば、マイク1及びAD変換部5を、判定対象の装置付近に配置して、それ以外の構成要素については他の場所に配置するようにしても良い。このように情報処理装置100は、1又は複数の装置で実現される情報処理システムとして構築される場合もあり、1台の装置の場合を含めて情報処理システムと呼ぶ場合がある。 Further, the information processing apparatus 100 may be implemented as a single apparatus or may be implemented as a plurality of apparatuses. For example, the microphone 1 and the AD converter 5 may be placed near the device to be determined, and the other components may be placed at other locations. In this way, the information processing apparatus 100 may be constructed as an information processing system realized by one or more apparatuses, and may be called an information processing system including the case of one apparatus.

なお、上で述べた情報処理装置100は、コンピュータ装置であって、メモリとCPU(Central Processing Unit)とハードディスク・ドライブ(HDD:Hard Disk Drive)と表示装置に接続される表示制御部とリムーバブル・ディスク用のドライブ装置と入力装置とネットワークに接続するための通信制御部とがバスで接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDDに格納されており、CPUにより実行される際にはHDDからメモリに読み出される。CPUは、アプリケーション・プログラムの処理内容に応じて表示制御部、通信制御部、ドライブ装置を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリに格納されるが、HDDに格納されるようにしてもよい。本発明の実施の形態では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスクに格納されて頒布され、ドライブ装置からHDDにインストールされる。インターネットなどのネットワーク及び通信制御部を経由して、HDDにインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU、メモリなどのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。 The information processing apparatus 100 described above is a computer apparatus, and includes a memory, a CPU (Central Processing Unit), a hard disk drive (HDD), a display control unit connected to a display device, and a removable display device. A disk drive device, an input device, and a communication control unit for connecting to a network are connected by a bus. An operating system (OS) and an application program for executing the processing in this embodiment are stored in the HDD, and are read from the HDD into the memory when executed by the CPU. The CPU controls the display control unit, the communication control unit, and the drive device according to the processing content of the application program, and causes them to perform predetermined operations. In addition, the data being processed is mainly stored in the memory, but may be stored in the HDD. In the embodiment of the present invention, an application program for carrying out the processing described above is stored and distributed in a computer-readable removable disk, and installed from the drive device to the HDD. It may be installed in the HDD via a network such as the Internet and a communication control section. Such a computer device implements the various functions described above through organic cooperation between hardware such as the CPU and memory described above and programs such as the OS and application programs.

以上述べた本実施の形態をまとめると以下のようになる。 The present embodiment described above can be summarized as follows.

本実施の形態に係る情報処理システムは、(A)予め音又は振動の種別に対応して用意され且つ判定対象の状態を判定する複数の判定部と、(B)判定対象の音又は振動を表すデータから、当該判定対象の音又は振動の種別を判別する判別部と、(C)複数の判定部のうち、判別された判定対象の音又は振動の種別に対応する判定部に上記データを処理させる切替部とを有する。このようにすることで、想定されている複数の判定対象のうち、今回の判定対象に応じた適切な判定部が自動的に選択されて適切な判定が行われるようになる。上でも述べたが、音又は振動の種別は、打音、回転音、摺動音といった種別だけではなく、それらの少なくともいずれかに含まれる複数の下位の種別をも判別するようにしても良い。また、複数の下位の種別のいずれかであることを判別するようにしても良い。 The information processing system according to the present embodiment includes (A) a plurality of determination units that are prepared in advance corresponding to the type of sound or vibration and determines the state of the determination target, and (B) the sound or vibration that is the determination target. From the data represented, the data is sent to a determination unit that determines the type of sound or vibration to be determined, and (C) a determination unit that corresponds to the type of sound or vibration that is determined to be determined among a plurality of determination units. and a switching unit for processing. By doing so, an appropriate determination unit corresponding to the current determination target is automatically selected from among a plurality of assumed determination targets, and appropriate determination is performed. As described above, the types of sound or vibration are not limited to types such as hammering sound, rotating sound, and sliding sound, and may also be configured to identify a plurality of subordinate types included in at least one of them. . Also, it may be determined that the type is one of a plurality of subordinate types.

なお、上で述べた判別部は、(b1)上記データから、判定対象の音又は振動の量の時間変化を算出し、(b2)判定対象の音又振動の量の時間変化と、予め記憶装置に記憶されている複数の種別についての音又は振動の量の時間変化との距離又は類似度に基づき、判定対象の音又は振動の種別を判別するようにしても良い。音量又は振動量の時間変化が、種別を判別する上で重要なパラメータであるためである。 Note that the determination unit described above (b1) calculates the time change in the amount of sound or vibration to be determined from the above data, and (b2) the time change in the amount of sound or vibration to be determined, The type of sound or vibration to be determined may be determined based on the distance or similarity to the temporal change in the amount of sound or vibration for a plurality of types stored in the device. This is because the temporal change in volume or vibration amount is an important parameter for determining the type.

なお、上記処理を実行するためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、光ディスク(CD-ROM、DVD-ROMなど)、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。 It should be noted that a program for executing the above processing can be created, and the program can be read by a computer, such as a flexible disk, an optical disk (CD-ROM, DVD-ROM, etc.), a magneto-optical disk, a semiconductor memory, a hard disk, etc. stored in a suitable storage medium or storage device. Note that intermediate processing results are temporarily stored in a storage device such as a main memory.

100 情報処理装置
1 マイク
3 アンプ部
5 AD変換部
7 分析部
9 音種別判別部
11 判別用データベース
13 切替部
15 打音判定部
17 回転音判定部
19 摺動音判定部
21 出力部
100 information processing device 1 microphone 3 amplifier unit 5 AD conversion unit 7 analysis unit 9 sound type determination unit 11 determination database 13 switching unit 15 hammering sound determination unit 17 rotation sound determination unit 19 sliding sound determination unit 21 output unit

Claims (4)

判定対象の音又は振動を表す入力データから、当該判定対象の音又は振動の種別を判別する判別ステップと、
前記判別ステップの後に、予め音又は振動の種別に対応して用意され且つ入力データから当該音又は振動の種別に係る特徴部分を切り出して判定対象の状態を判定する複数の判定部のうち、前記判別ステップにおいて判別された前記判定対象の音又は振動の種別に対応する判定部を選択するステップと、
前記複数の判定部のうち選択された前記判定部にのみ、前記入力データを処理させるステップと、
を、コンピュータに実行させるためのプログラム。
a determination step of determining the type of sound or vibration to be determined from input data representing the sound or vibration to be determined;
After the determination step, out of a plurality of determination units that are prepared in advance corresponding to the type of sound or vibration and that determine a state to be determined by extracting a characteristic portion related to the type of sound or vibration from the input data , a step of selecting a determination unit corresponding to the type of sound or vibration to be determined determined in the determining step ;
causing only the determination unit selected from the plurality of determination units to process the input data;
A program that causes a computer to run
前記判別ステップにおいて、
前記入力データから、前記判定対象の音又は振動の量の時間変化を算出し、
前記判定対象の音又振動の量の時間変化と、予め記憶装置に記憶されている複数の種別についての音又は振動の量の時間変化との距離又は類似度に基づき、前記判定対象の音又は振動の種別を判別する
請求項1記載のプログラム。
In the determination step,
calculating a time change in the amount of sound or vibration to be determined from the input data;
Based on the distance or similarity between the time change in the amount of sound or vibration to be determined and the time change in the amount of sound or vibration for a plurality of types stored in advance in a storage device, the sound or vibration to be determined The program according to claim 1, wherein the type of vibration is discriminated.
判定対象の音又は振動を表す入力データから、当該判定対象の音又は振動の種別を判別する判別ステップと、
前記判定ステップの後に、予め音又は振動の種別に対応して用意され且つ入力データから当該音又は振動の種別に係る特徴部分を切り出して判定対象の状態を判定する複数の判定部のうち、前記判別ステップにおいて判別された前記判定対象の音又は振動の種別に対応する判定部を選択するステップと、
前記複数の判定部のうち選択された前記判定部のみにより前記データを処理して、前記判定対象の状態を判定するステップと、
を含み、コンピュータにより実行される判定方法。
a determination step of determining the type of sound or vibration to be determined from input data representing the sound or vibration to be determined;
After the determination step, out of a plurality of determination units that are prepared in advance corresponding to the type of sound or vibration and that determine a state to be determined by extracting a characteristic portion related to the type of sound or vibration from input data , a step of selecting a determination unit corresponding to the type of sound or vibration to be determined determined in the determination step ;
a step of processing the data only by the determination unit selected from the plurality of determination units and determining the state of the determination target;
A computer-implemented determination method.
予め音又は振動の種別に対応して用意され且つ入力データから当該音又は振動の種別に係る特徴部分を切り出して判定対象の状態を判定する複数の判定部と、
判定対象の音又は振動を表す入力データから、当該判定対象の音又は振動の種別を判別する判別部と、
前記判別部の処理の後に、前記複数の判定部のうち、前記判別部により判別された前記判定対象の音又は振動の種別に対応する判定部のみに前記データを処理させる切替部と、
を有する情報処理システム。
a plurality of determination units that are prepared in advance corresponding to the type of sound or vibration and that determine a state to be determined by extracting a characteristic portion related to the type of sound or vibration from input data;
a determination unit that determines the type of sound or vibration to be determined from input data representing the sound or vibration to be determined;
a switching unit that, after processing by the determining unit, causes only the determining unit corresponding to the type of the sound or vibration to be determined determined by the determining unit to process the data, among the plurality of determining units;
An information processing system having
JP2019042392A 2019-03-08 2019-03-08 Sound or vibration determination method and information processing system for determination Active JP7272631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019042392A JP7272631B2 (en) 2019-03-08 2019-03-08 Sound or vibration determination method and information processing system for determination

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042392A JP7272631B2 (en) 2019-03-08 2019-03-08 Sound or vibration determination method and information processing system for determination

Publications (2)

Publication Number Publication Date
JP2020144063A JP2020144063A (en) 2020-09-10
JP7272631B2 true JP7272631B2 (en) 2023-05-12

Family

ID=72353599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042392A Active JP7272631B2 (en) 2019-03-08 2019-03-08 Sound or vibration determination method and information processing system for determination

Country Status (1)

Country Link
JP (1) JP7272631B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006161677A (en) 2004-12-07 2006-06-22 Mitsubishi Electric Corp Compressor inspection device
JP2012018066A (en) 2010-07-07 2012-01-26 Panasonic Electric Works Sunx Co Ltd Device for inspecting abnormality
JP2012021969A (en) 2010-06-18 2012-02-02 Panasonic Electric Works Co Ltd Room and wiring tool
JP2015081768A (en) 2013-10-21 2015-04-27 株式会社日立ハイテクノロジーズ Abnormality detection device, abnormality detection method and computer readable storage medium
US20180348303A1 (en) 2017-06-01 2018-12-06 General Electric Company Wind Turbine Fault Detection Using Acoustic, Vibration, and Electrical Signals

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03211425A (en) * 1990-01-17 1991-09-17 Hitachi Ltd Abnormal noise diagnostic device for machine
JP3100646B2 (en) * 1991-03-04 2000-10-16 株式会社東芝 Sound identification device
JPH04283645A (en) * 1991-03-13 1992-10-08 Hitachi Ltd Method and apparatus for diagnosing abnormal sound of rotary machine and manufacturing line of rotary machine
JPH11271183A (en) * 1998-03-24 1999-10-05 Osaka Gas Co Ltd Vibration data-collecting device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006161677A (en) 2004-12-07 2006-06-22 Mitsubishi Electric Corp Compressor inspection device
JP2012021969A (en) 2010-06-18 2012-02-02 Panasonic Electric Works Co Ltd Room and wiring tool
JP2012018066A (en) 2010-07-07 2012-01-26 Panasonic Electric Works Sunx Co Ltd Device for inspecting abnormality
JP2015081768A (en) 2013-10-21 2015-04-27 株式会社日立ハイテクノロジーズ Abnormality detection device, abnormality detection method and computer readable storage medium
US20180348303A1 (en) 2017-06-01 2018-12-06 General Electric Company Wind Turbine Fault Detection Using Acoustic, Vibration, and Electrical Signals

Also Published As

Publication number Publication date
JP2020144063A (en) 2020-09-10

Similar Documents

Publication Publication Date Title
JP5162114B2 (en) Method and apparatus for signal signature analysis for event detection in rotating machinery
JP6922708B2 (en) Anomaly detection computer program, anomaly detection device and anomaly detection method
US10368177B2 (en) Abnormality detecting device, abnormality detection method, and recording medium storing abnormality detection computer program
US20120039478A1 (en) Sound recognition device and sound recognition method
CN109616098B (en) Voice endpoint detection method and device based on frequency domain energy
JP6848546B2 (en) Change point detection device and change point detection method
JP6822294B2 (en) Evaluation program, information processing device, and evaluation method
KR102066718B1 (en) Acoustic Tunnel Accident Detection System
JP2014222189A (en) Vehicle noise determination apparatus and noise determination method
WO2015011791A1 (en) Abnormality detection evaluation system
JP7272631B2 (en) Sound or vibration determination method and information processing system for determination
CN116741200A (en) Locomotive fan fault detection method and device
JP4953068B2 (en) Chord discrimination device, chord discrimination method and program
CN110619177B (en) Automatic identification method and device for structure operation modal parameters and storage medium
JP7402500B2 (en) State change detection system and state change detection program
JP2004205215A (en) Sound source diagnosing device
JP6964872B2 (en) Ship engine speed estimation device, ship engine speed estimation method and ship engine speed estimation program
JP5579884B2 (en) Sound identification condition selection device and abnormal sound determination device
JP4049331B2 (en) Method and apparatus for evaluating diagnostic object
JP2002196783A (en) Discrimination method and apparatus for time series signal
JP7304301B2 (en) Acoustic diagnostic method, acoustic diagnostic system, and acoustic diagnostic program
JP7420219B2 (en) Signal analyzer, signal analysis method, and program
JP2022082208A (en) Pattern classification device, elevator sound diagnosis system, pattern classification method, elevator sound diagnosis device, and elevator sound diagnosis method
JPWO2018117171A1 (en) Body sound analysis method, program, storage medium, and body sound analysis apparatus
CN114475256B (en) Method and device for predicting motor over-temperature in electric automobile

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230420

R150 Certificate of patent or registration of utility model

Ref document number: 7272631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150