JP2003108185A - Time-series signal analyzing device - Google Patents
Time-series signal analyzing deviceInfo
- Publication number
- JP2003108185A JP2003108185A JP2001301084A JP2001301084A JP2003108185A JP 2003108185 A JP2003108185 A JP 2003108185A JP 2001301084 A JP2001301084 A JP 2001301084A JP 2001301084 A JP2001301084 A JP 2001301084A JP 2003108185 A JP2003108185 A JP 2003108185A
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- block
- frequency
- time
- series signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、心音、心電図等の生体
信号、その他音響信号を含む時系列信号の解析技術に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for analyzing time-series signals including heart sounds, biological signals such as electrocardiogram, and other acoustic signals.
【0002】[0002]
【従来の技術】音響信号に代表される時系列信号には、
その構成要素として複数の周期信号が含まれている。こ
のため、与えられた時系列信号にどのような周期信号が
含まれているかを解析する手法は、古くから知られてい
る。例えば、フーリエ解析は、与えられた時系列信号に
含まれる周波数成分を解析するための方法として広く利
用されている。2. Description of the Related Art A time series signal represented by an acoustic signal is
A plurality of periodic signals are included as its constituent elements. Therefore, a method of analyzing what kind of periodic signal is included in a given time series signal has been known for a long time. For example, Fourier analysis is widely used as a method for analyzing frequency components included in a given time series signal.
【0003】このような時系列信号の解析方法を利用す
れば、音響信号を符号化することも可能である。コンピ
ュータの普及により、原音となるアナログ音響信号を所
定のサンプリング周波数でサンプリングし、各サンプリ
ング時の信号強度を量子化してデジタルデータとして取
り込むことが容易にできるようになってきており、こう
して取り込んだデジタルデータに対してフーリエ解析な
どの手法を適用し、原音信号に含まれていた周波数成分
を抽出すれば、各周波数成分を示す符号によって原音信
号の符号化が可能になる。By using such a time-series signal analysis method, it is possible to encode an acoustic signal. With the spread of computers, it has become easy to sample the analog sound signal that is the original sound at a predetermined sampling frequency, quantize the signal strength at each sampling, and capture it as digital data. If a method such as Fourier analysis is applied to the data and the frequency components included in the original sound signal are extracted, the original sound signal can be encoded by the code indicating each frequency component.
【0004】一方、電子楽器による楽器音を符号化しよ
うという発想から生まれたMIDI(Musical Instrume
nt Digital Interface)規格も、パーソナルコンピュー
タの普及とともに盛んに利用されるようになってきてい
る。このMIDI規格による符号データ(以下、MID
Iデータという)は、基本的には、楽器のどの鍵盤キー
を、どの程度の強さで弾いたか、という楽器演奏の操作
を記述したデータであり、このMIDIデータ自身に
は、実際の音の波形は含まれていない。そのため、実際
の音を再生する場合には、楽器音の波形を記憶したMI
DI音源が別途必要になるが、その符号化効率の高さが
注目を集めており、MIDI規格による符号化および復
号化の技術は、現在、パーソナルコンピュータを用いて
楽器演奏、楽器練習、作曲などを行うソフトウェアに広
く採り入れられている。On the other hand, MIDI (Musical Instrume) was born from the idea of encoding musical instrument sounds by electronic musical instruments.
The nt Digital Interface) standard has also been actively used with the spread of personal computers. Code data according to this MIDI standard (hereinafter referred to as MID
Basically, the I data) is data that describes the operation of the musical instrument playing, such as which keyboard key of the musical instrument was played and with what strength. The MIDI data itself contains the actual sound. Waveform not included. Therefore, when reproducing the actual sound, the MI that stores the waveform of the instrument sound is stored.
Although a DI sound source is required separately, its high coding efficiency has been attracting attention, and the MIDI coding and decoding technology is currently used for musical instrument performance, musical instrument practice, composition, etc. using a personal computer. It is widely adopted in software that does.
【0005】そこで、音響信号に代表される時系列信号
に対して、所定の手法で解析を行うことにより、その構
成要素となる周期信号を抽出し、抽出した周期信号をM
IDIデータを用いて符号化しようとする提案がなされ
ている。例えば、特開平10−247099号公報、特
開平11−73199号公報、特開平11−73200
号公報、特開平11−95753号公報、特開2000
−99009号公報、特開2000−99092号公
報、特開2000−99093号公報、特開2000−
261322号公報、特開2001−5450号公報、
特開2001−148633号公報には、任意の時系列
信号について、構成要素となる周波数を解析し、その解
析結果からMIDIデータを作成することができる種々
の方法が提案されている。Therefore, a time-series signal typified by an acoustic signal is analyzed by a predetermined method to extract a periodic signal which is a constituent element thereof, and the extracted periodic signal is M
Proposals have been made to encode using IDI data. For example, JP-A-10-247099, JP-A-11-73199, and JP-A-11-73200.
JP, JP-A-11-95753, JP, 2000
-99009, JP 2000-99092 A, JP 2000-99093 A, JP 2000-
261322, JP 2001-5450 A,
Japanese Unexamined Patent Application Publication No. 2001-148633 proposes various methods capable of analyzing a frequency as a constituent element of an arbitrary time series signal and creating MIDI data from the analysis result.
【0006】[0006]
【発明が解決しようとする課題】特に、特願2000−
351775号明細書においては、心音をMIDI符号
に変換し、得られたMIDI符号をブロック化して各ブ
ロックに心音属性を割り当てる手法について提案した。
この手法では、同時に発生する複数の周波数要素を基に
その時刻の統一周波数要素を算出し、時系列に連続する
統一周波数要素をブロック化して、このブロックデータ
に心音属性を割り当てるようにしている。そのため、心
音の周期的な変動により誤った心音属性を割り当ててし
まう場合が生じるという問題がある。In particular, Japanese Patent Application No. 2000-
In the 351775 specification, a method of converting a heart sound into a MIDI code, dividing the obtained MIDI code into blocks, and assigning a heart sound attribute to each block was proposed.
In this method, a unified frequency element at the time is calculated based on a plurality of simultaneously generated frequency elements, the unified frequency elements continuous in time series are divided into blocks, and a heart sound attribute is assigned to this block data. Therefore, there is a problem that an incorrect heart sound attribute may be assigned due to periodic fluctuations of heart sounds.
【0007】上記のような点に鑑み、本発明は、心音信
号の周期的な変動を考慮して、より正確な解析を行なう
ことが可能な時系列信号解析装置を提供することを課題
とする。In view of the above points, it is an object of the present invention to provide a time-series signal analysis device capable of performing a more accurate analysis in consideration of periodic fluctuations of a heart sound signal. .
【0008】[0008]
【課題を解決するための手段】上記課題を解決するた
め、本発明では、時系列信号解析装置として、与えられ
た時系列信号に対して設定された所定の単位区間ごとに
周波数および強度の組で構成される複数の音素データを
生成する周波数解析手段と、生成された前記複数の音素
データのうち、所定の強度を満たすものを抽出し、抽出
された複数の音素データの開始時刻・終了時刻・周波数
の類似性を基に、開始時刻・終了時刻・周波数・強度の
パラメータで構成されるブロック音素データを生成する
ブロック化手段と、時系列信号に対して自己相関解析を
行なうことにより、この時系列信号の基本周期を算出す
る基本周期解析手段と、複数のブロック音素の中で周波
数が類似しており、かつ開始時刻の差が前記算出した基
本周期の整数倍に近いものを、同一のグループになるよ
うに分類するグループ化手段と、分類されたグループ単
位でブロック音素の表示を行う表示手段を有する構成と
したことを特徴とする。In order to solve the above problems, the present invention provides, as a time-series signal analysis device, a set of frequency and intensity for each predetermined unit section set for a given time-series signal. A frequency analysis unit that generates a plurality of phoneme data, and a plurality of the generated phoneme data that satisfies a predetermined strength is extracted, and the start time and end time of the extracted phoneme data are extracted.・ A blocking means for generating block phoneme data composed of parameters of start time, end time, frequency, and intensity based on frequency similarity, and by performing autocorrelation analysis on time series signals, The basic period analysis means for calculating the basic period of the time-series signal is similar in frequency among the plurality of block phonemes, and the difference in start time is close to an integral multiple of the calculated basic period. Things and wherein the grouping means for classifying to be the same group, the structure and the fact that a display means for displaying the block phonemes classified groups.
【0009】本発明によれば、時系列信号の解析を行な
って得た複数の音素データの類似性に基づいてブロック
データを作成する一方、時系列信号に対して自己相関解
析を行なって時系列信号の周期を算出し、作成したブロ
ックのうち、周期間隔で離れているものを同一のグルー
プとして、全ブロックデータを複数のブロックに分類し
て表示するようにしたので、医師等の医療関係者が心音
属性の判断を容易に行うことが可能となる。さらに、心
音波形を各ブロックの特性と周期を含めて心音属性と対
応付けて登録した知識データベースを利用することによ
り、心音属性の付与までを自動的に行うことが可能とな
る。According to the present invention, block data is created based on the similarity of a plurality of phoneme data obtained by analyzing a time-series signal, while auto-correlation analysis is performed on the time-series signal to obtain a time-series signal. The signal cycle is calculated, and the created blocks that are separated by the cycle interval are grouped into the same group and all block data is classified into multiple blocks for display. Can easily determine the heart sound attribute. Furthermore, by using the knowledge database in which the heart sound waveform is registered in association with the heart sound attribute including the characteristics and cycle of each block, it is possible to automatically add the heart sound attribute.
【0010】[0010]
【発明の実施の形態】以下、本発明の実施形態について
図面を参照して詳細に説明する。
(1.時系列信号の解析の基本原理)はじめに、時系列信
号の解析に一部利用される周波数解析の基本原理を述べ
ておく。この基本原理は、前掲の各公報あるいは明細書
に開示されているので、ここではその概要のみを簡単に
述べることにする。図1の上段に示すように、時系列の
強度信号としてアナログ音響信号が与えられたものとす
る。図示の例では、横軸に時間軸t、縦軸に信号強度A
をとってこの音響信号を示している。本発明では、まず
このアナログ音響信号を、デジタルの音響信号として取
り込む処理を行う。これは、従来の一般的なPCMの手
法を用い、所定のサンプリング周波数でこのアナログ音
響信号をサンプリングし、信号強度Aを所定の量子化ビ
ット数を用いてデジタルデータに変換する処理を行えば
よい。ここでは、説明の便宜上、PCMの手法でデジタ
ル化した音響信号の波形も、図1の上段のアナログ音響
信号と同一の波形で示すことにする。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below in detail with reference to the drawings. (1. Basic principle of time-series signal analysis) First, the basic principle of frequency analysis, which is partially used for analyzing time-series signals, will be described. Since this basic principle is disclosed in each of the above-mentioned publications or specifications, only the outline thereof will be briefly described here. As shown in the upper part of FIG. 1, it is assumed that an analog acoustic signal is given as a time series intensity signal. In the illustrated example, the horizontal axis is the time axis t, and the vertical axis is the signal strength A.
Is taken to show this acoustic signal. In the present invention, first, a process of capturing this analog acoustic signal as a digital acoustic signal is performed. This can be performed by using a conventional general PCM method, sampling the analog acoustic signal at a predetermined sampling frequency, and converting the signal strength A into digital data using a predetermined number of quantization bits. . Here, for convenience of explanation, the waveform of the audio signal digitized by the PCM method is also shown as the same waveform as the analog audio signal in the upper part of FIG.
【0011】次に、このデジタル音響信号の時間軸t上
に複数の単位区間を設定する。図示の例では、6つの単
位区間U1〜U6が設定されている。第i番目の単位区
間Uiは、時間軸t上の始端siおよび終端eiの座標
値によって、その時間軸t上での位置と長さとが示され
る。たとえば、単位区間U1は、始端s1〜終端e1ま
での(e1−s1)なる長さをもつ区間である。Next, a plurality of unit sections are set on the time axis t of this digital audio signal. In the illustrated example, six unit sections U1 to U6 are set. The position and length of the i-th unit section Ui on the time axis t are indicated by the coordinate values of the start end si and the end point ei on the time axis t. For example, the unit section U1 is a section having a length of (e1-s1) from the start end s1 to the end e1.
【0012】こうして、複数の単位区間が設定された
ら、個々の単位区間内の音響信号に基づいて、個々の単
位区間を代表する所定の代表周波数および代表強度を定
義する。ここでは、第i番目の単位区間Uiについて、
代表周波数Fiおよび代表強度Aiが定義された状態が
示されている。たとえば、第1番目の単位区間U1につ
いては、代表周波数F1および代表強度A1が定義され
ている。代表周波数F1は、始端s1〜終端e1までの
区間に含まれている音響信号の周波数成分の代表値であ
り、代表強度Aiは、同じく始端s1〜終端e1までの
区間に含まれている音響信号の信号強度の代表値であ
る。単位区間U1内の音響信号に含まれる周波数成分
は、通常、単一ではなく、信号強度も変動するのが一般
的である。従来の手法とも共通する基本原理のポイント
は、1つの単位区間について、1つもしくは複数の代表
周波数と代表強度を定義し、これら代表値を用いて符号
化を行う点にある。When a plurality of unit sections are set in this way, a predetermined representative frequency and a representative intensity representative of each unit section are defined based on the acoustic signal in each unit section. Here, for the i-th unit section Ui,
A state in which the representative frequency Fi and the representative strength Ai are defined is shown. For example, the representative frequency F1 and the representative intensity A1 are defined for the first unit section U1. The representative frequency F1 is a representative value of the frequency component of the acoustic signal included in the section from the start end s1 to the end e1, and the representative intensity Ai is the acoustic signal included in the section from the start end s1 to the end e1 as well. Is a representative value of the signal strength of. The frequency component contained in the acoustic signal in the unit section U1 is not usually single, but the signal strength generally fluctuates. The point of the basic principle, which is also common to the conventional methods, is that one or more representative frequencies and representative intensities are defined for one unit section, and encoding is performed using these representative values.
【0013】すなわち、個々の単位区間について、それ
ぞれ代表周波数および代表強度が定義されたら、時間軸
t上での個々の単位区間の始端位置および終端位置を示
す情報と、定義された代表周波数および代表強度を示す
情報と、により符号データを生成し、個々の単位区間の
音響信号を個々の符号データによって表現するのであ
る。単一の周波数をもち、単一の信号強度をもった音響
信号が、所定の期間だけ持続する、という事象を符号化
する手法として、MIDI規格に基づく符号化を利用す
ることができる。MIDI規格による符号データ(MI
DIデータ)は、いわば音符によって音を表現したデー
タということができ、図1では、下段に示す音符によっ
て、最終的に得られる符号データの概念を示している。That is, when the representative frequency and the representative intensity are defined for each unit section, information indicating the start and end positions of each unit section on the time axis t and the defined representative frequency and representative The code data is generated from the information indicating the intensity, and the acoustic signal of each unit section is expressed by each code data. As a method of encoding an event in which an acoustic signal having a single frequency and a single signal strength lasts for a predetermined period, encoding based on the MIDI standard can be used. Code data according to the MIDI standard (MI
The DI data) can be said to be data representing sounds by musical notes, and in FIG. 1, the concept of code data finally obtained is shown by the musical notes shown in the lower stage.
【0014】結局、各単位区間内の音響信号は、代表周
波数F1に相当する音程情報(MIDI規格におけるノ
ートナンバー)と、代表強度A1に相当する強度情報
(MIDI規格におけるベロシティー)と、単位区間の
長さ(e1−s1)に相当する長さ情報(MIDI規格
におけるデルタタイム)と、をもった符号データに変換
されることになる。このようにして得られる符号データ
の情報量は、もとの音響信号のもつ情報量に比べて、著
しく小さくなり、飛躍的な符号化効率が得られることに
なる。なお、代表周波数をノートナンバーnの関数f
(n)としたときに、代表周波数f(n)とノートナン
バーn(0≦n≦127)との関係は、以下に示す〔数
式1〕で定義されることになる。In the end, the acoustic signal in each unit section includes the pitch information (note number in the MIDI standard) corresponding to the representative frequency F1, the strength information (velocity in the MIDI standard) corresponding to the representative strength A1, and the unit section. Will be converted into code data having length information (delta time in the MIDI standard) corresponding to the length (e1-s1). The information amount of the coded data obtained in this way is significantly smaller than the information amount of the original audio signal, and a dramatic coding efficiency can be obtained. Note that the representative frequency is the function f of the note number n.
Assuming (n), the relationship between the representative frequency f (n) and the note number n (0 ≦ n ≦ 127) is defined by the following [Formula 1].
【0015】〔数式1〕 f(n)=440×2γ (n) γ(n)=(n−69)/12[Formula 1] f (n) = 440 × 2 γ (n) γ (n) = (n−69) / 12
【0016】また、周波数と周期は互いに逆数の関係に
あり、一方が定まれば他方も一義的に定まり、上記〔数
式1〕により周波数が定まればノートナンバーも定ま
る。したがって、本発明においては、周波数・周期・ノ
ートナンバーのいずれか1つの用語を用いている場合に
おいても、他の2つについても同時に定まっているもの
として説明していく。Further, the frequency and the cycle are inversely related to each other. If one is determined, the other is also uniquely determined, and if the frequency is determined by the above [Formula 1], the note number is also determined. Therefore, in the present invention, even when any one of the terms frequency, period, and note number is used, the other two terms will be simultaneously determined.
【0017】上記のような各単位区間について、代表周
波数および強度の組を算出する具体的な手法としては、
短時間フーリエ解析、一般化調和解析手法、ゼロ交差点
検出法等の周知の手法が利用できる。As a concrete method for calculating a set of representative frequencies and intensities for each unit section as described above,
Well-known methods such as short-time Fourier analysis, generalized harmonic analysis method, and zero crossing detection method can be used.
【0018】(2.本発明に係る時系列信号の解析方法)
続いて、本発明に係る時系列信号解析の具体的な手法に
ついて説明する。図2は本発明による時系列信号の解析
の概略を示すフローチャートである。図2に示すよう
に、PCMの形式で取り込まれたデジタルの音響信号に
対しては2通りの処理が行われる。まず、時系列信号の
周波数解析を行なう(ステップS1)。ここで、時系列
信号として取り込んだ心音波形の一例を図3に示す。ス
テップS1では、図3に示したような心音波形(信号)
に対して、上記基本原理で図1を用いて説明したように
単位区間を設定し、各単位区間について複数の周波数お
よび強度の組を算出する。(2. Time-series signal analysis method according to the present invention)
Next, a specific method of time-series signal analysis according to the present invention will be described. FIG. 2 is a flow chart showing an outline of analysis of a time series signal according to the present invention. As shown in FIG. 2, two types of processing are performed on the digital audio signal captured in the PCM format. First, frequency analysis of the time-series signal is performed (step S1). Here, FIG. 3 shows an example of the electrocardiographic waveform captured as a time-series signal. In step S1, the sonic waveform (signal) as shown in FIG.
On the other hand, a unit section is set as described with reference to FIG. 1 in the above basic principle, and a plurality of frequency and intensity groups are calculated for each unit section.
【0019】周波数および強度の組の算出の具体的な手
法としては、上述のように短時間フーリエ変換、一般化
調和解析、ゼロ交差点検出法が利用できるが、本発明に
おいては、ゼロ交差点検出法を適用するのが効果的であ
る。特にステップS1における周波数解析においては、
ゼロ交差点検出法を発展させた手法により周波数および
強度の組の算出を行っている。このステップS1におけ
る周波数解析の詳細について図4のフローチャートを利
用して説明する。As a specific method for calculating the set of frequency and intensity, the short-time Fourier transform, generalized harmonic analysis, and zero-crossing point detection method can be used as described above. In the present invention, however, the zero-crossing point detection method is used. It is effective to apply. Especially in the frequency analysis in step S1,
The method of developing the zero crossing detection method is used to calculate the set of frequency and intensity. Details of the frequency analysis in step S1 will be described with reference to the flowchart of FIG.
【0020】まず、入力された原音響信号に対して信号
から主ゼロ交差点を検出する(ステップS11)。主ゼ
ロ交差点とは、音響信号が0レベルになる地点であるゼ
ロ交差点のうち、補正処理が行われていない原音響信号
に対して検出されるものを示す。ここで、図3に示した
原音響信号の一部を時間軸方向に拡大したものを図5
(a)に示す。ステップS11においては、信号が0レ
ベルとなるゼロ交差点を検出する。このゼロ交差点は、
時刻で表現されることになる。図5(a)の原音響信号
から検出された主ゼロ交差点を図5(b)に示す。First, the main zero crossing point is detected from the input original acoustic signal from the signal (step S11). The main zero-crossing point indicates a zero-crossing point, which is a point where the acoustic signal becomes 0 level, that is detected for the original acoustic signal that has not been corrected. Here, a part of the original acoustic signal shown in FIG. 3 is enlarged in the time axis direction, as shown in FIG.
It shows in (a). In step S11, a zero crossing point at which the signal becomes 0 level is detected. This zero crossing is
It will be expressed in time. The main zero crossings detected from the original acoustic signal of FIG. 5 (a) are shown in FIG. 5 (b).
【0021】次に、ステップS11において検出された
主ゼロ交差点にしたがって、単位区間を決定する(ステ
ップS12)。単位区間とは、周波数成分の抽出および
符号データを作成するための基本となる区間であり、図
1の単位区間Uに相当する。単位区間は、始点となる主
ゼロ交差点t1から終点となる主ゼロ交差点t2までの
区間として設定される。始点となる主ゼロ交差点t1と
しては、単位区間として未だ設定されていない区間にお
いて、時間的に先頭の主ゼロ交差点が選出される。終点
となる主ゼロ交差点t2は、以下のようにして選出され
る。Next, a unit section is determined according to the main zero crossing point detected in step S11 (step S12). The unit interval is a basic interval for extracting frequency components and creating code data, and corresponds to the unit interval U in FIG. The unit section is set as a section from the main zero crossing point t1 which is the start point to the main zero crossing point t2 which is the end point. As the main zero-crossing point t1 that is the starting point, the main zero-crossing point that is temporally leading in the section that has not yet been set as a unit section is selected. The main zero crossing t2, which is the end point, is selected as follows.
【0022】図5(a)に示すように原音響信号の波形
は、始点となるゼロ交差点から2つ移動した位置のゼロ
交差点で1周期となっている。そのため、この整数倍の
ゼロ交差点を移動した位置を終点とするのが好ましい。
また、安定した周波数値を得るため、終点をできるだけ
始点から離れた位置にとり、その平均周期をこの単位区
間の周期とすることが好ましい。そのために、まず始点
となる主ゼロ交差点t1から2つ移動した主ゼロ交差点
までの距離を単位周期TBと設定する。終点となる主ゼ
ロ交差点t2としては、始点となる主ゼロ交差点t1か
ら2の整数倍だけ離れた主ゼロ交差点のうち以下の〔数
式2〕を満たす範囲で、t2−t1が最大となるものを
選出するようにする。As shown in FIG. 5 (a), the waveform of the original acoustic signal has one cycle at the zero crossing point at a position two points away from the starting zero crossing point. Therefore, it is preferable to set the end point at the position where the zero-crossing point that is an integral multiple is moved.
Further, in order to obtain a stable frequency value, it is preferable to set the end point as far away from the start point as possible and set the average period as the period of this unit section. For that purpose, first, the distance from the main zero-crossing point t1 which is the starting point to the main zero-crossing point moved by two is set as the unit cycle T B. As the main zero-crossing point t2 that is the end point, among the main zero-crossing points that are separated by an integer multiple of 2 from the main zero-crossing point t1 that is the starting point, the one that maximizes t2-t1 within the range that satisfies the following [Formula 2]. Try to be elected.
【0023】〔数式2〕 |NA−NB| ≦ 1 ただし、N=40×log10(1/440T)+69 T=(t2−t1)×2/k[0023] [Equation 2] | N A -N B | ≦ 1, however, N = 40 × log 10 ( 1 / 440T) +69 T = (t2-t1) × 2 / k
【0024】上記〔数式2〕において、NAはt2−t
1間の平均周期TAにより定まるノートナンバー、NBは
単位周期TBにより定まるノートナンバーである。ま
た、kは、始点となる主ゼロ交差点から終点となる主ゼ
ロ交差点までに移動した主ゼロ交差点の数であり、2の
整数倍となっている。なお、上記〔数式2〕において、
第2式は、周期TからノートナンバーNを求めるための
ものであり、第3式は、平均周期TAを求めるためのも
のであり、k=2とした場合に単位周期TBが得られ
る。上記〔数式2〕においては、終点となる主ゼロ交差
点t2を、始点となる主ゼロ交差点t1から、4個分、
6個分、8個分…というように2の整数倍だけ離れた主
ゼロ交差点に仮設定して判断していく。結局、ステップ
S12における処理は、単位周期TBで定まる周波数
と、平均周期TAで定まる周波数をそれぞれノートナン
バーに変換した際に、半音の差(ノートナンバーとして
は±1の差)以内に収まるような主ゼロ交差点t2を終
点として選出する処理を行うことになる。単位区間の設
定は音響信号の全区間に渡って行われる。後続する単位
区間においては、先行する単位区間の終点となる主ゼロ
交差点の次の主ゼロ交差点を、始点となる主ゼロ交差点
として、上記説明と同様に処理を行っていく。In the above [Formula 2], N A is t2-t
Note number determined by the average period T A between 1, N B is the note number determined by the unit cycle T B. Further, k is the number of main zero crossings moved from the main zero crossing as the start point to the main zero crossing as the end point, and is an integer multiple of 2. In the above [Formula 2],
The second formula is for obtaining the note number N from the period T, and the third formula is for obtaining the average period T A. When k = 2, the unit period T B is obtained. . In the above [Formula 2], four main zero-crossing points t2, which are the end points, from the main zero-crossing point t1, which is the starting point,
It is temporarily set at the main zero crossing points that are separated by an integral multiple of 2, such as 6 pieces, 8 pieces, and so on. After all, when the frequency determined by the unit period T B and the frequency determined by the average period T A are converted into note numbers, the process in step S12 falls within a semitone difference (± 1 difference as a note number). A process of selecting such a main zero crossing t2 as an end point is performed. The unit section is set over the entire section of the acoustic signal. In the subsequent unit section, the main zero crossing next to the end point of the preceding unit section, which is the main zero crossing next to the unit zero, is set as the main zero crossing as the start point, and the same process as described above is performed.
【0025】全単位区間の設定が行われたら、各単位区
間について、主周波数成分の算出を行う(ステップS1
3)。周波数成分とは、周期(周波数)および振幅を意
味するものである。周期としては、単位区間における平
均周期TAが設定され、振幅としては、単位区間内にお
いて、信号の絶対値が最大となる値Aが設定される。な
お、主周波数成分とは、周波数成分のうち、補正が行わ
れていない原音響信号から抽出されたものをいい、ステ
ップS16で算出される副周波数成分と区別している。After setting all unit sections, the main frequency component is calculated for each unit section (step S1).
3). The frequency component means a period (frequency) and an amplitude. The average period T A in the unit section is set as the cycle, and the value A at which the absolute value of the signal is maximum is set as the amplitude in the unit section. The main frequency component refers to a frequency component extracted from the original acoustic signal that has not been corrected, and is distinguished from the sub frequency component calculated in step S16.
【0026】上記ステップS12およびステップS13
による処理、すなわち、ゼロ交差点を用いて単位区間を
決定し、単位区間に対応する周波数成分を算出する処理
については、従来から行われているものと同様である。
ただし、これでは、1つの単位区間について1つの周波
数成分しか抽出できない。本発明では、1つの単位区間
から複数の周波数成分を抽出するために後述するような
ステップS14以下の処理を行っている。Steps S12 and S13 described above
The process according to (1), that is, the process of determining the unit section using the zero crossing point and calculating the frequency component corresponding to the unit section is the same as that conventionally performed.
However, in this case, only one frequency component can be extracted for one unit section. In the present invention, in order to extract a plurality of frequency components from one unit section, the processing of step S14 and thereafter, which will be described later, is performed.
【0027】ステップS13において主周波数成分が算
出されたら、次にその単位区間における音響信号から直
流成分の除去を行う(ステップS14)。ここでの、直
流成分の除去は単位区間全体に渡って一律に行うのでは
なく、音響信号が0以上になっている部分については、
当該部分の平均強度を各時刻の信号強度から減じるよう
にし、音響信号が0以下になっている部分についても、
当該部分の平均強度を正負の符号をそのままにして信号
強度から減じる(実際には平均強度は増加していること
になる)ようにする。これにより、振幅の大きな部分が
抑えられた補正音響信号が得られることになる。図5
(c)に示した原音響信号を補正した補正音響信号を図
5(d)に示す。After the main frequency component is calculated in step S13, the DC component is removed from the acoustic signal in the unit section (step S14). Here, the removal of the DC component is not performed uniformly over the entire unit section, but for the portion where the acoustic signal is 0 or more,
The average intensity of the part is subtracted from the signal intensity at each time, and even for the part where the acoustic signal is 0 or less,
The average intensity of the part is subtracted from the signal intensity with the positive and negative signs left unchanged (actually, the average intensity is increased). As a result, a corrected acoustic signal in which a large amplitude portion is suppressed can be obtained. Figure 5
A corrected acoustic signal obtained by correcting the original acoustic signal shown in (c) is shown in FIG. 5 (d).
【0028】続いて、補正音響信号に対して、信号が0
レベルと交差する副ゼロ交差点を検出する(ステップS
15)。これは、上記ステップS11において、原音響
信号に対して主ゼロ交差点を検出したのと全く同様な処
理で行われる。ただし、図5(d)に示したように、補
正音響信号では、原音響信号に比べて明らかにゼロ交差
点が増えているので、多くの副ゼロ交差点が検出される
ことになる。図5(d)に示した補正音響信号から検出
された副ゼロ交差点を図5(e)に示す。Then, the signal is 0 with respect to the corrected acoustic signal.
A sub-zero crossing point that intersects the level is detected (step S
15). This is performed by exactly the same process as the detection of the main zero crossing point in the original acoustic signal in step S11. However, as shown in FIG. 5D, in the corrected acoustic signal, the number of zero-crossing points is obviously increased as compared with the original acoustic signal, so many sub-zero-crossing points are detected. The sub-zero crossing point detected from the corrected acoustic signal shown in FIG. 5 (d) is shown in FIG. 5 (e).
【0029】続いて、補正音響信号および検出された副
ゼロ交差点に従って、副周波数成分の算出を行う(ステ
ップS16)。副周波数成分のうち、周期としては、単
位区間における始点となる副ゼロ交差点t3と終点とな
る副ゼロ交差点t4で定まる平均周期が与えられる。ま
た、副周波数成分のうち、振幅としては、単位区間内に
おいて、補正音響信号の絶対値が最大となる値が設定さ
れる。Subsequently, the sub-frequency component is calculated according to the corrected acoustic signal and the detected sub-zero crossing point (step S16). Among the sub-frequency components, the period is given as an average period determined by the sub-zero crossing point t3 which is the start point and the sub-zero crossing point t4 which is the end point in the unit section. In addition, as the amplitude of the sub-frequency component, a value that maximizes the absolute value of the corrected acoustic signal in the unit section is set.
【0030】上記ステップS14〜ステップS16の処
理は、所定の回数だけ繰り返され、繰り返された回数分
の副周波数成分が抽出されることになる。上記のように
して、各単位区間ごとに複数の周波数に対応する強度を
検出でき、原音響信号の全区間に渡って処理することに
より、設定された全単位区間について、周波数および強
度の組を算出できる。The processes of steps S14 to S16 are repeated a predetermined number of times, and the sub frequency components for the repeated number of times are extracted. As described above, the intensities corresponding to a plurality of frequencies can be detected for each unit section, and by processing over the entire section of the original acoustic signal, a set of frequencies and intensities is set for all the set unit sections. Can be calculated.
【0031】各単位区間の先頭を開始時刻、終点を終了
時刻とすると、各単位区間ごとに開始時刻・終了時刻・
周波数・強度の組が得られることになる。この開始時刻
・終了時刻・周波数・強度の組を本明細書では、音素デ
ータと呼ぶことにする。ステップS1においては、その
強度が所定値に達しない音素データを削除する処理も行
う。その結果、残った音素データの様子を図6に示す。When the start time is the start time and the end time is the end time of each unit section, the start time / end time
A frequency / intensity pair will be obtained. This set of start time / end time / frequency / intensity is referred to as phoneme data in this specification. In step S1, a process of deleting phoneme data whose intensity does not reach the predetermined value is also performed. As a result, the state of the remaining phoneme data is shown in FIG.
【0032】図6においては、周波数を音の高さ、強度
を音の強さとして、音素データを下向きの三角形で示し
ている。音の高さは三角形の上辺の上下方向における位
置で表されており、音の強さは三角形の高さで表されて
いる。また、単位区間の長さは三角形の上辺の長さで表
されている。ステップS1の周波数解析において選出さ
れる音素データは各単位区間について16個程度とする
ことが好ましいが、図面が繁雑になるのを避けるため図
6の例では各単位区間について3個ずつで示している。In FIG. 6, the phoneme data is indicated by a downward triangle with the frequency as the pitch of the sound and the strength as the strength of the sound. The pitch of the sound is represented by the position of the upper side of the triangle in the vertical direction, and the strength of the sound is represented by the height of the triangle. Further, the length of the unit section is represented by the length of the upper side of the triangle. It is preferable that the number of phoneme data selected in the frequency analysis of step S1 is about 16 for each unit section, but in order to avoid making the drawing complicated, in the example of FIG. 6, three unit phonemes are shown for each unit section. There is.
【0033】各単位区間について音素データが選出され
たら、選出された音素データに基づいてブロック音素を
作成する(ステップS2)。ブロック音素の作成処理
は、時間軸上で近接する音素データで、ノートナンバー
およびベロシティが類似しているものを連結させること
により行なわれる。そして、ブロック音素のノートナン
バーとして各構成音素データの平均値が、ベロシティと
して各構成音素データの最大値が与えられる。各単位区
間については周波数解析により16個程度の複数の音素
データが抽出されることが通常であるが、その場合は時
間軸に重複した複数のブロック音素が作成される。ただ
し、後段の属性情報付けが煩雑になるため、時間的に重
複するブロック音素はベロシティが最も大きいものだけ
で代表させて1つに統合させる方法もとられる。以下は
その具体的手法として、特願2000−351775号
明細書にも記載されている手法を示す。各単位区間ごと
に統一周波数Nr(t)および統一強度Vr(t)を以
下の〔数式3〕により算出することにより行われる。When the phoneme data is selected for each unit section, a block phoneme is created based on the selected phoneme data (step S2). The block phoneme creation processing is performed by connecting phoneme data that are close to each other on the time axis and have similar note numbers and velocities. Then, the average value of each constituent phoneme data is given as the note number of the block phoneme, and the maximum value of each constituent phoneme data is given as the velocity. For each unit section, it is usual that a plurality of about 16 pieces of phoneme data are extracted by frequency analysis, but in that case, a plurality of block phonemes that overlap on the time axis are created. However, since the attribute information in the subsequent stage becomes complicated, it is possible to integrate the block phonemes that temporally overlap with each other by representing only the block phoneme having the largest velocity. The specific method will be described below in Japanese Patent Application No. 2000-351775. It is performed by calculating the unified frequency Nr (t) and the unified strength Vr (t) for each unit section by the following [Formula 3].
【0034】〔数式3〕 Nr(t)=[Σ{n×Vn(t)}]/ΣVn(t) Vr(t)=[Σ{ Vn(t)}2]1/2 [Formula 3] Nr (t) = [Σ {n × Vn (t)}] / ΣVn (t) Vr (t) = [Σ {Vn (t)} 2 ] 1/2
【0035】上記〔数式3〕において、nはノートナン
バーであり、 Vn(t)はノートナンバーnに対応す
るベロシティである。また、Σにより算出される総和は
音素データ分行なわれる。すなわち、16個の音素デー
タが選出された場合は、16個分の総和が算出されるこ
とになる。〔数式3〕により統一周波数Nr(t)とし
ては、各音素データを周波数軸と強度軸からなるグラフ
上にプロットしたときの重心位置の周波数が算出される
ことになり、統一強度Vr(t)としては、強度分布の
二乗平均値が算出されることになる。このようにして各
単位区間ごとに統一周波数および統一強度を有するブロ
ック音素が得られる。さらに、隣接するブロック音素間
において、統一周波数が類似する場合には、複数の単位
区間にまたがって統合され、新たなブロック音素が得ら
れる。統一周波数が類似するとは、あらかじめ設定され
た範囲内に周波数の差が含まれる場合である。統合後の
ブロック音素の周波数、強度としては、統合前のブロッ
ク音素の周波数、強度の平均値が与えられる。図6に示
した音素データに対してステップS2の処理により得ら
れたブロック音素の様子を図7に示す。図7の例では、
音の高さ・音の強さは無視して表現している。In the above [Formula 3], n is a note number, and Vn (t) is a velocity corresponding to the note number n. Also, the summation calculated by Σ is performed for phoneme data. That is, when 16 pieces of phoneme data are selected, 16 sums are calculated. As the unified frequency Nr (t) by [Equation 3], the frequency at the position of the center of gravity when each phoneme data is plotted on the graph having the frequency axis and the intensity axis is calculated, and the unified strength Vr (t) is obtained. As a result, the mean square value of the intensity distribution is calculated. In this way, a block phoneme having a uniform frequency and a uniform intensity is obtained for each unit section. Further, when the unified frequencies are similar between the adjacent block phonemes, they are integrated over a plurality of unit intervals, and a new block phoneme is obtained. The case where the unified frequencies are similar is the case where the difference in frequency is included in the preset range. As the frequency and intensity of the block phoneme after integration, the average value of the frequency and intensity of the block phoneme before integration is given. FIG. 7 shows the state of block phonemes obtained by the process of step S2 for the phoneme data shown in FIG. In the example of FIG.
The pitch and strength of the sound are ignored and expressed.
【0036】上記ステップS1・S2の処理とは別に、
入力された音響信号に対しては、基本周期の算出を行う
(ステップS3)。これは、自己相関解析を行うことに
より行われる。具体的には、与えられた音響信号g
(t)に対して、周期Tnを変化させて以下の〔数式
4〕により相関値R(Tn)が最大となる周期Tnを求め
る。Apart from the processing of steps S1 and S2,
A basic cycle is calculated for the input acoustic signal (step S3). This is done by performing an autocorrelation analysis. Specifically, the given acoustic signal g
Relative to (t), it follows by changing the period T n by [Equation 4] Request period T n correlation value R (T n) is maximized.
【0037】〔数式4〕 R(Tn)=Σtg(t)×g(t+Tn)[Formula 4] R (T n ) = Σ t g (t) × g (t + T n ).
【0038】周期Tnとしては、各ノートナンバー(n
=0〜127)に対応する128通りが与えられる。図
8は、入力音響信号g(t)と周期Tn分ずらした音響
信号g(t+Tn)の関係を示す図である。図8(a)
は入力音響信号g(t)を示し、図8(b)は音響信号
g(t+T127)、図8(c)は音響信号g(t+
T1 26)、図8(d)は音響信号g(t+Tn)を示して
いる。このような音響信号g(t+Tn)のうち、原音
響信号g(t)との相関値R(Tn)が最大となるとき
のTnを入力音響信号g(t)の周期とみなす。As the cycle T n , each note number (n
= 0 to 127), 128 patterns are given. FIG. 8 is a diagram showing the relationship between the input acoustic signal g (t) and the acoustic signal g (t + T n ) shifted by the period T n . Figure 8 (a)
Shows the input acoustic signal g (t), FIG. 8 (b) shows the acoustic signal g (t + T 127 ), and FIG. 8 (c) shows the acoustic signal g (t +).
T 1 26), FIG. 8 (d) shows the audio signal g (t + T n). Among such audio signal g (t + T n), regarded as the period of the correlation value R (T n) enter the T n at which is the maximum acoustic signal g (t) of the original audio signal g (t).
【0039】続いて、上記ステップS2で求めたブロッ
ク音素を、ステップS3で求めた周期Tnに基づいて分
類する(ステップS4)。具体的には、互いに周期Tn
だけ離れたブロック音素のノートナンバーの比較を行
う。このノートナンバーの差が設定された所定値の範囲
に収まる場合に両ブロックを同一のチャンネルに分類す
る。分類するチャンネル数は、ブロック音素の数や、同
一とみなすノートナンバーの差の範囲により異なるが、
最終的な出力データのチャンネル数よりも多めのチャン
ネルに分けるようにする。例えば、図7に示したような
ブロックデータについては、図9に示すように8つのチ
ャンネルに分類される。Then, the block phonemes obtained in step S2 are classified based on the cycle T n obtained in step S3 (step S4). Specifically, the periods T n
Compare the note numbers of block phonemes that are only apart. When the difference between the note numbers falls within the set predetermined value range, both blocks are classified into the same channel. The number of channels to be classified differs depending on the number of block phonemes and the range of difference between note numbers that are regarded as the same,
Divide into more channels than the number of channels of the final output data. For example, the block data shown in FIG. 7 is classified into eight channels as shown in FIG.
【0040】次に、分類された各チャンネルのブロック
音素に心音属性を付与する(ステップS5)。具体的に
は、あらかじめ、心音に関するデータベースを用意して
おき、このデータベースに記憶されているブロック音素
パターンと、分類された各チャンネルのブロック音素パ
ターンとを比較し、類似していると判断された場合に、
データベースに登録されている心音属性を、そのチャン
ネルに対して付与する。ブロック音素パターンとは、各
ブロック音素を作成する基になった音素データの配列パ
ターンである。各ブロック音素に対しては、具体的に
は、I音、II音、その他の3種類の属性情報を与える。
この判定は、次の4つのルールに基づいて行なわれる。Next, a heart sound attribute is added to the classified block phonemes of each channel (step S5). Specifically, a database regarding heart sounds was prepared in advance, and the block phoneme patterns stored in this database were compared with the block phoneme patterns of each classified channel, and it was determined that they were similar. In case,
The heart sound attribute registered in the database is added to the channel. The block phoneme pattern is an array pattern of phoneme data on which each block phoneme is created. To each block phoneme, specifically, three types of attribute information, I sound, II sound, and others are given.
This determination is made based on the following four rules.
【0041】
音の高さ:II音はI音に比べて音高が高い。(II音>I
音)
音の長さ:I音およびII音とも音の長さが短く固定して
おり、II音はI音より短い。(I音およびII音<長さ閾
値、かつI音>II音)
音の強さ:I音およびII音とも他の成分に比べて強く、
聴取するセンサの位置によりI音とII音のバランスが変
化する。例外として、逆流性心雑音などはI音およびII
音より強い場合がある。(I音およびII音>強さ閾値)
音の間隔:I音とII音の間隔はII音とI音の間隔に比べて
短い。心拍数が増えるとII音とI音の間隔は短くなる
が、I音とII音の間隔は変化しない、すなわちI音とII音
の間隔に近づく。(I-II間隔<II-I間隔)Pitch: The II note has a higher pitch than the I note. (Sound II> I
Sound length: Sound length is fixed to short for both I and II sounds, and II sound is shorter than I sound. (I sound and II sound <length threshold, and I sound> II sound) Sound intensity: Both I sound and II sound are stronger than other components,
The balance of the I and II sounds changes depending on the position of the sensor to be heard. As an exception, I and II sounds such as reflux murmur
May be stronger than sound. (I sound and II sound> strength threshold) Sound interval: The interval between I sound and II sound is shorter than the interval between II sound and I sound. As the heart rate increases, the interval between sounds II and I becomes shorter, but the interval between sounds I and II does not change, that is, approaches the interval between sounds I and II. (I-II interval <II-I interval)
【0042】この結果、図9に示したブロック音素に
は、各チャンネルごとに、図10に示すような属性情報
が付与されることになる。続いて、さらに詳細な情報を
記録したデータベースを参照して各チャンネルに対して
対応する属性情報の付与を行なう。ブロック音素を作成
する基になった音素データの配列パターンに基づき、ま
ず、I音およびII音の属性情報が付与されたブロック音
素については、その詳細分類を、その他の属性情報が付
与されたブロック音素については、具体的な属性情報
を、その音素データの配列パターンから、詳細属性情報
が登録されたデータベースを参照してIII音、IV音(ま
たはIIIとIVの重合音)、心雑音(収縮期か拡張期かま
たは連続性か、逆流性か駆動性かといったサブ分類も定
義されている)、クリック音、摩擦音などのいずれであ
るかが決定され、該当する詳細属性情報が付与される。
特に第I音については、僧帽弁成分・三尖弁成分・大動
脈弁成分のいずれであるか、第II音については、大動脈
弁成分・肺動脈弁成分のいずれであるかを特定すること
ができる。各チャンネルごとに詳細の属性情報を付与し
たブロック音素を図11に示す。As a result, the block phoneme shown in FIG. 9 is provided with the attribute information as shown in FIG. 10 for each channel. Subsequently, the attribute information corresponding to each channel is added with reference to the database recording more detailed information. Based on the phoneme data array pattern that is the basis for creating a block phoneme, first, for the block phonemes to which the attribute information of the I and II sounds is added, the detailed classification of the block phonemes For phonemes, refer to the database in which the detailed attribute information is registered for the specific attribute information, based on the phoneme data array pattern, and sound III, IV (or III and IV combined sound), heart murmur (contraction) Phase, diastole, continuity, subflow classification such as regurgitation or driveability), click sound, fricative sound, etc. are determined, and corresponding detailed attribute information is added.
In particular, it is possible to specify whether the sound I is the mitral valve component, the tricuspid valve component, or the aortic valve component, and the sound II is the aortic valve component or the pulmonary valve component. . FIG. 11 shows a block phoneme to which detailed attribute information is added for each channel.
【0043】上記ステップS5において、各チャンネル
のデータが、どのような心音属性であるかを特定するこ
とができるが、自動で行わず、人が特定するようにする
こともできる。この場合、図9に示すようなブロック音
素が複数のチャンネルに分類された状態が画面等に表示
される。図9の例では、ブロック化された状態を示して
いるが、実際には、図6に示したような音素データを重
ねた状態が表示される。そのような表示を見ると、各ブ
ロック音素を構成する音素データの状態と、周期の両方
を同時に確認することができる。In step S5, it is possible to specify what kind of heart sound attribute the data of each channel has, but it is also possible to specify it by a person, not automatically. In this case, a state in which the block phonemes are classified into a plurality of channels as shown in FIG. 9 is displayed on the screen or the like. In the example of FIG. 9, the block state is shown, but actually, the state in which the phoneme data as shown in FIG. 6 is superimposed is displayed. By viewing such a display, it is possible to confirm both the state and the period of the phoneme data forming each block phoneme at the same time.
【0044】医者等の心音波形による心音属性の判断が
可能な者は、この周波数要素を見ながら、各チャンネル
に対して心音属性の割り当てを行う。図9に示すよう
に、従来の心音波形と異なり、所定の周期間隔で現れる
ブロック音素についても、同一チャンネルに現れるの
で、より正確な判断が可能となる。例えば、1つのブロ
ック音素だけを見ると、心音成分であると判断されそう
なものであっても、周期的に現れていないものはノイズ
であると判断して、除外することができる。A person such as a doctor who can judge the heart sound attribute by the heart sound waveform assigns the heart sound attribute to each channel while observing the frequency element. As shown in FIG. 9, unlike the conventional electrocardiographic waveform, even block phonemes appearing at a predetermined cycle interval appear in the same channel, so that more accurate determination is possible. For example, when only one block phoneme is viewed, even if it is likely to be determined to be a heart sound component, a component that does not appear periodically can be determined to be noise and can be excluded.
【0045】続いて、属性情報が付与されたブロック音
素をさらに構造文書化する(ステップS6)。構造化文
書としてXML(eXtensible Markup Language)規格を
採用した場合のソースコードの一例を図12に示す。図
12に示す例は、図11に示したブロック音素の先頭か
ら心音の1周期分を構造文書化したものであり、37行
で記述されている。なお、図12に記述されているブロ
ック音素はMIDIに準拠して記述されている。XML
は基本的に1対のタグで実データが囲まれるような形式
となっている。図12において、先頭の1行目と最終の
37行目の一対のタグにより、文書の開始と終了が定義
されている。2行目に記述された一対のタグでは、この
文書の開始から終了までに記載されているMIDI規格
準拠のイベントデータ(<Event>タグで定義)に定義さ
れている発音開始時刻(<StartTime>タグで定義)およ
び発音終了時刻(<EndTime>タグで定義)の時間の単位
(1秒あたりの分解能)が定義されている。3行目の<H
eartCycle>タグと36行目の終了タグ</HeartCycle>は
心音の一周期分のデータが以下記載されていることを指
示している。4行目から14行目は心音第I音<FirstSou
nd>を記述したものであり、4行目と14行目は心音第I
音であることを示す一対のタグである。この心音第I音
は、さらに、3つの詳細属性に分類されている。5行目
から7行目は僧帽弁成分M1を、8行目から10行目は
三尖弁成分T1を、11行目から13行目は大動脈弁成
分を、それぞれ示している。各分類は、同様の構成とな
っており、例えば、僧帽弁成分M1の場合、6行目と7
行目はそれぞれ統一符号データをMIDI規格に準拠し
て記述したものである。例えば、6行目の<StartTime
>、<EndTime>はMIDI規格ではデルタタイムという相
対時刻で表現されている時刻を絶対時刻で記述してお
り、時刻「10」から時刻「20」まで発音されること
を示している。また、7行目の<Pitch>はMIDI規格
のノートナンバーに対応しており、ノートナンバー「3
2」に対応する音高で発音されることを示している。7
行目の<Level>はMIDI規格のベロシティに対応して
おり、ベロシティ「60」に対応する音の強さで発音さ
れることを示している。Subsequently, the block phoneme to which the attribute information is added is further structured into a document (step S6). FIG. 12 shows an example of the source code when the XML (eXtensible Markup Language) standard is adopted as the structured document. The example shown in FIG. 12 is a structural document of one cycle of the heart sound from the head of the block phoneme shown in FIG. 11, and is described in 37 lines. The block phonemes described in FIG. 12 are described in compliance with MIDI. XML
Is basically a format in which actual data is surrounded by a pair of tags. In FIG. 12, the start and end of a document are defined by a pair of tags on the first line at the beginning and the 37th line at the end. In the pair of tags described in the second line, the pronunciation start time (<StartTime>) defined in the MIDI standard-compliant event data (defined by the <Event> tag) described from the start to the end of this document. The unit of time (resolution per second) of the pronunciation end time (defined by <EndTime> tag) is defined. 3rd line <H
The eartCycle> tag and the end tag on the 36th line </ HeartCycle> indicate that the data for one cycle of the heart sound is described below. 4th to 14th lines: Heart sound No. I <FirstSou
nd> is described. The 4th and 14th lines are the heart sounds I
It is a pair of tags indicating that it is a sound. This heart sound No. 1 sound is further classified into three detailed attributes. The 5th to 7th lines show the mitral valve component M1, the 8th to 10th lines show the tricuspid valve component T1, and the 11th to 13th lines show the aortic valve component, respectively. Each classification has the same configuration. For example, in the case of the mitral valve component M1, the sixth row and the seventh row
Each of the lines describes the unified code data according to the MIDI standard. For example, <StartTime on line 6
> And <EndTime> describe a time expressed as a relative time called a delta time in the MIDI standard as an absolute time, and indicate that a sound is produced from time “10” to time “20”. Also, <Pitch> on the 7th line corresponds to the MIDI standard note number, and the note number “3
It indicates that the sound is produced at the pitch corresponding to "2". 7
The <Level> on the line corresponds to the velocity of the MIDI standard, and indicates that the tone is produced with the strength of the tone corresponding to the velocity “60”.
【0046】作成された構造化文書がXML形式である
場合は、インターネット・ブラウザで閲覧できると共
に、専用プレイヤーソフトウェアとMIDI音源を用い
て心音を音響信号として再生することができる。具体的
には、作成された構造化文書をWWWサーバに登録して
おき、ユーザは自分のパソコンでブラウザを起動してイ
ンターネットでWWWサーバにアクセスし、XML文書
を得る。次に、ブラウザにプラグインされているMID
Iシーケンサソフトが、XML文書に記録されているM
IDIデータに従ってMIDI音源を制御しながら、音
響信号の再生を行なう。このように心音を符号化してX
ML形式で記録することは、インターネットを介して流
通するのに便利であったり、MIDI音源を用いて再生
するのに適しているだけでなく、近年XML形式を用い
て電子カルテとして電子化が行なわれているカルテ情報
との整合性の観点から見ても有効なものである。When the created structured document is in the XML format, it can be browsed by the Internet browser and the heart sound can be reproduced as an acoustic signal by using the dedicated player software and the MIDI sound source. Specifically, the created structured document is registered in the WWW server, and the user activates the browser on his or her personal computer and accesses the WWW server on the Internet to obtain the XML document. Next, the MID plugged into the browser
The I sequencer software is the M that is recorded in the XML document.
The acoustic signal is reproduced while controlling the MIDI sound source according to the IDI data. In this way, the heart sounds are encoded and X
Recording in ML format is not only convenient for distribution via the Internet and suitable for reproduction using a MIDI sound source, but in recent years it has been digitized as an electronic medical record using XML format. It is also effective from the viewpoint of consistency with existing medical record information.
【0047】心音の属性が付与されたMIDIデータを
電子カルテとして保存すると、MIDI音源で心音を再
生できるという前述の効果以外に、以下で述べるように
文書から診断に必要な定量的病態を読み取ることができ
るという効果がある。例えば、I音とII音などには亢
進、減弱、分裂という病態があるが、これらの病態は属
性で囲まれたMIDIイベントデータの数値から判断で
きる。すなわち、<Level>タグで囲まれたベロシティ
(強さ)または<Pitch>タグで囲まれたノートナンバー
(高さ)が所定値より高ければ亢進であり、所定値より
低ければ減弱である。そして、図12のI音およびII音
の例では時間軸上近接する2つのイベント(三角形で表
現された音符)で構成されているが、これらが時間的に
離れれば分裂と判断できる。すなわち前のイベントの<E
ndTime>タグの値と後のイベントの<StartTime>タグの値
との差が所定値以上であれば分裂と判断できる。また心
雑音の臨床診断でしばしばレビン(Levine)の分類(ク
ラス1〜6まであり、1は聴診では聴取が困難で心音図
でないと判別できない程度の弱い雑音で、6は聴診器を
あてなくても側にいるだけで聞こえる強い雑音)が用い
られるが、これも<Level>タグで囲まれたベロシティ
(強さ)から判別できる。When the MIDI data to which the heart sound attribute is added is stored as an electronic medical record, in addition to the above-described effect that the heart sound can be reproduced by the MIDI sound source, the quantitative pathological condition necessary for diagnosis can be read from the document as described below. There is an effect that can be. For example, sound I and sound II have pathological conditions such as acceleration, attenuation, and division, and these pathological conditions can be judged from the numerical values of MIDI event data surrounded by attributes. That is, if the velocity (strength) enclosed by the <Level> tag or the note number (height) enclosed by the <Pitch> tag is higher than a predetermined value, it is an increase, and if it is lower than the predetermined value, it is an attenuation. In the example of sounds I and II in FIG. 12, two events (notes represented by triangles) that are close to each other on the time axis are configured, but if they are temporally separated, it can be determined that they are split. Ie <E of the previous event
If the difference between the value of the ndTime> tag and the value of the <StartTime> tag of the subsequent event is equal to or greater than the predetermined value, it can be determined that the split. Also, in the clinical diagnosis of heart murmurs, there are often Levine classifications (classes 1 to 6; 1 is a weak noise that is difficult to hear by auscultation and cannot be distinguished unless it is an phonocardiogram, and 6 is without a stethoscope). Strong noise that can be heard just by being on the side is used, but this can also be identified from the velocity (strength) enclosed by the <Level> tags.
【0048】次に上述した本発明に係る時系列信号の解
析方法を実現するための装置について説明する。図13
は、時系列信号解析装置の一実施形態を示す機能ブロッ
ク図である。図13において、1は時系列信号取得手
段、2は周波数解析手段、3はブロック音素作成手段、
4は基本周期算出手段、5はブロック音素分類手段、6
は属性情報付与手段、7は属性データベース、8は詳細
属性データベース、9は出力手段、10は構造化文書作
成手段である。図13に示す時系列信号解析装置は現実
にはコンピュータにオーディオ関係の周辺機器を接続
し、専用のプログラムを搭載することにより実現され
る。Next, an apparatus for realizing the above-described time-series signal analysis method according to the present invention will be described. FIG.
FIG. 3 is a functional block diagram showing an embodiment of a time series signal analysis device. In FIG. 13, 1 is a time-series signal acquisition means, 2 is a frequency analysis means, 3 is a block phoneme creation means,
Reference numeral 4 is a basic period calculation means, 5 is a block phoneme classification means, and 6
Is an attribute information giving unit, 7 is an attribute database, 8 is a detailed attribute database, 9 is an output unit, and 10 is a structured document creating unit. The time-series signal analysis device shown in FIG. 13 is actually realized by connecting audio-related peripheral devices to a computer and installing a dedicated program.
【0049】時系列信号取得手段1は、時系列信号を取
得するためのものであり、心音信号を取得する場合に
は、聴診器にマイクを取り付け、取得した心音をPCM
等のデジタル信号に変換するサンプリング機器により実
現される。周波数解析手段2は取得された時系列信号の
周波数解析を行なって音素データを作成する機能を有
し、具体的には、図2のステップS1の処理をコンピュ
ータプログラムにしたがって実行する。ブロック音素作
成手段3は、周波数解析手段2により得られる音素デー
タを基にブロック音素を作成する機能を有し、具体的に
は、図2のステップS2の処理をコンピュータプログラ
ムにしたがって実行する。基本周期算出手段4は、時系
列信号の自己相関解析を行って基本周期を算出する機能
を有し、具体的には、図2のステップS3の処理をコン
ピュータプログラムにしたがって実行する。ブロック音
素分類手段5は、ブロック音素作成手段3により作成さ
れたブロック音素と、基本周期算出手段4により算出さ
れた基本周期を基にブロック音素を複数のグループに分
類する機能を有し、具体的には、図2のステップS4の
処理をコンピュータプログラムにしたがって実行する。
属性情報付与手段6は、あらかじめ設定されたルールに
したがって、ブロック音素が分類された各チャンネルに
対して心音の属性情報を付与すると共に、ブロック音素
を作成する基になった音素データの配列パターンに基づ
いて、詳細属性データベース8から抽出した詳細属性情
報をさらに付与する機能を有する。具体的には、図2の
ステップS5の処理をコンピュータプログラムにしたが
って実行することになる。属性データベース7は、第I
音、第II音、その他を分類するために、音素データの配
列パターンと各心音属性の対応を記録したデータベース
であり、詳細属性データベース8は、第I音、第II音を
さらに詳細に特定するため、第I音については、僧帽弁
成分・三尖弁成分・大動脈弁成分のそれぞれと対応する
音素データの配列パターンを記録し、第II音について
は、大動脈弁成分・肺動脈弁成分のそれぞれと対応する
音素データの配列パターンを記録しており、さらに「そ
の他」と分類された心音を、第III音、第IV音(またはI
IIとIVの重合音)、心雑音(収縮期か拡張期かまたは連
続性か、逆流性か駆動性かといったサブ分類も定義され
ている)、クリック音、摩擦音に対応するものに特定す
るための音素データの各配列パターンを記録している。
出力手段9は分類されたブロック音素を表示・印刷する
機能を有する。ここで、出力されたブロック音素は、上
記図2のステップS5において、心音属性を自動付与す
るのではなく、医療関係者が心音属性を付与するのに役
立つ。チャンネルごとに分類されたブロック音素を見る
ことにより、基本周期を考慮した心音属性の付与が可能
となる。具体的に出力手段9は、CRT、液晶等のディ
スプレイ装置、モノクロまたはカラーの各種印刷方式の
プリンタ装置で実現される。構造化文書作成手段10
は、心音の属性情報が付与されたブロック音素をXML
規格等のテキスト情報に変換する機能を有しており、具
体的には、図2のステップS6の処理をコンピュータプ
ログラムにしたがって実行する。The time-series signal acquisition means 1 is for acquiring time-series signals. When acquiring a heart sound signal, a microphone is attached to a stethoscope and the acquired heart sound is PCM.
Etc. are realized by a sampling device that converts into a digital signal. The frequency analysis unit 2 has a function of performing frequency analysis of the acquired time series signal to create phoneme data, and specifically, executes the process of step S1 of FIG. 2 according to a computer program. The block phoneme creating unit 3 has a function of creating a block phoneme based on the phoneme data obtained by the frequency analyzing unit 2, and specifically executes the process of step S2 of FIG. 2 in accordance with a computer program. The basic cycle calculating means 4 has a function of performing autocorrelation analysis of a time-series signal to calculate a basic cycle. Specifically, the basic cycle calculating means 4 executes the process of step S3 of FIG. 2 according to a computer program. The block phoneme classifying unit 5 has a function of classifying the block phonemes into a plurality of groups based on the block phoneme created by the block phoneme creating unit 3 and the basic cycle calculated by the basic cycle calculating unit 4, First, the process of step S4 in FIG. 2 is executed according to the computer program.
The attribute information assigning means 6 assigns the attribute information of the heart sound to each channel into which the block phonemes are classified according to a preset rule, and sets the phoneme data array pattern which is the basis for creating the block phonemes. Based on this, it has a function of further adding detailed attribute information extracted from the detailed attribute database 8. Specifically, the process of step S5 of FIG. 2 is executed according to the computer program. The attribute database 7 is
A detailed attribute database 8 is a database in which correspondences between phoneme data array patterns and respective heart sound attributes are recorded in order to classify sounds, second sounds, and others. The detailed attribute database 8 specifies the first and second sounds in more detail. Therefore, for sound I, record the array pattern of phoneme data corresponding to each of the mitral valve component, tricuspid valve component, and aortic valve component, and for sound II, record the aortic valve component and pulmonary valve component, respectively. The sequence pattern of the phoneme data corresponding to is recorded, and the heart sounds classified as “other” are recorded as the third and fourth sounds (or I
II and IV), heart murmur (systolic or diastolic or continuous, subclasses such as regurgitant or driveable are also defined), clicks, fricatives Each phoneme data array pattern is recorded.
The output unit 9 has a function of displaying / printing the classified block phonemes. Here, the output block phoneme is not useful for automatically assigning the heart sound attribute in step S5 of FIG. 2 described above, but is useful for medical personnel to assign the heart sound attribute. By looking at the block phonemes classified for each channel, it becomes possible to assign the heart sound attribute in consideration of the fundamental period. Specifically, the output unit 9 is realized by a display device such as a CRT or a liquid crystal display, or a printer device of various monochrome or color printing systems. Structured document creating means 10
Is a block phoneme with heart sound attribute information added to XML
It has a function of converting it into text information such as a standard, and specifically executes the process of step S6 of FIG. 2 in accordance with a computer program.
【0050】以上、本発明の好適な実施形態について説
明したが、本発明は上記実施形態に限定されず種々の変
形が可能である。上記実施形態では、時系列信号として
心音を解析する場合について説明したが、呼吸音などそ
の他生体音響信号、心電図など非音響の生体時系列信号
の解析にも適用でき、その他の分野では、例えばエンジ
ン音などの音響信号を時系列信号として解析し、自動車
のエンジンの故障診断などに適用することも可能であ
る。Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above embodiments and various modifications can be made. In the above embodiment, the case of analyzing the heart sound as the time-series signal has been described, but it is also applicable to the analysis of other bioacoustic signals such as respiratory sounds, non-acoustic bio-time-series signals such as electrocardiogram, and in other fields, for example, engine It is also possible to analyze an acoustic signal such as sound as a time-series signal and apply it to a failure diagnosis of an automobile engine.
【0051】[0051]
【発明の効果】以上、説明したように本発明によれば、
与えられた時系列信号に対して設定された所定の単位区
間ごとに時系列信号に対して周波数解析を行うことによ
り、各単位区間に対して周波数および強度の組で構成さ
れる複数の音素データを作成し、作成された前記複数の
音素データのうち、所定の強度を満たすものを抽出し、
抽出された複数の音素データの開始時刻・終了時刻・周
波数の類似性を基に、開始時刻・終了時刻・周波数・強
度のパラメータで構成されるブロック音素を作成し、時
系列信号に対して自己相関解析を行なうことにより、こ
の時系列信号の基本周期を算出し、複数のブロック音素
の中で周波数が類似しており、かつ開始時刻の差が、算
出した基本周期の整数倍に近いものを、同一のグループ
になるように分類し、分類されたグループ単位でブロッ
ク音素の表示を行うようにしたので、医師等の医療関係
者が心音属性の判断を容易に行うことが可能となるとい
う効果を奏する。さらに、心音波形を各ブロックの特性
と周期を含めて心音属性と対応付けて登録した知識デー
タベースを利用することにより、心音属性の付与までを
自動的に行うことが可能となる。As described above, according to the present invention,
By performing frequency analysis on a time-series signal for each given unit interval set for a given time-series signal, a plurality of phoneme data composed of a set of frequency and intensity for each unit interval Is created, out of the created plurality of phoneme data, one that satisfies a predetermined intensity is extracted,
Based on the similarity of the start time, end time, and frequency of the extracted phoneme data, create a block phoneme consisting of parameters of start time, end time, frequency, and intensity, By performing a correlation analysis, the basic period of this time-series signal is calculated, and if the frequencies are similar among the plurality of block phonemes and the start time difference is close to an integral multiple of the calculated basic period, The effect that the medical staff such as a doctor can easily judge the heart sound attribute because the block phonemes are displayed in the same group and the classified group units are displayed. Play. Furthermore, by using the knowledge database in which the heart sound waveform is registered in association with the heart sound attribute including the characteristics and cycle of each block, it is possible to automatically add the heart sound attribute.
【図1】本発明の時系列信号解析装置における信号解析
の基本原理を示す図である。FIG. 1 is a diagram showing a basic principle of signal analysis in a time-series signal analysis device of the present invention.
【図2】本発明による時系列信号の解析の概略を示すフ
ローチャートである。FIG. 2 is a flowchart showing an outline of analysis of a time series signal according to the present invention.
【図3】時系列信号として取り込んだ心音波形の一例を
示す図である。FIG. 3 is a diagram showing an example of a heart sound waveform captured as a time-series signal.
【図4】図2のステップS1の詳細を示すフローチャー
トである。FIG. 4 is a flowchart showing details of step S1 in FIG.
【図5】音響信号における単位区間の設定および周期・
振幅の決定を説明するための図である。FIG. 5: Setting and cycle of unit section in acoustic signal
It is a figure for demonstrating determination of amplitude.
【図6】図3に示した心音波形から周波数解析により生
成された音素データを示す図である。6 is a diagram showing phoneme data generated by frequency analysis from the heart sound waveform shown in FIG. 3;
【図7】図6に示した音素データを基に算出されたブロ
ック音素を示す図である。7 is a diagram showing block phonemes calculated based on the phoneme data shown in FIG.
【図8】入力音響信号g(t)と周期Tn分ずらした音
響信号g(t+Tn)の関係を示す図である。FIG. 8 is a diagram showing a relationship between an input acoustic signal g (t) and an acoustic signal g (t + T n ) shifted by a period T n .
【図9】図7に示したブロック音素を、基本周期に基づ
いて分類した状態を示す図である。9 is a diagram showing a state in which the block phonemes shown in FIG. 7 are classified based on a fundamental cycle.
【図10】図9に示した各ブロック音素に対して属性情
報を付与した状態を示す図である。10 is a diagram showing a state in which attribute information is added to each block phoneme shown in FIG.
【図11】図10に示した各ブロック音素に対してさら
に詳細な属性情報を付与した状態を示す図である。11 is a diagram showing a state in which more detailed attribute information is added to each block phoneme shown in FIG.
【図12】構造化文書としてXML規格を採用した場合
のソースコードを示す図である。FIG. 12 is a diagram showing a source code when the XML standard is adopted as a structured document.
【図13】本発明による時系列信号解析装置の一実施形
態を示す機能ブロック図である。FIG. 13 is a functional block diagram showing an embodiment of a time-series signal analysis device according to the present invention.
1・・・時系列信号取得手段 2・・・周波数解析手段 3・・・ブロック音素作成手段 4・・・基本周期算出手段 5・・・ブロック音素分類手段 6・・・属性情報付与手段 7・・・属性データベース 8・・・詳細属性データベース 9・・・出力手段 10・・・構造化文書作成手段 1. Time-series signal acquisition means 2 ... Frequency analysis means 3 ... Block phoneme creating means 4 ... Basic period calculation means 5 ... Block phoneme classifying means 6 ... Attribute information adding means 7 ... Attribute database 8 ... Detailed attribute database 9 ... Output means 10: structured document creation means
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // A61B 5/025 A61B 5/02 350 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) // A61B 5/025 A61B 5/02 350
Claims (6)
所定の単位区間ごとに周波数および強度の組で構成され
る複数の音素データを生成する周波数解析手段と、 生成された前記複数の音素データのうち、所定の強度を
満たすものを抽出し、抽出された複数の音素データの開
始時刻・終了時刻・周波数の類似性を基に、開始時刻・
終了時刻・周波数・強度のパラメータで構成されるブロ
ック音素を作成するブロック音素作成手段と、 前記時系列信号に対して自己相関解析を行なうことによ
り、当該時系列信号の基本周期を算出する基本周期算出
手段と、 前記複数のブロック音素の中で周波数が類似しており、
かつ開始時刻の差が前記算出した基本周期の整数倍に近
いものを、同一のグループになるように分類するブロッ
ク音素分類手段と、 前記分類されたグループ単位でブロック音素の表示を行
う表示手段と、 を有することを特徴とする時系列信号解析装置。1. A frequency analysis means for generating a plurality of phoneme data composed of a set of frequency and intensity for each predetermined unit section set for a given time-series signal, and the plurality of generated plurality of phoneme data. From the phoneme data, the ones that satisfy the specified strength are extracted, and the start time / end time / frequency is based on the similarity of the start time / end time / frequency of the extracted phoneme data.
Block phoneme creating means for creating a block phoneme composed of parameters of end time, frequency, and intensity, and a basic cycle for calculating a basic cycle of the time series signal by performing autocorrelation analysis on the time series signal. Frequency is similar to the calculation means, the plurality of block phonemes,
And a block phoneme classifying unit that classifies the difference in start time close to an integral multiple of the calculated basic period into the same group, and a display unit that displays block phonemes in the classified group units. A time-series signal analysis device comprising:
所定の単位区間ごとに周波数および強度の組で構成され
る複数の音素データを生成する周波数解析手段と、 生成された前記複数の音素データのうち、所定の強度を
満たすものを抽出し、抽出された複数の音素データの開
始時刻・終了時刻・周波数の類似性を基に、開始時刻・
終了時刻・周波数・強度のパラメータで構成されるブロ
ック音素を作成するブロック音素作成手段と、 前記時系列信号に対して自己相関解析を行なうことによ
り、当該時系列信号の基本周期を算出する基本周期算出
手段と、 前記複数のブロック音素の中で周波数が類似しており、
かつ開始時刻の差が前記算出した基本周期の整数倍に近
いものを、同一のグループになるように分類するブロッ
ク音素分類手段と、 前記グループ化された各音素ブロックに対して、所定の
データベースで定義された属性情報を付与する属性情報
付与手段と、 前記属性情報が付与されたブロック音素を出力するため
の出力手段と、 を有することを特徴とする時系列信号解析装置。2. A frequency analysis means for generating a plurality of phoneme data composed of a set of frequency and intensity for each predetermined unit section set for a given time series signal, and the plurality of generated plurality of phoneme data. From the phoneme data, the ones that satisfy the specified strength are extracted, and the start time / end time / frequency is based on the similarity of the start time / end time / frequency of the extracted phoneme data.
Block phoneme creating means for creating a block phoneme composed of parameters of end time, frequency, and intensity, and a basic cycle for calculating a basic cycle of the time series signal by performing autocorrelation analysis on the time series signal. Frequency is similar to the calculation means, the plurality of block phonemes,
And a block phoneme classifying unit that classifies the difference in start time close to an integral multiple of the calculated basic period into the same group, and for each of the grouped phoneme blocks, in a predetermined database. A time-series signal analysis device comprising: an attribute information assigning unit that assigns the defined attribute information; and an output unit that outputs the block phoneme to which the attribute information is assigned.
所定の単位区間ごとに周波数および強度の組で構成され
る複数の音素データを生成する周波数解析手段と、 生成された前記複数の音素データのうち、所定の強度を
満たすものを抽出し、抽出された複数の音素データの開
始時刻・終了時刻・周波数の類似性を基に、開始時刻・
終了時刻・周波数・強度のパラメータで構成されるブロ
ック音素を作成するブロック音素作成手段と、 前記時系列信号に対して自己相関解析を行なうことによ
り、当該時系列信号の基本周期を算出する基本周期算出
手段と、 前記複数のブロック音素の中で周波数が類似しており、
かつ開始時刻の差が前記算出した基本周期の整数倍に近
いものを、同一のグループになるように分類するブロッ
ク音素分類手段と、 前記グループ化された各ブロック音素に対して、所定の
データベースで定義された属性情報を付与する属性情報
付与手段と、 前記属性情報が付与されたブロック音素を階層構造のテ
キスト情報として出力するための構造化文書作成手段
と、 を有することを特徴とする時系列信号解析装置。3. Frequency analysis means for generating a plurality of phoneme data composed of a set of frequency and intensity for each predetermined unit section set for a given time series signal, and the plurality of generated plurality of phoneme data. From the phoneme data, the ones that satisfy the specified strength are extracted, and the start time / end time / frequency is based on the similarity of the start time / end time / frequency of the extracted phoneme data.
Block phoneme creating means for creating a block phoneme composed of parameters of end time, frequency, and intensity, and a basic cycle for calculating a basic cycle of the time series signal by performing autocorrelation analysis on the time series signal. Frequency is similar to the calculation means, the plurality of block phonemes,
And the difference in start time close to an integral multiple of the calculated basic period, a block phoneme classifying unit for classifying into a same group, for each of the grouped block phonemes, in a predetermined database A time series characterized by comprising: attribute information giving means for giving the defined attribute information; and structured document creating means for outputting the block phoneme to which the attribute information is given as hierarchically structured text information. Signal analyzer.
スに合致するブロック音素に対して優先的に付与し、前
記データベースに付与するべき属性情報が存在しないブ
ロック音素に対しては、同一グループに属する属性情報
が付与されたブロック音素の属性情報を付与するもので
あることを特徴とする請求項2または請求項3に記載の
時系列信号解析装置。4. The attribute information assigning means preferentially assigns a block phoneme that matches the database, and a block phoneme for which there is no attribute information to be assigned to the database belongs to the same group. The time-series signal analysis device according to claim 2 or 3, wherein attribute information of a block phoneme to which attribute information is added is added.
本周期が心拍周期であり、前記属性情報が心音の第I音
構成成分であるM1、T1、A1や第II音構成成分であ
るA2、P2などであり、前記データベースには属性情
報とブロック音素パターンとの対応付けがなされている
ことを特徴とする請求項2から請求項4のいずれかに記
載の時系列信号解析装置。5. The time-series signal is a heart sound signal, the basic cycle is a heartbeat cycle, and the attribute information is M1, T1, A1 and second sound constituent components of the I-th sound component of the heart sound. The time series signal analysis apparatus according to any one of claims 2 to 4, wherein the database is A2, P2, etc., and the database associates attribute information with block phoneme patterns.
ト情報がXML規格の書式に準拠して記述されており、
内包するブロック音素が区間に対応するデルタタイム情
報、周波数に対応するノートナンバー情報、強度に対応
するベロシティー情報をもつMIDI形式で記述されて
いることを特徴とする請求項3に記載の時系列信号解析
装置。6. The text information output by the structured document creating means is described in conformity with the XML standard format,
4. The time series according to claim 3, wherein the included block phonemes are described in a MIDI format having delta time information corresponding to a section, note number information corresponding to a frequency, and velocity information corresponding to an intensity. Signal analyzer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001301084A JP4968421B2 (en) | 2001-09-28 | 2001-09-28 | Time series signal analyzer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001301084A JP4968421B2 (en) | 2001-09-28 | 2001-09-28 | Time series signal analyzer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003108185A true JP2003108185A (en) | 2003-04-11 |
JP4968421B2 JP4968421B2 (en) | 2012-07-04 |
Family
ID=19121553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001301084A Expired - Fee Related JP4968421B2 (en) | 2001-09-28 | 2001-09-28 | Time series signal analyzer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4968421B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007094002A (en) * | 2005-09-29 | 2007-04-12 | Konami Digital Entertainment:Kk | Voice information processing apparatus, voice information processing method and program |
JP2008139500A (en) * | 2006-11-30 | 2008-06-19 | Fuji Xerox Co Ltd | Image analyzing device, fault diagnosing device, image analyzing program, and fault diagnosing program |
JP2008167975A (en) * | 2007-01-12 | 2008-07-24 | Toshiba Corp | Ultrasonic diagnostic equipment, heart rate synchronization signal generator and heart rate synchronization signal generation method |
JP2009240527A (en) * | 2008-03-31 | 2009-10-22 | Yamaguchi Univ | Apparatus and method for analyzing heart sound frequency |
US7674967B2 (en) | 2005-03-22 | 2010-03-09 | Sony Corporation | Body movement detecting apparatus and method, and content playback apparatus and method |
EP3508865A1 (en) * | 2018-01-08 | 2019-07-10 | Delta Electronics (Thailand) Public Co., Ltd. | Method for estimating a signal property |
JP2023536595A (en) * | 2020-07-31 | 2023-08-28 | フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. | Analysis of acoustic signals |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5028132B1 (en) * | 1969-06-20 | 1975-09-12 | ||
JPH05224698A (en) * | 1991-10-18 | 1993-09-03 | American Teleph & Telegr Co <Att> | Method and apparatus for smoothing pitch cycle waveform |
JPH05309074A (en) * | 1992-03-13 | 1993-11-22 | Nippon Koden Corp | Cardiac sound analyzing device |
JPH10247099A (en) * | 1997-03-05 | 1998-09-14 | Dainippon Printing Co Ltd | Sound signal coding method and sound recording/ reproducing device |
JPH1173200A (en) * | 1997-08-29 | 1999-03-16 | Dainippon Printing Co Ltd | Acoustic signal encoding method and record medium readable by computer |
JP2001100740A (en) * | 1999-07-28 | 2001-04-13 | Yamaha Corp | Musical score information generating device and musical score information display device and storage medium |
-
2001
- 2001-09-28 JP JP2001301084A patent/JP4968421B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5028132B1 (en) * | 1969-06-20 | 1975-09-12 | ||
JPH05224698A (en) * | 1991-10-18 | 1993-09-03 | American Teleph & Telegr Co <Att> | Method and apparatus for smoothing pitch cycle waveform |
JPH05309074A (en) * | 1992-03-13 | 1993-11-22 | Nippon Koden Corp | Cardiac sound analyzing device |
JPH10247099A (en) * | 1997-03-05 | 1998-09-14 | Dainippon Printing Co Ltd | Sound signal coding method and sound recording/ reproducing device |
JPH1173200A (en) * | 1997-08-29 | 1999-03-16 | Dainippon Printing Co Ltd | Acoustic signal encoding method and record medium readable by computer |
JP2001100740A (en) * | 1999-07-28 | 2001-04-13 | Yamaha Corp | Musical score information generating device and musical score information display device and storage medium |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7674967B2 (en) | 2005-03-22 | 2010-03-09 | Sony Corporation | Body movement detecting apparatus and method, and content playback apparatus and method |
JP2007094002A (en) * | 2005-09-29 | 2007-04-12 | Konami Digital Entertainment:Kk | Voice information processing apparatus, voice information processing method and program |
JP4722653B2 (en) * | 2005-09-29 | 2011-07-13 | 株式会社コナミデジタルエンタテインメント | Audio information processing apparatus, audio information processing method, and program |
JP2008139500A (en) * | 2006-11-30 | 2008-06-19 | Fuji Xerox Co Ltd | Image analyzing device, fault diagnosing device, image analyzing program, and fault diagnosing program |
JP2008167975A (en) * | 2007-01-12 | 2008-07-24 | Toshiba Corp | Ultrasonic diagnostic equipment, heart rate synchronization signal generator and heart rate synchronization signal generation method |
JP2009240527A (en) * | 2008-03-31 | 2009-10-22 | Yamaguchi Univ | Apparatus and method for analyzing heart sound frequency |
EP3508865A1 (en) * | 2018-01-08 | 2019-07-10 | Delta Electronics (Thailand) Public Co., Ltd. | Method for estimating a signal property |
CN110018343A (en) * | 2018-01-08 | 2019-07-16 | 泰达电子股份有限公司 | Method for estimating signal properties |
US11131696B2 (en) | 2018-01-08 | 2021-09-28 | Delta Electronics (Thailand) Public Co., Ltd. | Method for estimating a signal property |
CN110018343B (en) * | 2018-01-08 | 2024-02-06 | 泰达电子股份有限公司 | Method for estimating signal properties |
JP2023536595A (en) * | 2020-07-31 | 2023-08-28 | フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. | Analysis of acoustic signals |
Also Published As
Publication number | Publication date |
---|---|
JP4968421B2 (en) | 2012-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107622797B (en) | Body condition determining system and method based on sound | |
Fitch | Consistency of fundamental frequency and perturbation in repeated phonations of sustained vowels, reading, and connected speech | |
Askenfelt et al. | Speech waveform perturbation analysis: a perceptual-acoustical comparison of seven measures | |
Datta et al. | Signal analysis of Hindustani classical music | |
Ballora et al. | Heart rate sonification: A new approach to medical diagnosis | |
JP2003508805A (en) | Apparatus, method, and manufactured article for detecting emotion of voice signal through analysis of a plurality of voice signal parameters | |
US6362409B1 (en) | Customizable software-based digital wavetable synthesizer | |
JP2004514178A (en) | Method and apparatus for voice analysis | |
Fischer et al. | Instrument timbre enhances perceptual segregation in orchestral music | |
JP4968421B2 (en) | Time series signal analyzer | |
JP3776196B2 (en) | Audio signal encoding method and audio recording / reproducing apparatus | |
Keung et al. | A comparison of healthy and disordered voices using multi-dimensional voice program, praat, and TF32 | |
JP4647770B2 (en) | Time series signal analyzer | |
Kolesnik | Conducting gesture recognition, analysis and performance system | |
JP2000285104A (en) | Method and device for signal processing | |
Fernandes et al. | Brain's night symphony (BraiNSy): A methodology for EEG sonification | |
Snape | Building bridges: Exploration of music analysis methods in improvisational music therapy research and clinical work | |
JPH1084286A (en) | Coder and decoder for time series data | |
Modegi et al. | Application of MIDI technique for medical audio signal coding | |
Frühholz et al. | Neural dynamics of Karaoke-like voice Imitation in singing performance | |
KR20200114236A (en) | Method and system for detecting wheeze sound based on artificial intelligence | |
Lycke | Age-related Evolution of the Professional Singing Voice: Prevention, Voice Testing and Voice Therapy | |
US6719707B1 (en) | Apparatus and method for performing musical perception sound analysis on a system | |
CN117894064B (en) | Mouth shape alignment method based on training of traversing initial consonants, vowels and integral pronunciation | |
Piszczalski et al. | A computer model of music recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120307 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120320 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4968421 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |