JP2023174854A - Respiratory sound analysis device, respiratory sound analysis method and computer program - Google Patents

Respiratory sound analysis device, respiratory sound analysis method and computer program Download PDF

Info

Publication number
JP2023174854A
JP2023174854A JP2023178950A JP2023178950A JP2023174854A JP 2023174854 A JP2023174854 A JP 2023174854A JP 2023178950 A JP2023178950 A JP 2023178950A JP 2023178950 A JP2023178950 A JP 2023178950A JP 2023174854 A JP2023174854 A JP 2023174854A
Authority
JP
Japan
Prior art keywords
sound
sounds
breathing
input
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023178950A
Other languages
Japanese (ja)
Inventor
耕一 石戸谷
Koichi Ishidoya
隆真 亀谷
Ryushin Kametani
英幸 大久保
Hideyuki Okubo
友博 三浦
Tomohiro Miura
剛 長谷部
Takeshi Hasebe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Air Water Biodesign Inc
Original Assignee
Air Water Biodesign Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Air Water Biodesign Inc filed Critical Air Water Biodesign Inc
Priority to JP2023178950A priority Critical patent/JP2023174854A/en
Publication of JP2023174854A publication Critical patent/JP2023174854A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To classify and output a plurality of sound types included in respiratory sound.SOLUTION: A respiratory sound analysis device includes: classification means for classifying respiratory sound into a plurality of sound types; input means for receiving an input for selecting a type of the respiratory sound to be output; output means for outputting the respiratory sound of the sound type selected according to the input received by the input means, as a spectral image; and change means capable of changing a color of the spectral image for every sound type selected according to the input received by the input means.SELECTED DRAWING: Figure 1

Description

本発明は、複数の音種を含む呼吸音を解析する呼吸音解析装置、呼吸音解析方法、及びコンピュータプログラムの技術分野に関する。 The present invention relates to the technical field of a breathing sound analysis device, a breathing sound analysis method, and a computer program that analyze breathing sounds including a plurality of sound types.

この種の装置として、電子聴診器等によって検出される生体の呼吸音について、正常呼吸音と異常呼吸音とを判別するものが知られている。例えば特許文献1では、異常音の分析結果を3次元表示装置で出力するという技術が提案されている。特許文献2では、呼吸音に含まれる異常音としてラ音を検出するという技術が提案されている。特許文献3では、音波形を複数の区分に分割して音種を判別するという技術が提案されている。 As this type of device, one is known that distinguishes between normal breathing sounds and abnormal breathing sounds of a living body detected by an electronic stethoscope or the like. For example, Patent Document 1 proposes a technique of outputting the analysis results of abnormal sounds on a three-dimensional display device. Patent Document 2 proposes a technique for detecting rales as abnormal sounds included in breathing sounds. Patent Document 3 proposes a technique in which a sound waveform is divided into a plurality of sections and the type of sound is discriminated.

特開2002-538921号公報Japanese Patent Application Publication No. 2002-538921 特開2009-106574号公報Japanese Patent Application Publication No. 2009-106574 特開2013-123494号公報Japanese Patent Application Publication No. 2013-123494

しかしながら、上述した特許文献1から3に記載されているような技術では、呼吸音に含まれる複数の音種を任意に出力することができないという技術的問題点がある。 However, the techniques described in Patent Documents 1 to 3 mentioned above have a technical problem in that they cannot arbitrarily output a plurality of sound types included in breathing sounds.

本発明が解決しようとする課題には、上記のようなものが一例として挙げられる。本発明は、呼吸音に含まれる複数の音種を分別して出力することが可能な呼吸音解析装置、呼吸音解析方法、及びコンピュータプログラムを提供することを課題とする。 Examples of the problems to be solved by the present invention include those mentioned above. An object of the present invention is to provide a breathing sound analysis device, a breathing sound analysis method, and a computer program that can separate and output a plurality of sound types included in breathing sounds.

上記課題を解決するための呼吸音解析装置は、呼吸音を複数の音種に分別する分別手段と、出力すべき呼吸音の種類を選択するための入力を受け付ける入力手段と、前記入力手段が受け付けた入力に応じて選択された音種の呼吸音をスペクトル画像として出力する出力手段と、前記入力手段が受け付けた入力に応じて選択された音種毎に、スペクトル画像の色を変更可能な変更手段と、を備える。 A breathing sound analysis device for solving the above problems includes a classification means for classifying breathing sounds into a plurality of sound types, an input means for accepting input for selecting the type of breath sounds to be output, and the input means. output means for outputting a sound type of breathing sound selected according to the received input as a spectral image; and a color of the spectral image can be changed for each sound type selected according to the input received by the input means. and a changing means.

上記課題を解決するための呼吸音解析方法は、呼吸音を複数の音種に分別する分別工程と、出力すべき呼吸音の種類を選択するための入力を受け付ける入力工程と、前記入力手段が受け付けた入力に応じて選択された音種の呼吸音をスペクトル画像として出力する出力工程と、前記入力手段が受け付けた入力に応じて選択された音種毎に、スペクトル画像の色を変更可能な変更工程と、を含む。 A breathing sound analysis method for solving the above problems includes a classification step of classifying breathing sounds into a plurality of sound types, an input step of accepting input for selecting the type of breathing sounds to be output, and the input means. an output step of outputting a sound type of breathing sound selected according to the received input as a spectral image; and a color of the spectral image can be changed for each sound type selected according to the input received by the input means. and a change step.

上記課題を解決するためのコンピュータプログラムは、呼吸音を複数の音種に分別する分別工程と、出力すべき呼吸音の種類を選択するための入力を受け付ける入力工程と、前記入力手段が受け付けた入力に応じて選択された音種の呼吸音をスペクトル画像として出力する出力工程と、前記入力手段が受け付けた入力に応じて選択された音種毎に、スペクトル画像の色を変更可能な変更工程と、をコンピュータに実行させる。 A computer program for solving the above-mentioned problems includes a classification step of separating breath sounds into a plurality of sound types, an input step of accepting input for selecting the type of breath sounds to be output, and a step of accepting input by the input means to select the type of breath sounds to be output. an output step of outputting the sound type of breath sound selected according to the input as a spectral image; and a changing step of changing the color of the spectral image for each sound type selected according to the input received by the input means. and make the computer execute it.

本実施例に係る呼吸音解析装置の全体構成を示すブロック図である。FIG. 1 is a block diagram showing the overall configuration of a breathing sound analysis device according to the present embodiment. 本実施例に係る呼吸音解析装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the breathing sound analysis device according to the present embodiment. 捻髪音を含む呼吸音の周波数解析結果を示すスペクトログラム図である。FIG. 3 is a spectrogram diagram showing frequency analysis results of breathing sounds including crepitus sounds. 笛声音を含む呼吸音の周波数解析結果を示すスペクトログラム図である。FIG. 3 is a spectrogram diagram showing frequency analysis results of breathing sounds including whistling sounds. 捻髪音を含む呼吸音の所定タイミングにおけるスペクトルを示すグラフである。It is a graph showing the spectrum of breathing sounds including crepitus sounds at a predetermined timing. 捻髪音を含む呼吸音のスペクトルの近似方法を示す概念図である。FIG. 2 is a conceptual diagram showing a method of approximating the spectrum of breathing sounds including crepitus sounds. 笛声音を含む呼吸音の所定タイミングにおけるスペクトルを示すグラフである。It is a graph showing the spectrum of breathing sounds including whistling sounds at a predetermined timing. 笛声音を含む呼吸音のスペクトルの近似方法を示す概念図である。FIG. 2 is a conceptual diagram showing a method of approximating the spectrum of breathing sounds including whistling sounds. 周波数解析方法の一例を示すグラフである。It is a graph showing an example of a frequency analysis method. 周波数解析結果の一例を示す図である。It is a figure showing an example of a frequency analysis result. スペクトルのピーク検出結果を示す概念図である。It is a conceptual diagram which shows the peak detection result of a spectrum. 正常肺胞呼吸音基底を示すグラフである。It is a graph showing normal alveolar breath sound base. 捻髪音基底を示すグラフである。It is a graph showing a crepitation base. 連続性ラ音基底を示すグラフである。It is a graph showing a continuous rales base. ホワイトノイズ基底を示すグラフである。It is a graph showing a white noise basis. 周波数シフトされた連続性ラ音基底を示すグラフである。FIG. 7 is a graph showing a frequency-shifted continuous rales base; FIG. スペクトルと、基底及び結合係数との関係を示す図である。It is a figure which shows the relationship between a spectrum, a basis, and a coupling coefficient. 観測されたスペクトル及び近似に用いられる基底の一例を示す図である。FIG. 3 is a diagram showing an example of an observed spectrum and a basis used for approximation. スペクトルを示す各基底及び結合係数を示す図である。It is a figure which shows each base and coupling coefficient which show a spectrum. 第1変形例に係る連続性ラ音の分別方法を示す概念図(その1)である。FIG. 7 is a conceptual diagram (part 1) showing a continuous rales classification method according to a first modification. 第1変形例に係る連続性ラ音の分別方法を示す概念図(その2)である。FIG. 7 is a conceptual diagram (Part 2) showing a continuous rales classification method according to the first modification. 第2変形例に係る笛声音と類鼾音との分別に用いる閾値を示すグラフである。It is a graph which shows the threshold value used for classification of the whistle sound and the snoring sound based on a 2nd modification. 第3変形例に係る笛声音と類鼾音との分別に用いる閾値の初期値を示すグラフである。It is a graph which shows the initial value of the threshold value used for classification of the whistle sound and the snoring sound based on a 3rd modification. 第3変形例に係る笛声音と類鼾音との分別に用いる閾値の調整後の値を示すグラフ(その1)である。It is a graph (part 1) showing the adjusted value of the threshold value used for classification between the whistle sound and the snoring sound according to the third modification. 第3変形例に係る笛声音と類鼾音との分別に用いる閾値の調整後の値を示すグラフ(その2)である。It is a graph (part 2) showing the adjusted value of the threshold value used for classification between the whistle sound and the snoring sound according to the third modification. 笛声音を含む呼吸音のスペクトログラム図である。It is a spectrogram diagram of breathing sounds including whistling sounds. 笛声音のピーク周波数及びピーク数を示すグラフである。It is a graph which shows the peak frequency and the number of peaks of a whistle sound. 類鼾音を含む呼吸音のスペクトログラム図である。It is a spectrogram diagram of breathing sounds including rhinoid sounds. 類鼾音のピーク周波数及びピーク数を示すグラフである。It is a graph showing the peak frequency and the number of peaks of sonar sounds. 表示部における表示例を示す平面図である。FIG. 3 is a plan view showing an example of display on the display unit. 音種毎の抽出結果を示すスペクトログラム図である。It is a spectrogram diagram showing extraction results for each sound type. 分別された音種毎の音声出力の一例を示す概念図(その1)である。FIG. 2 is a conceptual diagram (Part 1) showing an example of audio output for each classified sound type. 分別された音種毎の音声出力の一例を示す概念図(その2)である。FIG. 7 is a conceptual diagram (part 2) showing an example of audio output for each classified sound type. 分別された音種毎の音量調整方法を示す概念図である。FIG. 3 is a conceptual diagram showing a volume adjustment method for each classified sound type. 周波数帯域毎の音量調整方法を示す概念図である。FIG. 2 is a conceptual diagram showing a volume adjustment method for each frequency band. 音種毎に実行される画像処理の一例を示す概念図である。FIG. 2 is a conceptual diagram showing an example of image processing performed for each sound type. 音種毎に画像処理した画像を重ね合わせて生成した画像の一例を示す平面図である。FIG. 3 is a plan view showing an example of an image generated by superimposing images subjected to image processing for each sound type. 分別された音種毎の表示色調整方法を示す概念図である。FIG. 3 is a conceptual diagram showing a display color adjustment method for each classified tone type.

<1>
本実施形態に係る呼吸音解析装置は、呼吸音を正常音及び異常音に分別する分別手段と、前記分別した呼吸音のうち任意の呼吸音を出力する出力手段とを備える。
<1>
The respiratory sound analysis device according to the present embodiment includes a classification means for classifying respiratory sounds into normal sounds and abnormal sounds, and an output means for outputting any breath sound among the classified respiratory sounds.

本実施形態に係る呼吸音解析装置によれば、その動作時には、先ず呼吸音が正常音と異常音とに分別される。分別手段によって分別される呼吸音は、正常音及び異常音の2音でなくともよく、正常音及び異常音の各々が更に複数の音種に分別されてもよい。例えば、異常音を、笛声音、類鼾音及び捻髪音等に夫々分別してもよい。なお、具体的な分別手法については特に限定されるものではなく、後述する任意の呼吸音の出力が可能となるような状態で分別できればよい。 According to the breathing sound analysis device according to the present embodiment, during its operation, breathing sounds are first classified into normal sounds and abnormal sounds. The respiratory sounds separated by the classification means do not have to be two sounds, normal sounds and abnormal sounds, and each of the normal sounds and abnormal sounds may be further separated into a plurality of sound types. For example, abnormal sounds may be classified into whistling sounds, snoring sounds, crepitus sounds, etc., respectively. Note that there are no particular limitations on the specific classification method, as long as the classification can be performed in a state that enables the output of any breath sounds described below.

呼吸音が分別されると、分別された呼吸音のうち任意の呼吸音が出力される。即ち、分別された複数の呼吸音が選択的に出力される。これにより、例えばユーザが所望する呼吸音のみを出力することが可能である。より具体的には、例えば呼吸音に含まれる笛声音のみを出力したり、笛声音及び類鼾音のみを出力したりできる。なお、出力態様については特に限定されず、音声又は画像として出力されてもよいし、他の態様で出力されてもよい。 When the breath sounds are separated, any breath sound among the separated breath sounds is output. That is, a plurality of separated breath sounds are selectively output. Thereby, for example, it is possible to output only the breathing sounds desired by the user. More specifically, for example, only whistle sounds included in breathing sounds, or only whistle sounds and snoring sounds can be output. Note that the output mode is not particularly limited, and may be output as audio or image, or may be output in other formats.

上述したように呼吸音を分別して出力することで、例えば健康状態の診断等が容易に行える。具体的には、例えば複数の呼吸音が混ざった状態で聞こえるような場合には、熟練した医師でも各音種を区別して聴きとることが難しいが、任意の呼吸音を出力できれば、呼吸音に含まれる音種を容易に判別することが可能となる。このように、呼吸音に含まれる特定の音種だけを聴きとり易くすることができれば、医師の教育や研究においても活用することができる。 By separating and outputting breathing sounds as described above, it is possible to easily diagnose, for example, a health condition. Specifically, for example, when multiple breathing sounds are heard mixed together, it is difficult for even experienced doctors to distinguish between each type of sound. It becomes possible to easily distinguish the types of sounds included. In this way, if only specific types of sounds included in breathing sounds can be made easier to hear, it can also be utilized in physician education and research.

以上説明したように、本実施形態に係る呼吸音解析装置によれば、呼吸音を分別して任意の呼吸音を出力できるため、複数の音種を含んでいる呼吸音を好適に解析することが可能である。 As explained above, according to the breathing sound analysis device according to the present embodiment, it is possible to separate the breathing sounds and output any desired breathing sounds, so that it is possible to suitably analyze the breathing sounds that include a plurality of sound types. It is possible.

<2>
本実施形態に係る呼吸音解析装置の一態様では、前記出力手段は、前記分別した呼吸音のうち複数の呼吸音を同時に出力する。
<2>
In one aspect of the breathing sound analysis device according to the present embodiment, the output means simultaneously outputs a plurality of breath sounds among the classified breath sounds.

この態様によれば、任意の呼吸音として複数の呼吸音を同時に(言い換えれば、重畳した状態で)出力することができるため、所望の呼吸音を適宜組み合わせて出力させることができる。 According to this aspect, since a plurality of breathing sounds can be output simultaneously (in other words, in a superimposed state) as arbitrary breathing sounds, desired breathing sounds can be output in an appropriate combination.

<3>
本実施形態に係る呼吸音解析装置の他の態様では、前記出力手段は、前記任意の呼吸音を音声又はスペクトル画像として出力する。
<3>
In another aspect of the breathing sound analysis device according to the present embodiment, the output means outputs the arbitrary breathing sound as a voice or a spectral image.

この態様によれば、分別された呼吸音のうち任意の呼吸音は、例えばスピーカーやヘッドフォンを用いて音声として出力される。或いは、任意の呼吸音は、液晶モニタ等のディスプレイを用いてスペクトル画像として出力される。よって、出力された任意の呼吸音を好適に利用できる。 According to this aspect, any breath sound among the separated breath sounds is output as audio using, for example, a speaker or headphones. Alternatively, any breath sounds are output as a spectral image using a display such as a liquid crystal monitor. Therefore, any outputted breathing sound can be suitably used.

<4>
本実施形態に係る呼吸音解析装置の他の態様では、前記任意の呼吸音の出力状態を音種毎に変更可能な変更手段を更に備える。
<4>
In another aspect of the breathing sound analysis device according to the present embodiment, the apparatus further includes a changing means capable of changing the output state of the arbitrary breathing sounds for each sound type.

この態様によれば、任意の呼吸音の出力状態(例えば、出力音量や画像の表示態様等)を音種毎に変更できるため、出力された任意の呼吸音をより好適に利用できる。例えば、呼吸音に含まれる特定の異常音だけ音量を大きくして出力することで、複数の呼吸音が混ざった状態でも、特定の異常音を聴き易い状態にできる。また、一度聴き易い状態にしてから再び通常の音量に戻しても、以降は聴きとり易い状態になるものと考えられる。よって、経験の浅い医師のトレーニング等にも有効に活用することができる。 According to this aspect, since the output state (for example, output volume, image display mode, etc.) of any breathing sound can be changed for each sound type, any outputted breathing sound can be used more suitably. For example, by increasing the volume and outputting only a specific abnormal sound included in the breathing sounds, it is possible to make the specific abnormal sound easier to hear even when a plurality of breathing sounds are mixed. Furthermore, even if the volume is set back to normal once it has been set to an easy-to-listen state, it is considered that the state will become easy-to-listen from then on. Therefore, it can be effectively used for training of inexperienced doctors.

<5>
上述した変更手段を更に備える態様では、前記変更手段は、前記任意の呼吸音の出力音量を音種毎に変更可能であってもよい。
<5>
In an embodiment further including the above-mentioned changing means, the changing means may be capable of changing the output volume of the arbitrary breathing sound for each sound type.

この場合、出力音量を音種毎に変更できるため、所望の呼吸音のみを聴き易い状態にするなどして、利便性を向上させることができる。 In this case, since the output volume can be changed for each sound type, convenience can be improved by making it easier to listen to only desired breathing sounds.

<6>
上述した出力音量を音種毎に変更可能な態様では、前記変更手段は、前記任意の呼吸音の出力音量を所定の周波数帯域毎に変更可能であってもよい。
<6>
In the aspect described above in which the output volume can be changed for each sound type, the changing means may be able to change the output volume of the arbitrary breathing sound for each predetermined frequency band.

この場合、音種毎の出力音量の変更をより詳細に行えるため、例えば所定の周波数帯域の出力音量だけを大きくして、所望の呼吸音を更に聴き易い状態にすることができる。なお、所定の周波数帯域は、分別される音種の特性等に応じて設定されればよい。 In this case, since the output volume for each sound type can be changed in more detail, for example, only the output volume of a predetermined frequency band can be increased to make it easier to hear the desired breathing sound. Note that the predetermined frequency band may be set according to the characteristics of the sound types to be classified.

<7>
或いは変更手段を更に備える態様では、前記変更手段は、前記任意の呼吸音を示す画像に対して音種毎に所定の画像処理を実行可能であってもよい。
<7>
Alternatively, in an embodiment further including a changing means, the changing means may be able to perform predetermined image processing for each sound type on the image showing the arbitrary breathing sound.

この場合、任意の呼吸音を示す画像(例えば、一種の呼吸音のみを抽出したスペクトログラム等)について、所定の画像処理を施し、視覚的に認識し易い状態を実現できる。所定の画像処理としては、例えば、色の変更(例えば、RGB調整)、二値化、エッジ検出等が挙げられる。 In this case, it is possible to perform predetermined image processing on an image showing arbitrary breathing sounds (for example, a spectrogram or the like in which only one type of breathing sound is extracted) so that the image can be easily recognized visually. Examples of the predetermined image processing include color change (for example, RGB adjustment), binarization, edge detection, and the like.

<8>
上述した画像処理を音種毎に実行可能な態様では、前記変更手段は、音種毎に前記所定の画像処理を実行した画像を、複数の音種で重ね合わせて出力可能であってもよい。
<8>
In an embodiment in which the above-described image processing can be performed for each sound type, the changing means may be capable of outputting images obtained by performing the predetermined image processing for each sound type by superimposing them for a plurality of sound types. .

この場合、別々に画像処理が施された音種毎の画像を複数重ね合わせて表示できるため、画像処理によって適切な態様で表示された複数の音種を1つの画像でまとめて認識でき、例えば複数の音種間での比較等を好適に行うことができる。 In this case, multiple images of each sound type that have been separately image-processed can be superimposed and displayed, so multiple sound types that have been displayed in an appropriate manner through image processing can be recognized together in one image. Comparisons between a plurality of sound types can be suitably performed.

<9>
本実施形態に係る呼吸音解析装置の他の態様では、前記分別手段は、呼吸音のスペクトルの所定の特徴に対応する周波数に関する情報を取得する取得手段と、前記呼吸音を分類する基準となる複数の基準スペクトルを、前記周波数に関する情報に応じてシフトさせ、周波数シフト基準スペクトルを取得するシフト手段と、前記呼吸音と前記周波数シフト基準スペクトルとに基づいて、前記呼吸音に含まれる前記複数の基準スペクトルの割合を出力する割合出力手段とを有する。
<9>
In another aspect of the breath sound analysis device according to the present embodiment, the classification means includes an acquisition means for acquiring information regarding a frequency corresponding to a predetermined feature of a spectrum of breath sounds, and a reference for classifying the breath sounds. a shifting means for shifting a plurality of reference spectra according to the information regarding the frequency to obtain a frequency-shifted reference spectrum; and ratio output means for outputting the ratio of the reference spectrum.

この態様によれば、分別手段において、先ず呼吸音のスペクトルの所定の特徴に対応する周波数に関する情報が取得される。なお、ここでの「所定の特徴」とは、生体音のスペクトルに含まれる音種に応じて特定の周波数に発生する特徴を意味しており、例えば周波数解析された信号に現れるピーク等である。更に、「周波数に関する情報」とは、周波数を直接的に示す情報に限定されず、その周波数を間接的に導き出すことができるような情報を含む趣旨である。 According to this aspect, the classification means first obtains information regarding frequencies corresponding to predetermined features of the spectrum of breath sounds. Note that the "predetermined feature" here refers to a feature that occurs at a specific frequency depending on the type of sound included in the spectrum of body sounds, such as a peak that appears in a frequency-analyzed signal. . Furthermore, "information regarding frequency" is not limited to information that directly indicates a frequency, but includes information that allows the frequency to be derived indirectly.

周波数に関する情報が取得されると、呼吸音を分類する基準となる複数の基準スペクトルが、周波数に関する情報に応じてシフトされ、周波数シフト基準スペクトルが取得される。なお、ここでの「基準スペクトル」とは、呼吸音に含まれる複数の音種(例えば、正常呼吸音や連続性ラ音、捻髪音等)を分類するために、各音種に応じて予め設定されたスペクトルである。基準スペクトルは、例えば呼吸音から取得された所定の特徴であるピーク位置等に応じて周波数シフトされ、周波数シフト基準スペクトルとされる。 When the information regarding the frequency is acquired, a plurality of reference spectra that serve as standards for classifying breath sounds are shifted according to the information regarding the frequency, and a frequency-shifted reference spectrum is acquired. Note that the "reference spectrum" here refers to a spectrum that is used to classify multiple sound types included in breathing sounds (for example, normal breathing sounds, continuous rales, crepitus sounds, etc.). This is a preset spectrum. The reference spectrum is frequency-shifted according to, for example, a peak position, which is a predetermined feature obtained from the breath sounds, and is used as a frequency-shifted reference spectrum.

周波数シフト基準スペクトルが取得されると、呼吸音と周波数シフト基準スペクトルとに基づいて、呼吸音に含まれる複数の基準スペクトルの割合が出力される。具体的には、解析対象である呼吸音に、複数の基準スペクトルに対応する音種がどのような割合で含まれているのかが算出され、その結果が出力される。より具体的には、例えば呼吸音のスペクトルに対して、複数の基準スペクトルを基底とする演算が実行されることで、基準スペクトルの割合が結合係数として算出される。 When the frequency-shifted reference spectrum is acquired, the ratio of the plurality of reference spectra included in the breathing sound is output based on the breathing sound and the frequency-shifted reference spectrum. Specifically, the ratio of sound types corresponding to a plurality of reference spectra included in the breath sound to be analyzed is calculated, and the result is output. More specifically, for example, a calculation based on a plurality of reference spectra is performed on the spectrum of a breathing sound, and the ratio of the reference spectra is calculated as a coupling coefficient.

以上の結果、本実施形態に係る分別手段によれば、複数の音種を含む呼吸音を好適に分別できる。本実施形態では特に、複数の呼吸音が同一の周波数軸上で混じり合っている場合においても、各音種の割合を好適に分別できる。 As a result of the above, according to the classification means according to the present embodiment, breath sounds including a plurality of sound types can be suitably classified. In this embodiment, in particular, even when a plurality of breath sounds are mixed on the same frequency axis, the proportion of each sound type can be suitably distinguished.

<10>
上述した周波数シフト基準スペクトルを用いる態様では、前記所定の特徴は、極大値であってもよい。
<10>
In the embodiment using the frequency-shifted reference spectrum described above, the predetermined feature may be a local maximum value.

この場合、例えば呼吸音を示す信号に対して、高速フーリエ変換(FFT:Fast Fourier Transform)等による周波数解析が実行され、解析結果の極大値(即ち、ピーク)に対応する周波数に関する情報が取得される。なお、周波数に関する情報は、極大値の位置に対応するものとして取得されるが、極大値の位置と完全に一致する周波数でなくとも、極大値の近傍位置に対応する周波数に関する情報として取得されてもよい。 In this case, for example, frequency analysis using fast Fourier transform (FFT) is performed on a signal indicating breathing sounds, and information regarding the frequency corresponding to the local maximum value (i.e., peak) of the analysis result is obtained. Ru. Note that information regarding the frequency is acquired as corresponding to the position of the local maximum value, but even if the frequency does not completely match the position of the local maximum value, it is acquired as information regarding the frequency corresponding to a position near the local maximum value. Good too.

上述したように、呼吸音のスペクトルの所定の特徴として極大値を利用することで、より容易且つ的確に周波数に関する情報を取得できる。 As described above, by using the maximum value as a predetermined feature of the spectrum of breath sounds, information regarding the frequency can be obtained more easily and accurately.

<11>
本実施形態に係る呼吸音解析方法は、呼吸音を正常音及び異常音に分別する分別工程と、前記分別した呼吸音のうち任意の呼吸音を出力する出力工程とを備える。
<11>
The breathing sound analysis method according to the present embodiment includes a classification step of classifying breathing sounds into normal sounds and abnormal sounds, and an outputting step of outputting any breath sounds among the classified breath sounds.

本実施形態に係る呼吸音解析方法によれば、上述した本実施形態に係る呼吸音解析装置と同様に、複数の音種を含む呼吸音を好適に解析できる。 According to the breathing sound analysis method according to this embodiment, similar to the above-described breathing sound analysis device according to this embodiment, it is possible to suitably analyze breathing sounds including a plurality of sound types.

なお、本実施形態に係る呼吸音解析方法においても、上述した本実施形態に係る呼吸音解析装置における各種態様と同様の各種態様を採ることが可能である。 Note that the breathing sound analysis method according to the present embodiment can also adopt various aspects similar to the various aspects of the breathing sound analysis device according to the present embodiment described above.

<12>
本実施形態に係るコンピュータプログラムは、呼吸音を正常音及び異常音に分別する分別工程と、前記分別した呼吸音のうち任意の呼吸音を出力する出力工程とをコンピュータに実行させる。
<12>
The computer program according to the present embodiment causes a computer to execute a classification step of classifying breathing sounds into normal sounds and abnormal sounds, and an output step of outputting any breathing sound among the classified breathing sounds.

本実施形態に係るコンピュータプログラムによれば、上述した本実施形態に係る呼吸音解析方法と同様の処理をコンピュータに実行させることができるため、複数の音種を含む呼吸音を好適に解析できる。 According to the computer program according to the present embodiment, it is possible to cause the computer to perform the same processing as the breathing sound analysis method according to the present embodiment described above, so that breathing sounds including a plurality of sound types can be suitably analyzed.

なお、本実施形態に係るコンピュータプログラムにおいても、上述した本実施形態に係る呼吸音解析装置における各種態様と同様の各種態様を採ることが可能である。 Note that the computer program according to the present embodiment can also adopt various aspects similar to the various aspects of the breath sound analysis device according to the present embodiment described above.

<13>
本実施形態に係る記録媒体は、上述したコンピュータプログラムが記録されている。
<13>
The computer program described above is recorded on the recording medium according to this embodiment.

本実施形態に係る記録媒体によれば、上述したコンピュータプログラムをコンピュータにより実行させることにより、複数の音種を含む呼吸音を好適に解析することが可能となる。 According to the recording medium according to the present embodiment, by causing a computer to execute the above-described computer program, it is possible to suitably analyze breathing sounds including a plurality of sound types.

本実施形態に係る呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体の作用及び他の利得については、以下に示す実施例において、より詳細に説明する。 The effects and other benefits of the breathing sound analysis device and the breathing sound analysis method, as well as the computer program and recording medium according to this embodiment will be explained in more detail in the examples shown below.

以下では、図面を参照して呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体の実施例について詳細に説明する。 Hereinafter, embodiments of a breathing sound analysis device, a breathing sound analysis method, a computer program, and a recording medium will be described in detail with reference to the drawings.

<全体構成>
先ず、本実施例に係る呼吸音解析装置の全体構成について、図1を参照して説明する。ここに図1は、本実施例に係る呼吸音解析装置の全体構成を示すブロック図である。
<Overall configuration>
First, the overall configuration of a breathing sound analysis device according to this embodiment will be described with reference to FIG. 1. FIG. 1 is a block diagram showing the overall configuration of a breathing sound analysis device according to this embodiment.

図1において、本実施例に係る呼吸音解析装置は、主な構成要素として、生体音センサ110と、信号記憶部120と、信号処理部125と、音声出力部130と、基底保持部140と、表示部150と、入力部160と、処理部200とを備えて構成されている。 In FIG. 1, the respiratory sound analysis device according to the present embodiment includes a body sound sensor 110, a signal storage section 120, a signal processing section 125, an audio output section 130, and a base holding section 140 as main components. , a display section 150, an input section 160, and a processing section 200.

生体音センサ110は、生体の呼吸音を検出可能に構成されたセンサである。生体音センサ110は、例えばECM(Electret Condenser Microphone)やピエゾを利用したマイク、振動センサ等で構成されている。 The body sound sensor 110 is a sensor configured to be able to detect the breathing sounds of a living body. The body sound sensor 110 includes, for example, an ECM (Electret Condenser Microphone), a piezo-based microphone, a vibration sensor, and the like.

信号記憶部120は、例えばRAM(Random Access Memory)等のバッファとして構成されており、生体音センサ110で検出された呼吸音を示す信号(以下、適宜「呼吸音信号」と称する)を一時的に記憶する。信号記憶部120は、記憶した信号を、音声出力部130及び処理部200に夫々出力可能に構成されている。 The signal storage unit 120 is configured as a buffer such as a RAM (Random Access Memory), and temporarily stores a signal indicating breathing sounds detected by the body sound sensor 110 (hereinafter referred to as a “breathing sound signal”). to be memorized. The signal storage unit 120 is configured to be able to output the stored signals to the audio output unit 130 and the processing unit 200, respectively.

信号処理部125は、生体音センサ110で取得した音を加工して音声出力部130に出力する。信号処理部125は、例えばイコライザーやフィルターとして機能し、取得した音を人が聴き易い状態に加工する。 The signal processing unit 125 processes the sound acquired by the body sound sensor 110 and outputs the processed sound to the audio output unit 130. The signal processing unit 125 functions, for example, as an equalizer or a filter, and processes the acquired sound into a state that is easy for people to listen to.

音声出力部130は、例えばスピーカーやヘッドフォンとして構成されており、生体音センサ110で検出され、信号処理部125で加工された呼吸音を出力する。 The audio output unit 130 is configured as, for example, a speaker or a headphone, and outputs the breathing sound detected by the body sound sensor 110 and processed by the signal processing unit 125.

基底保持部140は、例えばROM(Read Only Memory)等として構成されており、呼吸音に含まれ得る所定の音種に対応する基底を記憶している。なお、本実施例に係る基底は、本発明の「基準スペクトル」の一例である。 The base holding unit 140 is configured as, for example, a ROM (Read Only Memory), and stores bases corresponding to predetermined types of sounds that may be included in breath sounds. Note that the base according to this example is an example of the "reference spectrum" of the present invention.

表示部150は、例えば液晶モニタ等のディスプレイとして構成されており、処理部200から出力される画像データを表示する。 The display unit 150 is configured as, for example, a display such as a liquid crystal monitor, and displays image data output from the processing unit 200.

入力部160は、ユーザによる入力を受け付けるデバイスであり、例えばキーボード、マウス、タッチパネル、各種スイッチ等として構成されている。入力部160は、少なくとも出力すべき呼吸音を選択するための入力操作が可能なものとして構成されている。 The input unit 160 is a device that receives input from a user, and is configured as, for example, a keyboard, a mouse, a touch panel, various switches, and the like. The input unit 160 is configured to allow an input operation for selecting at least a breathing sound to be output.

処理部200は、複数の演算回路やメモリ等を含んで構成されている。処理部200は、周波数解析部210、周波数ピーク検出部220、基底集合生成部230、結合係数算出部240、信号強度算出部250、画像生成部260、及び呼吸音選択部270を備えている。 The processing unit 200 is configured to include a plurality of arithmetic circuits, memories, and the like. The processing section 200 includes a frequency analysis section 210, a frequency peak detection section 220, a basis set generation section 230, a coupling coefficient calculation section 240, a signal strength calculation section 250, an image generation section 260, and a breathing sound selection section 270.

処理部200の各部の動作については後に詳述する。 The operation of each part of the processing section 200 will be described in detail later.

<動作説明>
次に、本実施例に係る呼吸音解析装置の動作について、図2を参照して説明する。ここに図2は、本実施例に係る呼吸音解析装置の動作を示すフローチャートである。ここでは、本実施例に係る呼吸音解析装置が実行する処理の全体的な流れを把握するための簡単な説明を行う。各処理の詳細については、後述する。
<Operation explanation>
Next, the operation of the breathing sound analysis device according to this embodiment will be explained with reference to FIG. 2. FIG. 2 is a flowchart showing the operation of the breath sound analysis device according to this embodiment. Here, a brief explanation will be given to understand the overall flow of processing executed by the breathing sound analysis device according to this embodiment. Details of each process will be described later.

図2において、本実施例に係る呼吸音解析装置の動作時には、先ず生体音センサ110において呼吸音が検出され、処理部200による呼吸音信号の取得が行われる(ステップS101)。 In FIG. 2, when the breathing sound analysis device according to the present embodiment operates, first, breathing sounds are detected by the body sound sensor 110, and a breathing sound signal is acquired by the processing unit 200 (step S101).

呼吸音信号が取得されると、周波数解析部210において周波数解析(例えば、高速フーリエ変換)が実行される(ステップS102)。また、周波数ピーク検出部220において、周波数解析結果を用いてピーク(極大値)の検出が実行される。 When the breathing sound signal is acquired, frequency analysis (for example, fast Fourier transform) is performed in the frequency analysis unit 210 (step S102). Furthermore, the frequency peak detection unit 220 detects a peak (maximum value) using the frequency analysis result.

続いて、基底集合生成部230において基底集合が生成される(ステップS103)。具体的には、基底集合生成部230は、基底保持部140に記憶されている基底を用いて基底集合を生成する。この際、基底集合生成部230は、周波数解析結果から得られたピーク位置(即ち、対応する周波数)に基づいて、基底をシフトさせる。 Subsequently, a basis set is generated in the basis set generation unit 230 (step S103). Specifically, the basis set generating section 230 generates a basis set using the bases stored in the basis holding section 140. At this time, the basis set generation unit 230 shifts the basis based on the peak position (that is, the corresponding frequency) obtained from the frequency analysis result.

基底集合が生成されると、結合係数算出部240において、周波数解析結果及び基底集合に基づく結合係数の算出が実行される(ステップS104)。 Once the basis set is generated, the coupling coefficient calculation unit 240 calculates a coupling coefficient based on the frequency analysis result and the basis set (step S104).

結合係数が算出されると、信号強度算出部250において、結合係数に応じた信号強度が算出される(ステップS105)。言い換えれば、呼吸音信号に含まれる各音種の割合が算出される。 Once the coupling coefficient is calculated, the signal strength calculation unit 250 calculates the signal strength according to the coupling coefficient (step S105). In other words, the proportion of each sound type included in the breathing sound signal is calculated.

信号強度が算出されると、画像生成部260において、信号強度を示す画像データが生成される。生成された画像データは、表示部150において解析結果として表示される(ステップS106)。 Once the signal strength is calculated, the image generation unit 260 generates image data indicating the signal strength. The generated image data is displayed as an analysis result on the display unit 150 (step S106).

解析結果表示後は、ユーザによって出力すべき音種が入力されると(ステップS107:YES)、呼吸音選択部270により出力すべき呼吸音が選択され、選択された音種が音声出力部130又は表示部150に出力される(ステップS108)。 After displaying the analysis results, when the user inputs the sound type to be output (step S107: YES), the breathing sound selection unit 270 selects the breathing sound to be output, and the selected sound type is output to the audio output unit 130. Alternatively, it is output to the display unit 150 (step S108).

その後、解析処理を継続するか否かの判定が実行される(ステップS109)。解析処理を継続すると判定された場合(ステップS109:YES)、ステップS101からの処理が再び実行される。解析処理を継続しないと判定された場合(ステップS109:NO)、一連の処理は終了する。 Thereafter, a determination is made as to whether or not to continue the analysis process (step S109). If it is determined that the analysis process is to be continued (step S109: YES), the process from step S101 is executed again. If it is determined not to continue the analysis process (step S109: NO), the series of processes ends.

<呼吸音信号の具体例>
次に、本実施例に係る呼吸音解析装置で解析される呼吸音信号の具体例について、図3及び図4を参照して説明する。ここに図3は、捻髪音を含む呼吸音の周波数解析結果を示すスペクトログラム図であり、図4は、笛声音を含む呼吸音の周波数解析結果を示すスペクトログラム図である。
<Specific example of breathing sound signal>
Next, a specific example of a breathing sound signal analyzed by the breathing sound analysis apparatus according to this embodiment will be described with reference to FIGS. 3 and 4. FIG. 3 is a spectrogram diagram showing the frequency analysis results of breathing sounds including crepitus sounds, and FIG. 4 is a spectrogram diagram showing the frequency analysis results of breathing sounds including whistling sounds.

図3に示す例では、正常呼吸音に対応するスペクトログラムパターンに加えて、異常呼吸音の1つである捻髪音に対応するスペクトログラムパターンが観測されている。捻髪音に対応するスペクトログラムパターンは、図中の拡大部分に示すように、菱形に近い形状である。 In the example shown in FIG. 3, in addition to the spectrogram pattern corresponding to normal breathing sounds, a spectrogram pattern corresponding to crepitus sound, which is one of abnormal breathing sounds, is observed. The spectrogram pattern corresponding to the crepitus sound has a shape close to a rhombus, as shown in the enlarged part in the figure.

図4に示す例では、正常呼吸音に対応するスペクトログラムパターンに加えて、異常呼吸音の1つである笛声音に対応するスペクトログラムパターンが観測されている。笛声音に対応するスペクトログラムパターンは、図中の拡大部分に示すように、白鳥の首のような形状である。 In the example shown in FIG. 4, in addition to the spectrogram pattern corresponding to normal breathing sounds, a spectrogram pattern corresponding to a whistling sound, which is one of abnormal breathing sounds, is observed. The spectrogram pattern corresponding to the whistle sound is shaped like a swan's neck, as shown in the enlarged part of the figure.

このように、異常呼吸音には複数の音種が存在し、その音種によって異なる形状のスペクトログラムパターンとして観測される。ただし、図を見ても分かるように、正常呼吸音及び異常呼吸音は互いに混じり合った状態で検出される。本実施例に係る呼吸音解析装置は、このように混じり合った複数の音種を分離するための解析を実行する。 In this way, there are multiple types of abnormal breathing sounds, and spectrogram patterns with different shapes are observed depending on the type of sound. However, as can be seen from the figure, normal breathing sounds and abnormal breathing sounds are detected in a mixed state. The breathing sound analysis device according to this embodiment performs an analysis for separating a plurality of sound types mixed together in this way.

<呼吸音信号の近似方法>
次に、本実施例に係る呼吸音解析装置による解析方法について、図5から図8を参照して簡単に説明する。ここに図5は、捻髪音を含む呼吸音の所定タイミングにおけるスペクトルを示すグラフであり、図6は、捻髪音を含む呼吸音のスペクトルの近似方法を示す概念図である。また図7は、笛声音を含む呼吸音の所定タイミングにおけるスペクトルを示すグラフであり、図8は、笛声音を含む呼吸音のスペクトルの近似方法を示す概念図である。
<Method of approximating breathing sound signals>
Next, an analysis method using the breath sound analysis apparatus according to this embodiment will be briefly described with reference to FIGS. 5 to 8. FIG. 5 is a graph showing a spectrum of a breathing sound including a crepitus sound at a predetermined timing, and FIG. 6 is a conceptual diagram showing a method of approximating the spectrum of a breathing sound including a crepitus sound. Further, FIG. 7 is a graph showing a spectrum of a breathing sound including a whistling sound at a predetermined timing, and FIG. 8 is a conceptual diagram showing a method of approximating the spectrum of a breathing sound including a whistling sound.

図5において、捻髪音を含む呼吸音信号(図3参照)について、捻髪音に対応するスペクトログラムパターンが強く現れているタイミングでスペクトルを抽出すると、図に示すような結果が得られる。このスペクトルは、正常呼吸音と捻髪音とを含んでいると考えられる。 In FIG. 5, when a spectrum is extracted from a breathing sound signal (see FIG. 3) that includes a crepitus sound at a timing when a spectrogram pattern corresponding to a crepitus sound appears strongly, the result shown in the figure is obtained. This spectrum is considered to include normal breathing sounds and crepitus sounds.

図6において、正常呼吸音に対応するスペクトル及び捻髪音に対応するスペクトルは、予め実験等により推定できる。このため、予め推定したパターンを利用すれば、上述したスペクトルについて、正常呼吸音に対応する成分と捻髪音に対応する成分とがどのような割合で含まれているかを知ることができる。 In FIG. 6, the spectrum corresponding to normal breathing sounds and the spectrum corresponding to crepitus sounds can be estimated in advance through experiments or the like. Therefore, by using the pre-estimated pattern, it is possible to know in what proportion the above-mentioned spectrum contains components corresponding to normal breathing sounds and components corresponding to crepitation sounds.

図7において、笛声音を含む呼吸音信号(図4参照)について、笛声音に対応するスペクトログラムパターンが強く現れているタイミングでスペクトルを抽出すると、図に示すような結果が得られる。このスペクトルは、正常呼吸音と笛声音とを含んでいると考えられる。 In FIG. 7, when a spectrum is extracted from a breathing sound signal (see FIG. 4) that includes a whistling sound at a timing when a spectrogram pattern corresponding to a whistling sound appears strongly, the result shown in the figure is obtained. This spectrum is considered to include normal breathing sounds and whistling sounds.

図8において、上述した正常呼吸音及び捻髪音と同様に、笛声音に対応するスペクトルについても、予め実験等により推定できる。このため、予め推定したパターンを利用すれば、上述したスペクトルについて、正常呼吸音に対応する成分と笛声音に対応する成分とがどのような割合で含まれているかを知ることができる。 In FIG. 8, similarly to the normal breathing sounds and crepitus sounds described above, the spectrum corresponding to the whistling sound can also be estimated in advance through experiments or the like. Therefore, by using the pre-estimated pattern, it is possible to know the proportion of components corresponding to normal breathing sounds and components corresponding to whistling sounds included in the above-mentioned spectrum.

以下では、このような解析を実現するための各処理について、より具体的に説明する。 Below, each process for realizing such analysis will be explained in more detail.

<周波数解析>
呼吸音信号の周波数解析及び解析結果におけるピークの検出について、図9から図11を参照して詳細に説明する。ここに図9は、周波数解析方法の一例を示すグラフであり、図10は、周波数解析結果の一例を示す図である。また図11は、スペクトルのピーク検出結果を示す概念図である。
<Frequency analysis>
Frequency analysis of breathing sound signals and detection of peaks in the analysis results will be described in detail with reference to FIGS. 9 to 11. FIG. 9 is a graph showing an example of a frequency analysis method, and FIG. 10 is a diagram showing an example of a frequency analysis result. Further, FIG. 11 is a conceptual diagram showing the result of spectrum peak detection.

図9において、取得された呼吸音信号に対しては、先ず周波数解析が実行される。周波数は、高速フーリエ変換等の既存の技術を利用して行うことができる。本実施例では、周波数毎の振幅値(即ち、振幅スペクトル)を周波数解析結果として用いている。なお、データ取得時のサンプリング周波数、窓サイズ、窓関数(例えば、ハニング窓等)については、適宜決定すればよい。 In FIG. 9, frequency analysis is first performed on the acquired breathing sound signal. Frequency determination can be performed using existing techniques such as fast Fourier transform. In this embodiment, the amplitude value for each frequency (ie, amplitude spectrum) is used as the frequency analysis result. Note that the sampling frequency, window size, and window function (for example, Hanning window, etc.) at the time of data acquisition may be determined as appropriate.

図10に示すように、周波数解析結果は、n個の値で構成されるものとして得られる。なお、「n」は、周波数解析における窓サイズ等によって決まる値である。 As shown in FIG. 10, the frequency analysis result is obtained as being composed of n values. Note that "n" is a value determined by the window size and the like in frequency analysis.

図11において、周波数解析によって得られたスペクトルについては、ピークの検出が実行される。図に示す例では、100Hz、130Hz、180Hz,及び320Hzの位置にピークp1~p4が検出されている。なお、ピークの検出処理については、どの周波数にピークが存在するかだけわかればよいため、簡易的な処理でも構わない。ただし、小さなピークでも取りこぼしがないよう、ピーク検出のパラメータ設定されていることが好ましい。 In FIG. 11, peak detection is performed on the spectrum obtained by frequency analysis. In the example shown in the figure, peaks p1 to p4 are detected at positions of 100 Hz, 130 Hz, 180 Hz, and 320 Hz. Note that the peak detection process may be a simple process since it is only necessary to know at which frequency the peak exists. However, it is preferable to set peak detection parameters so that even small peaks are not missed.

本実施例では、極大値を取る点を求め、更にその点の2階微分値の小さいもの(即ち、絶対値が大きいもの)から順に最大N個(Nは所定の値)を検出している。極大値は、差分の符号が正から負に切り替わる点から求められる。2階微分値は差分の差分で近似する。この値が所定の閾値(負の値)より小さいものを、小さいものから順に最大N個選び、その位置を記憶する。 In this embodiment, a point having a maximum value is found, and a maximum of N points (N is a predetermined value) are detected in order from the smallest second-order differential value (that is, the largest absolute value) of that point. . The maximum value is determined from the point where the sign of the difference changes from positive to negative. The second-order differential value is approximated by the difference of differences. A maximum of N items whose values are smaller than a predetermined threshold (negative value) are selected in descending order of value, and their positions are stored.

<基底集合の生成>
次に、基底集合の生成について、図12から図16を参照して詳細に説明する。ここに図12は、正常肺胞呼吸音基底を示すグラフである。また図13は、捻髪音基底を示すグラフであり、図14は、連続性ラ音基底を示すグラフであり、図15は、ホワイトノイズ基底を示すグラフである。図16は、周波数シフトされた連続性ラ音基底を示すグラフである。
<Generation of basis set>
Next, generation of the basis set will be described in detail with reference to FIGS. 12 to 16. FIG. 12 is a graph showing the basis of normal alveolar breath sounds. Further, FIG. 13 is a graph showing the crepitus base, FIG. 14 is a graph showing the continuous rales base, and FIG. 15 is a graph showing the white noise base. FIG. 16 is a graph showing a frequency-shifted continuous rales basis.

図12から図15に示すように、各音種に対応する基底は、特有の形状を有している。なお、各基底は周波数解析結果と同じn個の数値(即ち、周波数ごとの振幅値)で構成されている。なお、各基底は、周波数毎の振幅値を示す線と周波数軸とで囲まれた面積が所定の値(例えば1)になるように正規化されている。 As shown in FIGS. 12 to 15, the base corresponding to each tone type has a unique shape. Note that each base is composed of n numerical values (ie, amplitude values for each frequency), which are the same as the frequency analysis results. Note that each base is normalized so that the area surrounded by the line indicating the amplitude value for each frequency and the frequency axis becomes a predetermined value (for example, 1).

ちなみに、ここでは正常肺胞呼吸音基底、捻髪音基底、連続性ラ音基底、ホワイトノイズ基底の4つの基底を示しているが、1つの基底しかない場合でも解析を実行することができる。また、ここで挙げた基底以外の基底を用いることもできる。なお、ここで挙げた呼吸音に対応する基底に代えて、例えば心拍音や腸音に対応する基底を用いれば、心拍音や腸音の解析を実行することが可能となる。 Incidentally, although four bases are shown here: normal alveolar breath sound base, crepitus base, continuous rales base, and white noise base, analysis can be performed even if there is only one base. Furthermore, bases other than those listed here can also be used. Note that if, for example, a basis corresponding to heartbeat sounds or bowel sounds is used instead of the basis corresponding to the breath sounds mentioned here, it becomes possible to analyze the heartbeat sounds or bowel sounds.

図16において、上述した基底のうち連続性ラ音に対応する基底は、周波数解析の結果から検出されたピーク位置に合わせて周波数シフトされる。ここでは、図11で示したピークp1~p4の各々に合わせて、連続性ラ音基底を周波数シフトさせた例を示している。なお、連続性ラ音に対応する基底以外の基底を周波数シフトさせてもよい。 In FIG. 16, among the bases described above, the base corresponding to continuous rales is frequency-shifted in accordance with the peak position detected from the result of frequency analysis. Here, an example is shown in which the frequency of the continuous rales basis is shifted in accordance with each of the peaks p1 to p4 shown in FIG. 11. Note that bases other than those corresponding to continuous rales may be frequency shifted.

以上の結果、基底集合は、正常肺胞呼吸音基底、捻髪音基底、ピーク検出個数分の連続性ラ音基底、及びホワイトノイズ基底の集合として生成される。 As a result of the above, the base set is generated as a set of normal alveolar breath sound bases, crepitus sound bases, continuous rales bases corresponding to the number of detected peaks, and white noise bases.

<結合係数の算出>
次に、結合係数の算出について、図17から図19を参照して詳細に説明する。ここに図17は、スペクトルと、基底及び結合係数との関係を示す図であり、図18は、観測されたスペクトル及び近似に用いられる基底の一例を示す図である。また図19は、非負値行列因子分解による近似結果を示す図である。
<Calculation of coupling coefficient>
Next, calculation of the coupling coefficient will be explained in detail with reference to FIGS. 17 to 19. FIG. 17 is a diagram showing the relationship between a spectrum, a basis, and a coupling coefficient, and FIG. 18 is a diagram showing an example of an observed spectrum and a basis used for approximation. Further, FIG. 19 is a diagram showing the approximation result by non-negative matrix factorization.

解析対象であるスペクトルy、基底h(f)、及び結合係数uの関係は、以下の数式(1)で表すことができる。 The relationship between the spectrum y to be analyzed, the base h(f), and the coupling coefficient u can be expressed by the following equation (1).

図17に示すように、スペクトルy及び各基底h(f)は、n個の値を有している。他方、結合係数は、m個の値を有している。なお、「m」は、基底集合に含まれる基底の数である。 As shown in FIG. 17, the spectrum y and each basis h(f) have n values. On the other hand, the coupling coefficient has m values. Note that "m" is the number of bases included in the base set.

本実施例に係る呼吸音解析装置では、非負値行列因子分解を利用して基底集合に含まれる各基底の結合係数を算出する。具体的には、以下の数式(2)で示される最適化基準関数Dを最小化するu(ただし、uの各成分値は非負)を求めればよい。 The breathing sound analysis device according to this embodiment uses non-negative matrix factorization to calculate the coupling coefficient of each basis included in the basis set. Specifically, what is necessary is to find u (however, each component value of u is non-negative) that minimizes the optimization criterion function D shown by the following equation (2).

なお、一般的な非負値行列因子分解は、基底スペクトルの集合を表す基底行列と、結合係数を表すアクティベーション行列を共に算出する手法であるが、本実施例においては、基底行列を固定して結合係数のみを算出している。 Note that general non-negative matrix factorization is a method of calculating both a basis matrix representing a set of basis spectra and an activation matrix representing a coupling coefficient, but in this example, the basis matrix is fixed and Only the coupling coefficient is calculated.

ちなみに、結合係数を算出するための手段として、非負値行列因子分解以外の近似法を用いてもよい。ただし、この場合においても非負であるという条件が望まれる。以下では、非負の近似法を用いる理由について、具体例を挙げて説明する
図18に示すように、観測されたスペクトルを、基底A~Dの4つの基底で近似して結合係数を算出する場合を考える。なお、非負であることを条件とした場合の期待する結合係数uは、基底Aに対応するものが1、基底Bに対応するものが1、基底Cに対応するものが0、基底Dに対応するもの0である。即ち、非負であることを条件とした場合、観測されたスペクトルは、基底Aに1を乗じたものと、基底Bに1を乗じたものとを足し合わせたスペクトルとして近似される。
Incidentally, as a means for calculating the coupling coefficient, an approximation method other than non-negative matrix factorization may be used. However, even in this case, the condition of non-negativeness is desired. Below, we will explain the reason for using the non-negative approximation method using a specific example. As shown in Figure 18, when the coupling coefficient is calculated by approximating the observed spectrum using four bases A to D. think of. Note that the expected coupling coefficient u under the condition that it is non-negative is 1 for base A, 1 for base B, 0 for base C, and 0 for base D. There is nothing to do. That is, when the condition is non-negative, the observed spectrum is approximated as a spectrum obtained by adding base A multiplied by 1 and base B multiplied by 1.

一方、非負であることを条件としない場合の期待する結合係数uは、基底Aに対応するものが0、基底Bに対応するものが0、基底Cに対応するものが1、基底Dに対応するものが-0.5である。即ち、非負であることを条件としない場合、観測されたスペクトルは、基底Cに1を乗じたものと、基底Dに-0.5を乗じたものとを足し合わせたスペクトルとして近似される。 On the other hand, when non-negativeness is not a condition, the expected coupling coefficient u is 0 for base A, 0 for base B, 1 for base C, and 1 for base D. The one that does is -0.5. That is, when non-negativeness is not a condition, the observed spectrum is approximated as a spectrum obtained by adding base C multiplied by 1 and base D multiplied by -0.5.

上述した2つの例を比較した場合、非負であることを条件とする場合よりも、非負であることを条件としない場合の方が高い近似精度を得られることがある。しかしながら、ここでの結合係数uはスペクトルごとの成分量を表すものであるため、非負の値として得られなければならない。言い換えれば、結合係数uが負の値で得られた場合には、成分量としての解釈ができない。これに対し、非負の条件を課して近似を行えば、成分量に対応する結合係数uを算出することができる。 When comparing the two examples described above, higher approximation accuracy may be obtained when non-negativeness is not a condition than when non-negativeness is a condition. However, since the coupling coefficient u here represents the amount of components for each spectrum, it must be obtained as a non-negative value. In other words, if the coupling coefficient u is obtained as a negative value, it cannot be interpreted as a component amount. On the other hand, if the approximation is performed by imposing a non-negative condition, it is possible to calculate the coupling coefficient u corresponding to the component amount.

図19において、本実施例に係る生体解析装置では、上述したように、正常肺胞呼吸音基底、捻髪音基底、4つの連続性ラ音基底、及びホワイトノイズ基底からなる基底集合を用いて結合係数uを算出するため、結合係数uは、uからuの7個の値を有するものとして算出される。 In FIG. 19, the biological analysis device according to this embodiment uses a basis set consisting of a normal alveolar breath sound base, a crepitus base, four continuous rales bases, and a white noise base, as described above. In order to calculate the coupling coefficient u, the coupling coefficient u is calculated as having seven values from u 1 to u 7 .

ここで、正常肺胞呼吸音基底に対応する結合係数uは、呼吸音に対する正常肺胞呼吸音の割合を示す値であると言える。同様に、捻髪音基底に対応する結合係数u、ホワイトノイズ基底に対応する結合係数u、100Hzにシフトした連続性ラ音基底に対応する結合係数u、130Hzにシフトした連続性ラ音基底に対応する結合係数u、180Hzにシフトした連続性ラ音基底に対応する結合係数u、及び320Hzにシフトした連続性ラ音基底に対応する結合係数uの各々についても、呼吸音に対する各音種の割合を示す値であると言える。従って、結合係数uから各音種の信号強度を算出することができる。 Here, the coupling coefficient u 1 corresponding to the normal alveolar breath sound base can be said to be a value indicating the ratio of normal alveolar breath sounds to the breath sounds. Similarly, the coupling coefficient u 2 corresponds to the crepitation base, the coupling coefficient u 3 corresponds to the white noise base, the coupling coefficient u 4 corresponds to the continuous rales base shifted to 100 Hz, and the coupling coefficient u 4 corresponds to the continuous rales base shifted to 130 Hz. For each of the coupling coefficient u 5 corresponding to the sound base, the coupling coefficient u 6 corresponding to the continuous rales base shifted to 180 Hz, and the coupling coefficient u 7 corresponding to the continuous rales base shifted to 320 Hz, the breathing It can be said that this value indicates the ratio of each sound type to the sound. Therefore, the signal strength of each tone type can be calculated from the coupling coefficient u.

以上のように、本実施例では、各音種に対応する複数の基底を利用して呼吸音に含まれる複数の音種を分別する。ただし、上述した分別方法はあくまで一例であり、他の分別方法を用いて複数の音種を分別しても構わない。 As described above, in this embodiment, a plurality of sound types included in breath sounds are classified using a plurality of bases corresponding to each sound type. However, the above-described classification method is just an example, and other classification methods may be used to classify a plurality of sound types.

<分別方法の変形例>
以下では、既に説明した複数の基底を利用する分別方法以外の分別方法について、いくつか例を挙げて説明する。
<Modified example of separation method>
In the following, several examples will be described of classification methods other than the classification method using a plurality of bases as described above.

<第1変形例>
先ず、第1変形例に係る分別方法について、図20及び図21を参照して説明する。ここに図20及び図21は夫々、第1変形例に係る連続性ラ音の分別方法を示す概念図である。
<First modification example>
First, the separation method according to the first modification will be described with reference to FIGS. 20 and 21. Here, FIGS. 20 and 21 are conceptual diagrams showing a continuous rales classification method according to the first modification.

第1変形例に係る分別方法では、呼吸音を連続性ラ音とそれ以外の音に分別する。具体的には、呼吸音信号の周波数解析結果から検出されるピーク周波数が、所定の範囲内で変動している場合に連続性ラ音であると判定する。 In the classification method according to the first modification, breathing sounds are classified into continuous rales and other sounds. Specifically, if the peak frequency detected from the frequency analysis result of the breathing sound signal fluctuates within a predetermined range, it is determined that it is a continuous rales.

図20に示すように、連続性ラ音である笛声音や類鼾音は、時間軸上で連続して検出されるピークの位置が所定の範囲内に収まるように変動する。言い換えれば、ピーク周波数が時間的に連続性を有するように変化する。よって、連続するピーク位置が所定の範囲内にある場合には、その音が連続性ラ音であると判別できる。 As shown in FIG. 20, the continuous rales such as whistle sounds and snoring sounds vary so that the positions of peaks detected continuously on the time axis fall within a predetermined range. In other words, the peak frequency changes temporally with continuity. Therefore, if consecutive peak positions are within a predetermined range, it can be determined that the sound is a continuous rales.

他方、図21に示すように、連続性ラ音以外の音は、時間軸上で連続して検出されるピークの位置が所定の範囲内に収まらないように変動する。言い換えれば、ピーク周波数が時間的な連続性を有さず離散的に変化する。よって、連続するピーク位置が所定の範囲内でない場合には、その音が連続性ラ音でないと判別できる。 On the other hand, as shown in FIG. 21, sounds other than continuous rales fluctuate so that the positions of peaks detected continuously on the time axis do not fall within a predetermined range. In other words, the peak frequency has no temporal continuity and changes discretely. Therefore, if the successive peak positions are not within a predetermined range, it can be determined that the sound is not a continuous rales.

なお、連続性ラ音の判定には、複数回の判定結果を用いることもできる。具体的には、時間軸上で連続して検出されるピークの位置が所定の範囲内に収まるように変動している回数が所定回数以上継続した場合に、その音が連続性ラ音であると判定するようにしてもよい。 Note that a plurality of determination results can also be used to determine continuous rales. Specifically, if the position of peaks detected continuously on the time axis fluctuates within a predetermined range for a predetermined number of times or more, the sound is considered to be a continuous rales. It may be determined that

<第2変形例>
次に、第2変形例に係る分別方法について、図22を参照して説明する。ここに図22は、第2変形例に係る笛声音と類鼾音との分別に用いる閾値を示すグラフである。
<Second modification example>
Next, a separation method according to a second modification will be described with reference to FIG. 22. Here, FIG. 22 is a graph showing the threshold values used to distinguish between whistling sounds and snoring sounds according to the second modification.

第2変形例に係る分別方法では、連続性ラ音を笛声音と類鼾音とに分別する。ここで、笛声音は高音性連続性ラ音、類鼾音は低音性連続性ラ音と呼ばれるように、笛声音と類鼾音とは音の高さ(即ち、周波数)で判別することが可能である。しかしながら、笛声音及び類鼾音は、ピーク周波数が時間的に変化する。このため、ピーク周波数に対する単一の閾値(即ち、値が変動しない一つの閾値)を利用して笛声音及び類鼾音を判定しようとすると、時間の経過により、判定結果が変化してしまうことがある。例えば、ピーク周波数が判定閾値を跨ぐように変化してしまうと、それまでは正確に判定されていたものが、誤った音種として判定されることになってしまう。このため第2変形例では、ピーク周波数に応じて判定閾値を変動させる。 In the classification method according to the second modification, continuous rales are classified into whistling sounds and snoring sounds. Here, whistle sounds and snoring sounds can be distinguished by their pitch (i.e., frequency), so that whistle sounds are called high-pitched continuous rales, and snoring sounds are called low-pitched continuous rales. It is possible. However, the peak frequency of whistling sounds and snoring sounds changes over time. Therefore, if you try to judge whistling sounds and snoring sounds using a single threshold value for the peak frequency (i.e., one threshold value that does not fluctuate), the judgment results may change over time. There is. For example, if the peak frequency changes so as to straddle the determination threshold, what was previously determined accurately will be determined to be an incorrect sound type. Therefore, in the second modification, the determination threshold value is varied depending on the peak frequency.

図22に示すように、第2変形例に係る分別方法では、笛声音と判定する割合及び類鼾音と判定する割合がピーク周波数に応じてなめらかに変化するように閾値が変動する。例えば、ピーク周波数が200Hzの場合には、笛声音が7%含まれ、類鼾音が93%含まれると判定する。ピーク周波数が250Hzの場合には、笛声音が50%含まれ、類鼾音が50%含まれると判定する。ピーク周波数が280Hzの場合には、笛声音が78%含まれ、類鼾音が22%含まれると判定する。なお、ここでの具体的な数値はあくまで一例であり、異なる値を設定してもよい。また、測定対象である生体の性別、年齢、身長、体重等によって異なる変動特性を有するようにしてもよい。 As shown in FIG. 22, in the classification method according to the second modification, the threshold value is varied such that the proportion determined to be a whistling sound and the proportion determined to be a snoring sound smoothly change according to the peak frequency. For example, when the peak frequency is 200 Hz, it is determined that 7% of whistle sounds are included and 93% of snoring sounds are included. When the peak frequency is 250 Hz, it is determined that 50% of whistle sounds and 50% of snoring sounds are included. When the peak frequency is 280 Hz, it is determined that 78% of whistle sounds are included and 22% of snoring sounds are included. Note that the specific numerical values here are just examples, and different values may be set. Further, the variation characteristics may vary depending on the sex, age, height, weight, etc. of the living body to be measured.

上述した変動する閾値を利用することで、ピーク周波数の変動に起因する誤判定を好適に防止することができる。即ち、第2変形例に係る分別方法では、笛声音及び類鼾音を判定するための閾値がピーク周波数に応じて適切な値にとなるよう変動するため、例えば変動しない単一の閾値を用いる場合と比較して、より正確な分別が行える。 By using the above-mentioned fluctuating threshold value, it is possible to suitably prevent erroneous determinations caused by fluctuations in peak frequency. That is, in the classification method according to the second modification, the threshold value for determining whistling sounds and snoring sounds changes to an appropriate value according to the peak frequency, and therefore, for example, a single threshold value that does not change is used. This allows for more accurate separation compared to the conventional method.

<第3変形例>
次に、第3変形例に係る分別方法について、図23から図25を参照して説明する。ここに図23は、第3変形例に係る笛声音と類鼾音との分別に用いる閾値の初期値を示すグラフである。また図24及び図25は夫々、第3変形例に係る笛声音と類鼾音との分別に用いる閾値の調整後の値を示すグラフである。
<Third modification example>
Next, a separation method according to a third modification will be described with reference to FIGS. 23 to 25. Here, FIG. 23 is a graph showing the initial value of the threshold value used to distinguish between the whistling sound and the snoring sound according to the third modification. Moreover, FIGS. 24 and 25 are graphs showing the adjusted values of the threshold values used to distinguish between whistle sounds and snoring sounds according to the third modification.

第3変形例に係る分別方法も、既に説明した第2変形例と同様に、連続性ラ音を笛声音と類鼾音とに分別する方法である。また、周波数解析結果から得られたピーク周波数に対する閾値を用いて判定する点についても、第2変形例と同様である。 The classification method according to the third modification is also a method of classifying continuous rales into whistling sounds and snoring sounds, similar to the already explained second modification. Furthermore, the second modified example is also similar to the second modified example in that the determination is made using a threshold value for the peak frequency obtained from the frequency analysis result.

図23に示すように、第3変形例に係る分別方法では、閾値である250Hzを境にして判定結果が変化するものとして設定されている。具体的には、ピーク周波数が250Hz以上である場合には、連続性ラ音は笛声音成分を100%含んでおり、類鼾音は含んでいないと判定される。一方、ピーク周波数が250Hz未満である場合には、連続性ラ音は類鼾音成分を100%含んでおり、笛声音は含んでいないと判定される。 As shown in FIG. 23, in the classification method according to the third modification, the determination result is set to change at a threshold of 250 Hz. Specifically, when the peak frequency is 250 Hz or more, it is determined that the continuous rales contain 100% whistle sound components and do not contain rhonal sounds. On the other hand, if the peak frequency is less than 250 Hz, it is determined that the continuous rales contain 100% rhonchitic components and do not contain whistling sounds.

図24に示すように、第3変形例に係る分別方法では、直前の判定において笛声音成分を100%含むものであると判定された場合、閾値が250Hzから220Hzへと低くされる。よって、笛声音成分を100%含むものとして判定され易くなる。具体的には、ピーク周波数が230Hzの場合を考えると、初期の閾値(図23参照)によれば類鼾音と判定されることになるが、調整後の閾値(図24参照)によれば笛声音と判定される。 As shown in FIG. 24, in the classification method according to the third modification, if it is determined in the previous determination that the sound contains 100% of the whistling sound component, the threshold value is lowered from 250 Hz to 220 Hz. Therefore, it is easier to determine that the sound contains 100% of the whistle sound component. Specifically, if we consider the case where the peak frequency is 230Hz, it will be determined to be a sonarous sound according to the initial threshold value (see Figure 23), but according to the adjusted threshold value (see Figure 24) It is determined to be a whistling sound.

図25に示すように、第3変形例に係る分別方法では、直前の判定において類鼾音成分を100%含むものであると判定された場合、閾値が250Hzから280Hzへと高くされる。よって、類鼾音成分を100%含むものとして判定され易くなる。具体的には、ピーク周波数が270Hzの場合を考えると、初期の閾値(図23参照)によれば笛声音と判定されることになるが、調整後の閾値(図25参照)によれば類鼾音と判定される。 As shown in FIG. 25, in the classification method according to the third modification, if it is determined in the previous determination that the sound contains 100% of the rhinocerosal component, the threshold value is increased from 250 Hz to 280 Hz. Therefore, it is easier to determine that the sound contains 100% snoring sound components. Specifically, if we consider the case where the peak frequency is 270Hz, it will be determined to be a whistling sound according to the initial threshold value (see Figure 23), but it will be determined to be a similar sound according to the adjusted threshold value (see Figure 25). The sound is determined to be snoring.

上述したように閾値を調整すれば、ピーク周波数の変動に起因する誤判定を好適に防止することができる。即ち、第3変形例に係る分別方法では、笛声音及び類鼾音を判定するための閾値が過去の判定結果に基づいて適切なものへと調整されるため、例えば調整されない単一の閾値を用いる場合と比較して、より正確な判定が行える。 By adjusting the threshold as described above, it is possible to suitably prevent erroneous determinations caused by fluctuations in peak frequency. That is, in the classification method according to the third modification, the threshold values for determining whistle sounds and snoring sounds are adjusted to appropriate ones based on past determination results. More accurate judgments can be made compared to when using this method.

なお、閾値の調整は、直前の判定結果だけによらず、複数回の過去の判定結果に基づいて行われてもよい。また、複数回の過去の判定結果を利用する場合は、各判定結果に対して重み付けを行ってもよい。例えば、過去の判定結果であるほど影響が小さくなるように重み付けをおこなってもよい。また、調整する閾値の初期値として、第2変形例のなめらかな閾値を用いてもよい(図22参照)。 Note that the threshold value may be adjusted based not only on the immediately previous determination result but also on a plurality of past determination results. Furthermore, when using multiple past determination results, each determination result may be weighted. For example, weighting may be performed such that the more past the determination result, the smaller the influence. Furthermore, the smooth threshold value of the second modified example may be used as the initial value of the threshold value to be adjusted (see FIG. 22).

<第4変形例>
次に、第3変形例に係る分別方法について、図26から図26を参照して説明する。ここに図26は、笛声音を含む呼吸音のスペクトログラム図であり、図27は、笛声音のピーク周波数及びピーク数を示すグラフである。また図28は、類鼾音を含む呼吸音のスペクトログラム図であり、図29は、類鼾音のピーク周波数及びピーク数を示すグラフである。
<Fourth variation>
Next, a separation method according to a third modification will be described with reference to FIGS. 26 to 26. FIG. 26 is a spectrogram diagram of breathing sounds including whistling sounds, and FIG. 27 is a graph showing the peak frequency and number of peaks of the whistling sounds. Further, FIG. 28 is a spectrogram diagram of breathing sounds including snoring sounds, and FIG. 29 is a graph showing the peak frequency and peak number of snoring sounds.

第4変形例に係る分別方法も、既に説明した第2及び第3変形例と同様に、連続性ラ音を笛声音と類鼾音とに分別する方法である。 The classification method according to the fourth modification is also a method of classifying continuous rales into whistling sounds and snoring sounds, similar to the already explained second and third modifications.

図26において、笛声音を含む呼吸音は、所定のピークを有するスペクトラム波形として検出される。ここからピーク周波数F及びピーク数Nを検出するには、先ずスペクトラム波形の単一時間(即ち、図中の白枠で囲った領域)に対応する周波数-振幅グラフを作成する。 In FIG. 26, breathing sounds including whistling sounds are detected as a spectrum waveform having a predetermined peak. In order to detect the peak frequency F and the number of peaks N from this, first, a frequency-amplitude graph corresponding to a single time of the spectrum waveform (ie, the area surrounded by a white frame in the figure) is created.

図27に示すグラフから、笛声音のピーク周波数F1及びピーク数N1が検出できる。なお、笛声音のピーク周波数の分布は、180~900Hz程度であることが分かっている。また、図を見ても分かるように、笛声音のピーク数N1は1個である。 From the graph shown in FIG. 27, the peak frequency F1 and the number N1 of peaks of the whistle sound can be detected. It is known that the peak frequency distribution of whistle sounds is approximately 180 to 900 Hz. Further, as can be seen from the figure, the number N1 of peaks of the whistle sound is one.

図28において、類鼾音を含む呼吸音は、笛声音とは異なる所定のピークを有するスペクトラム波形として検出される。ここからピーク周波数F及びピーク数Nを検出するには、同様にスペクトラム波形の単一時間に対応する周波数-振幅グラフを作成する。 In FIG. 28, breathing sounds including snoring sounds are detected as spectrum waveforms having predetermined peaks different from whistling sounds. In order to detect the peak frequency F and the number of peaks N from this, a frequency-amplitude graph corresponding to a single time of the spectrum waveform is similarly created.

図29に示すグラフから、類鼾音のピーク周波数F2及びピーク数N2が検出できる。なお、類鼾音のピーク周波数の分布は、100~260Hz程度であることが分かっている。即ち、類鼾音のピーク周波数F2は、笛声音のピーク周波数F1よりも低い領域に分布していることになる。また、図を見ても分かるように、類鼾音のピーク数N2は例えば、3個である。即ち、類鼾音のピーク数N2は、笛声音のピーク数N1のように1つでなく、複数である。 From the graph shown in FIG. 29, the peak frequency F2 and the number of peaks N2 of the sonar sounds can be detected. It is known that the distribution of peak frequencies of rhinocerosic sounds is approximately 100 to 260 Hz. That is, the peak frequency F2 of the snoring sound is distributed in a region lower than the peak frequency F1 of the whistling sound. Further, as can be seen from the figure, the number of peaks N2 of assonorous sounds is, for example, three. That is, the number N2 of peaks of the snoring sound is not one like the number N1 of peaks of the whistling sound, but is plural.

第4変形例に係る分別方法では、上述した笛声音及び類鼾音の特性の違いを利用して判定が行われる。具体的には、ピーク周波数F及びピーク数Nの各々に基づいて、笛声音と類鼾音とが分別される。このようにすれば、例えばピーク周波数Fだけを利用して笛声音と類鼾音とを分別する場合と比べて、より正確な分別が行える。 In the classification method according to the fourth modification, determination is performed using the difference in characteristics between the whistle sound and the snoring sound described above. Specifically, the whistle sound and the snoring sound are classified based on each of the peak frequency F and the number N of peaks. In this way, more accurate classification can be achieved than, for example, when distinguishing between whistling sounds and snoring sounds using only the peak frequency F.

<解析結果の表示>
次に、解析結果の表示について、図30を参照して詳細に説明する。ここに図30は、表示部における表示例を示す平面図である。
<Display of analysis results>
Next, display of analysis results will be described in detail with reference to FIG. 30. FIG. 30 is a plan view showing an example of display on the display unit.

図30に示すように、表示部150の表示領域155には、解析結果が複数の画像として表示される。具体的には、領域155aには、取得された呼吸音の波形が表示されている。領域155bには、取得された呼吸音のスペクトルが表示されている。領域155cには、取得された呼吸音のスペクトログラムが表示されている。領域155dには、分別された各音種(ここでは、正常呼吸音、類鼾音、笛声音、捻髪音、水泡音の5音種)の成分量の時系列変化を表すグラフが表示されている。領域155eには、分別された各音種の割合がレーダーチャートとして表示されている。 As shown in FIG. 30, the analysis results are displayed as a plurality of images in the display area 155 of the display unit 150. Specifically, the acquired breath sound waveform is displayed in the area 155a. The area 155b displays the spectrum of the acquired breath sounds. In the area 155c, a spectrogram of the acquired breath sounds is displayed. In the area 155d, a graph showing a time-series change in the component amount of each classified sound type (here, five sound types: normal breathing sound, snoring sound, whistle sound, crepitus sound, and blister sound) is displayed. ing. In the area 155e, the ratio of each sorted note type is displayed as a radar chart.

なお、このような解析結果の表示態様はあくまで一例であり、他の表示態様で解析結果が表示されてもよい。例えば、分別された各音種の割合は、棒グラフや円グラフとして表示されてもよいし、数値化して表示されてもよい。 Note that this display format of the analysis results is just an example, and the analysis results may be displayed in other display formats. For example, the ratio of each classified note type may be displayed as a bar graph or a pie chart, or may be displayed numerically.

<音種の選択及び出力>
次に、ユーザによる音種の選択、及び選択された音種毎の出力について、図31から図33を参照して説明する。ここに図31は、音種毎の抽出結果を示すスペクトログラム図である。また図32及び図33は夫々、分別された音種毎の音声出力の一例を示す概念図である。
<Tone type selection and output>
Next, the selection of a note type by the user and the output for each selected note type will be explained with reference to FIGS. 31 to 33. FIG. 31 is a spectrogram diagram showing the extraction results for each sound type. Further, FIGS. 32 and 33 are conceptual diagrams showing an example of audio output for each classified sound type, respectively.

図31に示すように、表示部150の領域155cに表示されるスペクトログラムは、ユーザによって選択された音種毎に表示してもよい。即ち、図31(a)に示すオリジナル(取得された元の呼吸音)のスペクトログラムに代えて、図31(b)に示す正常呼吸音のスペクトログラム、図31(c)に示す類鼾音のスペクトログラム、図31(d)に示す笛声音のスペクトログラム、図31(e)に示す捻髪音のスペクトログラム、及び図31(f)に示す水泡音のスペクトログラムを表示するようにしてもよい。また、これらの音種毎のスペクトログラムを複数並べて表示するようにしてもよい。 As shown in FIG. 31, the spectrogram displayed in the area 155c of the display unit 150 may be displayed for each sound type selected by the user. That is, instead of the original (obtained original breath sounds) spectrogram shown in FIG. 31(a), a spectrogram of normal breath sounds shown in FIG. , the spectrogram of the whistling sound shown in FIG. 31(d), the spectrogram of the crepitus sound shown in FIG. 31(e), and the spectrogram of the bubbling sound shown in FIG. 31(f) may be displayed. Further, a plurality of spectrograms for each of these sound types may be displayed side by side.

図32及び図33に示すように、表示部150の領域155dに表示される音種毎のグラフを選択して、選択された音種のみを音量出力するようにしてもよい。例えば図32の例では、正常呼吸音だけが選択されており、その他の類鼾音、笛声音、捻髪音及び水泡音はいずれも選択されていない。このため、音声出力部130からは、正常呼吸音のみが音声出力される。また図33の例では、正常呼吸音だけが選択されておらず、その他の類鼾音、笛声音、捻髪音及び水泡音がいずれも選択されている。このため、音声出力部130からは、類鼾音、笛声音、捻髪音及び水泡音を合成した音声が出力される。 As shown in FIGS. 32 and 33, a graph for each note type displayed in the area 155d of the display section 150 may be selected, and only the selected note type may be output in volume. For example, in the example shown in FIG. 32, only normal breathing sounds are selected, and none of the other sounds such as rhinoceros, whistling, crepitus, and water bubbles are selected. Therefore, the audio output unit 130 outputs only normal breathing sounds as audio. Furthermore, in the example of FIG. 33, not only normal breathing sounds are selected, but all of the other sounds, such as rhinoceros, whistling, crepitus, and blister, are selected. Therefore, the audio output unit 130 outputs a sound that is a combination of the snoring sound, the whistling sound, the crepitus sound, and the water bubble sound.

<出力態様の変更>
次に、音種毎の出力態様の変更方法について、図34から図38を参照して具体的に説明する。ここに図34は、分別された音種毎の音量調整方法を示す概念図であり、図35は、周波数帯域毎の音量調整方法を示す概念図である。また図36は、音種毎に実行される画像処理の一例を示す概念図であり、図37は、音種毎に画像処理した画像を重ね合わせて生成した画像の一例を示す平面図である。図38は、分別された音種毎の表示色調整方法を示す概念図である。
<Change of output mode>
Next, a method of changing the output mode for each sound type will be specifically explained with reference to FIGS. 34 to 38. Here, FIG. 34 is a conceptual diagram showing a volume adjustment method for each classified sound type, and FIG. 35 is a conceptual diagram showing a volume adjustment method for each frequency band. Further, FIG. 36 is a conceptual diagram showing an example of image processing performed for each sound type, and FIG. 37 is a plan view showing an example of an image generated by superimposing images subjected to image processing for each sound type. . FIG. 38 is a conceptual diagram showing a display color adjustment method for each classified tone type.

図34に示すように、分別された各音種の出力音量を音種毎に調整可能としてもよい。図に示す操作画面では、音種毎のON/OFFがチェックボックスにより切替え可能とされており、音種毎の音量がスライダーによって調整可能とされている。図に示す例では、類鼾音及び笛声音が夫々出力されており、笛声音が類鼾音より大きい音量で出力されている。 As shown in FIG. 34, the output volume of each classified sound type may be adjustable for each sound type. In the operation screen shown in the figure, ON/OFF of each tone type can be switched by a check box, and the volume of each tone type can be adjusted by a slider. In the example shown in the figure, a snoring sound and a whistle sound are respectively output, and the whistle sound is output at a louder volume than the snoring sound.

図35に示すように、音種毎の出力音量の調整に加えて、周波数帯域毎の出力音量の調整が可能とされてもよい。図に示す例では、125Hz、250Hz、500Hz、1kHz、2kHzの各周波数帯域でゲインが調整可能とされている。 As shown in FIG. 35, in addition to adjusting the output volume for each sound type, it may be possible to adjust the output volume for each frequency band. In the example shown in the figure, the gain can be adjusted in each frequency band of 125 Hz, 250 Hz, 500 Hz, 1 kHz, and 2 kHz.

図36に示すように、音種毎に抽出されたスペクトログラムに対して、画像処理(例えば、二値化やエッジ検出等)を実行するようにしてもよい。このようにすれば、抽出しただけの状態では認識しにくかったものを、より視覚的に分かりやすい状態で表示させることができる。なお、画像処理は複数の処理を組み合わせたものであってもよい。また、音種によって異なる画像処理を施すようにしても構わない。 As shown in FIG. 36, image processing (eg, binarization, edge detection, etc.) may be performed on the spectrogram extracted for each sound type. In this way, things that are difficult to recognize when only extracted can be displayed in a more visually easy-to-understand state. Note that the image processing may be a combination of multiple processes. Further, different image processing may be performed depending on the type of sound.

図37に示すように、画像処理が施された音種毎の画像(図36参照)を、重ね合わせて表示するようにしてもよい。このようにすれば、音種毎のスペクトログラムを1つの画像でまとめて認識できるため、視覚的な把握が好適に行える。なお、ここでは正常呼吸音及び笛声音の画像を重ねて表示した例を示したが、重ねて表示する音種は選択可能とされており、所望の音種のみを適宜選択して表示させることができる。 As shown in FIG. 37, images for each sound type that have been subjected to image processing (see FIG. 36) may be displayed in a superimposed manner. In this way, the spectrograms for each sound type can be recognized together in one image, so that visual understanding can be suitably performed. Here, an example was shown in which images of normal breathing sounds and whistling sounds were displayed in an overlapping manner, but the sound types to be overlaid can be selected, and only the desired sound types can be appropriately selected and displayed. I can do it.

図38に示すように、音種毎に画像の色を調整可能としてもよい。図に示す例では、R(赤)、G(緑)、B(青)に対応するスライダーを夫々調整することで、音種毎にRGB値を調整することが可能である。このようにすれば、複数の音種を互いに異なる色で表示させることが可能となり、より視覚的に把握し易い状態での表示が実現できる。 As shown in FIG. 38, the color of the image may be adjustable for each type of sound. In the example shown in the figure, it is possible to adjust the RGB values for each note type by adjusting the sliders corresponding to R (red), G (green), and B (blue), respectively. In this way, it is possible to display a plurality of tone types in mutually different colors, and it is possible to realize a display that is easier to visually understand.

以上説明したように、本実施例に係る呼吸音解析装置によれば、呼吸音を分別した後、適宜選択して出力することができる。また、出力態様を音種毎に変更することができるため、分別した音種毎のデータを好適に利用することができる。 As explained above, according to the breathing sound analysis device according to the present embodiment, after classifying the breathing sounds, it is possible to select and output them as appropriate. In addition, since the output mode can be changed for each sound type, the classified data for each sound type can be suitably used.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体もまた本発明の技術的範囲に含まれるものである。 The present invention is not limited to the embodiments described above, and can be modified as appropriate within the scope or idea of the invention that can be read from the claims and the entire specification. An apparatus and a breath sound analysis method, as well as a computer program and a recording medium are also included within the technical scope of the present invention.

110 生体音センサ
120 信号記憶部
125 信号処理部
130 音声出力部
140 基底保持部
150 表示部
155 表示領域
160 入力部
200 処理部
210 周波数解析部
220 周波数ピーク検出部
230 基底集合生成部
240 結合係数算出部
250 信号強度算出部
260 画像生成部
270 呼吸音選択部
y スペクトル
h(f) 基底
u 結合係数
110 Body sound sensor 120 Signal storage section 125 Signal processing section 130 Audio output section 140 Base holding section 150 Display section 155 Display area 160 Input section 200 Processing section 210 Frequency analysis section 220 Frequency peak detection section 230 Basis set generation section 240 Coupling coefficient calculation Section 250 Signal strength calculation section 260 Image generation section 270 Breathing sound selection section y Spectrum h(f) Basis u Coupling coefficient

Claims (4)

呼吸音を複数の音種に分別する分別手段と、
出力すべき呼吸音の種類を選択するための入力を受け付ける入力手段と、
前記入力手段が受け付けた入力に応じて選択された音種の呼吸音をスペクトル画像として出力する出力手段と、
前記入力手段が受け付けた入力に応じて選択された音種毎に、スペクトル画像の色を変更可能な変更手段と、
を備えることを特徴とする呼吸音解析装置。
A classification means for classifying breath sounds into multiple sound types;
an input means for accepting input for selecting the type of breathing sound to be output;
output means for outputting a sound type of breath sound selected according to the input received by the input means as a spectral image;
a changing means capable of changing the color of the spectrum image for each sound type selected according to the input received by the input means;
A breathing sound analysis device comprising:
前記変更手段は、前記入力手段が受け付けた入力に応じて選択された音種毎に異なる色に前記スペクトル画像の色を変更可能であり、
前記出力手段は、前記入力手段が受け付けた入力に応じて選択された複数の前記呼吸音のスペクトル画像を、それぞれ異なる色で、重ね合わせて出力する
ことを特徴とする請求項1に記載の呼吸音解析装置。
The changing means is capable of changing the color of the spectrum image to a different color for each selected tone type according to the input received by the input means,
The breathing apparatus according to claim 1, wherein the output means superimposes and outputs a plurality of spectral images of the breathing sounds selected according to the input received by the input means, each in a different color. Sound analysis device.
呼吸音を複数の音種に分別する分別工程と、
出力すべき呼吸音の種類を選択するための入力を受け付ける入力工程と、
前記入力手段が受け付けた入力に応じて選択された音種の呼吸音をスペクトル画像として出力する出力工程と、
前記入力手段が受け付けた入力に応じて選択された音種毎に、スペクトル画像の色を変更可能な変更工程と、
を含むことを特徴とする呼吸音解析方法。
A classification step of separating breath sounds into multiple sound types;
an input step of accepting input for selecting the type of breathing sound to be output;
an output step of outputting a sound type of breath sound selected according to the input received by the input means as a spectral image;
a changing step in which the color of the spectrum image can be changed for each sound type selected according to the input received by the input means;
A breathing sound analysis method characterized by comprising:
呼吸音を複数の音種に分別する分別工程と、
出力すべき呼吸音の種類を選択するための入力を受け付ける入力工程と、
前記入力手段が受け付けた入力に応じて選択された音種の呼吸音をスペクトル画像として出力する出力工程と、
前記入力手段が受け付けた入力に応じて選択された音種毎に、スペクトル画像の色を変更可能な変更工程と、
をコンピュータに実行させることを特徴とするコンピュータプログラム。
A classification step of separating breath sounds into multiple sound types;
an input step of accepting input for selecting the type of breathing sound to be output;
an output step of outputting a sound type of breath sound selected according to the input received by the input means as a spectral image;
a changing step in which the color of the spectrum image can be changed for each sound type selected according to the input received by the input means;
A computer program that causes a computer to execute.
JP2023178950A 2020-03-18 2023-10-17 Respiratory sound analysis device, respiratory sound analysis method and computer program Pending JP2023174854A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023178950A JP2023174854A (en) 2020-03-18 2023-10-17 Respiratory sound analysis device, respiratory sound analysis method and computer program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020047712A JP2020163131A (en) 2020-03-18 2020-03-18 Respiratory sound analysis apparatus
JP2022000634A JP2022058500A (en) 2020-03-18 2022-01-05 Respiratory sound analysis apparatus
JP2023178950A JP2023174854A (en) 2020-03-18 2023-10-17 Respiratory sound analysis device, respiratory sound analysis method and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022000634A Division JP2022058500A (en) 2020-03-18 2022-01-05 Respiratory sound analysis apparatus

Publications (1)

Publication Number Publication Date
JP2023174854A true JP2023174854A (en) 2023-12-08

Family

ID=72666010

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020047712A Pending JP2020163131A (en) 2020-03-18 2020-03-18 Respiratory sound analysis apparatus
JP2022000634A Pending JP2022058500A (en) 2020-03-18 2022-01-05 Respiratory sound analysis apparatus
JP2023178950A Pending JP2023174854A (en) 2020-03-18 2023-10-17 Respiratory sound analysis device, respiratory sound analysis method and computer program

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020047712A Pending JP2020163131A (en) 2020-03-18 2020-03-18 Respiratory sound analysis apparatus
JP2022000634A Pending JP2022058500A (en) 2020-03-18 2022-01-05 Respiratory sound analysis apparatus

Country Status (1)

Country Link
JP (3) JP2020163131A (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58109037A (en) * 1981-12-22 1983-06-29 本田 利幸 Stethoscope
JP2005052521A (en) * 2003-08-07 2005-03-03 Stn:Kk Electronic stethoscope
JP2007029749A (en) * 2006-09-26 2007-02-08 Konica Minolta Medical & Graphic Inc Diagnosis assisting system
JP5603789B2 (en) * 2011-01-26 2014-10-08 旭化成株式会社 Body sound acquisition device and electronic stethoscope provided with the same

Also Published As

Publication number Publication date
JP2020163131A (en) 2020-10-08
JP2022058500A (en) 2022-04-12

Similar Documents

Publication Publication Date Title
JP6231681B2 (en) Respiratory sound analysis device, respiratory sound analysis method, computer program, and recording medium
US11116478B2 (en) Diagnosis of pathologies using infrasonic signatures
CN104807540B (en) Noise check method and system
EP3678553B1 (en) Diagnosis of pathologies using infrasonic signatures
JPH11506970A (en) Method and apparatus for characterizing gastrointestinal sounds
US10463281B2 (en) Hearing test method and system, readable record medium and computer program product
JP2023174854A (en) Respiratory sound analysis device, respiratory sound analysis method and computer program
WO2015145763A1 (en) Respiratory sound analysis device, respiratory sound analysis method, computer program and recording medium
Aichinger et al. Comparison of an audio-based and a video-based approach for detecting diplophonia
JP2018167062A (en) Respiratory sound analysis apparatus
JP6298527B2 (en) Body sound analysis apparatus, body sound analysis method, computer program, and recording medium
KR101517957B1 (en) Method and apparatus for quantitative uassessment of acoustical perception and absoulte pitch
JP4590545B2 (en) Acoustic evaluation method and system
JP2015188642A (en) Respiratory sound analysis apparatus, respiratory sound analysis method, computer program, and recording medium
JP3584287B2 (en) Sound evaluation method and system
JP7001806B2 (en) Respiratory sound analyzer, breath sound analysis method, computer program and recording medium
JP6298340B2 (en) Respiratory sound analysis device, respiratory sound analysis method, computer program, and recording medium
JP6298339B2 (en) Respiratory sound analysis device, respiratory sound analysis method, computer program, and recording medium
TWI744177B (en) Method and system for vision-based defect detection
JP2019150641A (en) Breath sound analysis device
EP4429275A1 (en) Automatically informing a user about a current hearing benefit with a hearing device
US20240305934A1 (en) Automatically informing a user about a current hearing benefit with a hearing device
KR20020019839A (en) Apparatus for testing and training of hearing ability
CN115334438A (en) Electroacoustic device sounding quality detection method and system
JP2022034243A (en) Evaluation device and evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240813