JPWO2017130417A1 - 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体 - Google Patents

生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体 Download PDF

Info

Publication number
JPWO2017130417A1
JPWO2017130417A1 JP2017563661A JP2017563661A JPWO2017130417A1 JP WO2017130417 A1 JPWO2017130417 A1 JP WO2017130417A1 JP 2017563661 A JP2017563661 A JP 2017563661A JP 2017563661 A JP2017563661 A JP 2017563661A JP WO2017130417 A1 JPWO2017130417 A1 JP WO2017130417A1
Authority
JP
Japan
Prior art keywords
information
biological sound
sound
noise
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017563661A
Other languages
English (en)
Other versions
JP6501917B2 (ja
Inventor
隆真 亀谷
隆真 亀谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2017130417A1 publication Critical patent/JPWO2017130417A1/ja
Application granted granted Critical
Publication of JP6501917B2 publication Critical patent/JP6501917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/141Discrete Fourier transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/156Correlation function computation including computation of convolution operations using a domain transform, e.g. Fourier transform, polynomial transform, number theoretic transform
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Discrete Mathematics (AREA)
  • Epidemiology (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Pulmonology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

生体音解析装置は、生体音の経時的な変化を示す第1生体音情報を取得する取得手段(100)と、第1生体音情報に対して、生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理手段(230)と、第2生体音情報の互いに隣接する期間における相関関係を示す相関情報(P(t))を算出する算出手段(240)と、相関情報に基づいて、生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力手段(250)とを備える。このようにすれば、取得した生体音に含まれる連続的な雑音を好適に解析することが可能である。

Description

本発明は、例えば連続性ラ音等の雑音を含む生体音を解析する生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体の技術分野に関する。
この種の装置として、電子聴診器等によって検出される生体の呼吸音について、そこに含まれる副雑音(即ち、正常な呼吸音とは異なる音)を検出しようとするものが知られている。例えば特許文献1では、FFT(Fast Fourier Transform:高速フーリエ変換)処理によって、振幅スペクトル、位相スペクトル、パワースペクトルを算出し、パワースペクトルの局所分散値が閾値を超えているか否かによって正常呼吸音と連続性ラ音とを分別するという技術が開示されている。また、特許文献2では、自己相関関数上のピーク位置を検出した後に、誤検出と判断できるピークを削除して、連続性ラ音を検出するという技術が開示されている。
特開2004−357758号公報 特開2014−28111号公報
上述した特許文献1及び2に記載されている技術では、FFT処理を行ってからスペクトルのピークを利用して連続性ラ音を検出している。しかしながら、連続性ラ音は、個人差や測定環境の影響等によって、ピークの現れ方が一様ではない。このため、ピークのみから連続性ラ音を検出しようとすると、検出精度が低下してしまう。よって、特許文献1及び2を含む従来の技術は、生体音に含まれる連続性ラ音を正確に検出することができないという技術的問題点を有している。
本発明が解決しようとする課題には、上記のようなものが一例として挙げられる。本発明は、生体音に含まれる雑音を好適に解析可能な生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体を提供することを課題とする。
上記課題を解決するための生体音解析装置は、生体音の経時的な変化を示す第1生体音情報を取得する取得手段と、前記第1生体音情報に対して、前記生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理手段と、前記第2生体音情報の互いに隣接する期間における相関関係を示す相関情報を算出する算出手段と、前記相関情報に基づいて、前記生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力手段とを備える。
上記課題を解決するための生体音解析方法は、生体音の経時的な変化を示す第1生体音情報を取得する取得工程と、前記第1生体音情報に対して、前記生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理工程と、前記第2生体音情報の互いに隣接する期間における相関関係を示す相関情報を算出する算出工程と、前記相関情報に基づいて、前記生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力工程とを備える。
上記課題を解決するためのコンピュータプログラムは、生体音の経時的な変化を示す第1生体音情報を取得する取得工程と、前記第1生体音情報に対して、前記生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理工程と、前記第2生体音情報の互いに隣接する期間における相関関係を示す相関情報を算出する算出工程と、前記相関情報に基づいて、前記生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力工程とをコンピュータに実行させる。
上記課題を解決するための記録媒体は、上述したコンピュータプログラムが記録されている。
本実施例に係る生体音解析装置の構成を示すブロック図である。 本実施例に係る生体音解析装置の動作の流れを示すフローチャートである。 呼吸音の時間軸波形の一例を示す波形図である。 呼吸音のパワースペクトルの一例を示すパワースペクトログラムである。 パワースペクトルのケプストラムへの変換方法を示すプロセス図である。 CMN処理を示すプロセス図である。 CMN処理後のパワースペクトルの一例を示すパワースペクトログラムである。 リフタリング処理を示すプロセス図である。 リフタリング処理後のパワースペクトルの一例を示すパワースペクトログラムである。 連続性ラ音が発生している区間における隣接フレーム間での相関係数の算出方法を示すプロセス図である。 連続性ラ音が発生していない区間における隣接フレーム間での相関係数の算出方法を示すプロセス図である。 連続性ラ音を含む呼吸音の相関係数の一例を示すグラフである。 連続性ラ音を含まない呼吸音の相関係数の一例を示すグラフである。 連続性ラ音傾向の算出方法を示す概念図である。 KL情報量の数値化概念を示す3次元グラフ(その1)である。 KL情報量の数値化概念を示す3次元グラフ(その2)である。 KL情報量の計算手法を示す概念図である。 KL情報量を用いた強調処理前のパワースペクトルの一例を示すパワースペクトログラムである。 KL情報量を用いた強調処理後のパワースペクトルの一例を示すパワースペクトログラムである。 類鼾音を含む生体音のパワースペクトルの一例を示すパワースペクトログラムである。 笛声音を含む生体音のパワースペクトルの一例を示すパワースペクトログラムである。 類鼾音及び笛声音の周波数傾向を示すグラフである。 図20に示すパワースペクトログラムの類鼾音傾向を算出する工程を示すプロセス図である。 図21に示すパワースペクトログラムの類鼾音傾向を算出する工程を示すプロセス図である。
<1>
本実施形態に係る生体音解析装置は、生体音の経時的な変化を示す第1生体音情報を取得する取得手段と、前記第1生体音情報に対して、前記生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理手段と、前記第2生体音情報の互いに隣接する期間における相関関係を示す相関情報を算出する算出手段と、前記相関情報に基づいて、前記生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力手段とを備える。
本実施形態に係る生体音解析装置によれば、その動作時には、先ず取得手段によって、第1生体音情報が取得される。なお、「生体音」とは、生体が発する音であり、典型的には呼吸音である。また、「第1生体音情報」とは、生体音の経時的な変化を示す情報であり、例えば生体音を示す時間軸波形として取得される。
第1生体音情報が取得されると、処理手段によって、第1生体音情報に対する第1の処理が行われる。第1の処理は、生体音に含まれる雑音を示す第1雑音情報を強調させる処理である。なお「雑音」とは、正常な生体音には含まれない異常音(例えば、呼吸音に含まれる副雑音等)である。また第1雑音情報は、例えば雑音の有無を示す情報や、雑音の種別、雑音の強度等を示す情報である。
第1の処理としては、例えばCMN(Cepstral Mean Normalization)処理や、リフタリング処理(具体的には、ケプストラムの低次ケフレンシー成分をカットする処理)等の既存の処理を用いることができる。第1の処理を行うことで、第1生体音情報と比べて第1雑音情報が強調された、第2生体音情報が生成される。
第2生体音情報が生成されると、算出手段によって、第2生体音情報の相関情報が算出される。ここでの「相関情報」とは、第2生体音情報の互いに隣接する期間における相関関係を示す情報である。相関情報は、例えば第2生体音情報を複数のフレームに分割して、隣接するフレーム間でのケプストラム情報の相関係数として算出することができる。この場合、隣接するフレーム間の相関関係が強いほど、相関情報(相関係数)は大きな値として算出される。
相関情報が算出されると、出力手段によって、生体音に含まれる連続的な雑音(例えば、連続性ラ音等)を示す第2雑音情報が出力される。本実施形態では特に、第2雑音情報は、上述した相関情報に基づいて出力される。具体的には、相関情報が大きい(即ち、隣接する期間での相関関係が強い)ものが、連続的な雑音と判定され、その判定結果に応じて第2雑音情報が出力される。
第2雑音情報で示される連続的な雑音は、その特性上、スペクトログラム上に時間的に連続して現れるものであるため、他の音(例えば、断続性ラ音等)と比べると、隣接する期間の相関関係も強くなると考えられる。よって、相関情報に基づいて連続的な雑音を判定すれば、時間的な連続性を考慮して、より正確な第2雑音情報を出力することが可能となる。
<2>
本実施形態に係る生体音解析装置の一態様では、前記処理手段は、前記第1の処理として、前記第1生体音情報に対してフーリエ変換処理を行うことでパワースペクトル情報を算出し、パワースペクトル情報の対数をとって逆フーリエ変換処理を行うことで算出されるケプストラム情報から、所定次数以下の成分を低減させる処理を行う。
この態様によれば、第1の処理として、いわゆるリフタリング処理が行われる。リフタリング処理では、ケプストラム情報から所定次数以下の成分が低減されることで、雑音の特徴部分を際立たせることができる。よって、第1雑音情報が強調された第2生体音情報を好適に生成することができる。
<3>
上述したケプストラム情報の所定次数以下の成分を低減させる態様では、前記処理手段は、前記第1の処理を行う前に、所定期間内の複数の前記ケプストラム情報を平均して得られる特性に対応する成分を、前記複数のケプストラム情報の各々から低減させる第2の処理を行ってもよい。
この場合、第1の処理(リフタリング処理)の前に、第2の処理が行われる。第2の処理は、いわゆるCMN処理であり、ケプストラム情報から、センサや環境等の影響で定常的に畳み込まれている特性を低減することができる。この特性は、所定期間(例えば、1呼吸周期)内の複数のケプストラム情報を平均して得られる。
第1の処理の前に第2の処理を行えば、雑音情報以外の音(即ち、不要な成分)を低減することができるため、より正確な第2雑音情報を出力することが可能となる。
<4>
上述したケプストラム情報から平均した特性に対応する成分を低減する態様では、前記処理手段は、前記第1の処理を行った後に、前記第2生体音情報の所定基準値からの乖離量に応じて定まる情報量を所定区間ごとに算出し、前記情報量が第1閾値以下の成分を低減させる第3の処理を行うことで、第2生体音情報を生成してもよい。
この場合、第1の処理(リフタリング処理)の後に、第3の処理が行われることで、第2生体情報が生成される。第3の処理では、まず第2生体音情報の所定基準値からの乖離量に応じて定まる情報量が所定区間ごとに算出される。ここでの「情報量」とは、第2生体音情報における特徴部分を数値化したものであり、その一例としてKL(カルバック・ライブラー)情報量が挙げられる。情報量が算出されると、情報量が第1閾値以下の成分が低減される。なお、「第1閾値」は、特徴部分ではないと判断できる程度に情報量が小さいことを判定するための閾値である。
上述した第3の処理によれば、情報量が小さい(特徴的ではない)成分が低減されるため、雑音を示す第1雑音情報がより強調されることになる。
<5>
本実施形態に係る生体音解析装置の他の態様では、前記出力手段は、所定周期における前記相関情報が第2閾値を所定時間以上連続して超える期間の割合を算出し、前記期間の割合が所定割合以上である場合に、前記第2雑音情報を出力する。
この態様によれば、出力手段では、まず所定周期(例えば、1呼吸周期)における相関情報が第2閾値を所定時間以上連続して超える期間の割合が算出される。即ち、相関情報が比較的高い状態のまま維持されていた期間の割合が算出される。なお、「第2閾値」は、相関関数が雑音と判断できる程度に高いことを判定するための閾値である。また「所定時間」とは、瞬間的な相関情報の変動を除外するために設定される時間である。
出力手段では更に、算出された期間の割合が所定割合以上であるか否かが判定され、所定割合上である場合に第2雑音情報が出力される(即ち、生体音が連続的な雑音を含んでいると判断される)。言い換えれば、期間の割合が所定割合未満である場合には、第2雑音情報は出力されない(即ち、生体音が連続的な雑音を含んでいないと判断される)。なお、「所定割合」は、期間の割合が雑音を検出できるまでに高いことを判定するための閾値として設定される値である。
上述したように、相関関数が高い状態を維持した期間の割合を利用すれば、一時的に相関関数が高くなるようなケースを除外できるため、より正確な第2雑音情報を出力することが可能となる。
<6>
本実施形態に係る生体音解析装置の他の態様では、前記出力手段は、前記第2雑音情報のうち、所定の周波数以下の成分の割合が第3閾値以上であるものを、類鼾音を示す第3雑音情報として出力する。
この態様によれば、出力手段では、第2雑音情報のうち、所定の周波数以下の成分の割合が第3閾値以上となるものが存在するか否かが判定される。なお、「所定の周波数」とは、類鼾音に特有の周波数成分を判別するための閾値であり、例えば120Hz〜130Hz程度の値として設定される。また、「第3閾値」は、所定の周波数以下の成分の割合が、類鼾音と判断できる程度に高いか否かを判定するために設定される閾値である。
類鼾音は、連続性ラ音の中でも比較的低い周波数帯成分を含むものとして知られている。よって、上述した判定によれば、連続性ラ音が類鼾音か否かを好適に判定することができる。なお、類鼾音を示す第3雑音情報は、第2雑音情報と共に出力されてもよいし、第2雑音情報に代えて出力されてもよい。
<7>
本実施形態に係る生体音解析方法は、生体音の経時的な変化を示す生体音情報を取得する第1取得工程と、前記生体音情報に含まれ得る外部騒音の特性を示す特性情報を取得する第2取得工程と、前記生体音情報及び前記特性情報に基づいて、前記生体音に含まれる雑音を示す雑音情報を出力する出力工程とを備える。
本実施形態に係る生体音解析方法によれば、上述した本実施形態に係る生体音解析装置と同様に、正確な雑音情報を出力することができる。
なお、本実施形態に係る生体音解析方法においても、上述した本実施形態に係る生体音解析装置における各種態様と同様の各種態様を採ることが可能である。
<8>
本実施形態に係るコンピュータプログラムは、生体音の経時的な変化を示す生体音情報を取得する第1取得工程と、前記生体音情報に含まれ得る外部騒音の特性を示す特性情報を取得する第2取得工程と、前記生体音情報及び前記特性情報に基づいて、前記生体音に含まれる雑音を示す雑音情報を出力する出力工程とをコンピュータに実行させる。
本実施形態に係るコンピュータプログラムによれば、上述した本実施形態に係る生体音解析方法と同様の処理をコンピュータに実行させることができるため、正確な雑音情報を出力することができる。
なお、本実施形態に係るコンピュータプログラムにおいても、上述した本実施形態に係る生体音解析装置における各種態様と同様の各種態様を採ることが可能である。
<9>
本実施形態に係る記録媒体は、上述したコンピュータプログラムが記録されている。
本実施形態に係る記録媒体によれば、上述したコンピュータプログラムをコンピュータにより実行させることにより、正確な雑音情報を出力することができる。
本実施形態に係る生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体の作用及び他の利得については、以下に示す実施例において、より詳細に説明する。
以下では、生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体の実施例について、図面を参照しながら詳細に説明する。なお、以下では、呼吸音の解析を行う生体音解析装置を例に挙げて説明する。
<第1実施例>
第1実施例に係る生体音解析装置について、図1から図14を参照して説明する。
<装置構成>
先ず、本実施例に係る生体音解析装置の構成について、図1を参照して説明する。ここに図1は、本実施例に係る生体音解析装置の構成を示すブロック図である。
図1において、本実施例に係る生体音解析装置は、呼吸音取得部100と、処理部200と、結果表示部300とを備えて構成されている。
呼吸音取得部100は、生体の呼吸音を呼吸音信号として取得可能に構成されたセンサである。呼吸音取得部100は、例えばECM(Electret Condenser Microphone)やピエゾを利用したマイク、振動センサ等で構成されている。また、呼吸音取得部100は、生体の呼吸音を呼吸音信号として取得可能に構成されたセンサだけでなく、センサからの呼吸音信号を取得するものを含んでいてもよい。呼吸音取得部100で取得された呼吸音信号は、処理部200における時間周波数解析部210に出力される構成となっている。なお、呼吸音取得部100は、「取得手段」の一具体例である。
処理部200は、複数の演算回路やメモリ等を含んで構成されている。処理部200は、時間周波数解析部210と、ケプストラム解析部220と、雑音強調処理部230と、相関情報算出部240と、連続性ラ音判定部250を備えて構成されている。
時間周波数解析部210は、呼吸音取得部100で取得された呼吸音情報に対して時間周波数解析処理を実行する。具体的には、時間周波数解析部210は、呼吸音情報に対してFFT処理等を実行可能に構成されている。時間周波数解析部210の解析結果は、ケプストラム解析部220に出力される構成となっている。
ケプストラム解析部220は、時間周波数解析された呼吸音情報(パワースペクトル)を、ケプストラムに変換する。具体的には、ケプストラム解析部220は、呼吸音情報に対して逆フーリエ変換を実行可能に構成されている。ケプストラム解析部220の解析結果は、雑音強調処理部230に出力される構成となっている。
雑音強調処理部230は、ケプストラム化された呼吸音情報に対し、含まれている雑音を強調させる雑音強調処理を行う。雑音強調処理は、例えばCMN処理やリフタリング処理等である。この雑音強調処理については、後の動作説明において詳しく述べる。雑音強調処理部230の処理結果は、相関情報算出部240に出力される構成となっている。雑音強調処理部230は、「処理手段」の一具体例である。
相関情報算出部240は、雑音強調処理が実行された呼吸音情報から、相関情報を算出する。相関情報は、呼吸音情報の互いに隣接するフレーム間の相関関係を示す情報であり、フレーム間でケプストラムを比較することで算出できる。相関情報算出部240で算出された相関情報は、連続性ラ音判定部240に出力される構成となっている。相関情報算出部240は、「算出手段」の一具体例である。
連続性ラ音判定部250は、相関情報に基づいて、呼吸音に連続性ラ音が含まれているか否かを判定する。具体的には、連続性ラ音判定部250は、相関情報を用いて連続性ラ音らしさを示す連続性ラ音傾向を算出し、その連続性ラ音傾向から、呼吸音に連続性ラ音が含まれているか否かを判定する。連続性ラ音判定部250における判定結果は、結果表示部300に出力される構成となっている。連続性ラ音判定部250は、「出力手段」の一具体例である。
以上のように、処理部200は、呼吸音取得部100で取得された呼吸音情報に基づいて、生体音に連続性ラ音が含まれているか否かを判定できる。また、処理部200は、生体音に連続性ラ音が含まれているか否かだけでなく、連続性ラ音の強度等を出力可能に構成されてもよい。
結果表示部300は、例えば液晶モニタ等のディスプレイとして構成されており、処理部200から出力される各種情報を画像データとして表示する。
<動作説明>
次に、本実施例に係る生体音解析装置の動作について、図2を参照して説明する。ここに図2は、本実施例に係る生体音解析装置の動作の流れを示すフローチャートである。
図2において、本実施例に係る生体音解析装置の動作時には、先ず呼吸音取得部100において、生体の呼吸音を示す呼吸音信号が取得される(ステップS101)。呼吸音信号が取得されると、時間周波数解析部210において、呼吸音信号が所定の時間フレーム単位に区切られ(ステップS102)、FFT処理による時間周波数解析が行われる(ステップS103)。
以下では、呼吸音信号の時間周波数解析について、図3及び図4を参照して詳細に説明する。ここに図3は、呼吸音の時間軸波形の一例を示す波形図である。また図4は、呼吸音のパワースペクトルの一例を示すパワースペクトログラムである。
図3に示すように、呼吸音情報は時間軸波形として取得される。なお、時間軸波形は、「第1生体音情報」の一具体例である。この時間軸波形を時間周波数解析してパワースペクトルにする際には、まず時間軸波形の時刻nの値x(n)に対して、長さNのフレーム単位で、Nポイント短時間フーリエ変換及び対数変換を施す。これにより、時間周波数解析波形PLog[n,ω]が算出される。なお、フレームを切り出す際には、長さNの窓関数w(m)を用いる。
より具体的には、Nポイント短時間フーリエ変換は、下記数式(1)を用いて行われる。
Figure 2017130417
また、対数変換は、下記数式(2)を用いて行われる。
Figure 2017130417
図4に示すように、時間周波数解析波形PLog[n,ω]は、時間を横軸、周波数を縦軸とするスペクトログラムとして取得される。なお、スペクトログラムの濃淡は、パワーを示しており、明るいほどパワーが大きい。
図2に戻り、呼吸音情報の時間周波数解析によって得られた時間周波数解析波形PLog[n,ω](即ち、パワースペクトル)は、ケプストラム解析部220においてケプストラムに変換される(ステップS104)。
以下では、パワースペクトルのケプストラムへの変換方法について、図5を参照して詳細に説明する。ここに図5は、パワースペクトルのケプストラムへの変換方法を示すプロセス図である。
図5に示すように、パワースペクトルをケプストラムへの変換する際には、各時刻nのパワースペクトル(ログスケール)を逆フーリエ変換することで、ケプストラムC[n,l]を計算すればよい。具体的には、下記数式(3)を計算すればよい。
Figure 2017130417
なお、lは離散化されたケフレンシ―軸での次数であり、l=0,・・・,Nである。
このようにして得られるケプストラムを利用すれば、後述する雑音強調処理、及び相関係数の算出を好適に行うことができる。
ちなみに、ケプストラムをパワースペクトルへ逆変換する場合には、下記数式(4)を計算すればよい。
Figure 2017130417
再び図2に戻り、ケプストラムが取得されると、雑音強調処理部230において、呼吸音に含まれる雑音を強調するための雑音強調処理が実行される(ステップS105)。本実施例では、雑音強調処理としてCMN処理及びリフタリング処理が実行される。
以下では、CMN処理及びリフタリング処理について、図6から図9を参照して詳細に説明する。ここに図6は、CMN処理を示すプロセス図であり、図7は、CMN処理後のパワースペクトルの一例を示すパワースペクトログラムである。また図8は、リフタリング処理を示すプロセス図であり、図9は、リフタリング処理後のパワースペクトルの一例を示すパワースペクトログラムである。
図6に示すように、雑音強調処理部230では、ケプストラムに対して、まずCMN処理が実行される。CMN処理は、「第2の処理」の一具体例である。
CMN処理では、センサや環境等の定常的に畳み込まれている特性が、ケプストラムからキャンセル(即ち、除去)される。この特性Cmean[l]は、下記数式(5)を用いて算出できる。
Figure 2017130417
算出した特性Cmean[l]は、下記数式(6)のように、ケプストラムC[n,l]から差し引かれる。
Figure 2017130417
このようにして得られたC’[n,l]は、定常的に畳み込まれている特性の除去により、雑音が強調されたものとなる。
図7に示すように、CMN処理後のケプストラムC’[n,l]をパワースペクトルに逆変換すると、図4で示したCMN処理前のパワースペクトルと比べて、雑音部分が強調されていることが分かる。
図8に示すように、CMN処理後には、リフタリング処理が実行される。リフタリング処理は「第1の処理」の一具体例である。
リフタリング処理では、ケプストラムから所定次数以下のケフレンシー成分がカットされる。この所定次数は、連続性ラ音を好適に強調できるような値に調整すればよい。なお、図8に示す例では、ケフレンシー0.18ms以下の成分がカットされている。
上述したリフタリング処理を実現するためには、適切なカット次数liftを決定した上で、下記数式(7)を計算すればよい。
Figure 2017130417
リフタリング処理によれば、周波数特性の平坦な成分がカットされるため、比較的急峻な成分が強調されることになる。
図9に示すように、リフタリング処理後のケプストラムC”[n,l]をパワースペクトルに逆変換すると、図7で示したリフタリング処理前のパワースペクトルと比べても、更に雑音部分が強調されていることが分かる。
以上のように、CMN処理及びリフタリング処理を実行すれば、呼吸音情報に含まれている雑音を強調することができる。なお、CMN処理及びリフタリング処理によって強調される雑音情報は、「第1雑音情報」の一具体例であり、CMN処理及びリフタリング処理後の呼吸音情報は、「第2生体音情報」の一具体例である。
再び図2に戻り、強調処理が終了すると、全ての時間フレームに対して強調処理が終了したか否かが判定される(ステップS106)。全ての時間フレームに対して強調処理が終了していない場合には(ステップS106:NO)、他の時間フレームについて、ステップS103以降の処理が繰り返し実行される。一方、全ての時間フレームに対して強調処理が終了している場合には(ステップS106:YES)、相関情報算出部240において、相関情報が算出される(ステップS107)。
以下では、相関情報の算出方法について、図10から図13を参照して詳細に説明する。ここに図10は、連続性ラ音が発生している区間における隣接フレーム間での相関係数の算出方法を示すプロセス図であり、図11は、連続性ラ音が発生していない区間における隣接フレーム間での相関係数の算出方法を示すプロセス図である。また図12は、連続性ラ音を含む呼吸音の相関係数の一例を示すグラフであり、図13は、連続性ラ音を含まない呼吸音の相関係数の一例を示すグラフである。
図10及び図11に示すように、相関情報は、時間軸上で互いに隣接するフレーム(例えば、nフレームとn+1フレーム)の相関関係を示す相関係数として算出される。
ここで特に、スペクトル周波数軸上では、ピークの数が極めて少ない(例えば、1024の周波数分割数に対して、ピーク数は3である)。また、連続性ラ音の周波数は時間的に変化し得る特徴がある。隣接フレーム間でスペクトルの相関をとった場合、少数のピーク周波数の位置がわずかでも異なれば、連続的な変化であるのにも関わらず相関係数は低い値となる。これに対して、ケプストラムに変換すると、調波構造に関する情報がケフレンシー軸上全体にわたって現れてくるので、ピーク周波数が変化することによる影響が低減され、隣接フレーム間での相関の高低を的確に数値化することができる。
具体的には、図10に示す呼吸音の第nフレームに対応する時刻においては連続性ラ音が含まれているが、この場合には相関係数が高い値として算出される。一方で、図11に示す呼吸音の第mフレームに対応する時刻においては連続性ラ音が含まれていないため、相関係数が低い値として算出される。
図12に示すように、連続性ラ音である類鼾音を含む呼吸音の相関係数には、連続して高い値となる部分が存在している。一方、図13に示す連続性ラ音を含まない呼吸音の相関係数には、図12のように連続して高い値となる部分は存在していない。以上の結果からも、相関係数が連続性ラ音を判定するパラメータとして有効であることが分かる。
再び図2に戻り、相関情報が算出されると、全ての時間フレームに対して相関情報が算出されたか否かが判定される(ステップS108)。全ての時間フレームに対して相関情報が算出されていない場合には(ステップS108:NO)、他の時間フレームについて、ステップS107の処理が実行される。一方、全ての時間フレームに対して相関情報が算出された場合には(ステップS108:YES)、連続性ラ音判定部250において、連続性ラ音傾向Cが算出される(ステップS107)。
以下では、連続性ラ音傾向Cの算出方法について、図14を参照して詳細に説明する。ここに図14は、連続性ラ音傾向の算出方法を示す概念図である。
図14に示すように、連続性ラ音傾向Cは、相関係数P(t)が所定の閾値Pthreを所定の時間幅以上連続して超えている期間の、1呼吸周期に対する割合として算出される。なお、閾値Pthreは、「第2閾値」の一具体例であり、所定の時間幅は「所定時間」の一具体例である。
より具体的には、連続性ラ音傾向Cを算出する際には、相関係数P(t)が所定の閾値Pthreを超えている場合に“1”、所定の閾値Pthre以下である場合に“0”となる関数g(t)が用いられる。連続性ラ音傾向Cは、関数g(t)を用いて、下記数式(8)により算出される。
Figure 2017130417
算出された連続性ラ音傾向Cは、所定閾値Cthreより大きいか否かが判定される(ステップS110)。なお、閾値Cthreは、連続性ラ音傾向Cが十分に高いか否かを判定するための閾値であり、実際の連続性ラ音のデータ等に基づいて予め設定されている。
連続性ラ音傾向Cが所定の閾値Cthreより大きいと判定された場合(ステップS110:YES)、呼吸音には連続性ラ音が含まれると判定される(ステップS111)。一方で、連続性ラ音傾向Cが所定の閾値Cthreより大きくないと判定された場合(ステップS110:NO)、呼吸音には連続性ラ音が含まれないと判定される(ステップS112)。
以上説明した一連の処理による判定結果は、結果表示部300に出力される。これにより、結果表示部300では、生体音に連続性ラ音が含まれるか否かを示す情報が表示されることになる。なお、生体音に連続性ラ音が含まれるか否かを示す情報は、「第2雑音情報」の一具体例である。
<第1実施例の効果>
次に、これまで説明してきた第1実施例に係る生体音解析装置によって得られる技術的効果について説明する。
第1実施例に係る生体音解析装置によれば、呼吸音情報に含まれる雑音を強調させた後、相関係数を用いて連続性ラ音傾向の有無が判定される。相関関数は、既に説明したように、時間的連続性を示すパラメータである。このため、相関関数を利用すれば、ノイズに埋もれたピーク成分や、非定常で周波数が連続的に変化しているピーク成分を検出することができる。この結果、環境等に起因するノイズの影響を好適に低減して、正確に連続性ラ音を判別することが可能となる。
<第2実施例>
次に、第2実施例に係る生体音解析装置について、図15から図19を参照して説明する。なお、第2実施例は、既に説明した第1実施例と多くの部分で共通しており、一部の構成や動作のみが異なるものである。このため、以下では第1実施例と異なる部分についてのみ詳細に説明し、他の重複する部分については、適宜説明を省略するものとする。
<第1実施例との違い>
第2実施例に係る生体音解析装置は、雑音強調処理の部分で第1実施例と異なっている。具体的には、第2実施例は、雑音強調処理として、CMN処理及びリフタリング処理に加えて、KL情報量を用いた処理を実行可能に構成されている。
<KL情報量を用いた強調処理>
以下では、KL情報量を用いた強調処理について、図15から図17を参照して具体的に説明する。ここに図15及び図16は夫々、情報量の数値化概念を示す3次元グラフであり、図17は、情報量の計算手法を示す概念図である。
KL情報量は、観測値Pと基準値Q(例えば、理論値、モデル値、予測値等)とを用いて算出されるパラメータであり、基準値Qに対して特徴のある観測値Pが現れると、KL情報量は大きな値として算出される。KL情報量DKLは、下記数式(9)を用いて算出することができる。
Figure 2017130417
本実施例では、スペクトログラム上のパワー分布を、確率分布とみなしてKL情報DKLを算出している。KL情報量DKLの算出には、CMN処理とリフタリング処理が行われたスペクトルパワーPower[n,ω]が用いられる(n:離散化された時刻インデックス、ω:離散化された周波数インデックス)。なお、時間周波数領域の情報を持った他の物理量(例えば、振幅スペクトル)を用いて計算することも可能である。
図17に示すように、局所的なKL情報量を算出するため、所定の時間方向幅wと、所定の周波数方向幅hとが事前に設定されている。そして、その枠を図の矢印に沿うようにスペクトログラム上順次走査していくことで、各時間周波数領域上のあるポイント[n,ω]まわりの情報が数値化される。
まずは、[n,ω]まわりの点[i,j](i=n−w/2,・・・,n+w/2、j=ω−h/2,・・・,ω+h/2)で下記数式(10)及び(11)を夫々計算し、基準値Q[i,j]及び観測値P[i,j]を求める。
Figure 2017130417
Figure 2017130417
そして、算出したQ[i,j]及びP[i,j]を用いて、下記数式(12)を計算し、KL情報量DKLを算出する。これを、全てのn,ωについて計算すればよい。
Figure 2017130417
算出されたKL情報量DKLは、所定の閾値Dthreと比較され、KL情報量DKLが閾値Dthre以下となった成分がカットされる。これにより、KL情報量DKLが所定の閾値Dthreよりも大きくなる成分が強調されることになる。なお、閾値Dthreは、「第1閾値」の一具体例であり、KL情報量DKLを利用した強調処理は、「第3の処理」の一具体例である。
<第2実施例の効果>
次に、第2実施例に係る生体音解析装置によって得られる技術的効果について、図18及び図19を参照して詳細に説明する。ここに図18は、KL情報量を用いた強調処理前のパワースペクトルの一例を示すパワースペクトログラムであり、図19は、KL情報量を用いた強調処理後のパワースペクトルの一例を示すパワースペクトログラムである。
図18において、第1実施例でも説明したように、CMN処理及びリフタリング処理を行えば、呼吸音情報に含まれる雑音を好適に強調させることができる。しかしながら、図に示す例のように、CMN処理及びリフタリング処理行っただけでは、検出すべき成分(即ち、連続性ラ音成分)だけでなく、不要な成分が残ってしまうことがある。このように不要な成分が検出されていると、相関係数を算出する上で悪影響が生じてしまうと考えられる。
これに対し、上述したKL情報量DKLを用いた強調処理を行えば、不要な成分を更に低減することが可能である。即ち、KL情報量DKLを用いた強調処理を行えば、CMN処理及びリフタリング処理だけを行う場合と比較して、連続性ラ音に対する検出感度を向上させることができる。
図19において、KL情報量DKLを用いた強調処理後のパワースペクトルでは、図18で残されていた不要な成分が除去されている。このように、検出すべき成分だけを残すことができれば、強調処理の結果から、より適切な相関係数を算出することができる。
従って、第2実施例に係る生体音解析装置よれば、呼吸音に含まれる連続性ラ音をより正確に判別することが可能である。
<第3実施例>
次に、第3実施例に係る生体音解析装置について、図20から図24を参照して説明する。なお、第3実施例は、既に説明した第1及び第2実施例と多くの部分で共通しており、一部の構成や動作のみが異なるものである。このため、以下では第1実施例と異なる部分についてのみ詳細に説明し、他の重複する部分については、適宜説明を省略するものとする。
<第1及び第2実施例との違い>
第1及び第2実施例に係る生体音解析装置は、呼吸音に連続性ラ音が含まれているか否かを最終的な出力としている。これに対して、第3実施例に係る生体音解析装置は、呼吸音に含まれている連続性ラ音が類鼾音であるか否かを出力可能に構成されている。
<類鼾音及び笛声音の特性>
以下では、連続性ラ音である類鼾音及び笛声音の特性について、図20から図22を参照して詳細に説明する。ここに図20は、類鼾音を含む生体音のパワースペクトルの一例を示すパワースペクトログラムであり、図21は、笛声音を含む生体音のパワースペクトルの一例を示すパワースペクトログラムである。また図22は、類鼾音及び笛声音の周波数傾向を示すグラフである。
図20及び図21を比べると分かるように、類鼾音と笛声音とでは、発生する周波数帯域が明確に異なっている。特に、120Hz〜130Hzを閾値として見ると、類鼾音は閾値以下の部分でも多く発生しているのに対し、笛声音は閾値以下の部分には殆ど発生していない。なお、図20及び図21に示すスペクトログラムはあくまで一例であるが、本願発明者の研究によれば、その他の例においても同様の傾向があることが判明している。
図22に示すように、120Hz〜130Hzの閾値以下には類鼾音だけが含まれ、笛声音は含まれない。この特性を利用すれば、連続性ラ音が類鼾音であるのか、それとも笛声音であるのかを判別することができる。類鼾音を適切に判別するためには、以下で説明する類鼾音傾向Rを用いることが好ましい。
<類鼾音傾向の算出>
類鼾音傾向Rの算出方法について、図23及び図24を参照して詳細に説明する。ここに図23は、図20に示すパワースペクトログラムの類鼾音傾向を算出する工程を示すプロセス図である。また図24は、図21に示すパワースペクトログラムの類鼾音傾向を算出する工程を示すプロセス図である。
図23及び図24に示すように、類鼾音傾向Rを算出する際には、まず隣接するフレーム間の相関係数P(t)が所定の閾値Pthre以上となっている区間が、連続性ラ音発生区間として検出される。なお、連続性ラ音発生区間は複数の区間として検出されてもよい。
そして、連続性ラ音発生区間における120Hz以下のパワーの割合が類鼾音傾向Rとして算出される。算出された類鼾音傾向Rは、所定の閾値Rthreと比較され、類鼾音傾向Rが所定の閾値Rthre以上である場合には、連続性ラ音が類鼾音であると判定される。一方、類鼾音傾向Rが所定の閾値Rthre未満である場合には、連続性ラ音が類鼾音でない(例えば、笛声音である)と判定される。
<第3実施例の効果>
最後に、第3実施例に係る生体音解析装置によって得られる技術的効果について説明する。
第3実施例に係る生体音解析装置によれば、類鼾音の周波数特性を利用して、連続性ラ音が類鼾音であるか否かを判別することができる。また、本実施例では特に、類鼾音であるか否かを判別するために用いる類鼾音傾向Rが、相関係数P(t)を用いて算出される。このため、時間的連続性が考慮されることになり、より正確な類鼾音傾向Rが算出される。
以上のように、第3実施例に係る生体音解析装置によれば、呼吸音に含まれる連続性ラ音について、より詳細で正確な解析が行える。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体もまた本発明の技術的範囲に含まれるものである。
100 呼吸音取得部
200 処理部
210 時間周波数解析部
220 ケプストラム解析部
230 雑音強調処理部
240 相関情報算出部
250 連続性ラ音判定部
300 結果表示部
P(t) 相関係数
連続性ラ音傾向
KL KL情報量
R 類鼾音傾向

Claims (9)

  1. 生体音の経時的な変化を示す第1生体音情報を取得する取得手段と、
    前記第1生体音情報に対して、前記生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理手段と、
    前記第2生体音情報の互いに隣接する期間における相関関係を示す相関情報を算出する算出手段と、
    前記相関情報に基づいて、前記生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力手段と
    を備えることを特徴とする生体音解析装置。
  2. 前記処理手段は、前記第1の処理として、前記第1生体音情報に対して逆フーリエ変換処理を行うことで算出されるケプストラム情報から、所定次数以下の成分を低減させる処理を行うことを特徴とする請求項1に記載の生体音解析装置。
  3. 前記処理手段は、前記第1の処理を行う前に、所定期間内の複数の前記ケプストラム情報を平均して得られる特性に対応する成分を、前記複数のケプストラム情報の各々から低減させる第2の処理を行うことを特徴とする請求項2に記載の生体音解析装置。
  4. 前記処理手段は、前記第1の処理を行った後に、前記第2生体音情報の所定基準値からの乖離量に応じて定まる情報量を所定区間ごとに算出し、前記情報量が第1閾値以下の成分を低減させる第3の処理を行うことで、第2生体音情報を生成することを特徴とする請求項3に記載の生体音解析装置。
  5. 前記出力手段は、所定周期における前記相関情報が第2閾値を所定時間以上連続して超える期間の割合を算出し、前記期間の割合が所定割合以上である場合に、前記第2雑音情報を出力することを特徴とする請求項1から4のいずれか一項に記載の生体音解析装置。
  6. 前記出力手段は、前記第2雑音情報のうち、所定の周波数以下の成分の割合が第3閾値以上であるものを、類鼾音を示す第3雑音情報として出力することを特徴とする請求項1から5のいずれか一項に記載の生体音解析装置。
  7. 生体音の経時的な変化を示す第1生体音情報を取得する取得工程と、
    前記第1生体音情報に対して、前記生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理工程と、
    前記第2生体音情報の互いに隣接する期間における相関関係を示す相関情報を算出する算出工程と、
    前記相関情報に基づいて、前記生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力工程と
    を備えることを特徴とする生体音解析方法。
  8. 生体音の経時的な変化を示す第1生体音情報を取得する取得工程と、
    前記第1生体音情報に対して、前記生体音に含まれる雑音を示す第1雑音情報を強調させる第1の処理を行うことで、第2生体音情報を生成する処理工程と、
    前記第2生体音情報の互いに隣接する期間における相関関係を示す相関情報を算出する算出工程と、
    前記相関情報に基づいて、前記生体音に含まれる連続的な雑音を示す第2雑音情報を出力する出力工程と
    をコンピュータに実行させることを特徴とするコンピュータプログラム。
  9. 請求項8に記載のコンピュータプログラムが記録されていることを特徴とする記録媒体。
JP2017563661A 2016-01-29 2016-01-29 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体 Active JP6501917B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/052835 WO2017130417A1 (ja) 2016-01-29 2016-01-29 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2017130417A1 true JPWO2017130417A1 (ja) 2018-11-22
JP6501917B2 JP6501917B2 (ja) 2019-04-17

Family

ID=59398896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017563661A Active JP6501917B2 (ja) 2016-01-29 2016-01-29 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体

Country Status (3)

Country Link
US (1) US10482897B2 (ja)
JP (1) JP6501917B2 (ja)
WO (1) WO2017130417A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2766751C1 (ru) * 2021-03-05 2022-03-15 Федеральное государственное бюджетное образовательное учреждение высшего образования «Юго-Западный государственный университет» (ЮЗГУ) (RU) Способ диагностики астматического бронхита в процессе аускультации легких взрослых людей

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005066045A (ja) * 2003-08-25 2005-03-17 Konica Minolta Medical & Graphic Inc 音データ処理装置及びプログラム
JP2014050672A (ja) * 2012-08-09 2014-03-20 Jvc Kenwood Corp 呼吸音分析装置、呼吸音分析方法および呼吸音分析プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4310137B2 (ja) 2003-06-02 2009-08-05 コニカミノルタエムジー株式会社 生体音検出データ処理装置、生体音検出データ処理方法及び生体音検出データ処理プログラム
IL211481A0 (en) * 2011-02-28 2011-06-30 David Eduard Sitbon A survival necklace
JP6048065B2 (ja) 2011-10-31 2016-12-21 株式会社Jvcケンウッド 呼吸音分析装置、断続性ラ音検出装置、連続性ラ音検出装置、断続性ラ音検出プログラム、連続性ラ音検出プログラムおよび呼吸音分析プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005066045A (ja) * 2003-08-25 2005-03-17 Konica Minolta Medical & Graphic Inc 音データ処理装置及びプログラム
JP2014050672A (ja) * 2012-08-09 2014-03-20 Jvc Kenwood Corp 呼吸音分析装置、呼吸音分析方法および呼吸音分析プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
和井田将広 外3名: "呼吸音検出アルゴリズムの為の音響特徴量の抽出", 日本音響学会研究発表会講演論文集 日本音響学会編, vol. 2014.春季, JPN7016001030, 3 March 2014 (2014-03-03), JP, pages 805 - 808, ISSN: 0003978734 *
淵田篤 外2名: "肺音の自動認識における副雑音の検出アルゴリズム", 薬理と臨床, vol. 17, no. 5, JPN6016015467, September 2007 (2007-09-01), JP, pages 481 - 487, ISSN: 0003978732 *
鈴木彰文: "副雑音のリアルタイム検出を可能とする肺音モニタの開発", 薬理と臨床, vol. 19, no. 5, JPN6016015468, September 2009 (2009-09-01), JP, pages 365 - 369, ISSN: 0003978733 *

Also Published As

Publication number Publication date
US20190051315A1 (en) 2019-02-14
US10482897B2 (en) 2019-11-19
WO2017130417A1 (ja) 2017-08-03
JP6501917B2 (ja) 2019-04-17

Similar Documents

Publication Publication Date Title
EP3526792B1 (en) Voice activity detection method and apparatus
US20170135649A1 (en) Breath sound analyzing apparatus, breath sound analyzing method, computer program, and recording medium
JP6467044B2 (ja) シャント音解析装置、シャント音解析方法、コンピュータプログラム及び記録媒体
JP5077847B2 (ja) 残響時間推定装置及び残響時間推定方法
WO2017130417A1 (ja) 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体
JP6531187B2 (ja) 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体
JP6630149B2 (ja) 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体
JP6298340B2 (ja) 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
JP2015188642A (ja) 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
JP6298339B2 (ja) 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
US10441243B2 (en) Biological sound analyzing apparatus, biological sound analyzing method, computer program, and recording medium
JP6715529B2 (ja) 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体
JP2020118496A (ja) 振動分析装置、振動分析方法及びプログラム
JP7089648B2 (ja) 生体音解析装置、プログラム、及び生体音解析方法
JP7001806B2 (ja) 呼吸音解析装置、呼吸音解析方法、コンピュータプログラム及び記録媒体
JP2015188601A (ja) 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
JP6857450B2 (ja) 生体音解析装置及び生体音解析方法、並びにコンピュータプログラム及び記録媒体
JP2019111347A (ja) シャント音解析装置、シャント音解析方法、コンピュータプログラム及び記録媒体
JP2020134310A (ja) 振動分析装置、振動分析方法及びプログラム
JP2019150641A (ja) 呼吸音解析装置
JP2016030067A (ja) 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190319

R150 Certificate of patent or registration of utility model

Ref document number: 6501917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250