JP2020027569A - 生体音診断装置 - Google Patents

生体音診断装置 Download PDF

Info

Publication number
JP2020027569A
JP2020027569A JP2018153511A JP2018153511A JP2020027569A JP 2020027569 A JP2020027569 A JP 2020027569A JP 2018153511 A JP2018153511 A JP 2018153511A JP 2018153511 A JP2018153511 A JP 2018153511A JP 2020027569 A JP2020027569 A JP 2020027569A
Authority
JP
Japan
Prior art keywords
deep learning
data set
data
diagnostic
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018153511A
Other languages
English (en)
Inventor
貴司 芦原
Takashi Ashihara
貴司 芦原
教彰 桑原
Noriaki Kuwabara
教彰 桑原
聖 北田
Sei Kitada
聖 北田
大木 武彦
Takehiko Oki
武彦 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Institute of Technology NUC
Shiga University of Medical Science NUC
Ohgi Technological Creation Co Ltd
Original Assignee
Kyoto Institute of Technology NUC
Shiga University of Medical Science NUC
Ohgi Technological Creation Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto Institute of Technology NUC, Shiga University of Medical Science NUC, Ohgi Technological Creation Co Ltd filed Critical Kyoto Institute of Technology NUC
Priority to JP2018153511A priority Critical patent/JP2020027569A/ja
Publication of JP2020027569A publication Critical patent/JP2020027569A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

【課題】深層学習を好適に利用して複数種の異常を容易に診断できる生体音診断装置を提供する。【解決手段】この生体音診断装置1は、生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成される複数個の深層学習データセット及び被診断データセットを作成するデータセット作成プログラム3と、前記複数個の深層学習データセットをニューラルネットワーク8に入力させ、該深層学習データセットの出所を識別するようにその特徴を学習させる深層学習プログラム4と、前記被診断データセットを前記深層学習処理済みのニューラルネットワーク8に入力させ、前記深層学習処理済みのどの出所の前記深層学習データセットに該当するかどうかを判別させることにより診断する診断プログラム5と、を備える。【選択図】図1

Description

本発明は、生体音を診断する生体音診断装置に関する。
医師は、聴診器を用いて心音や呼吸音などの生体音を聴き、異常の有無、更には異常の種類を診断する。この診断は、長年の熟練を要するものであるため、人間の耳による診断を補助するために、コンピュータによる生体音の診断が種々提案されてきた。その中で、心音について、フーリエ変換により生成した周波数スペクトルデータを利用した診断の技術が提案されている。
特許文献1には、タイマを用いることでI音及びII音を回避して収縮期及び拡張期の心雑音が含まれる一定期間の心音の波形データを取得し、それから生成した周波数スペクトルデータを基準の周波数スペクトルデータと照合して診断する技術が開示されている。特許文献2には、時間を所定の一定期間(フレーム)で分割し、各フレームにおける周波数スペクトルデータを用いて心雑音区間を検出し、心雑音区間における複数個の設定した周波数帯域に含まれるパワーの割合に基づいて診断する技術が開示されている。特許文献3には、心音の波形データと周波数スペクトルデータを用いて、心拍間隔、I音−II音の間隔、周波数域幅、中心周波数を心音特徴値パラメータとして算出し、その分布域を囲む境界線を楕円近似して求めた楕円パラメータに基づいて診断する技術が開示されている。特許文献4には、窓関数を用いて収縮期の心雑音が含まれる一定期間の心音の周波数スペクトルデータを生成し、その周波数スペクトルの強さ(パワースペクトル)が設定した第1閾値ラインを超えると異常と診断する技術が開示されている。
特開昭63−252136号公報 特開2014−087543号公報 特開2014−233598号公報 特開2015−188512号公報
一方、今日、人工知能(AI)における深層学習(Deep Learning)の進歩は目覚ましいものがあり、様々な分野に利用されている。深層学習は、人間の脳と同じ神経回路を模した多層構造のニューラルネットワークが、入力したデータの特徴を自動で学習し、出力が入力したデータに適合するように、人間の関与なしに自身のニューラルネットワークを更新するものである。
上記の特許文献1〜4を含め従来の生体音診断の技術は、異常と診断する基準が比較的単純であるため、複数種の異常を診断することが必ずしも容易ではない。
本発明は、係る事由に鑑みてなされたものであり、その目的は、深層学習を好適に利用して複数種の異常を容易に診断できる生体音診断装置及び生体音診断方法を提供することにある。
上記目的を達成するために、請求項1に記載の生体音診断装置は、生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成される複数個の深層学習データセット及び被診断データセットを作成するデータセット作成処理を行うデータセット作成プログラムと、前記複数個の深層学習データセットをニューラルネットワークに入力させ、該深層学習データセットの出所を識別するようにその特徴を学習させる深層学習処理を行う深層学習プログラムと、前記被診断データセットを前記深層学習処理済みの前記ニューラルネットワークに入力させ、前記深層学習処理済みのどの出所の前記深層学習データセットに該当するかどうかを判別させることにより診断する診断処理を行う診断プログラムと、を備えることを特徴とする。
請求項2に記載の生体音診断装置は、被診断データセットを深層学習処理済みのニューラルネットワークに入力させ、深層学習処理済みのどの出所の深層学習データセットに該当するかどうかを判別させることにより診断する診断処理を行う診断プログラムを備える生体音診断装置であって、前記被診断データセット及び前記深層学習データセットは、生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成され、前記ニューラルネットワークは、複数個の前記深層学習データセットが入力され、該深層学習データセットの前記出所を識別するようにその特徴を学習する前記深層学習処理が行われたものであることを特徴とする。
請求項3に記載の生体音診断方法は、生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成される複数個の深層学習データセット及び被診断データセットを作成するデータセット作成処理と、前記複数個の深層学習データセットをニューラルネットワークに入力させ、該深層学習データセットの出所を識別するようにその特徴を学習させる深層学習処理と、前記被診断データセットを前記深層学習処理済みの前記ニューラルネットワークに入力させ、前記深層学習処理済みのどの出所の前記深層学習データセットに該当するかどうかを判別させることにより診断する診断処理と、を備えることを特徴とする。
請求項4に記載の生体音診断方法は、被診断データセットを深層学習処理済みのニューラルネットワークに入力させ、深層学習処理済みのどの出所の深層学習データセットに該当するかどうかを判別させることにより診断する診断処理を備える生体音診断方法であって、前記被診断データセット及び前記深層学習データセットは、生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成され、前記ニューラルネットワークは、複数個の前記深層学習データセットが入力され、該深層学習データセットの前記出所を識別するようにその特徴を学習する前記深層学習処理が行われたものであることを特徴とする。
本発明の生体音診断装置又は生体音診断方法によれば、深層学習を好適に利用して複数種の異常を容易に診断可能になる。
本発明の実施形態に係る生体音診断装置を示すブロック図である。 同上の生体音診断装置のデータセット作成処理に入力される生体音の波形データの例を示す概略図である。 同上の生体音診断装置の処理単位データの例のスペクトログラムを示すものであって、(a)がスペクトログラム、(b)が周波数成分の強さ(振幅)とスペクトログラム図示上の明るさの対応を示すものである。 同上の生体音診断装置の深層学習処理で用いる多層構造のニューラルネットワークの例を示すブロック図である。 同上の生体音診断装置の実験での深層学習処理における正答率と診断処理における正答率の結果を示すグラフである。
以下、本発明を実施するための形態を図面を参照しながら説明する。本発明の実施形態に係る生体音診断装置1は、図1に示すように、プロセッシングユニット(例えば、CPUやGPUなど)2と各種プログラムを有するコンピュータであって、プロセッシングユニット2が各種プログラムの各種処理を実行する。各種プログラムは、データセット作成プログラム3、深層学習プログラム4、診断プログラム5が含まれる。
データセット作成プログラム3は、データセット作成処理を行うプログラムである。データセット作成処理においては、波形データ記憶部6から生体音(例えば、心音や呼吸音など)の波形データが入力される。生体音の波形データは、通常は、予め人(例えば、患者やデータ提供者等)から採取したものである。採取には、聴診器と録音装置(例えば、ボイスレコーダ等)を用いることができる。採取した生体音は、一般に、ノイズ除去などが行われる。
データセット作成処理に入力される生体音の波形データは、サンプリングレートが所定(例えば、20kHzなど)のものである。波形データは、図2に示すように、所定のスライディング期間(例えば、1秒など)でスライドしながら、所定の処理単位期間(例えば、5秒など)で切り取られる。つまり、隣接する処理単位期間は、処理単位期間からスライディング期間だけ引いた期間だけ、重なりを持つ。スライディング期間は、生体音の経時変化の連続性を担保するものである。
処理単位期間の波形データは、所定のフーリエ変換単位期間(例えば、25ミリ秒など)で分割される。各フーリエ変換単位期間の生体音の波形データは、フーリエ変換され、各フーリエ変換単位期間の生体音の周波数スペクトルデータが生成される。各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べると、生体音の周波数成分ごとの強さの経時変化を示すデータとなる。この生体音の周波数成分ごとの強さの経時変化を示すデータは、スペクトログラムと称される三次元表示のグラフ(例えば、横軸が時間、縦軸が周波数、色又は明るさが周波数成分の強さ)(図3参照)で良好に表すことができる。なお、図3は、図示の都合上、周波数成分の強さを明るさで示している。
こうして、図3に示すような、処理単位期間のデータ(処理単位データ)が作成される。なお、処理単位データの作成は、各フーリエ変換単位期間の生体音の周波数スペクトルデータを処理単位期間より長い期間(例えば、データセット作成処理で用いる全ての期間)生成しておいて、処理単位期間だけ並べることによって行うことも場合によっては可能である。
処理単位データは上記の切り取られた必要数だけ作成され、それら複数個の処理単位データは、1個のデータセットを構成する。
このようなデータセットは、出所の違いに対応して複数個作成される。出所は、元データ(生体音の波形データ)の採取先である。複数個のデータセットには、後述する深層学習処理で用いられるもの(深層学習データセット)と診断処理で用いられるもの(被診断データセット)が含まれる。深層学習データセットは、複数個である。それらのデータセットは、1個又は複数個のデータセット記憶部7に記憶される。複数個の深層学習データセットは、生体音の種類(例えば、心音や呼吸音など)に応じ、それに関連する各種の疾患を患った人々及び疾患を患っていない人々を出所とする複数種のデータセットとすることができる。被診断データセットは、診断を受ける人(例えば、患者や健康診断の受診者など)を出所とするデータセットとすることができる。
次に、深層学習プログラム4を説明する。深層学習プログラム4は、深層学習処理を行うプログラムである。深層学習処理は、深層学習モデルとして、多層構造のニューラルネットワーク8を用いる。多層構造のニューラルネットワーク8は、例えば、図4に示すような畳み込みニューラルネットワーク(CNN)とすることができる。
深層学習処理では、個々の深層学習データセット(詳しくは、それに含まれる複数個の処理単位データ)をニューラルネットワーク8に入力させる。ニューラルネットワーク8では、個々の深層学習データセットのそれぞれの出所を識別(出力が出所に適合)するようにそれぞれの特徴が学習され、自身のニューラルネットワーク8を更新する。深層学習処理において更新を重ねると、一般に、出所を識別する正答率が高くなる。
このような深層学習処理は、良好な正答率(例えば、90%以上など)を満たす深層学習処理済みのニューラルネットワーク8を得ることができる。
次に、診断プログラム5を説明する。診断プログラム5は、診断処理を行うプログラムである。診断処理は、上記深層学習処理で得た深層学習処理済みのニューラルネットワーク8を用いる。
診断処理においては、データセット記憶部7から被診断データセットが入力される。診断処理では、被診断データセット(詳しくは、それに含まれる複数個の処理単位データ)を深層学習処理済みのニューラルネットワーク8に入力させる。深層学習処理済みのニューラルネットワーク8では、被診断データセットは、深層学習処理済みのどの出所の深層学習データセットに該当するかどうかが判別される。各種の疾患を患った人々の出所の深層学習データセットに該当すると判別されれば、その疾患、つまり異常と診断され、疾患を患っていない人々の出所の深層学習データセットに該当する(或いは、各種の疾患を患った人々の出所に該当しない)と判別されれば、正常と診断される。
このように、生体音診断装置1は、生体音の種類(例えば、心音や呼吸音など)に応じ、それに関連する各種の疾患を患った人々及び疾患を患っていない人々を出所とする複数種のデータセットを上記のデータセット作成処理により作成して上記深層学習処理を行い、被診断データセットについて、上記診断処理を行うことで、複数種の異常を容易に診断可能になる。
なお、診断処理は、深層学習処理済みのデータセットの一部(又は全部)或いは深層学習処理済みのデータセットと同じ出所のデータセットを被診断データセットとして入力して、深層学習処理済みのデータセットの確認テストに用いることもできる。
また、データセット作成プログラム3、深層学習プログラム4、診断プログラム5は、それぞれが別のプロセッシングユニット2で実行されることも可能である。
次に、生体音診断装置1による生体音の識別の実験について述べる。生体音は、心音とした。実験に使用した部屋は、一定の温度に保たれており、騒音計で測定したところ46dBであった。安静時の実験協力者3名の各々について、心尖部(僧帽弁領域)の心音を3分間の2セット分、採取した。実験協力者3名は、心疾患を患っていない20代の男性である。採取は、聴診器にボイスレコーダを接続して作製した器具を用いて、聴診器のベル面を肌に直接押し当て、心音の波形データをボイスレコーダで記録することで行った。心音の波形データのノイズ除去には、一般の波形編集ソフトウェアを用いた。
データセット作成処理においては、心音の波形データのサンプリングレートを20kHz、フーリエ変換単位期間を25ミリ秒、スライディング期間を1秒、処理単位期間を5秒とした。データセット作成処理においては、6個のデータセット(実験協力者3名の各々2セット分)を得た。
データセット作成処理で得た各データセットのうち、90%のサブセットを深層学習処理に、10%のサブセットを診断処理に用いた。ニューラルネットワーク8は、畳み込みニューラルネットワークとした。
深層学習処理では、図5の曲線aに示すように、学習を重ねるにつれて、出所を識別する正答率が概ね増大して行っているのが分かる。詳細には、エポック(epoch)数が40近くで正答率が80%以上になり、エポック数が90近くで正答率が95%以上になり、その後、エポック数が増えるにつれて100%に概ね近づいているのが分かる。なお、エポック数とは、深層学習処理に用いる全てのデータセットのサブセットが入力されると1回と数える繰り返しの回数である。また、正否判断は、各エポック数において、深層学習処理に用いたデータセットのサブセットのうち10%を入力して行った。
診断処理では、図5の曲線bに示すように、最初は正答率が良くないものの、学習を重ねると、エポック数が40近くで約80%の正答率が維持され始め、その後、約80%が概ね維持されているのが分かる。
以上述べた生体音診断装置1による実験の比較実験として、以下述べるように、人間の耳による診断の実験を行った。すなわち、上記の心音を採取した実験協力者3名とは別の実験協力者(一般人)1名に周囲の雑音が入らないような密閉性の高いヘッドホンで3名分の心音を聞かせた後、無作為に選出した5秒間の心音の10個のサンプルを聞かせ、それらが誰の心音なのかを回答させた。その結果は、約20%の正答率であった。
このように、生体音診断装置1は、心音について高い診断能力を示している。この実験では、心疾患を患っていない人の心音について行ったものであるが、心疾患を患っている人の心音はこの実験の心音よりも大きな特徴を有していると言える。よって、生体音診断装置1は、心疾患を患っていない人の心音について高い正答率で診断できるとともに、心疾患を患っている人の心音についても高い正答率で診断できるものと考えられる。
以上、本発明の実施形態に係る生体音診断装置について説明したが、本発明は、実施形態に記載したものに限られることなく、特許請求の範囲に記載した事項の範囲内でのさまざまな設計変更が可能である。また、生体音診断装置を心音や呼吸音などを含む複数種の生体音に適用し、統合的に人を診断できる統合的生体音診断装置とすることも可能である。
1 生体音診断装置
2 プロセッシングユニット
3 データセット作成プログラム
4 深層学習プログラム
5 診断プログラム
6 波形データ記憶部
7 データセット記憶部
8 ニューラルネットワーク

Claims (4)

  1. 生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成される複数個の深層学習データセット及び被診断データセットを作成するデータセット作成処理を行うデータセット作成プログラムと、
    前記複数個の深層学習データセットをニューラルネットワークに入力させ、該深層学習データセットの出所を識別するようにその特徴を学習させる深層学習処理を行う深層学習プログラムと、
    前記被診断データセットを前記深層学習処理済みの前記ニューラルネットワークに入力させ、前記深層学習処理済みのどの出所の前記深層学習データセットに該当するかどうかを判別させることにより診断する診断処理を行う診断プログラムと、
    を備えることを特徴とする生体音診断装置。
  2. 被診断データセットを深層学習処理済みのニューラルネットワークに入力させ、深層学習処理済みのどの出所の深層学習データセットに該当するかどうかを判別させることにより診断する診断処理を行う診断プログラムを備える生体音診断装置であって、
    前記被診断データセット及び前記深層学習データセットは、生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成され、
    前記ニューラルネットワークは、複数個の前記深層学習データセットが入力され、該深層学習データセットの前記出所を識別するようにその特徴を学習する前記深層学習処理が行われたものであることを特徴とする生体音診断装置。
  3. 生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成される複数個の深層学習データセット及び被診断データセットを作成するデータセット作成処理と、
    前記複数個の深層学習データセットをニューラルネットワークに入力させ、該深層学習データセットの出所を識別するようにその特徴を学習させる深層学習処理と、
    前記被診断データセットを前記深層学習処理済みの前記ニューラルネットワークに入力させ、前記深層学習処理済みのどの出所の前記深層学習データセットに該当するかどうかを判別させることにより診断する診断処理と、
    を備えることを特徴とする生体音診断方法。
  4. 被診断データセットを深層学習処理済みのニューラルネットワークに入力させ、深層学習処理済みのどの出所の深層学習データセットに該当するかどうかを判別させることにより診断する診断処理を備える生体音診断方法であって、
    前記被診断データセット及び前記深層学習データセットは、生体音の波形データが入力され、各フーリエ変換単位期間の生体音の周波数スペクトルデータを時間軸に沿って並べられたものであって、スライディング期間だけスライドする複数個の処理単位期間の処理単位データから構成され、
    前記ニューラルネットワークは、複数個の前記深層学習データセットが入力され、該深層学習データセットの前記出所を識別するようにその特徴を学習する前記深層学習処理が行われたものであることを特徴とする生体音診断方法。
JP2018153511A 2018-08-17 2018-08-17 生体音診断装置 Pending JP2020027569A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018153511A JP2020027569A (ja) 2018-08-17 2018-08-17 生体音診断装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018153511A JP2020027569A (ja) 2018-08-17 2018-08-17 生体音診断装置

Publications (1)

Publication Number Publication Date
JP2020027569A true JP2020027569A (ja) 2020-02-20

Family

ID=69620568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153511A Pending JP2020027569A (ja) 2018-08-17 2018-08-17 生体音診断装置

Country Status (1)

Country Link
JP (1) JP2020027569A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08227410A (ja) * 1994-12-22 1996-09-03 Just Syst Corp ニューラルネットワークの学習方法、ニューラルネットワークおよびニューラルネットワークを利用した音声認識装置
JP2003202260A (ja) * 2001-10-25 2003-07-18 Hitachi Zosen Corp 音源識別装置および突発事象検出装置並びに突発事象自動記録装置
WO2010044452A1 (ja) * 2008-10-16 2010-04-22 国立大学法人長崎大学 情報判定支援方法、音情報判定方法、音情報判定支援装置、音情報判定装置、音情報判定支援システム及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08227410A (ja) * 1994-12-22 1996-09-03 Just Syst Corp ニューラルネットワークの学習方法、ニューラルネットワークおよびニューラルネットワークを利用した音声認識装置
JP2003202260A (ja) * 2001-10-25 2003-07-18 Hitachi Zosen Corp 音源識別装置および突発事象検出装置並びに突発事象自動記録装置
WO2010044452A1 (ja) * 2008-10-16 2010-04-22 国立大学法人長崎大学 情報判定支援方法、音情報判定方法、音情報判定支援装置、音情報判定装置、音情報判定支援システム及びプログラム

Similar Documents

Publication Publication Date Title
Luke et al. Analysis methods for measuring passive auditory fNIRS responses generated by a block-design paradigm
US20040260188A1 (en) Automated auscultation system
Moulin-Frier et al. Adverse conditions improve distinguishability of auditory, motor, and perceptuo-motor theories of speech perception: An exploratory Bayesian modelling study
KR20190081626A (ko) 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
Bradford et al. Clinical judgement of hypernasality in cleft palate children
TW201327460A (zh) 用於語音輔助醫療診斷的裝置與方法
Kumar et al. Estimating respiratory rate from breath audio obtained through wearable microphones
Khan et al. Artificial neural network-based cardiovascular disease prediction using spectral features
Wołk et al. Early and remote detection of possible heartbeat problems with convolutional neural networks and multipart interactive training
CN114027842B (zh) 一种抑郁症客观筛查系统、方法及装置
Harun et al. EEG classification analysis for diagnosing autism spectrum disorder based on emotions
Bonotis et al. Automated assessment of pain intensity based on EEG signal analysis
Ali et al. An end-to-end deep learning framework for real-time denoising of heart sounds for cardiac disease detection in unseen noise
Harsola et al. Low cost digital stethoscope for heart sounds
Ghassemian et al. Early detection of pediatric heart disease by automated spectral analysis of phonocardiogram
JP2020027569A (ja) 生体音診断装置
Abedi et al. Investigating the effect of traditional Persian music on ECG signals in young women using wavelet transform and neural networks
WO2023281424A1 (en) Integrative system and method for performing medical diagnosis using artificial intelligence
CN115363585A (zh) 一种基于去习惯化与观影任务的标准化群体抑郁风险筛查系统及方法
Shangkai et al. An Autoregressive Model of the BAEP Signal for Hearng-Threshold Testing
US10952625B2 (en) Apparatus, methods and computer programs for analyzing heartbeat signals
Sabouri et al. Effective features in the diagnosis of cardiovascular diseases through phonocardiogram
Kumar et al. A discrete wavelet packet transform based approach for selection of artifact-free phonocardiogram segment
KR102495649B1 (ko) 심리생리학적 지표 측정을 통한 공격성 특질 분석 및 모니터링 시스템
Turner et al. Cardiac Auscultation Using Artificial Intelligence on Different Devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201002