JP6908243B2 - 生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 - Google Patents

生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 Download PDF

Info

Publication number
JP6908243B2
JP6908243B2 JP2017565502A JP2017565502A JP6908243B2 JP 6908243 B2 JP6908243 B2 JP 6908243B2 JP 2017565502 A JP2017565502 A JP 2017565502A JP 2017565502 A JP2017565502 A JP 2017565502A JP 6908243 B2 JP6908243 B2 JP 6908243B2
Authority
JP
Japan
Prior art keywords
bioacoustic
data
unit
auditory image
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017565502A
Other languages
English (en)
Other versions
JPWO2017135127A1 (ja
Inventor
崇宏 榎本
崇宏 榎本
正武 芥川
正武 芥川
亮 野中
亮 野中
憲市郎 川野
憲市郎 川野
アール. アビラトナ,ウダンタ
アール. アビラトナ,ウダンタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Queensland UQ
Original Assignee
University of Queensland UQ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Queensland UQ filed Critical University of Queensland UQ
Publication of JPWO2017135127A1 publication Critical patent/JPWO2017135127A1/ja
Application granted granted Critical
Publication of JP6908243B2 publication Critical patent/JP6908243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pulmonology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器に関する。
ヒトの発する音である生体音響を解析して、疾患や疾病の症例判定や解析等を行う生体音響解析が行われている。このような生体音響解析を行うにあたっては、解析対象の音響データに、生体音響のデータのみが含まれていること、いいかえると生体音響以外の音響、例えばノイズ等を排除し、必要な音響データを抽出する作業が必要となる。ノイズが含まれていると、症例解析や判定、診断の精度に影響を与え、かといって本来の音響データがノイズと共に除去されてしまっても、同様に判定結果等の信頼性に影響を生じることから、これらの生体音響解析に当たっては、生体音響のデータのみを正確に選別することが求められる。従来、このような作業は人手による手作業で行われていたため、多大な負担となっており、音響データ中から必要な生体音響データのみを精度よく自動抽出可能なシステムが求められている。しかしながら、実用的な精度で自動抽出可能な手法は、未だ確立されていない。
生体音響の一例として、いびき音を取り上げる。近年、睡眠時無呼吸症候群(Sleep Apnea Syndrome:SAS)が注目されており、これは睡眠時に一定の無呼吸又は低呼吸を伴い、日中の過度の眠気や睡眠中の窒息感や喘ぎ、反復する中途覚醒等の症状を引き起こす病である。特に閉塞性睡眠時無呼吸症候群(Obstructive Sleep Apnea Syndrome:OSAS)は、高血圧症、脳卒中、狭心症、心筋梗塞等循環器病を合併する危険が指摘されており、早期の発見が求められている(例えば特許文献1、非特許文献1〜4)。
現在、SASの診断には終夜睡眠ポリグラフ(Polysomnography:PSG)を用いた検査が行われている。これは、患者の検査入院を必要とする大掛かりな検査で、費用がかかる上、一晩中電極を体に貼り付ける必要があるため、患者の体に負担がかかってしまう。具体的には、患者の鼻口気流、気管音、酸素飽和度等を記録する必要があるため、測定機器や測定センサを多数、患者に装着する必要があった。またSASの簡易検査は睡眠時に実施されるため、これらの測定センサの取付状況等は測定結果に大きな影響を与える。例えば患者の寝返り等で測定センサが外れたり、装着位置がずれたり、衣服が擦れる音を拾う等の問題が発生する。また、睡眠時に測定センサ等が患者に装着された状況は、身体的、精神的な負担、苦痛ともなって望ましくない。このため、より簡便な検査方法の実現が期待されている。その1つのアプローチとして、いびき音の音響解析による方法に近年注目が集まっている。
しかしながら、これまでのいびき音の研究では、終夜録音した睡眠時の録音(Sleep Related Sound:SRS、以下「睡眠関連音」と呼ぶ。)データから注目するいびきエピソードを抽出する作業を手作業で行っていることから、データ収集時の負担が大きく、この結果、比較的小規模ないびき音データしか分析できなかった。
診断技術としていびき音の分祈を行うためには、就寝中の長時間に渡って録音されたいびき音について着目する必要がある。そのためには、これまで手作業で行っていたいびきエピソードの抽出作業を自動化することが必須となる。
一方で、患者のいびき音を負担なく収集する方法として、接触式のマイロフォンでなく、非接触式マイクロフォンを採用することが考えられる。しかしながら、非接触としたことで患者とマイクロフォンとの距離が、接触式のマイクロフォンと比べて相対的に大きくなる分だけ、いびき音の音量(音響スペクトルの振幅値)が小さくなり、寝言、咳、呼吸等、いびき音以外の患者から発生する音や、さらに患者以外に起因する物音、例えばベッドのきしむ音、金属音等のノイズの成分が高くなって、相対的に信号対雑音比(SNR)が悪化することが懸念される。よって、実際に生体音響解析を行うにあたっては、その前処理としてノイズ成分を除去する必要があるところ、SNRが悪化した音響データから、いびき音のみといった、必要な音響データを正確に抽出することは極めて困難であり、実用的な方法が求められていた。
特開2014−166568号公報 米国特許第8880207号明細書 米国特許出願公開2015−0039110号明細書
Abeyratne, U. R., et al. "Obstructive sleep apnea screening by integrating snore feature classes." Physiological measurement 34.2 (2013): 99. Ohishi, Yasunori, et al. "Discrimination between singing and speaking voices." INTERSPEECH. 2005. Patterson, Roy D., Mike H. Allerhand, and Christian Giguere. "Time‐domain modeling of peripheral auditory processing: A modular architecture and a software platform." The Journal of the Acoustical Society of America 98.4 (1995): 1890-1894. 榎本他,雑音耐性に優れたいびきのホルマン卜周波数解析に基づく閉塞型睡眠時無呼吸症候群と単純いびき症との識別,生体医工学,vo1.48,no.1,pp.115-121,2010 Duckitt, W. D., S. K. Tuomi, and T. R. Niesler. "Automatic detection, segmentation and assessment of snoring from ambient acoustic data." Physiological Measurement 27.10 (2006): 1047. Karunajeewa, A. S., U. R. Abeyratne, and C. Hukins. "Silence-breathing-snore classification from snore-related sounds." Physiological Measurement 29.2 (2008): 227. Cavusoglu, M., et al. "An efficient method for snore/nonsnore classification of sleep sounds." Physiological Measurement 28.8 (2007): 841. Karunajeewa, A. S., U. R. Abeyratne, and C. Hukins. "Silence-breathing-snore classification from snore-related sounds." Physiological Measurement 29.2 (2008): 227. Azarbarzin, A., and Z. Moussavi. "Automatic and unsupervised snore sound extraction from respiratory sound signals." Biomedical Engineering, IEEE Transactions on 58.5 (2011): 1156-1162. Dafna, E., A. Tarasiuk, and Y. Zigel. "Automatic detection of whole night snoring events using non-contact microphone." PloS One 8.12 (2013): e84139. Tsuzaki, Minoru. "Feature extraction by auditory modeling for unit selection in concatenative speech synthesis." Interspeech PP. 2223-2226 2001). Nonaka, Ryo, et al., "いびき音解析に用いる睡眠音分類法の開発," Proceedings of Life Engineering Symposium 2014 (LE 2014).
本発明は、従来のこのような問題点を解決するためになされたものである。本発明の主な目的は、生体音響を含む音響データ中から精度よく必要な生体音響データを抽出可能な生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器を提供することにある。
課題を解決するための手段及び発明の効果
上記目的を達成するため、本発明の第1の形態に係る生体音響抽出装置によれば、生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出装置であって、生体音響データを含む元音響データを取得するための入力部と、前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、前記聴覚像生成部で生成された聴覚像に対して、音響特徴量を抽出する音響特徴量抽出部と、前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部とを備え、前記判別部による生体音響データの判別を、非言語処理とすることができる。上記構成により、元音響データを聴覚イメージモデルを用いて聴覚像に変換した上で音響特徴量に基づいて分類することで、ノイズと必要な生体音響データとを精度よく判別することができる。また、このように従来の音声信号に対する処理、例えば発話者の識別や音声認識といった言語に関する処理でなく、いびき音や腸音のような生体音響データに対する症例や疾患の処理において、聴覚イメージモデルに基づいた処理を適用でき、言語によらず広く適用できる。
また、本発明の第2の形態に係る生体音響抽出装置によれば、前記聴覚像生成部が、聴覚イメージモデルを用いて安定化聴覚像を生成するよう構成しており、前記音響特徴量抽出部が、前記聴覚像生成部で生成された安定化聴覚像に基づいて、音響特徴量を抽出することができる。
さらに、本発明の第3の形態に係る生体音響抽出装置によれば、前記聴覚像生成部が、さらに安定化聴覚像から、総括安定化聴覚像と、聴覚スペクトルを生成するよう構成しており、前記音響特徴量抽出部が、前記聴覚像生成部で生成された総括安定化聴覚像と、聴覚スペクトルに基づいて、音響特徴量を抽出することができる。
さらにまた、本発明の第4の形態に係る生体音響抽出装置によれば、前記音響特徴量抽出部が、聴覚スペクトル及び/又は総括安定化聴覚像の尖度、歪度、スペクトル重心、スペクトルバンド幅、スペクトル フラットネス、スペクトルロールオフ、スペクトルエントロピー、オクターブベースのスペクトルコントラストの少なくともいずれかを音響特徴量として抽出することができる。
さらにまた、本発明の第5の形態に係る生体音響抽出装置によれば、前記聴覚像生成部が、聴覚イメージモデルを用いて神経活動パターンを生成するよう構成しており、前記音響特徴量抽出部が、前記聴覚像生成部で生成された神経活動パターンに基づいて、音響特徴量を抽出することができる。上記構成により、安定化聴覚像を用いる場合に比べ、処理負荷を軽減して処理速度の向上を図ることが可能となる。また前記音響特徴量抽出部が、音響スペクトルから得られる音響特徴量として、ピークの総数、出現位置、振幅、重心、傾斜、増加、減少の少なくともいずれかを抽出することもできる。
さらにまた、本発明の第6の形態に係る生体音響抽出装置によれば、生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出装置であって、生体音響データを含む元音響データを取得するための入力部と、前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、前記聴覚像生成部で生成された聴覚像に対して、聴覚スペクトルを生成する聴覚スペクトル生成部と、聴覚像に対して、総括安定化聴覚像を生成する総括安定化聴覚像生成部と、前記聴覚スペクトル生成部で生成された聴覚スペクトルと、前記総括安定化聴覚像生成部で生成された総括安定化聴覚像から、音響特徴量を抽出する音響特徴量抽出部と、前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部とを備え、前記判別部による生体音響データの判別を、非言語処理とすることができる。
さらにまた、本発明の第7の形態に係る生体音響抽出装置によれば、元音響データの内、周期を有する区間を抽出するよう構成できる。
さらにまた、本発明の第8の形態に係る生体音響抽出装置によれば、前記有音区間推定部が、元音響データを微分又は差分して前処理するための前処理器と、前記前処理器で前処理された前処理データを二乗するための二乗器と、前記二乗器で二乗された二乗データをダウンサンプリングするためのダウンサンプリング器と、前記ダウンサンプリング器でダウンサンプリングされたダウンサンプリングデータから中央値を取得するためのメディアンフィルタとを備えることができる。
さらにまた、本発明の第9の形態に係る生体音響抽出装置によれば、前記入力部を、検査対象の患者と非接触に設置される非接触式マイクロフォンとできる。
さらにまた、本発明の第10の形態に係る生体音響抽出装置によれば、元音響データが、患者の睡眠時に取得される生体音響であり、睡眠下に取得された生体音響データから、必要な生体音響データを抽出することができる。
さらにまた、本発明の第11の形態に係る生体音響抽出装置によれば、元音響データが、患者の睡眠時に集音される睡眠関連音であり、生体音響データが、いびき音のデータであり、前記所定の種別が、いびき音と非いびき音の別とできる。
さらにまた、本発明の第12の形態に係る生体音響解析装置によれば、生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析装置であって、生体音響データを含む元音響データを取得するための入力部と、前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、前記聴覚像生成部で生成された聴覚像に対して、音響特徴量を抽出する音響特徴量抽出部と、前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部と、前記判別部で生体音響データと判別された真値データに対して、スクリーニングを行うスクリーニング部とを備え、前記判別部による生体音響データの判別を、非言語処理とすることができる。上記構成により、元音響データを聴覚イメージモデルを使用して聴覚像に変換した上で音響特徴量に基づいて分類することで、ノイズと必要な生体音響データとを精度よく判別することができる。
さらにまた、本発明の第13の形態に係る生体音響解析装置によれば、生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析装置であって、生体音響データを含む元音響データを取得するための入力部と、前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、前記聴覚像生成部で生成された聴覚像に対して、聴覚スペクトルを生成する聴覚スペクトル生成部と、聴覚像に対して、総括安定化聴覚像を生成する総括安定化聴覚像生成部と、前記聴覚スペクトル生成部で生成された聴覚スペクトルと、前記総括安定化聴覚像生成部で生成された総括安定化聴覚像から、音響特徴量を抽出する音響特徴量抽出部と、前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部と、前記判別部で生体音響データと判別された真値データに対して、スクリーニングを行うスクリーニング部とを備え、前記判別部による生体音響データの判別を、非言語処理とすることができる。
さらにまた、本発明の第14の形態に係る生体音響解析装置によれば、前記スクリーニング部が、元音響データから抽出される生体音響データに対して疾患スクリーニングを行うよう構成できる。
さらにまた、本発明の第15の形態に係る生体音響解析装置によれば、前記スクリーニング部は、元音響データから抽出される生体音響データに対して閉塞型睡眠時無呼吸症候群のスクリーニングを行うよう構成できる。
さらにまた、本発明の第16の形態に係る生体音響抽出方法によれば、生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出方法であって、生体音響データを含む元音響データを取得する工程と、前記取得された元音響データから、有音区間を推定する工程と、前記推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する工程と、前記生成された聴覚像に対して、音響特徴量を抽出する工程と、前記抽出された音響特徴量を、所定の種別に分類する工程と、前記分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する工程とを含むことができる。これにより、元音響データを聴覚イメージモデルを使用して聴覚像に変換した上で音響特徴量に基づいて分類することで、ノイズと必要な生体音響データとを精度よく判別することができる。
さらにまた、本発明の第17の形態に係る生体音響抽出方法によれば、生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出方法であって、生体音響データを含む元音響データを取得する工程と、前記取得された元音響データから、有音区間を推定する工程と、前記推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する工程と、前記安定化聴覚像から、総括安定化聴覚像を生成する工程と、前記生成された総括安定化聴覚像から得られる所定の音響特徴量を抽出する工程と、前記抽出された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する工程とを含むことができる。
さらにまた、本発明の第18の形態に係る生体音響抽出方法によれば、前記安定化聴覚像から、聴覚スペクトルを生成すると共に、前記所定の音響特徴量を抽出する工程において、前記総括安定化聴覚像に加え、前記生成された聴覚スペクトルから得られる所定の音響特徴量を抽出することができる。
さらにまた、本発明の第19の形態に係る生体音響抽出方法によれば、さらに、前記所定の音響特徴量を抽出する工程に先立ち、前記抽出された音響特徴量から、識別に寄与する音響特徴量を選択する工程を含むことができる。
さらにまた、本発明の第20の形態に係る生体音響抽出方法によれば、前記生体音響データか否かを判別する工程を、多項分布ロジスティック回帰分析を用いたいびき音又は非いびき音の分類とできる。
さらにまた、本発明の第21の形態に係る生体音響解析方法によれば、生体音響抽出装置を用いて、生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析方法であって、生体音響データを含む元音響データを取得する工程と、前記取得された元音響データから、有音区間を推定する工程と、前記推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する工程と、前記安定化聴覚像から、聴覚スペクトル及び総括安定化聴覚像を生成する工程と、前記生成された聴覚スペクトル及び総括安定化聴覚像から得られる所定の音響特徴量を抽出する工程と、前記抽出された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する工程と、前記判別工程で生体音響データと判別された真値データに対して、生体音響抽出装置がスクリーニングを行う工程とを含むことができる。
さらにまた、本発明の第22の形態に係る生体音響解析方法によれば、前記スクリーニングを行う工程を、多項分布ロジスティック回帰分析を用いた閉塞型睡眠時無呼吸症候群又は非閉塞型睡眠時無呼吸症候群のスクリーニングとできる。
さらにまた、本発明の第23の形態に係る生体音響抽出プログラムによれば、生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出プログラムであって、生体音響データを含む元音響データを取得するための入力機能と、前記入力機能で入力された元音響データから、有音区間を推定する有音区間推定機能と、前記有音区間推定機能で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成機能と、前記聴覚像生成機能で生成された聴覚像に対して、音響特徴量を抽出する音響特徴量抽出機能と、前記音響特徴量抽出機能で抽出された音響特徴量を、所定の種別に分類する分類機能と、前記分類機能で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する判別機能とをコンピュータに実現させることができる。上記構成により、元音響データを聴覚像を用いて聴覚像に変換した上で音響特徴量に基づいて分類することで、ノイズと必要な生体音響データとを精度よく判別することができる。
さらにまた、本発明の第24の形態に係る生体音響抽出プログラムによれば、生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出プログラムであって、生体音響データを含む元音響データを取得するための入力機能と、前記入力機能で入力された元音響データから、有音区間を推定する有音区間推定機能と、前記有音区間推定機能で推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する安定化聴覚像生成機能と、前記安定化聴覚像から、総括安定化聴覚像を生成する機能と、前記生成された総括安定化聴覚像に対して、所定の音響特徴量を抽出する音響特徴量抽出機能と、前記音響特徴量抽出機能で抽出された所定の音響特徴量を、所定の種別に分類する分類機能と、前記分類機能で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する判別機能とをコンピュータに実現させることができる。
さらにまた、本発明の第25の形態に係る生体音響解析プログラムによれば、生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析プログラムであって、生体音響データを含む元音響データを取得するための入力機能と、前記入力機能で入力された元音響データから、有音区間を推定する有音区間推定機能と、前記有音区間推定機能で推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する安定化聴覚像生成機能と、前記安定化聴覚像から、総括安定化聴覚像を生成する機能と、前記生成された総括安定化聴覚像に対して、所定の音響特徴量を抽出する音響特徴量抽出機能と、前記音響特徴量抽出機能で抽出された所定の音響特徴量を、所定の種別に分類する分類機能と、前記分類機能で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する判別機能と、前記判別機能で生体音響データと判別された真値データに対して、スクリーニングを行う機能とをコンピュータに実現させることができる。
さらにまた、本発明の第26の形態に係るコンピュータで読み取り可能な記録媒体又は記録した機器は、上記プログラムを格納したものである。記録媒体には、CD−ROM、CD−R、CD−RWやフレキシブルディスク、磁気テープ、MO、DVD−ROM、DVD−RAM、DVD−R、DVD+R、DVD−RW、DVD+RW、Blu−ray(登録商標)等の磁気ディスク、光ディスク、光磁気ディスク、半導体メモリその他のプログラムを格納可能な媒体が含まれる。またプログラムには、上記記録媒体に格納されて配布されるものの他、インターネット等のネットワーク回線を通じてダウンロードによって配布される形態のものも含まれる。さらに記録媒体にはプログラムを記録可能な機器、例えば上記プログラムがソフトウェアやファームウェア等の形態で実行可能な状態に実装された汎用もしくは専用機器を含む。さらにまたプログラムに含まれる各処理や機能は、コンピュータで実行可能なプログラムソフトウエアにより実行してもよいし、各部の処理を所定のゲートアレイ(FPGA、ASIC)等のハードウエア、又はプログラムソフトウエアとハードウェアの一部の要素を実現する部分的ハードウエアモジュールとが混在する形式で実現してもよい。
本発明の一実施の形態に係る生体音響抽出装置を示すブロック図である。 有音区間推定部の一例を示すブロック図である。 本実施の形態に係るAIMを用いた生体音響抽出方法を示すフローチャートである。 AIMの処理を示すブロック図である。 聴覚像を示すイメージ図である。 図6A、図6Bは特徴ベクトルのインデックスと精度との関係を示すグラフである。 AIMFopt.を用いた場合のROC解析結果を示すグラフである。 有音区間の推定方法の一例を示すフローチャートである。 図9Aは元音響データ、図9Bは前処理データ、図9Cは二乗データ、図9Dはダウンサンプリングデータ、図9Eは中央値の波形を示すグラフである。 図10Aは元音響データ、図10Bは比較例1に係るZCRの処理結果、図10Cは比較例2に係るSTEの処理結果、図10Dは実施例1に係る有音区間推定の処理結果の波形を示すグラフである。
以下、本発明の実施の形態を図面に基づいて説明する。ただし、以下に示す実施の形態は、本発明の技術思想を具体化するための生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器を例示するものであって、本発明は生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器を以下のものに特定しない。また、本明細書は特許請求の範囲に示される部材を、実施の形態の部材に特定するものでは決してない。特に実施の形態に記載されている構成部品の寸法、材質、形状、その相対的配置等は特定的な記載がない限りは、本発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするため誇張していることがある。さらに以下の説明において、同一の名称、符号については同一もしくは同質の部材を示しており、詳細説明を適宜省略する。さらに、本発明を構成する各要素は、複数の要素を同一の部材で構成して一の部材で複数の要素を兼用する態様としてもよいし、逆に一の部材の機能を複数の部材で分担して実現することもできる。
(生体音響抽出装置100)
以下、生体音響抽出装置の一例として、元音響データとして睡眠関連音から、抽出対象の生態音響データとしていびき音を自動抽出する生体音響抽出装置について説明する。本発明の一実施の形態に係る生体音響抽出装置を図1のブロック図に示す。この図に示す生体音響抽出装置100は、入力部10と、有音区間推定部20と、聴覚像生成部30と、音響特徴量抽出部40と、分類部50と、判別部60を備える。
入力部10は、生体音響データを含む元音響データを取得するための部材である。入力部10は、マイク部と、プレアンプ部を備えており、生体音響抽出装置100を構成するコンピュータに収集した元音響データを入力している。マイク部には、好ましくは検査対象の患者と非接触に設置される非接触式マイクロフォンが利用できる。
有音区間推定部20は、入力部10から入力された元音響データから、有音区間を推定するための部材である。有音区間推定部20は、図2のブロック図に示すように、元音響データを微分又は差分して前処理するための前処理器21と、前処理器21で前処理された前処理データを二乗するための二乗器22と、二乗器22で二乗された二乗データをダウンサンプリングするためのダウンサンプリング器23と、ダウンサンプリング器23でダウンサンプリングされたダウンサンプリングデータから中央値を取得するためのメディアンフィルタ24とを備える。
聴覚像生成部30は、有音区間推定部20で推定された有音区間に基づいて、確立された聴覚イメージモデル(AIM)に従い聴覚像を生成するための部材である。
音響特徴量抽出部40は、聴覚像生成部30で生成された聴覚像に対して、特徴量を抽出するための部材である。音響特徴量抽出部40は、安定化聴覚像(Stabilized auditory image:SAI)を横軸方向に同期加算して生成される聴覚スペクトル(AS)と、SAIを縦軸方向に同期加算して生成される総括安定化聴覚像(SSAI)に基づいて、特徴量を抽出することができる。具体的には、音響特徴量抽出部40は聴覚スペクトルの尖度、歪度、スペクトル重心、スペクトルバンド幅、スペクトル フラットネス、スペクトルロールオフ、スペクトルエントロピー、OSCの少なくともいずれかを特徴量として抽出する。また音響特徴量抽出部40が、音響スペクトルから得られる特徴量として、ピークの総数、出現位置、振幅、重心、傾斜、増加、減少の少なくともいずれかを抽出することもできる。
分類部50は、音響特徴量抽出部40で抽出された特徴量を、所定の種別に分類するための部材である。
判別部60は、分類部50で分類された特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別するための部材である。
このようにして、ヒトの聴覚経路から学習機構に至るまでをシミュレーションする生体音響抽出装置100を構築することによって、高精度にいびき音を自動抽出することが可能となる。
(生体音響解析装置110)
さらに、生体音響抽出装置で抽出された生体音響データを解析するための生体音響解析装置を構成することもできる。生体音響解析装置110は、さらに判別部60で生体音響データと判別された真値データに対して、スクリーニングを行うスクリーニング部70を備えている。
以上の生体音響抽出装置や生体音響解析装置は、専用のハードウェアで構成する他、プログラムでソフトウェア的に実現することもできる。例えば、汎用あるいは専用のコンピュータに生体音響抽出プログラムあるいは生体音響解析プログラムをインストールし、ロードして、又はダウンロードして実行することで、仮想的な生体音響抽出装置や生体音響解析装置を実現することもできる。
(従来のいびき音の音響解析)
近年、非接触マイクロフォンを用いた、いびき音の音響解析が行われている。それらの研究では、睡眠時に録音される音(睡眠関連音)からいびき音のみを抽出する必要があるため、様々な自動いびき音抽出法が提案されている。例えば、
(i)メル周波数ケプストラム係数(Mel-frequency cepstral coefficients:MFCC)と隠れマルコフモデル(Hidden Markov model:HMM)を相互接続したネットワークを利用した方法、
(ii)サブバンドスペクトルエネルギー、ロバスト線形回帰(Robust linear regression:RLR)や主成分分析(Principal component analysis:PCA)を利用した方法、
(iii)サブバンドエネルギー分布、PCA、教師なしFuzzy C-Means(FCM)クラスタリングを利用した方法、
(iv)複数の音響解析手法を組み合わせた34個の特徴量とAda Boostを利用した方法
等が提案されている。
これらの方法に関する報告例によれば、いびき音と非いびき音とを高精度に自動分類できると示されている。しかしながら、これらの方法では幾つかの信号処理技術を用いて特徴量を抽出する必要があった。一般的に、音の分類法の性能評価は、ゴールド・スタンダードな手法と考えられるマニュアル分類、すなわち人の耳による手作業の分類に基づく。このことから、本願発明者らは、ヒトの聴覚能力を模倣することにより、高性能の音の分類器を構成できるとの考え、本発明を成すに至った。具体的には、聴覚イメージモデル(Auditory Image Model:AIM)を用いて、自動的にいびき音/非いびき音を分類可能な生体音響抽出装置を成すに至った。AIMは、ヒトが音を知覚するときに使う脳内表現と思われる「聴覚像」を模した聴覚イメージモデルである。具体的には、AIMは蝸牛基底膜を含むヒトの聴覚の末梢系から中枢系に到る機能を模擬した聴覚像のモデルである。このようなAIMは、主に聴覚や音声言語知覚の研究において確立され、話者認識や音声認識等の分野で利用されているものの、いびき音や腸音のような生体音響の判別に用いられた報告例は本願発明者らの知る限り存在しない。
(実施例)
本発明の有効性を確認するため、40名の被験者から得られた睡眠関連音の大規模データベースを用いて確認を行った。図3に、本実施の形態に係るAIMを用いた生体音響抽出方法のフローチャートを示す。
(有音区間の推定)
まず、ステップS301において睡眠関連音を収集し、次にステップS302において有音区間の推定を行う。ここでは阿南共栄病院(徳島県阿南市羽ノ浦町中庄蔵ノホケ−36)の協力を得て、終夜睡眠ポリグラフ(Polysomnography:PSG)の検査中に、入力部10を用いて、患者から6時間の間、睡眠関連音を録音した。この入力部10は、マイク部の一形態である非接触式マイクロフォンと、プレアンプ部を備え、得られた音声データをコンピュータで収集している。ここで非接触式マイクロフォンは、患者の口から約50cm離れた位置に設置した。録音に用いたマイクロフォンはオーストラリアRODE社製ModelNT3で、プリアンプは米国M−AUDIO社製Mobile-Pre USBで、録音時のサンプリング周波数は44.1kHz、デジタル分解能は16bits/sampleとした。
このようにして録音した睡眠関連音から、有音区間推定部20を用いて、ステップS302において有音区間(Audio events:AE)を検出する。有音区間推定部20は、短期エネルギー法(Short-Term Energy:STE)及びメディアンフィルタ24を用いている。STE法は、ある一定の閾値(しきいち)以上の信号エネルギを有音区間として検出する方法である。ここで、睡眠関連音s(n)のk番目の短期エネルギーEkは次式で表すことができる。
Figure 0006908243
上式において、nはサンプル番号、Nはセグメント長である。実施例においては、睡眠関連音s(n)をN=4096、シフト幅1024でセグメントに分割して、k番目のセグメントにおける信号エネルギーを計算した。またEkの平滑化を行うために、10次のメディアンフィルタを用いた。
さらに実施例においては、セグメントにおけるSNRが5dB以上の音を検出することで、AEを抽出する。ここで、SNRの計算時において、背景雑音とは、1秒間の背景雑音のみの信号からSTE法を行った短期エネルギーの全フレーム平均値として用いている。
なお、非特許文献2によれば、歌声と音声の識別と音の継続時間の関係性を調査した聴取実験において、信号長が200ms以上で識別率が70%を超えると報告されている。これに従い、本実施例では信号長が200ms以上の検出音をAEと定義する。
(聴覚イメージモデルの生成)
次に、ステップS303において聴覚イメージモデル(Auditory Image Model:AIM)を用いて聴覚像を生成する。ここでは、聴覚像生成部30が、AIMを用いて有音区間(AE)を解析する。非特許文献3に示す通り、パターソングループによりAIMのシミュレータが提供されている。シミュレータはC言語の環境でも動作できるようになっているが、本実施例ではMATLABに上で使用することができるAIM2006<http://www.pdn.cam.ac.uk/groups/cnbh/aim2006/>(モジュール;gm2002、dcgc、hl、sf2003、ti2003)を用いた。利用できる主要な5つのステージとして、前蝸牛過程(Pre-cochlea processing:PCP)、基底膜振動(Basilar membrane motion:BMM)、神経活動パターン(Neural activity pattern:NAP)、ストローブ同定(strobe identification:STROBES)、安定化聴覚像(SAI)が挙げられる。これらのプロセスを経て、入力音を聴覚像として出力することが可能となる。
AIMの処理の一例を図4のブロック図に示す。まず前蝸牛過程(Pre-cochlea processing:PCP)のステージでは、内耳の前庭窓までの応答特性を表現するために、バンドパスフィルタによるフィルタ処理が行われる。
基底膜振動(Basilar membrane motion:BMM)のステージでは、蝸牛の基底膜 において行われるスペクトル解析を表現するために、等価矩形帯域幅(Equivalent Rectangular Bandwidth:ERB)のように、フィルタが等間隔に並ぶ聴覚フィルタバンク(ガンマーチャープフィルタバンク、ガンマートーンフィルタバンク)が用いられる。BMMのステージでは、フィルタバンクの各フィルタからの出力を得ることができる。本実施例では、100Hz〜6000Hzの間で、場所ごとに中心周波数と帯域幅が異なるフィルタが50個並んでいるガンマーチャープフィルタバンクを使用する。なお、使用するフィルタの数は適宜調整可能としてもよい。
神経活動パターン(Neural activity pattern:NAP)のステージでは、内有毛細胞により行われる神経信号変換処理を表現するために、BMMの各フィルタの出力がローパスフィルタリング、半波整流される。
ストローブ同定(strobe identification:STROBES)のステージでは、NAPの各フィルタの出力における極大点が適応しきい値処理により検出される。
(安定化聴覚像:SAI)
さらに安定化聴覚像(Stabilized auditory image:SAI)のステージでは、各周波数チャネルで極大点が検出された時点でその極大点を原点とした35msフレームを作り、過去のNAP表現が記憶されているバッファからの情報と時間積分することで、時間軸を時間間隔軸に変換した聴覚像を生成する。この一連の処理をSTI(Strobed temporal integration)と呼び、聴覚像はSAIとしてフレームごとに出力可能である。STIは時間をかけてNAP表現を時間積分することによって、安定した聴覚像を生成することができる。そのため本実施例では、1エピソードのAEから得られる聴覚像の10フレーム目以降の聴覚スペクトル(Auditory Spectrum:AS)とSSAIを解析対象とする。
(聴覚スペクトル:AS)
聴覚像の例を図5に示す。この図に示す聴覚像は、縦軸が聴覚フィルタの中心周波数軸、横軸が時間間隔軸を表す。ここで、聴覚像を横軸方向に同期加算して生成されるスペクトルを聴覚スペクトル(Auditory spectrum:AS)と呼ぶ。ASは聴神経の興奮パターン(Excitation pattern)に相当する表現であり、フォルマントの極大点を確認できる周波数領域のスペクトルである。また、ASの次元数は聴覚フィルタのフィルタ数に対応している。
(総括SAI:SSAI)
さらに、縦軸方向に同期加算して生成されるスペクトルを総括SAI(Summary SAI:SSAI)と呼ぶ。SSAIは、信号が定常的でかつ周期的な場合、各チャネルの出力は限定された時間間隔のみを含むため、特定の間隔でのみ頂点を持つ時間領域のスペクトルである。またSSAIの次元数は、フレームのサイズ、入力信号のサンプリングレートによって決まる。本実施例では、フレーム間で信号の振幅包絡の影響を最小限にするため、AS、SSAIを最大振幅1で正規化している。
(AIMから得られた音響特徴量)
次にステップS304において、AIMから得られた音響特徴量を抽出する。ここではAEの各SAIフレームにおけるASとSSAIを計算することができる。ここで、ASとSSAIから特徴量を抽出する方法について説明する。ASやSSAIは、スペクトルと類似している形状を有することから、以下の8種類の特徴量を用いて特徴を抽出している。
まず尖度(Kurtosis)は、平均値あたりのスペクトルの突起傾向を測定する特徴量である。尖度の式を次式に示す。
Figure 0006908243
次に歪度(Skewness)は、平均値あたりのスペクトルの非対称性を測定する特徴量である。歪度の式を次式に示す。
Figure 0006908243
さらにスペクトル重心(Spectral centroid)は、スペクトルの重心を計算する特徴量である。スペクトル重心の式を次式に示す。
Figure 0006908243
スペクトルバンド幅(Spectral bandwidth)は、信号の周波数帯域幅を定量化する特徴量である。スペクトルバンド幅の式を次式に示す。
Figure 0006908243
スペクトルフラットネス(Spectral flatness)は、音質を定量化する特徴量である。スペクトルフラットネスの式を次式に示す。
Figure 0006908243
スペクトルロールオフ(Spectral roll-off)は、スペクトル分布の全帯域のc×100%を占める周波数を評価する特徴量である。スペクトルロールオフの式を次式に示す。
Figure 0006908243
ここで、X>0、c=0.95である。
スペクトルエントロピー(Spectral entropy)は、信号の白色性を示した特徴量である。スペクトルエントロピーの式を次式に示す。
Figure 0006908243
Figure 0006908243
ここで、iはスペクトルのサンプル点、Nはスペクトルのサンプル点の総数、kはフレーム番号、Xはスペクトルの振幅とする。ただし、X>0、c=0.95とする。
オクターブベースのスペクトルコントラスト(Octave-based spectral contrast:OSC)は、スペクトルのコントラストを表現する特徴量である。この手法ではオクターブフィルタバンクによってスペクトルをサブバンドに分割する。本実施例ではスペクトルの次元数を考慮して、サブバンド数をASでは3、SSAIでは5とする。b番目のサブバンドのスペクトルピーク(Spectral peak)Peakk(b)、スペクトルバレー(Spectral valley)Valleyk(b)、スペクトルコントラスト(Spectral contrast)OSCk(b)は、それぞれ次式で示される。
Figure 0006908243
Figure 0006908243
Figure 0006908243
ここで、X’はサブバンド内で降順に並び替えた特徴ベクトル、jはサブバンド内のスペクトルのサンプル点、Nbはサブバンド内のサンプル点の総数、αは安定したピークとバレーの値を抽出するためのパラメータを表す。本実施例ではα=0.2とする。ただし、スペクトルフラットネスに関しては、SSAIを積分する際にSFkの値が限りなく0に近づいてしまい、定量化できなかったため、本実施例ではASのみに適用した。
上述した特徴量はAEの全フレームから抽出されるため、それぞれの特徴量の平均値および標準偏差を、AEから得られる特徴量として定義する。すなわち、AEから(i)20次元のASの特徴ベクトル、(ii)22次元のSSAIの特徴ベクトル、(iii)42次元の両者の特徴ベクトルを抽出することができる。これらに加えて、スペクトルから得られる特徴量、例えば、スペクトル非対称性(spectral asymmetry)、バンドエネルギー比(band energy ratio)等を用いることもできる。
本実施例では、それぞれの特徴ベクトルを(i)ASF:Auditory spectrum features、(ii)SSAIF:Summary SAI features、(iii)AIMF:AIM featuresと呼ぶ。
(MLRを用いたいびき音/非いびき音の分類)
さらにステップS306において特徴ベクトルを用いたMLRモデルに基づいて学習を行い、ステップS305でMLRを用いたいびき音/非いびき音の分類を行い、さらにステップS307において閾値に基づく判別を行う。ここでは、分類部50で音響特徴量を所定の種別に分類し、判別部60でいびき音又は非いびき音の判別を行うために、AEから抽出された特徴ベクトルを用いた多項分布ロジスティック回帰(Multi-nomial logistic regression:MLR)分析を用いた。MLR分析は、ロジスティック曲線を利用して複数の測定値を、2つのカテゴリのいずれかに分類する2値識別の識別器として優れた統計的分析手法である。ここでMLRの式を次式に示す。
Figure 0006908243
ここで、pは分類対象となる音がいびき音のカテゴリに分類される確率を示す。またβd=(d=0,1,...,D)は、最尤法(the maximum likelihood method)によって推定されたパラメータである。さらにfd=(d=0,1,...,D)は、独立変数(Independent variables)とされる特徴量スペクトルの値、Dは特徴ベクトルの次元を、それぞれ示す。
MLR分析では、最尤法に基づく学習により推定されたβdと従属変数(Dependent variable)Yのモデルが構築される。ここでYは、いびき音と相関があれば1(Y=1)に、非いびき音と相関があれば0(Y=0)に近付く。このモデルでテストを実行することで、テストセットfdの独立変数が与えられると、Y=1を得る確率pを推定可能であることが確認された。pの閾値pthreに基づいて、各AEを2つのカテゴリ(いびき音又は非いびき音)のいずれか一方に分類でき、いびき音と非いびき音の分類を分類器で実行できる。このシミュレーションは、MATLAB(R2014a、The MathWorks, Inc., Natick, MA, USA)のStatistics Toolbox Version 9.0を用いて行った。なおOSASスクリーニングの場合は、OSASと相関があれば1(Y=1)に、非OSASと相関があれば0(Y=0)に近付くとして同様に考えることができる。
(AIMを用いた分類器の性能評価)
次に、聴覚イメージモデル(AIM)を用いた分類器の性能評価を行った。ここでは、分類性能の指標として、感度(Sensitivity)、特異度(Specificity)、精度(Accuracy)、陽性適中度(Positive pre-dictive value:PPV)、陰性適中度(Negative predictive value:NPV)を用いた。
ここで感度(Sensitivity)は、判別結果がいびきを検出する能力である。また特異度(Specificity)は、非いびきのうち、判定結果が閾値以下になる割合である。また陽性適中度(Positive predictive value:PPV)は、判定結果が閾値以上のとき、実際にいびきである確率を表す。さらに陰性適中度(Negative predictive value:NPV)は、判定結果が閾値以下のとき、非いびきである確率を表す。これらに基づいて、TP、FP、FN、TNの関係を、以下のように定義する。
Figure 0006908243
ここで、感度(Sensitivity)、特異度(Specificity)、精度(Accuracy)、陽性適中度(PPV)、陰性適中度(NPV)を示す式を、上記TP、FP、FN、TNを用いて、それぞれ次式のように規定する。
Figure 0006908243
Figure 0006908243
Figure 0006908243
Figure 0006908243
Figure 0006908243
(ROC曲線)
ROC(Receiver Operating Characteristic)曲線とは、横軸に偽陽性率(1−特異度)、縦軸に真陽性率(感度)をとり、それぞれプロットしたものである。本実施例では、ROC曲線は Pthreにより構築することができる。ROC曲線の最適しきい値、すなわち、最適のPthreは、Youden’s indexの手法を用いて求めることができる。ROC曲線は、理想的な分類部の場合は左上に大きく弧を描く。この性質のため、ROC曲線の下部領域の面積である曲線下面積(Area Under the Curve:AUC)を、分類器や分類アルゴリズムの性能の良さを表す指標として利用できる。AUC値は、0.5から1の範囲で値をとり、分類精度が良好な場合には1に近づく特性を持つ、分類精度の評価指標である。
(学習データセット及びテストデータセット)
次に、40名の被験者から抽出されたAEを用いて、本実施例に係る生体音響抽出装置の性能評価を行った。この結果を表1に示す。
Figure 0006908243
M:male;F:female;BMI:body mass index;AHI:apnea-hypopnea index
表1に示すように、40名から抽出されたAEは、学習データセット16141(いびき音13406、非いびき音2735)、テストデータセット10651(いびき音7346、非いびき音3305)に分割されている。
(ラベリング)
本実施例では、聴取結果に基づいてAEのラベリング作業を行っている。ヘッドフォン(SHURE SRH840)から流れるAEを、3名の評価者が聴取してコンセンサスにより、AEのラベリングを行った。このように、全員の同意なくいびき音が選定されないようにした。
このようなラベリング作業時において、非いびき音(non-snore)だと判定されたAEを表2に示す。
Figure 0006908243
(AIMに基づくいびき音と非いびき音の分類)
以上のようにして得られた特徴ベクトルであるASF、SSAIF、AIMFを用いて、本実施例の性能評価を行った。この結果を表3に示す。この表に示すように、どの特徴ベクトルでも、高精度にいびき音と非いびき音の分類が可能であることが分かる。その中でも、AIMFが最も優れた性能を示した。これは、ヒトの聴覚が周波数情報と時間情報の両方を用いて音の分析を行っていることが理由だと思われる。
Figure 0006908243
一般的に、特徴ベクトルの次元数が高い場合、計算量が大きくなる。そこで、使用した3つの特徴ベクトルから、それぞれ、高い分類精度を維持したまま、次元圧縮が行えるかどうかを検討した。ここでは分類精度の向上に寄与する特徴量を抽出するため、ASF、SSAIFの次元数をそれぞれ増加させ、Accuracyの変動割合を計算した。
次元数を1つ増加させたとき、Accuracyを1%以上増加させた特徴量を分類精度の向上に寄与する特徴量として抽出を行っている。図6に、特徴ベクトルのインデックスとAccuracyとの関係を示す。この図から、いびき音/非いびき音の分類に有効な特徴量が分かる。
さらに表4に、AS、SSAIから抽出された1%以上精度向上に貢献した特徴ベクトル(ASFopt',SSAIFopt.)を示している。この結果から、ASの次元数が4次元になり、SSAIの次元数が5次元に、大幅に次元圧縮できることが確認された。
Figure 0006908243
Ave.: average
さらに、AIMFの次元圧縮を考慮して、ASFopt.とSSAIFopt.を合わせた9次元のAIMFopt.を特徴ベクトルとして使用することとした。上述した3つの特徴ベクトル:ASFopt.、SSAIFopt.、AIMFopt.によるシステムの性能評価を行った結果を表5に示す。表の結果から、より少ない特徴量を用いて、次元圧縮前と比較して同程度の、高精度ないびき音の自動分類及び抽出が行えることが判る。特に、AIMFopt.を用いた場合、最も高いシステムの精度(Accuracy)が96.9%、(感度:97.2%、特異度:96.3%)であることが分かった。ここでAIMFopt.を用いた場合のROC解析結果を、図7に示す。このように、本実施例に係る生体音響抽出装置の有効性や、いびき音抽出のための最適な特徴量が確認できた。
Figure 0006908243
AS:auditory spectrum;SSAI:summary SAI;OT:optimum threshold;TP:true positive;FP:false positive;TN:true negative;FN:false negative;Sen.:sensitivity;Spe.:specificity;AUC:area under the curve;Acc.:accuracy;PPV:positive predictive value;NPV:negative predictive value
(従来手法との対比)
以上の通り、AIMベースのいびき音/非いびき音を分類する分類器の有効性が実証された。次に、いびき音/非いびき音分類手法として従来より提案されている報告例と本実施例を比較して、その優位性の可否を検証する。ここでは、過去の報告例として、DuckittらのMFCCs、CavusogluらのSED、Karunajeewaらの正規化AC’s、LPCs等、AzarbarzinらのSED(500Hz)、DafnaらのMFCCs、LPCs、SED等を用いたそれぞれの分類性能と、上述した本実施例の手法で40名の被験者データを分類した精度Accとを、以下の表7に纏めた。この表から明らかなとおり、分類対象とした被験者データや条件は異なるものの、本実施例の手法はいずれの報告例よりも優れた分類精度を達成している。
Figure 0006908243
Acc.:accuracy;PPV:positive predictive value;MFCCs:mel-frequency cepstrum coefficients;OSAS:obstructive sleep apnea syndrome;SED:subband energy distribution;ACs:autocorrelation coefficients;LPCs:linear predictive coding coefficients;AIMF:AIM feature
(Duckittら)
Duckittらは、メル周波数ケプストラム係数(MFCC)を用いて、非いびき音を呼吸音、物音、無音区間、その他の雑音(車の音、犬の吠える音等)に大別して学習させているが、将来的には寝言等の音声も区別して学習できるように拡張する必要があると報告している(非特許文献5)。
(Cavusogluら)
Cavusogluらは、サブバンドエネルギー分布(Subband Energy Distribution:SED)を用いて単純ないびき音データセットのみを用いて学習した場合に、いびき音/非いびき音の分類で98.7%の精度を達成したとしている。しかしながら、単純いびき音とOSAS患者のいびき音を含むデータセットで学習した場合には、精度が90.2%に低下したと報告されている(非特許文献7)。これに対して本発明の実施例に係る分類方法では、単純いびき音とOSASいびき音を含むデータセットでも97.3%の精度を達成している。
(Karunajeewa)
Karunajeewaらは、正規化AC’s、LPCs等を用いて非いびき音を分類するにあたり、呼吸音と無音区間のみを用いており、言語音や物音は患者が眠る直前の10分又は20分間を除外することで回避できると報告している(非特許文献6)。そこで、呼吸音とその他の非いびき音の割合を調査するため、本実施例で使用しているデータベースにおける非いびき音を3名の実施例者による聴感評価試験を行い、呼吸音、咳、音声(寝言、うめき声、話し声)、物音(ベッドのきしむ音、金属音、サイレン等)の4クラスに分類して各エピソード数の調査を行った。その結果、録音が開始してから最初の1時間を除外しているにも関わらず、呼吸音以外の非いびき音が全体の非いびき音に占める割合は24.4%となり、決してこれらの音を無視できないことが分かった。そして、このようなデータセットにおいて、本実施例の分類方法は96.9%という高い分類精度を示すことができた。したがって、実施例に係る分類方法は睡眠中に発生すると想定される様々な音に対応できることが示唆される。
(Azarbarzinら)
Azarbarzinらは、500HzのSEDを用いて、単純いびき音とOSASいびき音のデータセットを分類し、93.1%の精度を得たと報告している(非特許文献9)。しかしながら、分類対象データはわずか15分から抽出されたに過ぎず、これに対して本実施例は2時間もの長時間のデータに対して97.3%を達成している。
(Dafnaら)
Dafnaらは、MFCCs、LPCs、SED等、複数の音響解析手法を組み合わせた34次元の特徴ベクトルを用いている(非特許文献10)。しかしながら、この手法はそれぞれの特徴量に関する理論を十分に理解して使用する必要があり、システムの複雑性が高い。これに対して、本実施例では比較的低次元の特徴ベクトルを用いて、既存のAIMシミュレータを利用したシンプルなプログラムで構築できる利点を有する。
また津崎らは、これらの特徴ベクトルを使用する際に、ASについてはピークの総数・位置・レベル、スペクトル重心、スペクトル傾斜、スペクトル起伏に対応する量を計算し、SSAIについてはピークの時間間隔の逆数の対数によってピッチ相当値を計算し、ピークの高さによってピッチ明瞭性の指標として特徴抽出を行っている(非特許文献11)。しかしながら、活用しているSSAIの情報が少なく、より有効に活用する手段を言及する必要があった。またピークの自動検出を実現するには、検出精度に対する頑健性が課題となっている。これに対して、本実施例ではピーク検出システムを用いないAIMの特徴抽出法によるいびき音と非いびき音の分類法の効果検証を行った結果、ASとSSAIの両方を用いた場合の結果が最も高い精度を示している。また、SSAIのみを用いた場合でも94%の精度を得ており、SSAIの情報も有効活用している。
また本実施例に係るASやSSAIを用いた有音分類方法によれば、音響スペクトルから得られる特徴量、例えばピークの総数、位置、振幅に対応する特徴量や、スペクトルの重心、傾斜、増加や減少に対応する特徴量をASやSSAIから抽出することができる。
また、抽出されたいびき音の内で、ピッチ(周期)を有する区間のみを対象として、スクリーニングを行うこともできる。あるいは、予めいびき音を抽出する際に、ピッチを有する区間のみを抽出するように構成してもよい。なお以上の例では、セグメントにおけるSNRが5dB以上の音をAEとして使用しているが、有音区間検出法の利用により、SNR<5dBの音を使用することもできる。
またAIMの処理に際して、図4のブロック図で示すすべてのステージの処理を行う必要はなく、例えばNAP(神経活動パターン)のステージまでで得られる特徴量を用いることで、処理の高速化を図ることができる。
(実施例)
以上説明した非接触マイク技術を使用したAIMベースのいびき音と非いびき音の分類法を用いて、40名の被験者を用いて生体音響抽出方法の精度評価を行った。これらの結果を実施例として以下説明する。
(システムの雑音耐性)
本実施例では、睡眠関連音を録音するために非接触マイクを使用した。このアプローチは睡眠関連音分類の研究において、たびたび接触マイクと比較して議論される。非接触マイクは被験者に負荷をかけずに録音ができるという利点を有する一方、録音時のSNRの大小が問題点として挙げられる。非接触マイクを用いたこれまでの報告例では、信号のSNRを改善するアプローチとしてスペクトルサブトラクション法等の雑音低減処理を前処理に用いている。しかしながら、スペクトルの減算処理はミュージカルノイズと呼ばれる合成音声を生成してしまい、低いSNRでは基本周波数の推定が困難となる。これに対して、本実施例のBMMで使用したガンマチャープフィルタバンクは、ミュージカルノイズを生じさせることなく、−2dBのような低いSNRでも効果的に雑音環境下から音声を取り出すことができる。これは、AIMがノイズよりも周期音の微細構造を保存する特性を有しているためと考えられる。また、AIMベースの特徴ベクトルは、MFCCよりも高い雑音抑圧を有していると報告されている。以上の理由から、AIMには実環境の録音に対する優れた雑音耐性があると言える。
(有音区間の推定)
ここで、有音区間推定部20が有音区間を推定する方法の一例を、図8のフローチャート及び図9A〜図9Eのグラフに基づいて説明する。ここでは、元音響データの波形(信号強度の時間変化)の一例として、図9Aに示すような睡眠関連音データから、有音区間としていびきエピソードを抽出することを考える。
まずステップS801において、睡眠関連音を収集する。ここでは、非接触式マイクロフォンを用いて、睡眠中の患者から元音響データ(図9A)となる睡眠関連音を録音する。
次にステップS802において、元音響データを微分又は差分する。この処理は図2に示す前処理器21で行う。ここでは、図9Aの元音響データを、前処理器21である微分器で微分しており、この結果得られる前処理データの信号波形を、図9Bに示す。なお差分は、デジタルフィルタの一である一次FIR(Finite Impulse Response)フィルタで行うことができる。
さらにステップS803において、前処理データを二乗する。この処理は図2に示す二乗器22で行う。図9Bの前処理データを二乗器22で二乗した結果得られる二乗データの信号波形を、図9Cに示す。
さらにステップS804において、二乗データをダウンサンプリングする。この処理は図2に示すダウンサンプリング器23で行う。図9Cの二乗データをダウンサンプリング器23でダウンサンプリングした結果得られるダウンサンプリングデータの信号波形を、図9Dに示す。なお、ダウンサンプリングの代わりに、二乗データを、例えば、N=400、シフト幅200でセグメントに分割して、k番目のセグメントにおける信号エネルギーを求めて実現しても良い 。
ステップS805において、ダウンサンプリングデータから中央値を取得する。この処理は図2に示すメディアンフィルタ24で行う。図9Dのダウンサンプリングデータから、メディアンフィルタ24で中央値を取得した結果得られる信号波形を、図9Eに示す。このようにして、図9Aのような背景ノイズに埋もれた元音響データから、図9Eのように必要な生体音響データのみを抽出することが可能となり、背景ノイズに埋もれた睡眠関連音であっても、有音区間(呼吸音、いびき音等)を正確に抽出可能となる。
なお、有音区間の検出に際しては、上述の通り差分、二乗等を用いる他、ニューラルネットワーク等の学習機械や、その他の時系列解析技術、信号解析・モデリング技術を用いて実現してもよい。
(比較例1、2)
ここで比較のため、音声区間の検出方法として従来から知られている方法を比較例として適用した。ここでは、ゼロ交差率(Zero-Crossing Rate:ZCR)を用いる方法を比較例1、音声信号のエネルギーに基づくSTE法を比較例2として、図10Aの元音響データに対してそれぞれ有音区間の自動抽出を行った結果を、図10B、図10Cにそれぞれ示す。さらに比較のため、上述した実施例1に係る方法での自動抽出結果を図10Dに示す。これらZCRやSTE法は、外部から入力された音声信号より、音声区間のみを検出する音声区間検出方法として、代表的な手法である。
(ZCR)
まずZCRは、次式で定義される。
Figure 0006908243
ここで、sgn[χ(k)]は次式で表される。
Figure 0006908243
ZCRは、発声される有音区間のZCRが、無音区間のZCRよりも相当小さい場面で主に利用されている。この方法は、音声の種別(強い調和構造)に依存する。
(STE法)
またSTE法は、音のSTE関数を上記数1のように定義する。
このSTE法は、有音区間における上記Ekの値が無音区間のEkよりも相当大きく、SNRが高くて有音区間のEkが背景音のノイズから明瞭に判読できる場面で主に利用されている。
このように、ZCRやSTE等の手法は、いずれも比較的雑音の影響が少ない環境を前提として自動音声区間検出を行っているため、図10Aに示すようなSNRが低下する環境下では、適切な有音区間の抽出がなされ難い。図10Bに示す比較例1のZCRでは十分な抽出が成されているとは言えず、また図10Cに示す比較例2の信号エネルギーでも、一様にピークが表れており分離が困難である。これに対し、上述した実施例1に係る方法での自動抽出結果は、図10Dに示すように、明確に信号が抽出されており、図10Aのような極めてSNRの小さな睡眠関連音データに対しても、実施例に係る有音区間推定部を用いることで、有音区間(呼吸音、いびき音)を抽出、分離でき、有用性が確認された。
なお、この例では元音響データとして、表6に示すように、10人の被験者に対して睡眠関連音データを収集し、睡眠関連音の長さを120sとして人手によりいびき音(Snore)と呼気音(Breath)に予め分類している。
Figure 0006908243
上述した感度(Sensitivity)、特異度(Specificity)、曲線下面積(AUC)の定義に従い、被験者毎に曲線下面積、感度、特異度を、実施例1、比較例1、比較例2について、それぞれ算出した。得られた結果を、以下の表9〜表11に、それぞれ示す。これらの結果、実施例1においては感度、特異度、曲線下面積のいずれも高い精度を達成できていることが確認された。
Figure 0006908243
Figure 0006908243
Figure 0006908243
(実施例3)
さらに、いびき音と非いびき音との分類がなされたデータに対して、AIMに基づくスクリーニング、すなわち篩い分けを図1のスクリーニング部70でもって行う。ここでは、スクリーニング部70が、いびき音からOSAS(閉塞性睡眠時無呼吸症候群)か非OSASかの判定を行う。ここで、スクリーニング部70がOSASと非OSASの分類を適切に行えるか、その有用性を確認するため、実施例3を行った。ここでは、まずいびき音と非いびき音との分類用のデータセットとして、31名の被験者から抽出したAEのデータセットを用意した。この内、20名を学習データセットに、11名をテストデータセットとして用いた。ここでは、被験者の睡眠1時間のデータを2時間分抽出した。
AEは、人手により予めいびき音又は非いびき音にラベル分けされている。いびき音と非いびき音の分類に用いたデータセットの詳細を以下の表に示す。
Figure 0006908243
M:male;F:female;BMI:body mass index;AHI:apnea-hypopnea index
一方、OSASと非OSASの分類に用いたデータセットを、以下の表に示す。ここでは、50名の被験者を用いて、この内35名を学習データセットに、15名をテストデータセットに、それぞれ利用した。
Figure 0006908243
(AIMに基づくOSASと非OSASの分類)
まず、図1の分類部50及び判別部60によるいびき音又は非いびき音の分類性能を 6次元特徴ベクトル(ASから抽出された尖度、歪度、スペクトル重心、スペクトルバンド幅、SSAIから抽出された尖度、歪度)を用いて評価した。この表に示すとおり、これらの特徴ベクトルを用いることで、感度98.4%、特異度94.06%という極めて高い精度でいびき音又は非いびき音の分類がなされていることが確認された。
Figure 0006908243
さらに本実施例において、図1の分類部50及び判別部60で判別されたいびき音の8次元特徴(ASから抽出された歪度、スペクトル重心、スペクトルロールオフ、SSAIから抽出された尖度、歪度、スペクトルバンド幅、スペクトルロールオフ、スペクトルエントロピー)ベクトルに基づき、スクリーニング部70でOSASと非OSASの分類を行った。また、いびき音又は非いびき音の分類、OSASと非OSASの分類では、上述した特徴量の組み合わせを用いることができる。これらの特徴量に加えて、スペクトル非対称性(spectral asymmetry)、バンドエネルギー比(band energy ratio)等を用いることもできる。このOSASと非OSASの分類の評価は、10foldのクロスバリデーションテストで行った。ここでは、データセットからランダムに選択した9foldを学習用として、残りの1foldをテスト用として用いた。
この結果、無呼吸低呼吸指数(apnea-hypopnea index:AHI)の判断基準となる閾値を15イベント/hに設定してOSAS患者をスクリーニング部70で篩い分けしたところ、上記表14に示すように感度は85.00%±26.87、特異度は95.00%±15.81という優れた結果が得られ、本実施例の有用性が確認された。なお、AHIはこの値に限らず、5イベント/hや10イベント/h等とすることもできる。また分類部50、判別部60、スクリーニング部70における解析に際して、男女の性別毎の特徴を加味した分類や判別、篩い分けも可能となる。なお、分類部50や判別部60を用いた睡眠音の分類や識別には、MLRに代えて、パターン認識・識別技術、学習機械、例えばニューラルネットワーク、ディープニューラルネットワーク、サポートベクターマシン(SVM)等を利用することもできる。また、上記実施例では2クラス分類としたが、上記学習機械を用いて、多クラス分類問題を考えることもできる。例えば、特徴量をもとに、直接、OSASいびき(1)、非OSASいびき(2)、非いびき(3)のように分類することもできる。勿論、自動抽出においては、いびき(1)、呼吸音(2)、咳(3)のように多クラスに分類することができる。
(実施例4)
次に実施例4として、被験者数を増やした状態で、すなわち被験者データベースを拡大した状態で、いびき/非いびきの識別、OSAS/非OSASの識別が可能か否かを検証した。ここでは、2時間の睡眠音の中から獲得されたAudio event(AE)を使用する。なお、睡眠音は、終夜睡眠ポリグラフ(Polysonmnography:PSG)検査中に録音されている。性能評価を行うために、睡眠研究に従事する3名の視聴者により、注意深く、いびき音/非いびき音の2クラスのラベリングが行われている。PSG検査時に得られた被験者情報とラベリングによって得られた、いびきの数の平均値を表15の被験者データベースに示す。
Figure 0006908243
(ステップワイズ法)
AEごとにStabilized auditory image(SAI)を形成し、10フレーム以降に得られたAuditory spectrum(AS)とSummary stabilized auditory image(SSAI)を解析対象とした。なお、各フレームは、ASとSSAIは最大振幅が1になるように正規化を行った。なお標準偏差で正規化する場合は、1エピソードで正規化することも可能である。ASからはKurtosis、Skewness、Spectral centroid、Spectral bandwidth、Spectral roll-off、Spectral entropy、Spectral contrast、Spectral flatnessの8つの特徴を利用した。SSAIではSpectral flatness以外の7つの特徴量を用いた。これらの特徴量は、AEの全フレームから抽出されるため、それぞれの特徴量の平均値をAEから得られる特徴量として使用した。これらの特徴量からの中から、更に識別に有効な特徴量を選択するために、男性、女性、男性女性データセット毎に、特徴選択アルゴリズムであるステップワイズ法を使用した。
上述のように選択した特徴ベクトルを用いて、MLRモデルに基づく学習を行う。ここでは、図3で示したAIMを用いた生体音響抽出方法を示すフローチャートのステップS305で行うMLRを用いたいびき音/非いびき音の分類(OSASスクリーニングの場合:OSAS/non−OSASの分類)を行った。さらにステップS307において閾値に基づく判別を行った。ここでは、分類部50で音響特徴量を所定の種別に分類し、判別部60でいびき音又は非いびき音の判別を行うために、AEから抽出された特徴ベクトルを用いた多項分布ロジスティック回帰(Multi-nomial logistic regression:MLR)分析を用いた。
(いびき音自動分類の性能評価)
AIMを用いた、いびき音自動分類の性能評価を行うために、Leave-one-out交差検証を行った。ここでは、全テストデータセットにおける感度(Sensitivity)、特異度(Specificity)、AUC(area under the curve)、精度(Accuracy)、陽性適中度(Positive pre-dictive value:PPV)、陰性適中度(Negative predictive value:NPV)を計算して、それらの平均値、標準偏差を求めることにより、システムの分類性能を評価した(自動分類、スクリーニング共に、厳しい基準で評価を行っている)。
(OSASスクリーニングの性能評価)
AIMを用いた、OSASスクリーニングの性能評価には、被験者データベースから無作為に選んだ70%を学習用データセット、残りの30%をテスト用データセットして使用した。両データセット共に、OSAS被験者とNon−OSAS被験者が均等になるように、独立に分割し、ランダムに50パターン作成した学習・テスト用データセットを使用して、感度(Sensitivity)、特異度(Specificity)、AUC(area under the curve、精度(Accuracy)、陽性適中度(Positive pre-dictive value:PPV)、陰性適中度(Negative predictive value:NPV)を計算した後、平均値と標準偏差の計算を行い、OSASスクリーニングの性能を評価した。
(いびき音自動分類の性能評価結果)
AIMを用いた、いびき音自動分類の性能評価結果(Leave-one-out交差検証)を表16に示す。
Figure 0006908243
以上の結果から、AIMから得られる特徴だけを使用して、男女ともに、高い精度で、いびきを自動分類できることが判明した。
(AIMを用いた、OSASスクリーニングの性能評価結果)
上述した方法によりAIMを用いて自動抽出した、いびき音に基づくOSASスクリーニングの性能評価結果を表17に示す。また参考のため、自動抽出を行わず、ラベリングにより手動で抽出した、いびき音のみを利用したOSASスクリーニングの性能評価結果を表18に示す。
Figure 0006908243
Figure 0006908243
表17より、ヒトの聴覚能力を模倣した、AIMだけを用いて自動抽出した、いびき音をもとに、どのデータセットにおいても高い精度でOSASスクリーニングを行えることが示唆された。表17と18から、自動抽出された場合に比べて、ラベリングにより手動で抽出したいびき音に基づくOSASスクリーニングの性能が全ての被験者セットにおいて高いことが判った。この結果より、AIMを用いた、いびき音の自動抽出の性能を更に向上させることによりOSASスクリーニング性能の向上が示唆される。いびき自動抽出性能の向上のために、ASとSSAIのフレームにおける正規化方法の変更、例えばフレームで正規化するのではなく、1エピソードで正規化することも可能である。また、特徴量の追加、例えば、非特許文献1で述べられるような、ピッチ情報、フォルマント周波数情報などの信号処理、音声認識、音声信号処理に使用される特徴ベクトルとの組み合わせ等も可能である。
さらに本実施例では、エネルギの高い有音区間を対象にAIM処理を行った。その他、低SNRの音を含む有音区間を対象としてAIM処理を行って、咳、いびき、呼吸、発声、ベッドノイズ等のカテゴリに分類することも可能である。
以上の実施例に係る方法を纏めると、まずAIM処理により、35msのフレーム毎にSAIを求める。次に、各SAIからASとSSAIを求める。さらにAS、SSAIから、それぞれ特徴量(尖度、歪度、スペクトルバンド幅、スペクトル重心、スペクトルエントロピー、スペクトルロールオフ、スペクトルフラットネス等)を抽出する。フレームの数だけ特徴量が得られるので、有音区間の一の音から得られる各特徴量は、平均化することにより、平均値、標準偏差として利用できる。ここでは、いびき音自動抽出の場合は、AS、SSAIから得られる特徴量の平均値、標準偏差を使用した。一方、OSASスクリーニングでは、AS、SSAIから得られる特徴量の平均値のみを使用した。このように、OSASスクリーニングに比べ、いびき音自動抽出では、より多くの特徴量を使用、検討した。さらに多くの特徴量を用いることもできるし、また特徴量の基本統計量(標準偏差、尖度等)や、ピークの総数、出現位置、振幅、重心、傾斜、増加、減少等の特徴量等を使用して、生体音響自動抽出、OSASスクリーニングの性能を評価できる。また、常にSAIを用いる必要はなく、例えばSAI手前の処理であるNAPまでで特徴量を抽出することにより、計算速度を向上させることもできる。
以上の例ではいびき音を例に挙げて説明したが、本発明の対象はいびき音に限らず、生体物の発する他の音響(生体音響)にも利用でき、さらに検出された生体音響から、種々の症例の発見や診断等に適用できる。例えば睡眠音の検出により、上述したOSASスクリーニングや、睡眠障害の鑑別が可能となる。また肺音、呼吸音、咳等から、ぜんそく、肺炎等の診断が可能となる。あるいは、心音から各種の心疾患が可能となり、さらに腸音の解析により機能性消化管障害のような各種の腸疾患のスクリーニングが可能となる。その他、胎動音、筋音等の検出にも適用できる。このような生体音響を適切に抽出することで、これらの生体音響から診断可能な症例の解析に対して好適に利用できる。また、本発明はヒトに限らず、他の生物に対しても利用できる。例えば愛玩動物や動物園で飼育される動物の健康診断等においても、好適に利用できる。
本発明の生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器は、患者の睡眠ポリグラフ検査と共に、あるいはこれに代えていびき音を測定し、SASの診断を行う用途として好適に利用できる。
100…生体音響抽出装置
110…生体音響解析装置
10…入力部
20…有音区間推定部
21…前処理器
22…二乗器
23…ダウンサンプリング器
24…メディアンフィルタ
30…聴覚像生成部
40…音響特徴量抽出部
50…分類部
60…判別部
70…スクリーニング部

Claims (26)

  1. 生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出装置であって、
    生体音響データを含む元音響データを取得するための入力部と、
    前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、
    前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、
    前記聴覚像生成部で生成された聴覚像に対して、音響特徴量を抽出する音響特徴量抽出部と、
    前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、
    前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部と
    を備え
    前記判別部による生体音響データの判別が、非言語処理である生体音響抽出装置。
  2. 請求項1に記載の生体音響抽出装置であって、
    前記聴覚像生成部が、聴覚イメージモデルを用いて安定化聴覚像を生成するよう構成しており、
    前記音響特徴量抽出部が、前記聴覚像生成部で生成された安定化聴覚像に基づいて、音響特徴量を抽出してなる生体音響抽出装置。
  3. 請求項2に記載の生体音響抽出装置であって、
    前記聴覚像生成部が、さらに安定化聴覚像から、総括安定化聴覚像と、聴覚スペクトルを生成するよう構成しており、
    前記音響特徴量抽出部が、前記聴覚像生成部で生成された総括安定化聴覚像と、聴覚スペクトルに基づいて、音響特徴量を抽出してなる生体音響抽出装置。
  4. 請求項3に記載の生体音響抽出装置であって、
    前記音響特徴量抽出部が、聴覚スペクトル及び/又は総括安定化聴覚像の尖度、歪度、スペクトル重心、スペクトルバンド幅、スペクトルフラットネス、スペクトルロールオフ、スペクトルエントロピー、オクターブベースのスペクトルコントラストの少なくともいずれかを、音響特徴量として抽出してなる生体音響抽出装置。
  5. 請求項1に記載の生体音響抽出装置であって、
    前記聴覚像生成部が、聴覚イメージモデルを用いて神経活動パターンを生成するよう構成しており、
    前記音響特徴量抽出部が、前記聴覚像生成部で生成された神経活動パターンに基づいて、音響特徴量を抽出してなる生体音響抽出装置。
  6. 生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出装置であって、
    生体音響データを含む元音響データを取得するための入力部と、
    前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、
    前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、
    前記聴覚像生成部で生成された聴覚像に対して、聴覚スペクトルを生成する聴覚スペクトル生成部と、
    聴覚像に対して、総括安定化聴覚像を生成する総括安定化聴覚像を生成する総括安定化聴覚像生成部と、
    前記聴覚スペクトル生成部で生成された聴覚スペクトルと、前記総括安定化聴覚像生成部で生成された総括安定化聴覚像から、音響特徴量を抽出する音響特徴量抽出部と、
    前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、
    前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部と
    を備え
    前記判別部による生体音響データの判別が、非言語処理である生体音響抽出装置。
  7. 請求項1〜6のいずれか一項に記載の生体音響抽出装置であって、
    元音響データの内、周期を有する区間を抽出するよう構成してなる生体音響抽出装置。
  8. 請求項1〜7のいずれか一項に記載の生体音響抽出装置であって、
    前記有音区間推定部が、
    元音響データを微分又は差分して前処理するための前処理器と、
    前記前処理器で前処理された前処理データを二乗するための二乗器と、
    前記二乗器で二乗された二乗データをダウンサンプリングするためのダウンサンプリング器と、
    前記ダウンサンプリング器でダウンサンプリングされたダウンサンプリングデータから中央値を取得するためのメディアンフィルタと、
    を備える生体音響抽出装置。
  9. 請求項1〜8のいずれか一項に記載の生体音響抽出装置であって、
    前記入力部が、検査対象の患者と非接触に設置される非接触式マイクロフォンである生体音響抽出装置。
  10. 請求項1〜のいずれか一項に記載の生体音響抽出装置であって、
    元音響データが、患者の睡眠時に取得される生体音響であり、
    睡眠下に取得された生体音響データから、必要な生体音響データを抽出してなる生体音響抽出装置。
  11. 請求項1〜10のいずれか一項に記載の生体音響抽出装置であって、
    元音響データが、患者の睡眠時に集音される睡眠関連音であり、
    生体音響データが、いびき音のデータであり、
    前記所定の種別が、いびき音と非いびき音の別である生体音響抽出装置。
  12. 生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析装置であって、
    生体音響データを含む元音響データを取得するための入力部と、
    前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、
    前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、
    前記聴覚像生成部で生成された聴覚像に対して、音響特徴量を抽出する音響特徴量抽出部と、
    前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、
    前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部と、
    前記判別部で生体音響データと判別された真値データに対して、スクリーニングを行うスクリーニング部と、
    を備え
    前記判別部による生体音響データの判別が、非言語処理である生体音響解析装置。
  13. 生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析装置であって、
    生体音響データを含む元音響データを取得するための入力部と、
    前記入力部から入力された元音響データから、有音区間を推定する有音区間推定部と、
    前記有音区間推定部で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成部と、
    前記聴覚像生成部で生成された聴覚像に対して、聴覚スペクトルを生成する聴覚スペクトル生成部と、
    聴覚像に対して、総括安定化聴覚像を生成する総括安定化聴覚像生成部と、
    前記聴覚スペクトル生成部で生成された聴覚スペクトルと、前記総括安定化聴覚像生成部で生成された総括安定化聴覚像から、音響特徴量を抽出する音響特徴量抽出部と、
    前記音響特徴量抽出部で抽出された音響特徴量を、所定の種別に分類する分類部と、
    前記分類部で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを判別する判別部と、
    前記判別部で生体音響データと判別された真値データに対して、スクリーニングを行うスクリーニング部と、
    を備え
    前記判別部による生体音響データの判別が、非言語処理である生体音響解析装置。
  14. 請求項12又は13に記載の生体音響解析装置であって、
    前記スクリーニング部は、元音響データから抽出される生体音響データに対して疾患スクリーニングを行うよう構成してなる生体音響解析装置。
  15. 請求項14に記載の生体音響解析装置であって、
    前記スクリーニング部は、元音響データから抽出される生体音響データに対して閉塞型睡眠時無呼吸症候群のスクリーニングを行うよう構成してなる生体音響解析装置。
  16. 生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出方法であって、
    生体音響データを含む元音響データを取得する工程と、
    前記取得された元音響データから、有音区間を推定する工程と、
    前記推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する工程と、
    前記生成された聴覚像に対して、音響特徴量を抽出する工程と、
    前記抽出された音響特徴量を、所定の種別に分類する工程と、
    前記分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する工程と
    を含む生体音響抽出方法。
  17. 生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出方法であって、
    生体音響データを含む元音響データを取得する工程と、
    前記取得された元音響データから、有音区間を推定する工程と、
    前記推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する工程と、
    前記安定化聴覚像から、総括安定化聴覚像を生成する工程と、
    前記生成された総括安定化聴覚像から得られる所定の音響特徴量を抽出する工程と、
    前記抽出された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する工程と
    を含む生体音響抽出方法。
  18. 請求項17に記載の生体音響抽出方法であって、
    前記安定化聴覚像から、聴覚スペクトルを生成すると共に、
    前記所定の音響特徴量を抽出する工程において、前記総括安定化聴覚像に加え、前記生成された聴覚スペクトルから得られる所定の音響特徴量を抽出する生体音響抽出方法。
  19. 請求項17又は18に記載の生体音響抽出方法であって、さらに、
    前記所定の音響特徴量を抽出する工程に先立ち、前記抽出された音響特徴量から、識別に寄与する音響特徴量を選択する工程を含む生体音響抽出方法。
  20. 請求項1719のいずれか一項に記載の生体音響抽出方法であって、
    前記生体音響データか否かを判別する工程が、多項分布ロジスティック回帰分析を用いたいびき音又は非いびき音の分類である生体音響抽出方法。
  21. 生体音響抽出装置を用いて、生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析方法であって、
    生体音響データを含む元音響データを取得する工程と、
    前記取得された元音響データから、有音区間を推定する工程と、
    前記推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する工程と、
    前記安定化聴覚像から、聴覚スペクトル及び総括安定化聴覚像を生成する工程と、
    前記生成された聴覚スペクトル及び総括安定化聴覚像から得られる所定の音響特徴量を抽出する工程と、
    前記抽出された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する工程と、
    前記判別工程で生体音響データと判別された真値データに対して、前記生体音響抽出装置がスクリーニングを行う工程と、
    を含む生体音響解析方法。
  22. 請求項21に記載の生体音響解析方法であって、
    前記スクリーニングを行う工程が、多項分布ロジスティック回帰分析を用いた閉塞型睡眠時無呼吸症候群又は非閉塞型睡眠時無呼吸症候群のスクリーニングである生体音響解析方法。
  23. 生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出プログラムであって、
    生体音響データを含む元音響データを取得するための入力機能と、
    前記入力機能で入力された元音響データから、有音区間を推定する有音区間推定機能と、
    前記有音区間推定機能で推定された有音区間に基づいて、聴覚イメージモデルに従い聴覚像を生成する聴覚像生成機能と、
    前記聴覚像生成機能で生成された聴覚像に対して、音響特徴量を抽出する音響特徴量抽出機能と、
    前記音響特徴量抽出機能で抽出された音響特徴量を、所定の種別に分類する分類機能と、
    前記分類機能で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する判別機能と
    をコンピュータに実現させる生体音響抽出プログラム。
  24. 生体音響データを含む元音響データから、必要な生体音響データを抽出するための生体音響抽出プログラムであって、
    生体音響データを含む元音響データを取得するための入力機能と、
    前記入力機能で入力された元音響データから、有音区間を推定する有音区間推定機能と、
    前記有音区間推定機能で推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する安定化聴覚像生成機能と、
    前記安定化聴覚像から、総括安定化聴覚像を生成する機能と、
    前記生成された総括安定化聴覚像に対して、所定の音響特徴量を抽出する音響特徴量抽出機能と、
    前記音響特徴量抽出機能で抽出された所定の音響特徴量を、所定の種別に分類する分類機能と、
    前記分類機能で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する判別機能と
    をコンピュータに実現させる生体音響抽出プログラム。
  25. 生体音響データを含む元音響データから、必要な生体音響データを抽出し、解析するための生体音響解析プログラムであって、
    生体音響データを含む元音響データを取得するための入力機能と、
    前記入力機能で入力された元音響データから、有音区間を推定する有音区間推定機能と、
    前記有音区間推定機能で推定された有音区間に基づいて、聴覚イメージモデルに従い安定化聴覚像を生成する安定化聴覚像生成機能と、
    前記安定化聴覚像から、総括安定化聴覚像を生成する機能と、
    前記生成された総括安定化聴覚像に対して、所定の音響特徴量を抽出する音響特徴量抽出機能と、
    前記音響特徴量抽出機能で抽出された所定の音響特徴量を、所定の種別に分類する分類機能と、
    前記分類機能で分類された音響特徴量に対して、所定の閾値に基づいて生体音響データか否かを非言語処理で判別する判別機能と、
    前記判別機能で生体音響データと判別された真値データに対して、スクリーニングを行う機能と、
    をコンピュータに実現させる生体音響解析プログラム。
  26. 請求項24又は25に記載されるプログラムを格納したコンピュータで読み取り可能な記録媒体又は記録した機器。
JP2017565502A 2016-02-01 2017-01-25 生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 Active JP6908243B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016017572 2016-02-01
JP2016017572 2016-02-01
PCT/JP2017/002592 WO2017135127A1 (ja) 2016-02-01 2017-01-25 生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Publications (2)

Publication Number Publication Date
JPWO2017135127A1 JPWO2017135127A1 (ja) 2019-01-10
JP6908243B2 true JP6908243B2 (ja) 2021-07-21

Family

ID=59499570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017565502A Active JP6908243B2 (ja) 2016-02-01 2017-01-25 生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Country Status (2)

Country Link
JP (1) JP6908243B2 (ja)
WO (1) WO2017135127A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11333636B2 (en) * 2017-10-11 2022-05-17 Bp Exploration Operating Company Limited Detecting events using acoustic frequency domain features
JP7197922B2 (ja) * 2018-05-08 2022-12-28 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
CN109243470B (zh) * 2018-08-16 2020-05-05 南京农业大学 基于音频技术的肉鸡咳嗽监测方法
TWI735879B (zh) * 2019-05-16 2021-08-11 醫療財團法人徐元智先生醫藥基金會亞東紀念醫院 利用神經網路從鼾聲來預測睡眠呼吸中止之方法
CN111105812A (zh) * 2019-12-31 2020-05-05 普联国际有限公司 一种音频特征提取方法、装置、训练方法及电子设备
KR102521981B1 (ko) * 2023-01-18 2023-04-14 주식회사 베러마인드 사용자를 위한 수면 큐레이션 서비스 시스템의 동작 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7996212B2 (en) * 2005-06-29 2011-08-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device, method and computer program for analyzing an audio signal
JP4935931B2 (ja) * 2008-10-16 2012-05-23 富士通株式会社 無呼吸検出プログラムおよび無呼吸検出装置
US8880207B2 (en) * 2008-12-10 2014-11-04 The University Of Queensland Multi-parametric analysis of snore sounds for the community screening of sleep apnea with non-gaussianity index
JP5827108B2 (ja) * 2011-11-18 2015-12-02 株式会社アニモ 情報処理方法、装置及びプログラム
JP6056101B2 (ja) * 2012-06-29 2017-01-11 国立大学法人山梨大学 シャント狭窄診断支援システムおよび方法,アレイ状採音センサ装置,ならびに逐次細分化自己組織化マップ作成装置,方法およびプログラム
JP6136394B2 (ja) * 2012-08-09 2017-05-31 株式会社Jvcケンウッド 呼吸音分析装置、呼吸音分析方法および呼吸音分析プログラム
JP6412458B2 (ja) * 2015-03-31 2018-10-24 セコム株式会社 超音波センサ

Also Published As

Publication number Publication date
WO2017135127A1 (ja) 2017-08-10
JPWO2017135127A1 (ja) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6908243B2 (ja) 生体音響抽出装置、生体音響解析装置、生体音響抽出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
Mekyska et al. Robust and complex approach of pathological speech signal analysis
Kim et al. Detection of sleep disordered breathing severity using acoustic biomarker and machine learning techniques
Amrulloh et al. Automatic cough segmentation from non-contact sound recordings in pediatric wards
Abeyratne et al. Pitch jump probability measures for the analysis of snoring sounds in apnea
US8880207B2 (en) Multi-parametric analysis of snore sounds for the community screening of sleep apnea with non-gaussianity index
Muhammad et al. Multidirectional regression (MDR)-based features for automatic voice disorder detection
US20200093423A1 (en) Estimation of sleep quality parameters from whole night audio analysis
Xie et al. Audio-based snore detection using deep neural networks
Lin et al. Automatic wheezing detection using speech recognition technique
US20220007964A1 (en) Apparatus and method for detection of breathing abnormalities
Karunajeewa et al. Silence–breathing–snore classification from snore-related sounds
Jiang et al. Automatic snoring sounds detection from sleep sounds based on deep learning
JP7197922B2 (ja) 機械学習装置、解析装置、機械学習方法および解析方法
Abou-Abbas et al. A fully automated approach for baby cry signal segmentation and boundary detection of expiratory and inspiratory episodes
Nonaka et al. Automatic snore sound extraction from sleep sound recordings via auditory image modeling
El Emary et al. Towards developing a voice pathologies detection system
You et al. Cough detection by ensembling multiple frequency subband features
Porieva et al. Investigation of lung sounds features for detection of bronchitis and COPD using machine learning methods
Saudi et al. Computer aided recognition of vocal folds disorders by means of RASTA-PLP
González-Martínez et al. Improving snore detection under limited dataset through harmonic/percussive source separation and convolutional neural networks
Corcoran et al. Glottal Flow Analysis in Parkinsonian Speech.
Zhu et al. Multimodal speech recognition with ultrasonic sensors
Dafna et al. Automatic detection of snoring events using Gaussian mixture models
Liu et al. Classifying respiratory sounds using electronic stethoscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210622

R150 Certificate of patent or registration of utility model

Ref document number: 6908243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250