JP7419641B2 - 睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法 - Google Patents

睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法 Download PDF

Info

Publication number
JP7419641B2
JP7419641B2 JP2021553028A JP2021553028A JP7419641B2 JP 7419641 B2 JP7419641 B2 JP 7419641B2 JP 2021553028 A JP2021553028 A JP 2021553028A JP 2021553028 A JP2021553028 A JP 2021553028A JP 7419641 B2 JP7419641 B2 JP 7419641B2
Authority
JP
Japan
Prior art keywords
classifier
snoring
type
mouth
cause
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021553028A
Other languages
English (en)
Other versions
JP2022531535A (ja
Inventor
クリストフ ジャノット,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diametos GmbH
Original Assignee
Diametos GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diametos GmbH filed Critical Diametos GmbH
Publication of JP2022531535A publication Critical patent/JP2022531535A/ja
Application granted granted Critical
Publication of JP7419641B2 publication Critical patent/JP7419641B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4818Sleep apnoea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Orthopedics, Nursing, And Contraception (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、検査されるべき鼾音信号についての対応する分類による睡眠時無呼吸における閉塞タイプのマイクロプロセッサ支援識別のためのシステムに関する。
鼾(いびき)は、上気道の軟組織の振動によって引き起こされる夜間の呼吸音として定義される。「鼾」という用語に関して様々な定義があり、その多くでは、鼾は、気流によって引き起こされる上気道の組織の振動であり、それは、結果として生じる鼾音の音色部分をもたらす。しかしながら、「鼾」と「喘鳴(ぜんめい)」との間に明確な区別がない。以下では、「鼾」という用語はまた、重要な音色部分のない呼吸音も含有し得る一般的なタイプの音であると理解することができる。
鼾音信号は、例えばマイクロホンによって記録され、電気信号に変換された音響信号であると理解される。鼾音信号は、例えば、鼾音の発生場所、鼾音原因のタイプ、口の位置、時刻、患者の名前、患者の体重、及び睡眠の姿勢などの、音響鼾音信号に関する1つ又は複数の追加の情報を送信する指標又はラベルの形態の追加情報をさらに含有するか又は含むことができる。
閉塞性睡眠時無呼吸は、上気道の閉鎖及びそれぞれ閉塞、いわゆる、気道閉塞に起因して夜間の呼吸休止が生じる状態であると理解される。1時間当たりの閉塞性呼吸休止の数に応じて、閉塞性睡眠時無呼吸の様々な重症度レベルが区別される。閉塞性睡眠時無呼吸では、鼾は、頻繁に付随する症状である。鼾及び閉塞性睡眠時無呼吸は、睡眠に関連する呼吸疾患である。以下では、閉塞性睡眠時無呼吸は、単に睡眠時無呼吸と呼ばれる。
鼾音と気道の閉塞とは、上気道の異なる場所で様々な様式で引き起こされる。様々な様式は、振動又は狭窄のそれぞれの方向及びタイプによって決定され得るが、狭窄は、例えば、円形であるか、又は横方向の細長い隙間として形成されることがある。その結果、様々な鼾音原因のタイプがあり、それは、閉塞の様々な部位及びタイプに解剖学的に関連している。言い換えれば、鼾音原因のタイプは、鼾音の発生場所、振動の方位及びタイプ、又はそれらの組合せによって定義される。同様に、閉塞のタイプは、閉塞の部位、閉塞の方向、又はそれらの組合せによって定義される。様々な鼾音原因のタイプは、以下のように分類することができる。
A)軟口蓋の前後方向の振動、
C)口蓋帆咽頭又は中咽頭の気道の円形狭窄、
L)中咽頭の領域における軟組織の横振動、
T)舌根の領域の狭窄、及び/又は
E)喉頭蓋の領域の振動又は狭窄。
咽頭において、鼾音は、例えば、口蓋垂をもつ軟口蓋の領域で、口蓋扁桃腺の領域で、舌根の領域で、及び喉頭蓋のレベルで発生する可能性がある。臨床診療での狭窄部位及び閉塞タイプの標準化された名称を確立する目的で、多数の分類体系が当技術分野で説明されている。図2は、口蓋帆咽頭(V)、中咽頭(O)、舌根(T)、及び喉頭蓋(E)の領域をもつ首、鼻、及び喉に患者の鼾音発生部位がある頭の横方向断面図を示している。
睡眠関連呼吸疾患の診断は、大部分の治療指針によれば、自然睡眠中に気道の狭窄(呼吸低下)によって引き起こされる閉塞及び呼吸困難によって引き起こされる無呼吸の頻度の測定を含み、測定は、睡眠ラボでの睡眠ポリグラフと家庭環境でのポリグラフ及び心肺機能スクリーニングとの両方として実行される。しかしながら、これらの測定は、狭窄又は閉塞の部位に関する明確な情報を提供しない。狭窄又は閉塞の部位及び形状に応じて、それに合うように、様々な治療手段を採用することができる。呼吸休止の頻度及び長さによって決定される閉塞性睡眠時無呼吸の重症度を知ることに加えて、閉塞性睡眠時無呼吸の目標とする治療処置のために、それぞれの閉塞タイプを知ることは非常に重要である。目標とする方法で鼾を治療するために、鼾音原因のタイプを知ることも非常に重要である。
鼾音の発生の部位及び閉塞部位を決定するための1つの既知の解決策は、例えば、いくつかのセンサを直列に配置した直径数ミリメートルの細いカテーテルが患者の鼻を通して上気道に導入される夜間マノメトリである。それにより、自然睡眠中の圧力状態を、上気道のいくつかの位置で夜の間測定することができる。この方法の1つの利点は、自然睡眠中の連続測定である。欠点は、すべての患者が一晩中上気道のカテーテルに耐えるとは限らないということである。さらに、閉塞のタイプ及び形状に関する情報を得ることができない。
患者の閉塞の部位及びタイプを決定する別のよく知られている方法は、医薬品誘発性睡眠ビデオ内視鏡検査である。この方法により、患者は、人工的な睡眠をもたらすために麻酔専門医によって鎮静される。次いで、上気道が、鼻を通して導入された可撓性内視鏡によってモニタされる。それにより、閉塞の部位、形状、及びタイプを視覚化し決定することができる。この方法の欠点は、鎮静医薬品によって引き起こされる患者へのストレス、並びにスタッフと装置に関する多大な負担、及び関連する高いコストである。医薬品誘発睡眠ビデオ内視鏡検査中に、頻繁に、鼾音のオーディオ記録が、内視鏡検査のビデオ記録と同時に行われており、それを参照すると、それぞれの鼾音原因のタイプに関する、及び/又は閉塞のそれぞれのタイプに関する情報をもつ鼾音信号を抽出することができる。鼾音原因のタイプと閉塞のタイプとの間に特定の相関があるが、しかしながら、閉塞のタイプは、鼾音原因のタイプから明確に推定することができない。さらに、大多数の場合に、閉塞及び鼾音は、特定の時間的関係内で発生するが、時間的に同期していない。
睡眠中の口の位置は、睡眠の質、例えば歯の疾患などの他の状態、及び気道の閉塞の発生の確率及びタイプに重大な影響があることが知られている。口の位置は、下顎と唇の位置によって実質的に決定される。最も簡単な場合には、2つの状況、すなわち、口を閉じた(例えば、唇を閉じた)状況及び口を開けた状況が区別される。代替として、口の位置は、差異化した定義でより詳細に説明することができる。
医薬品誘発睡眠ビデオ内視鏡検査中に、例えば、検査官が患者の下顎を手で動かすことによって、開いた口の位置と閉じた口の位置が強制され、口の位置の閉塞のタイプへの影響が、この方法で検査される。しかしながら、睡眠ビデオ内視鏡検査のオーディオ記録及び内視鏡検査ビデオ記録から、鼾音が生じた時の口の位置を認識することができない。睡眠ビデオ内視鏡検査中の鼾音の発生の時の口の位置に関する情報もまた、構造化された形態で利用可能ではない。
自然睡眠中の口の位置を決定するために、様々な方法、例えば、ビデオベースの方法が知られている。この目的のために、それぞれの鼾音信号が記録されており、対応する口の位置を追加情報として抽出し、指標として決定及び記録することができる。ここで、口の位置を決定するために、ビデオベースの決定は、大きい時間の手間を必要とし、代替の方法として、患者の頭に取り付けられたセンサによる決定は、睡眠の質を妨げることに留意されたい。他方、この方法で得られる追加の鼾音信号は、対応する口の位置とともに利用可能であり、したがって、有用である。
国際公開第2017/009081A1号は、好ましくは2つのオフセットされたマイクロホンセンサを備えた管を通して呼吸が行われる上気道における鼾音識別のためのデバイス及び方法を開示している。2つのマイクロホンセンサのセンサ信号によって、上気道の閉塞を吸息及び呼息中に認識することができる。
国際公開第2012/155257A1号は、呼吸又は睡眠の間、マイクロホンセンサが患者の鼻の前に配置されている、気道の音及びリズムを診断するためのデバイス及び方法を開示している。
独国特許出願公開第102006008844A1号は、気道の音を検出する方法を開示しており、センサが鼻孔の前に配置されるか又は鼻孔に導入され、その結果、センサ信号が評価される。
明確にするため、ここで、それぞれの鼾音信号は1つ又は複数の追加の情報を含むことができること、又は1つ又は複数の追加の情報をそれぞれの鼾音信号に取り付けることができ、1つ又は複数の追加の情報は指標又はラベルとして音響鼾音信号に関連付けられることに留意されたい。これらの1つ又は複数の追加の情報又は指標は、例えば、鼾音の発生の部位、鼾音原因のタイプ、口の位置、及び/又は上述で示したような追加の患者のパラメータとすることができる。しばしばラベルとも呼ばれる指標は、例えば、鼾音信号自体に変調されるか、若しくは符号化の方法で鼾音信号自体に含有されてもよく、又は第2の信号トラック若しくはファイルに記録されてもよく、又は書面で記録されてもよい。
それゆえに、最新技術から欠点を除去するための本発明の目的は、検査されるべき鼾音信号から、各場合に最も可能性の高い閉塞のタイプを自動的に、可能であれば有意に、認識するためのシステムを提供することにある。
上述で示した目的は、独立請求項1の特徴によるデバイスによって達成される。本発明の他の有利な実施形態は従属請求項に示されている。
本発明によれば、検査されるべき鼾音信号についての対応する分類によって睡眠時無呼吸の閉塞のタイプのマイクロプロセッサ支援認識のための分類システムが導入され、分類システムは、
それぞれの鼾音信号のための入力インタフェースと、
それぞれの鼾音原因のタイプをもつ第1の複数の鼾音信号が入力された場合、識別モードにおいて、特定の鼾音信号に対して事前定義された鼾音原因のタイプのグループの中で最も可能性の高いものを識別すること及び出力することを行うように訓練モードで学習するように構成された第1の分類器と、
それぞれの口の位置をもつ第2の複数の鼾音信号が入力された場合、識別モードにおいて、特定の鼾音信号に対して事前定義された口の位置のグループの中で最も可能性の高いものを識別すること及び出力することを行うように訓練モードで学習するように構成された第2の分類器と、
識別モードにおいて、第1の分類器によって決定された鼾音原因のタイプ、及び第2の分類器によって決定された口の位置の入力から、事前定義された閉塞タイプのグループの中で最も可能性の高いものを識別し、閉塞タイプ信号と同じものを出力するように設計された第3の分類器と、
指し示されるべき閉塞タイプ信号のための出力インタフェースとを備える。
第3の分類器はまた、第1の分類器によって識別された鼾音原因のタイプ、第2の分類器によって識別された口の位置、及び閉塞のタイプが入力されるとき、識別モードにおいて、それぞれの鼾音原因のタイプ及び口の位置に対して訓練中に入力された閉塞のタイプを最も可能性の高い閉塞のタイプとして識別するように訓練モードで学習するように構成されることが好ましい。明確にする目的で、当業者は、分類器の分野における「学習」が何を意図しているかを知っていることに留意されたい。
本発明の利点は、特に、第1の分類器及び第2の分類器の訓練のために、鼾音信号の単なる音響成分に加えて、追加情報として、鼾音原因のタイプ又は口の位置のいずれかのみを含有する複数の鼾音信号を使用できるということにある。情報は、一般に、指標若しくはラベルとして鼾音信号自体に符号化されるか、又は鼾音信号自体に変調されるか、別の信号トラック若しくはファイルに記録されるか、又は例えば書面でのラベルとして鼾音信号に取り付けられてもよい。したがって、第1の分類器は、第2の分類器及び/又は第3の分類器を誤って訓練することなしに、ラベルとして鼾音原因のタイプのみを含み、最新技術において既に利用可能な大量の鼾音信号で訓練することができる。同じように、第2の分類器は、第1の分類器及び/又は第3の分類器を誤って訓練することなしに、ラベルとして口の位置のみを含む、最新技術において既に利用可能な別の大量の鼾音信号で訓練することができる。それゆえに、本発明による分類システムは、2つの指標の≪鼾音原因のタイプ≫及び≪口の位置≫と組み合わせて記録された鼾音信号の全面的に新しい記録を必要としない。本発明によれば、既存の鼾音信号は、第1の分類器及び第2の分類器を訓練するために一方の指標又は他方の指標のみで使用することができるので、コスト及び負担に関して大きい利点が達成され、それにもかかわらず、検査されるべき鼾音信号から開始する閉塞のタイプの識別中に、両方の指標の「鼾音原因のタイプ」及び「口の位置」が考慮に入れられる。これらの2つの指標を組み合わせて使用することにより、それぞれの閉塞のタイプを正しく識別する精度が大幅に向上され、及び/又は検査されるべき鼾音信号から閉塞のタイプを、唯一の指標としての鼾音原因のタイプで識別することと比較して、誤った識別の可能性が低くなる。
第1の分類器及び第2の分類器は、第1の分類器及び第2の分類器の訓練が、それぞれ、複数の鼾音信号を用いて別個に実行されてもよく、第1の分類器が口の位置と無関係に訓練可能であり、第2の分類器が鼾音原因のタイプと無関係に訓練可能であるように構成されることが好ましい。第1の分類器の訓練は、第2の分類器の訓練に対して時間シフト行うことができることが好ましい。代替として、第1の分類器の訓練は、第2の分類器の訓練と同時に行うことができることが好ましい。明確にするために、複数の鼾音信号は、口の位置が指標として割り当てられることなく、鼾音原因のタイプが指標として割り当てられる一連の鼾音信号と、鼾音原因のタイプが指標として割り当てられることなく、口の位置が指標として割り当てられる異なる一連の鼾音信号とを含むことができる。
明確にするために、「指標」及び「ラベル」という用語は、ここでは、同義語として理解される。分類器の訓練はまた、「学習」と呼ぶことができる。少なくとも1つの指標をもつそれぞれの鼾音信号によるそれぞれの分類器の「訓練」又は「訓練モード」によって、それぞれの分類器が、このプロセス中に、識別モードにおいて、当業者に知られているように、いくつかの指標をもつ多くの訓練された鼾音信号の場合に、好ましくは平均で、鼾音信号から少なくとも1つの指標をよりよく識別できるように変わることが意図される。当業者は、それぞれの分類器の訓練のために使用される異なる鼾音信号が多いほど、識別率が高くなることを知っている。
当然、第1の分類器及び第2の分類器はまた、指標を割り当てられた鼾音原因のタイプと口の位置の両方を含む別の複数の鼾音信号と一緒に訓練可能であるように構成されることが好ましい。このようにして、第1の複数の、第2の複数の、及び/又は追加の複数の異なる鼾音信号が、第1の分類器及び第2の分類器を訓練するために利用され得る。
当業者は、さらに、第1、第2、及び第3の分類器が、技術的に、ただ1つの分類器の一部であってもよいことを知っており、この場合、鼾音原因のタイプ、口の位置、及び/又は閉塞タイプの訓練及び/又は識別は、一部の分類器によって行てもよい。加えて、当業者は、鼾音原因のタイプ及び口の位置に関する情報が、代替として、各々が鼾音原因のタイプと口の位置の組合せを特徴付ける一連のラベル又は指標によって提供されてもよいことを知っている。それぞれのラベル又は指標は、鼾音信号、例えば、鼾音原因のタイプ、口の位置、睡眠時間などに関する1つ又は複数の情報を好ましくは含んでもよい。
鼾音原因のタイプ及び口の位置を鼾音信号から識別することが改善されると、閉塞のタイプの識別が改善される。
明確にする目的で、ここで、第1の分類器は、第1の一連の鼾音信号により訓練モード又は学習モードで訓練可能な学習分類器であり、そのため、続いて、識別モードにおいて、それぞれの鼾音信号から最も高い確率でそれぞれの鼾音原因のタイプを識別することができることに留意されたい。同じように、第2の分類器は、第2の一連の鼾音信号により訓練モード又は学習モードで訓練可能な学習分類器であり、そのため、続いて、識別モードにおいて、それぞれの鼾音信号から最も高い確率でそれぞれの口の位置を識別することができる。
当業者は、それぞれの分類器が事前定義された特性を認識するように最適化されることが好ましいことを知っている。
それぞれの分類器による鼾音信号の訓練及び識別は、続いて、同時に、又は時間的にオーバラップして行われてもよい。
第1の分類器は、識別モードにおいて、対応する確率でそれぞれの鼾音原因のタイプを識別し、それを指し示し、それを第3の分類器に転送するように構成されることが好ましい。次いで、第3の分類器は、それぞれの口の位置及び、必要ならば、追加の鼾又は患者データと組み合わせて、それぞれの鼾音原因のタイプの確率を評価する。第1の分類器は、鼾音信号を鼾音原因のタイプのベクトルに分類し、鼾音原因のタイプ又は鼾音原因のタイプのクラスが、それぞれの確率として出力されることが好ましい。これにより、第3の分類器のための、識別された鼾音原因のタイプと識別された口の位置との間の、確率で与えられる、評価潜在能力と組合せ分析とが向上する。
第2の分類器は、識別モードにおいて、対応する確率でそれぞれの口の位置を識別し、それを指し示し、それを第3の分類器に転送するように構成されることが好ましい。次いで、第3の分類器は、それぞれの鼾音原因のタイプ及び、必要ならば、追加の鼾又は患者データと組み合わせて、それぞれの口の位置の確率を評価する。第2の分類器は、鼾音信号を口の位置のベクトルに分類し、各々の口の位置又は口の位置のクラスが、それぞれの確率として出力されることが好ましい。
第3の分類器は、識別モードにおいて、対応する確率でそれぞれの閉塞タイプを識別し、それを指し示し、それを出力インタフェースに転送するように構成されることが好ましい。次いで、出力インタフェースは、閉塞のタイプを通知機能に提供し、出力インタフェースは、この目的に適することが知られているインタフェースのうちのいずれか、例えば、例えばスマートフォン又はPCのディスプレイへの電気的インタフェース又は無線インタフェースとすることができる。出力インタフェースは、さらに、評価及び表示を異なる場所で行うことができるように、インターネットに接続されてもよい。
説明されたシステムの個々の構成要素は、さらに、空間的に分離されてもよい。次いで、それぞれの情報は、例えば、電気的インタフェース又は無線インタフェースとしてもよい適切なインタフェースを介してシステム構成要素間で転送されることになることが好ましい。この情報はまた、インターネットを介して送信されてもよい。
第3の分類器は、鼾音原因のタイプ及び口の位置に加えて、鼾をかく人の追加の鼾又は患者データを入力インタフェースを介して記録し、訓練モード及び/又は識別モードにおいて、閉塞のタイプを分類するときに追加の鼾又は患者データを考慮に入れるように構成されることが好ましい。追加の鼾又は患者データは、最も可能性の高い閉塞のタイプをさらによりよく決定するためのパラメータ又はパラメータ信号としてもよい。「よりよく」は、ここでは、「より高いヒット率で」を意味する。
鼾又は患者データは、以下のパラメータ、すなわち、性別、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間、及び/又は患者の体重のうちの少なくとも1つを含むことが好ましい。
鼾の発生及び閉塞の発生は、一緒に起こる可能性があるが、これは必ずしも常にそうであるとは限らない。明確にする目的で、第3の分類器を訓練するために鼾音原因のタイプ及び口の位置に関するそれぞれの情報と一緒に使用される閉塞タイプのラベルは、さらに、特定の時間的関係で生じているが、特定の患者に関係したそれぞれの鼾の発生と同時には生じていない閉塞の発生の場合の閉塞のタイプを指定してもよいことに留意されたい。
第1の分類器は、機械学習又は分類の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づくことが好ましい。最新技術から知られている他の方法が同様に考えられ、本明細書に適用することができる。
第2の分類器は、機械学習又は分類の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づくことが好ましい。最新技術から知られている他の方法が同様に考えられ、本明細書に適用することができる。
第3の分類器は、機械学習又は分類の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づくことが好ましい。最新技術から知られている他の方法が同様に考えられ、本明細書に適用することができる。
鼾音信号を分類するときにそれぞれの第1の分類器及び/又は第2分類器が評価するか又は考慮に入れることができる鼾若しくは患者データ又はその一部を第1の分類器及び/又は第2の分類器に割り当てることも可能である。例えば、患者の性別、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、及び/又は睡眠の持続時間の特徴が、分類器に割り当てられてもよい。
代替として、第3の分類器が、鼾音原因のタイプからの第1の入力ベクトル及び口の位置の少なくとも1つの第2の入力ベクトルのマトリクス確率計算に基づくことができ、集約確率が、様々な閉塞タイプ及びその確率をもたらすことが好ましい。
明確にする目的で、鼾音原因のタイプの第1のグループによって、鼾音原因のタイプの第1のクラスの第1のグループが意図される。
鼾音原因のタイプのグループは、以下のクラス、すなわち、口蓋帆咽頭(V)、中咽頭(O)、舌根領域(T)、及び/又は喉頭蓋領域(E)を含むことが好ましい。当然、他のクラス、又は部位、又は鼾音原因のタイプが同様に考えられる。
明確にする目的で、口の位置のグループによって、口の位置のクラスのグループが理解されることが好ましい。口の位置のグループは、口の位置、すなわち、「口を開けた位置」及び「口を閉じた位置」を含み、他の口の位置及び中間位置が、当然、同様に考えられることが好ましい。
明確にするために、閉塞タイプのグループによって、閉塞タイプのクラスのグループが理解されることが好ましい。
明確にするために、音発生のタイプは、音発生の場所に加えて又はその代わりに、本明細書で「鼾音原因のタイプ」として示されている振動の方向及び/又は形状を記述する。
明確にする目的で、ラベルとも呼ばれる指標は、客観的な基準値(グラウンドトゥルース)に基づいて決定されることが好ましく、それぞれの鼾の発生が生じた時に経験を積んだ観察者が医薬品誘発睡眠ビデオ内視鏡検査の内視鏡検査画像を観察することによって決定されることが好ましい。口の位置の指標又はラベルは、検査中の患者の観察、検査中の患者の口領域のビデオ記録の評価、又は口及び鼻を通る気流若しくは他のセンサを介したセンサデータの記録によって、及び鼾音信号の記録の時間にわたり口の位置を記録することによって、得られることが好ましい。
十分な数の特性ベクトル及び訓練データから、機械分類器である分類器は、少なくとも1つのモデルを生成する。ラベルなしの特性ベクトルがモデルに供給される場合、モデルは、結果値を出力することになる。結果値は、特性ベクトルの基礎となる鼾の発生が関連する最も可能性の高いクラスに関する情報を含有している。代替の実施形態では、モデルは、追加として、鼾の発生が最も可能性の高いクラスに関連している確率に関する情報を出力し、代替として、加えて、上述のように、他のクラスに属する確率に関する情報を出力する。出力されるクラスは、訓練のために使用されるラベルのクラスに対応することが好ましい。
本発明の好ましい実施形態が、以下の図及び詳細な説明において説明されるが、しかしながら、以下の図及び詳細は、本発明を好ましい実施形態に限定するように意図されていない。
図1は、第1の分類器及び第2の分類器を備えた分類システムを概略的に示す図であり、第1の分類器及び第2の分類器の各々に、対応する任意選択的な指標をもつ鼾音信号が、入力インタフェースを介して供給され、第1の分類器及び第2の分類器の出力信号が、分類のために第3の分類器に供給され、閉塞タイプを表す第3の分類器の出力信号が、出力インタフェースを介してディスプレイユニットに転送され、そこに表示され、追加の鼾又は患者データが、入力インタフェースを介して入力され、分類のために第3の分類器に供給され得る。 図2は、口蓋帆咽頭、中咽頭、舌根、及び喉頭蓋の領域をもつ首-鼻-喉領域を含む患者の頭の断面側面図である。 図3は、第1の分類器及び第2の分類器を訓練するために任意選択的な指標を含む鼾音信号からそれぞれの最も可能性の高い閉塞タイプ又はそれぞれの閉塞タイプの確率を決定するための方法の信号流れ図である。
実施形態の詳細な説明
図1は、閉塞タイプO1~O4のマイクロプロセッサ支援識別のための分類システム1の可能な実施形態を概略的に示しており、閉塞タイプO1~O4は、睡眠時無呼吸中に発生することがあり、検査されるべき鼾音信号Auから分類システム1によって識別される。分類システム1は、下記の構成要素を備える。
A)アナログ及び/又はデジタル入力を有することができるそれぞれの鼾音信号Auのための入力インタフェース。分類システム1を訓練するために、鼾音信号Auは、それぞれの鼾音信号Auに割り当てられた鼾音原因のタイプS1~S4及び/又は口の位置M1~M2をもつ少なくとも1つの追加の指標又はラベルを有する。鼾音信号Auは、分類システム1を訓練するために使用することができる指標として閉塞タイプO1~O4をさらに有することが好ましい。入力インタフェースは、一般に、指標(複数可)又はラベルを記録し転送するために、キーボード、ボタン、光入力部又はスキャナなどのための入力部をさらに有することができる。
B)対応する鼾音原因のタイプS1~S4をもつ第1の複数の鼾音信号Auが入力されたとき、識別モードにおいて、事前定義された鼾音原因のタイプS1~S4のグループからそれぞれの鼾音信号Auの最も可能性の高い鼾音原因のタイプS1~S4を識別し出力することができるように、訓練モードで学習するように構成された第1の分類器K1。したがって、第1の分類器は、学習分類器である。明確にするために、訓練データの鼾音信号Auが識別モードで入力された場合、上述の好ましい分類器により、対応する鼾音原因のタイプのS1~S4が、正しく、又は少なくとも平均して最も高い確率で出力されることになる。続いて、識別モードで、検査されるべき鼾音信号Auが入力された場合、最も可能性の高い鼾音原因のタイプS1~S4、又は複数の鼾音原因のタイプS1~S4が、確率値として決定され、第3の分類器K3に転送される。
C)第2の複数の鼾音信号Auが、それぞれの訓練モードにおいて、対応する口の位置M1~M2を伴って入力されるとき、識別モードにおいて、対応する鼾音信号Auに対して事前定義された口の位置M1~M2のグループから対応する最も可能性の高い口の位置M1~M2を識別すること及び出力することを学習するように構成された第2の分類器K2。したがって、第2の分類器は、同様に学習分類器である。続いて、識別モードで、検査されるべき鼾音信号Auが入力された場合、最も可能性の高い1つの口の位置M1~M2、又は複数の口の位置M1~M2が、確率値として決定され、第3の分類器K3に転送される。
D)第1の分類器K1によって識別された鼾音原因のタイプS1~S4及び第2の分類器K2によって識別された口の位置M1~M2が入力されるとき、事前定義された閉塞タイプO1~O4のグループの中で最も可能性の高い閉塞タイプO1~O4を識別モードで識別し、最も可能性の高い閉塞タイプO1~O4を閉塞タイプ信号として出力するように構成された第3の分類器K3。
第3の分類器K3は、第1の分類器K1によって識別された鼾音原因のタイプS1~S4、第2の分類器K2によって識別された口の位置M1~M2、及び閉塞タイプO1~O4が入力されるとき、識別モードにおいて、それぞれの鼾音原因のタイプS1~S4及びそれぞれの口の位置M1~M2に対して、入力された閉塞タイプO1~O4を最も可能性の高い閉塞タイプO1~O4として識別することになるように訓練モードで学習するように構成されることが好ましい。
第3の分類器K3は、第1の分類器K1によって識別された鼾音原因のタイプS1~S4、第2の分類器K2によって識別された口の位置M1~M2、及び閉塞タイプO1~O4が入力されるとき、識別モードにおいて、鼾音原因のタイプS1~S4及び口の位置M1~M2に対して、入力された閉塞タイプO1~O4を最も可能性の高い閉塞タイプO1~O4として認識することになるように訓練モードで学習するように構成されることが好ましい。
検査されるべき鼾音信号Auが識別モードで入力された場合、第1の分類器K1によって識別された鼾音原因のタイプS1~S4及び第2の分類器K2によって識別された口の位置M1~M2は、最も可能性の高い閉塞タイプ(複数可)O1~O4に、対応する確率値で割り当てられる。第3の分類器K3はまた、上述のように、少なくとも鼾音原因のタイプS1~S4及び口の位置M1~M2などの入力パラメータによって、正確に定義された確率評価を実行する接続マトリクスとすることができる。このプロセスの間に、接続マトリクスはまた、正確に事前定義された確率評価が、好ましくは、識別モードの前に又は訓練モードでの連続識別中にさらに学習されるように、実装又は従属学習アルゴリズムによって構成されてもよい。
E)閉塞タイプ信号のためのディスプレイを備えた出力インタフェース3。
分類システム1はまた、入力インタフェース2を有しており、それを使って、例えば、それぞれの閉塞タイプO1~O4の分類中に第3の分類器K3によって考慮される追加の鼾及び患者データPxを入力できることが好ましい。
明確にする目的で、鼾音原因のタイプ(複数可)S1~S4、口の位置(複数可)M1~M2、及び閉塞タイプ(複数可)O1~O4によって、信号は、信号特性を有するように意図されてもよいことに留意されたい。
識別精度は注釈付きテストデータによって決定されることが好ましい。テストデータは、訓練データセットの独立した部分であるが、但し、訓練に使用されなかった部分であることが好ましい。
鼾音信号Auは、鼾音信号及び1つ又は複数の特性信号を表すマイクロホン又はオーディオ信号を含む信号又は信号ベクトルであることが好ましい。鼾音信号を表すマイクロホン又はオーディオ信号は、例えば、帯域通過フィルタ処理によるか又は最新技術で知られているような様々な方法で前処理することができる。
代替として、鼾音信号Auは、少なくとも1つ又は複数の音響特性で構成される、特性抽出器によってオーディオ信号から得られる特性ベクトルであることが好ましい。音響特性は、例えば、基本周波数高調波雑音比(HNR)、メル周波数ケプストラム係数(MFCC)、及び/又は他のものとすることができる。特性抽出器は、鼾の発生の期間全体を記述する特性ごとの個々の値の代わりに、好ましくは静的な値として提示される音響特性の時系列履歴に関する情報を抽出することが好ましい。静的な値は、平均値、中央値、標準偏差、及び/又はガウス分布であることが好ましい。
記録された検査されるべき鼾音信号Auを分類することによる睡眠時無呼吸の場合の閉塞タイプO1~O4のマイクロプロセッサ支援識別のための上述の分類システムに適する方法は、以下のステップを含む。
A)それぞれの識別モードにおけるそれぞれの最も可能性の高い鼾音原因のタイプS1~S4の分類及び出力のために、それぞれの鼾音原因のタイプS1~S4が割り当てられている第1の複数の鼾音信号Auを入力ポートで入力することによって第1の分類器K1を訓練するステップであり、それぞれの鼾音原因のタイプS1~S4が、あり得る鼾音原因のタイプS1~S4のクラスの第1のグループから生じる、訓練するステップ。
B)それぞれの識別モードにおけるそれぞれの最も可能性の高い口の位置M1~M2の分類及び出力のために、それぞれの口の位置M1~M2が割り当てられている第2の複数の鼾音信号Auを入力ポートで入力することによって第2の分類器K1を訓練するステップであり、それぞれの口の位置M1~M2が、あり得る口の位置M1~M2のクラスの第2のグループから生じる、訓練するステップ。
C)睡眠時無呼吸の場合の最も可能性の高い閉塞タイプO1~O4に関しての対応する識別モードでの分類及び出力のために、上述で識別された鼾音原因のタイプS1~S4及び口の位置M1~M2を入力ポートで入力することによって、第3の分類器K3を好ましくは訓練するか又はマトリクス形状に関連付けするステップであり、それぞれの閉塞タイプO1~O4が、閉塞タイプO1~O4のクラスの第3のグループから生じ、代替として、第3の分類器K3が、さらに、最も可能性の高い閉塞タイプO1~O4の分類のためにパラメータ入力によって予めプログラムされてもよい、訓練するか又はマトリクス形状に関連付けするステップ。
D)それぞれの識別モードにおいて、第1の分類器K1による鼾音信号Auからの鼾音原因のタイプS1~S4、第2の分類器K2による口の位置M1~M2、及び第3の分類器K3による結果として生じる閉塞タイプO1~O4を識別するステップ。
E)第1の分類器K1、第2の分類器K2、及び第3の分類器K3によって識別された、検査されるべき鼾音信号Auの閉塞タイプO1~O4を出力インタフェース3で出力するステップ。
図3は、上述した方法の一例を信号流れ図として示す。
上述の方法は、以下のこと、すなわち、複数の鼾音信号Auによる第1の分類器K1の訓練及び第2の分類器K2の訓練が、互いに別個に行われ、第1の分類器K1が、口の位置M1~M2と無関係に訓練され学習し、第2の分類器K2が、鼾音原因のタイプS1~S4と無関係に訓練され学習することをさらに含むことが好ましい。第1の分類器K1及び第2の分類器K2の訓練及び学習は、時間シフトで又は同時に行われることが好ましい。
上述の方法は、以下のこと、すなわち、別の複数の鼾音信号Auによる第1の分類器K1の訓練及び第2の分類器K2の訓練が、一緒に同時に行われ、鼾音原因のタイプS1~S4及びそれぞれの口の位置M1~M2が、それぞれの採用された鼾音信号Auに割り当てられることをさらに含むことが好ましい。
上述の方法は、以下のこと、すなわち、識別モードにおいて、それぞれの鼾音原因のタイプS1~S4が、第1の分類器K1によってそれぞれの確率で識別され、第3の分類器K3に供給されることをさらに含むことが好ましい。
上述の方法は、以下のこと、すなわち、識別モードにおいて、それぞれの口の位置M1~M2が、第2の分類器K2によってそれぞれの確率で識別され、閉塞タイプO1~O4の識別のために第3の分類器K3に供給されることをさらに含むことが好ましい。
上述の方法は、以下のこと、すなわち、識別モードにおいて、それぞれの閉塞タイプO1~O4が、第3の分類器K3によって、それぞれの鼾音原因のタイプS1~S4及び口の位置M1~M2から、対応する確率の指標で識別されることをさらに含むことが好ましい。
上述の方法は、以下のこと、すなわち、鼾音原因のタイプS1~S4の第1のグループが、以下のクラス、すなわち、口蓋帆咽頭(V)、中咽頭(O)、舌根領域(T)、及び/又は喉頭蓋領域(E)を含むことをさらに含むことが好ましい。それぞれの鼾音原因のタイプS1~S4は、例えば横振動又は円振動であり得る振動の方向をさらに含むことが好ましい。
口の位置の第2のグループは、以下の口の位置、すなわち、口を開けた位置、口を閉じた位置を含むことが好ましい。代替として、口の位置の第2のグループは、中間位置を有する3つ以上の口の位置を含むことができることが好ましい。
上述の方法は、それぞれの鼾音原因のタイプS1~S4及びそれぞれの口の位置M1~M2に加えて、鼾をかく人に関連する追加の鼾又は患者データPxが、第3の分類器K3に供給され、そのデータが、閉塞タイプO1~O4の訓練及び/又は識別中に、第3の分類器K3によって考慮及び評価されるように構成されることが好ましい。
鼾又は患者データPxは、以下のパラメータ、すなわち、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間のうちの少なくとも1つを含むことが好ましい。
明確にする目的で、目的語に関連する不定冠詞「a」は、目的語の数を正確に「1つ」に限定するのではなく、「少なくとも1つ」が意図されることに留意されたい。これは、例えば「a」などのすべての不定冠詞に当てはまるものとする。
明確にする目的で、本明細書で使用される「第1の」、「第2の」、「第3の」などの用語は、異なる複数、要素、及び/又は構成要素を区別するためにのみ利用される。それゆえに、例えば、第1の複数は、第2の複数と呼ぶこともでき、その結果、第2の複数はまた、本発明の教示から逸脱することなく第1の複数と呼ぶことができる。
鼾音原因のタイプ、口の位置、及び閉塞タイプのタイプについて本明細書で述べた2つ又は4つのクラスの代わりに、他の複数が、同様に使用またが検出されてもよいことが理解される。
特許請求の範囲に示される参照符号は、より理解しやすくするためのみのものであり、特許請求の範囲を、図に示された実施形態に決して限定しない。
[参照符号のリスト]
1 分類システム
2 入力インタフェース
3 出力インタフェース
Au 鼾音信号
Sx、S1~S4 鼾音原因のタイプ
Mx、M1、M2 口の位置
Ox、O1~O4 閉塞タイプ
K1 第1の分類器
K2 第2の分類器
K3 第3の分類器
Px 鼾又は患者データ
V 口蓋帆咽頭
O 中咽頭
T 舌根の領域
E 喉頭蓋の領域
[発明の項目]
[項目1]
検査されるべき鼾音信号(Au)の適切な分類による睡眠時無呼吸における閉塞タイプ(O1~O4)のマイクロプロセッサ支援識別のための分類システム(1)であって、
a)それぞれの前記鼾音信号(Au)のための入力インタフェースと、
b)第1の複数の鼾音信号(Au)が、対応する鼾音原因のタイプ(S1~S4)を伴って入力されるとき、識別モードにおいて、事前定義された鼾音原因のタイプ(S1~S4)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い鼾音原因のタイプ(S1~S4)を識別すること及び出力することを行うように訓練モードで学習するように構成された第1の分類器(K1)と、
c)第2の複数の鼾音信号(Au)が、対応する口の位置(M1~M2)を伴って入力されるとき、識別モードにおいて、事前定義された口の位置(M1~M2)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い口の位置(M1~M2)を識別すること及び出力することを行うように訓練モードで学習するように構成された第2の分類器(K2)と、
d)前記第1の分類器(K1)によって識別された前記鼾音原因のタイプ(S1~S4)及び前記第2の分類器(K2)によって識別された前記口の位置(M1~M2)が入力された場合、事前定義された閉塞タイプ(O1~O4)のグループから、最も可能性の高い閉塞タイプ(O1~O4)を識別モードで識別し、前記最も可能性の高い閉塞タイプ(O1~O4)を閉塞タイプ信号として出力するように構成された第3の分類器(K3)と、
e)前記閉塞タイプ信号のためのディスプレイへの出力インタフェース(3)と
を備える、分類システム(1)。
[項目2]
前記第1の分類器(K1)及び前記第2の分類器(K2)は、複数の鼾音信号(Au)による前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、互いに別個に実行され得るように構成され、前記第1の分類器(K1)が、前記口の位置(M1~M2)と無関係に訓練及び学習を行い、前記第2の分類器(K2)が、前記鼾音原因のタイプ(S1~S4)と無関係に訓練及び学習を行う、項目1に記載の分類システム(1)。
[項目3]
前記第1の分類器(K1)及び前記第2の分類器(K2)は、追加の複数の鼾音信号(Au)により前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、一緒に同時に、行われるように構成され、使用されるそれぞれの前記鼾音信号(Au)が、それぞれの前記鼾音原因のタイプ(S1~S4)と、対応する情報としてのそれぞれの前記口の位置(M1~M2)とを含む、項目1又は2に記載の分類システム(1)。
[項目4]
前記第1の分類器(K1)が、前記識別モードにおいて、それぞれの前記鼾音原因のタイプ(S1~S4)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、項目1~3の1つ又は複数に記載の分類システム(1)。
[項目5]
前記第2の分類器(K2)が、前記識別モードにおいて、それぞれの前記口の位置(M1~M2)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、項目1~4の1つ又は複数に記載の分類システム(1)。
[項目6]
前記第3の分類器(K3)は、前記第1の分類器(K1)によって識別された前記鼾音原因のタイプ(S1~S4)、前記第2の分類器(K2)によって識別された前記口の位置(M1~M2)、及び閉塞タイプ(O1~O4)が入力されたとき、前記識別モードにおいて、前記入力された閉塞タイプを、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)により前記最も可能性の高い閉塞タイプ(O1~O4)として識別するように訓練モードで学習するように構成される、項目1~5の1つ又は複数に記載の分類システム(1)。
[項目7]
前記第3に分類器(K3)が、識別モードにおいて、それぞれの前記閉塞タイプ(O1~O4)をそれぞれの確率で識別し、指し示し、前記出力インタフェース(3)に転送するように構成される、項目1~6の1つ又は複数に記載の分類システム(1)。
[項目8]
前記第3の分類器(K3)は、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)に加えて、鼾をかく人に関連する他の鼾又は患者データ(Px)を入力インタフェース(2)を介して識別し、前記訓練モードにおいて、及び/又は前記識別モードにおいて、前記閉塞タイプ(O1~O4)を分類する際にパラメータ又はパラメータ信号として前記鼾又は患者データ(Px)を考慮に入れるように構成される、項目1~7の1つ又は複数に記載の分類システム(1)。
[項目9]
前記鼾又は患者データ(Px)は、以下のパラメータ、すなわち、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間のうちの少なくとも1つを含む、項目8に記載の分類システム(1)。
[項目10]
前記第1の分類器(K1)が、機械学習の以下の方法、すなわち、
サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づき、及び/又は
前記第2の分類器(K2)が、前記機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づき、及び/又は
前記第3の分類器(K3)が、前記機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づき、又は
前記第3の分類器(K3)が、前記鼾音原因のタイプ(S1~S4)の第1の入力ベクトルと前記口の位置(M1~M2)の少なくとも1つの第2の入力ベクトルとのマトリクス確率評価に基づいており、その結果として、その集約確率が、様々な前記閉塞タイプ(O1~O4)及びその確率をもたらす、項目1~9の1つ又は複数に記載の分類システム(1)。

Claims (26)

  1. 検査されるべき鼾音信号(Au)の適切な分類による睡眠時無呼吸における閉塞タイプ(O1~O4)のマイクロプロセッサ支援識別のための分類システム(1)であって、
    a)それぞれの前記鼾音信号(Au)のための入力インタフェースと、
    b)第1の複数の鼾音信号(Au)が、対応する鼾音原因のタイプ(S1~S4)を伴って入力されたとき、識別モードにおいて、事前定義された鼾音原因のタイプ(S1~S4)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い鼾音原因のタイプ(S1~S4)を識別すること及び出力することを行うように訓練モードで学習するように構成された第1の分類器(K1)と、
    c)第2の複数の鼾音信号(Au)が、対応する口の位置(M1~M2)を伴って入力されたとき、識別モードにおいて、事前定義された口の位置(M1~M2)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い口の位置(M1~M2)を識別すること及び出力することを行うように訓練モードで学習するように構成された第2の分類器(K2)と、
    d)前記第1の分類器(K1)によって識別された前記鼾音原因のタイプ(S1~S4)及び前記第2の分類器(K2)によって識別された前記口の位置(M1~M2)、及び閉塞タイプ(О1~О4)が入力されたとき、識別モードにおいて、前記入力された閉塞タイプを、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)により最も可能性の高い閉塞タイプ(O1~O4)として識別し、前記最も可能性の高い閉塞タイプ(O1~O4)を閉塞タイプ信号として出力するように訓練モードで学習するように構成された第3の分類器(K3)と、
    e)前記閉塞タイプ信号のためのディスプレイへの出力インタフェース(3)と
    を備える、分類システム(1)。
  2. 前記第1の分類器(K1)及び前記第2の分類器(K2)は、複数の鼾音信号(Au)による前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、互いに別個に実行され得るように構成され、前記第1の分類器(K1)が、前記口の位置(M1~M2)と無関係に訓練及び学習を行い、前記第2の分類器(K2)が、前記鼾音原因のタイプ(S1~S4)と無関係に訓練及び学習を行う、請求項1に記載の分類システム(1)。
  3. 前記第1の分類器(K1)及び前記第2の分類器(K2)は、追加の複数の鼾音信号(Au)により前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、一緒に同時に、行われるように構成され、使用されるそれぞれの前記鼾音信号(Au)が、それぞれの前記鼾音原因のタイプ(S1~S4)と、対応する情報としてのそれぞれの前記口の位置(M1~M2)とを含む、請求項1又は2に記載の分類システム(1)。
  4. 前記第1の分類器(K1)が、前記識別モードにおいて、それぞれの前記鼾音原因のタイプ(S1~S4)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、請求項1~3のいずれか一項に記載の分類システム(1)。
  5. 前記第2の分類器(K2)が、前記識別モードにおいて、それぞれの前記口の位置(M1~M2)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、請求項1~4のいずれか一項に記載の分類システム(1)。
  6. 前記第3に分類器(K3)が、識別モードにおいて、それぞれの前記閉塞タイプ(O1~O4)をそれぞれの確率で識別し、指し示し、前記出力インタフェース(3)に転送するように構成される、請求項1~5のいずれか一項に記載の分類システム(1)。
  7. 前記第3の分類器(K3)は、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)に加えて、鼾をかく人に関連する他の鼾又は患者データ(Px)を入力インタフェース(2)を介して識別し、前記訓練モードにおいて、及び/又は前記識別モードにおいて、前記閉塞タイプ(O1~O4)を分類する際にパラメータ又はパラメータ信号として前記鼾又は患者データ(Px)を考慮に入れるように構成される、請求項1~6のいずれか一項に記載の分類システム(1)。
  8. 前記鼾又は患者データ(Px)は、以下のパラメータ、すなわち、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間のうちの少なくとも1つを含む、請求項7に記載の分類システム(1)。
  9. 前記第1の分類器(K1)が、機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づいている、請求項1~8のいずれか一項に記載の分類システム(1)。
  10. 前記第2の分類器(K2)が、機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づいている、請求項1~9のいずれか一項に記載の分類システム(1)。
  11. 前記第3の分類器(K3)が、機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づいている、請求項1~10のいずれか一項に記載の分類システム(1)。
  12. 前記第3の分類器(K3)が、前記鼾音原因のタイプ(S1~S4)の第1の入力ベクトルと前記口の位置(M1~M2)の少なくとも1つの第2の入力ベクトルとのマトリクス確率評価に基づいており、その結果として、その集約確率が、様々な前記閉塞タイプ(O1~O4)及びその確率をもたらす、請求項1~11のいずれか一項に記載の分類システム(1)。
  13. 記録された検査されるべき鼾音信号を分類することによる睡眠時無呼吸の場合の閉塞タイプのマイクロプロセッサ支援識別のための分類システムにおいて実施される方法であって、
    A)それぞれの識別モードにおけるそれぞれの最も可能性の高い鼾音原因のタイプの分類及び出力のために、それぞれの鼾音原因のタイプが割り当てられている第1の複数の鼾音信号を入力ポートで入力することによって第1の分類器を訓練するステップであり、それぞれの前記鼾音原因のタイプが、あり得る鼾音原因のタイプのクラスの第1のグループから生じる、訓練するステップと、
    B)それぞれの識別モードにおけるそれぞれの最も可能性の高い口の位置の分類及び出力のために、それぞれの口の位置が割り当てられている第2の複数の鼾音信号を入力ポートで入力することによって第2の分類器を訓練するステップであり、それぞれの前記口の位置が、あり得る口の位置のクラスの第2のグループから生じる、訓練するステップと、
    C)睡眠時無呼吸の場合の最も可能性の高い閉塞タイプに関しての対応する識別モードでの分類及び出力のために、上述で識別された鼾音原因のタイプ及び口の位置を入力ポートで入力することによって、第3の分類器を訓練するステップであり、それぞれの閉塞タイプが、閉塞タイプのクラスの第3のグループから生じる、訓練するステップと、
    D)それぞれの識別モードにおいて、前記第1の分類器による前記鼾音信号からの前記鼾音原因のタイプ、前記第2の分類器による前記口の位置、及び前記第3の分類器による結果として生じる前記閉塞タイプを識別するステップと、
    E)前記第1の分類器、前記第2の分類器、及び前記第3の分類器によって識別された、検査されるべき前記鼾音信号の前記閉塞タイプを出力インタフェースで出力するステップと、
    を含む、方法。
  14. 前記複数の鼾音信号による、前記第1の分類器の訓練及び前記第2の分類器の訓練が、互いに別個に行われ、前記第1の分類器が、前記口の位置と無関係に訓練され学習し、前記第2の分類器が、前記鼾音原因のタイプと無関係に訓練される、請求項13に記載の方法。
  15. 前記第1の分類器及び前記第2の分類器の訓練及び学習は、時間シフトで行われる、請求項14に記載の方法。
  16. 前記第1の分類器及び前記第2の分類器の訓練及び学習は、同時に行われる、請求項14に記載の方法。
  17. 別の複数の鼾音信号による前記第1の分類器の訓練及び前記第2の分類器の訓練が、一緒に同時に行われ、前記鼾音原因のタイプ及び前記それぞれの口の位置が、それぞれの採用された鼾音信号に割り当てられる、請求項13に記載の方法。
  18. 前記識別モードにおいて、前記それぞれの鼾音原因のタイプが、前記第1の分類器によってそれぞれの確率で識別され、前記第3の分類器に供給される、請求項13に記載の方法。
  19. 前記識別モードにおいて、前記それぞれの口の位置が、前記第2の分類器によってそれぞれの確率で識別され、前記閉塞タイプの識別のために前記第3の分類器に供給される、請求項13に記載の方法。
  20. 前記識別モードにおいて、前記それぞれの閉塞タイプが、前記第3の分類器によって、前記それぞれの鼾音原因のタイプ及び口の位置から、対応する確率の指標で識別される、請求項13に記載の方法。
  21. 前記鼾音原因のタイプの第1のグループが、以下のクラス、すなわち、口蓋帆咽頭、中咽頭、舌根領域、及び/又は喉頭蓋領域を含む、請求項13に記載の方法。
  22. 前記それぞれの鼾音原因のタイプは、横振動又は円振動である振動の方向を含む、請求項21に記載の方法。
  23. 前記口の位置の第2のグループは、以下の口の位置、すなわち、口を開けた位置、口を閉じた位置を含む、請求項13に記載の方法。
  24. 前記口の位置の第2のグループは、以下の口の位置、すなわち、口を開けた位置、口を閉じた位置、中間位置の口の位置を含む、請求項13に記載の方法。
  25. 前記それぞれの鼾音原因のタイプ及び前記それぞれの口の位置に加えて、鼾をかく人に関連する追加の鼾又は患者データが、前記第3の分類器に供給され、前記鼾又は患者データが、前記閉塞タイプの訓練及び/又は識別中に、前記第3の分類器によって考慮及び評価される、請求項13に記載の方法。
  26. 前記鼾又は患者データは、以下のパラメータ、すなわち、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間のうちの少なくとも1つを含む、請求項13に記載の方法。
JP2021553028A 2019-03-07 2020-02-24 睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法 Active JP7419641B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102019105762.0A DE102019105762B4 (de) 2019-03-07 2019-03-07 System zur akustischen Erkennung von Obstruktionsarten bei der Schlafapnoe.
DE102019105762.0 2019-03-07
PCT/EP2020/054789 WO2020178060A1 (de) 2019-03-07 2020-02-24 System zur akustischen erkennung von obstruktionsarten bei der schlafapnoe und entsprechendes verfahren

Publications (2)

Publication Number Publication Date
JP2022531535A JP2022531535A (ja) 2022-07-07
JP7419641B2 true JP7419641B2 (ja) 2024-01-23

Family

ID=70057073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021553028A Active JP7419641B2 (ja) 2019-03-07 2020-02-24 睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法

Country Status (6)

Country Link
US (1) US20220156640A1 (ja)
EP (2) EP3935648B1 (ja)
JP (1) JP7419641B2 (ja)
CN (1) CN113646848A (ja)
DE (1) DE102019105762B4 (ja)
WO (1) WO2020178060A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021129912A1 (de) 2021-11-16 2023-05-17 Diametos GmbH Diagnose- und Steuersystem zur Erkennung und Therapie von respiratorischen Ereignissen im Schlaf

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013022360A (ja) 2011-07-25 2013-02-04 Omron Healthcare Co Ltd 睡眠評価装置および睡眠評価装置における検出方法
JP2019010437A (ja) 2017-06-30 2019-01-24 ヤマハ株式会社 判定装置、及び判定方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006008844A1 (de) 2006-02-25 2007-08-30 Heiko Lorenzen Verfahren zur Detektion von Atemstillständen während des Schlafes
CA2836196C (en) 2011-05-17 2021-06-29 University Health Network Breathing disorder identification, characterization and diagnosis methods, devices and systems
US10537463B2 (en) * 2015-01-13 2020-01-21 Align Technology, Inc. Systems and methods for positioning a patient's mandible in response to sleep apnea status
EP3322336B1 (en) 2015-07-16 2019-09-11 Koninklijke Philips N.V. System and method for analysis of the upper airway and a respiratory pressure support system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013022360A (ja) 2011-07-25 2013-02-04 Omron Healthcare Co Ltd 睡眠評価装置および睡眠評価装置における検出方法
JP2019010437A (ja) 2017-06-30 2019-01-24 ヤマハ株式会社 判定装置、及び判定方法

Also Published As

Publication number Publication date
EP3935648A1 (de) 2022-01-12
CN113646848A (zh) 2021-11-12
DE102019105762B4 (de) 2021-09-16
EP4276852A3 (de) 2024-01-24
DE102019105762A1 (de) 2020-09-10
US20220156640A1 (en) 2022-05-19
JP2022531535A (ja) 2022-07-07
EP3935648B1 (de) 2023-08-02
EP4276852A2 (de) 2023-11-15
WO2020178060A1 (de) 2020-09-10

Similar Documents

Publication Publication Date Title
Rudraraju et al. Cough sound analysis and objective correlation with spirometry and clinical diagnosis
CN103687540B (zh) 使用记录的呼吸音振幅谱图和音高升降曲线诊断osa/csa
US8287470B2 (en) Swallowing test apparatus
Yagi et al. A noninvasive swallowing measurement system using a combination of respiratory flow, swallowing sound, and laryngeal motion
Khalifa et al. Upper esophageal sphincter opening segmentation with convolutional recurrent neural networks in high resolution cervical auscultation
Mielens et al. Application of classification models to pharyngeal high-resolution manometry
Sarraf Shirazi et al. Detection of swallows with silent aspiration using swallowing and breath sound analysis
Olin et al. Glottic configuration in patients with exercise‐induced stridor: a new paradigm
JP7419641B2 (ja) 睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法
Inoue et al. Using machine learning and a combination of respiratory flow, laryngeal motion, and swallowing sounds to classify safe and unsafe swallowing
BT et al. Asthmatic versus healthy child classification based on cough and vocalised/ɑ:/sounds
Shokrollahi et al. Snoring sound classification from respiratory signal
Ding et al. Automatically detecting apnea-hypopnea snoring signal based on vgg19+ lstm
Sabry et al. Automatic estimation of laryngeal vestibule closure duration using high-resolution cervical auscultation signals
Sarraf Shirazi et al. Noninvasive and automatic diagnosis of patients at high risk of swallowing aspiration
US9848819B2 (en) Airflow and airway factors
Sebastian et al. A preliminary study of the automatic classification of the site of airway collapse in OSA patients using snoring signals
Khlaifi et al. Swallowing sound recognition at home using GMM
Balasubramanium et al. Cervical auscultation: a systematic review
Sebastian et al. Identifying the predominant site of upper airway collapse in obstructive sleep apnoea patients using snore signals
Glazova et al. A method and algorithm for remote monitoring of patients in asthma
CN117116470B (zh) 一种吞咽障碍筛查系统及筛查方法
Liu et al. Tracheal sound-based apnea detection using hidden Markov model in sedated volunteers and post anesthesia care unit patients
Sylligardos et al. A Deep Learning Approach to Detect Ventilatory Over-Assistance
Sazonov et al. Assessment of ingestion by chewing and swallowing sensors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231221

R150 Certificate of patent or registration of utility model

Ref document number: 7419641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150