JP7419641B2 - 睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法 - Google Patents
睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法 Download PDFInfo
- Publication number
- JP7419641B2 JP7419641B2 JP2021553028A JP2021553028A JP7419641B2 JP 7419641 B2 JP7419641 B2 JP 7419641B2 JP 2021553028 A JP2021553028 A JP 2021553028A JP 2021553028 A JP2021553028 A JP 2021553028A JP 7419641 B2 JP7419641 B2 JP 7419641B2
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- snoring
- type
- mouth
- cause
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 73
- 201000002859 sleep apnea Diseases 0.000 title claims description 10
- 206010041235 Snoring Diseases 0.000 claims description 269
- 238000012549 training Methods 0.000 claims description 63
- 238000012706 support-vector machine Methods 0.000 claims description 18
- 230000005236 sound signal Effects 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000007477 logistic regression Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000007637 random forest analysis Methods 0.000 claims description 9
- 210000002409 epiglottis Anatomy 0.000 claims description 8
- 206010021079 Hypopnoea Diseases 0.000 claims description 7
- 208000008784 apnea Diseases 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 210000002741 palatine tonsil Anatomy 0.000 claims description 7
- 230000004617 sleep duration Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000007958 sleep Effects 0.000 description 16
- 208000001797 obstructive sleep apnea Diseases 0.000 description 7
- 210000003300 oropharynx Anatomy 0.000 description 6
- 238000001839 endoscopy Methods 0.000 description 5
- 210000002345 respiratory system Anatomy 0.000 description 5
- 239000003814 drug Substances 0.000 description 4
- 229940079593 drug Drugs 0.000 description 4
- 230000029058 respiratory gaseous exchange Effects 0.000 description 4
- 208000000884 Airway Obstruction Diseases 0.000 description 3
- 208000031481 Pathologic Constriction Diseases 0.000 description 3
- 208000037656 Respiratory Sounds Diseases 0.000 description 3
- 230000000241 respiratory effect Effects 0.000 description 3
- 208000037804 stenosis Diseases 0.000 description 3
- 230000036262 stenosis Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000422 nocturnal effect Effects 0.000 description 2
- 210000003800 pharynx Anatomy 0.000 description 2
- 210000001584 soft palate Anatomy 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000018035 Dental disease Diseases 0.000 description 1
- 208000000059 Dyspnea Diseases 0.000 description 1
- 206010013975 Dyspnoeas Diseases 0.000 description 1
- 208000014151 Stomatognathic disease Diseases 0.000 description 1
- 206010047924 Wheezing Diseases 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002802 cardiorespiratory effect Effects 0.000 description 1
- 238000003340 combinatorial analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000000932 sedative agent Substances 0.000 description 1
- 230000001624 sedative effect Effects 0.000 description 1
- 230000003860 sleep quality Effects 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 210000002396 uvula Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
- A61B5/4818—Sleep apnoea
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/003—Detecting lung or respiration noise
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Pulmonology (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Orthopedics, Nursing, And Contraception (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
A)軟口蓋の前後方向の振動、
C)口蓋帆咽頭又は中咽頭の気道の円形狭窄、
L)中咽頭の領域における軟組織の横振動、
T)舌根の領域の狭窄、及び/又は
E)喉頭蓋の領域の振動又は狭窄。
それぞれの鼾音信号のための入力インタフェースと、
それぞれの鼾音原因のタイプをもつ第1の複数の鼾音信号が入力された場合、識別モードにおいて、特定の鼾音信号に対して事前定義された鼾音原因のタイプのグループの中で最も可能性の高いものを識別すること及び出力することを行うように訓練モードで学習するように構成された第1の分類器と、
それぞれの口の位置をもつ第2の複数の鼾音信号が入力された場合、識別モードにおいて、特定の鼾音信号に対して事前定義された口の位置のグループの中で最も可能性の高いものを識別すること及び出力することを行うように訓練モードで学習するように構成された第2の分類器と、
識別モードにおいて、第1の分類器によって決定された鼾音原因のタイプ、及び第2の分類器によって決定された口の位置の入力から、事前定義された閉塞タイプのグループの中で最も可能性の高いものを識別し、閉塞タイプ信号と同じものを出力するように設計された第3の分類器と、
指し示されるべき閉塞タイプ信号のための出力インタフェースとを備える。
A)それぞれの識別モードにおけるそれぞれの最も可能性の高い鼾音原因のタイプS1~S4の分類及び出力のために、それぞれの鼾音原因のタイプS1~S4が割り当てられている第1の複数の鼾音信号Auを入力ポートで入力することによって第1の分類器K1を訓練するステップであり、それぞれの鼾音原因のタイプS1~S4が、あり得る鼾音原因のタイプS1~S4のクラスの第1のグループから生じる、訓練するステップ。
B)それぞれの識別モードにおけるそれぞれの最も可能性の高い口の位置M1~M2の分類及び出力のために、それぞれの口の位置M1~M2が割り当てられている第2の複数の鼾音信号Auを入力ポートで入力することによって第2の分類器K1を訓練するステップであり、それぞれの口の位置M1~M2が、あり得る口の位置M1~M2のクラスの第2のグループから生じる、訓練するステップ。
C)睡眠時無呼吸の場合の最も可能性の高い閉塞タイプO1~O4に関しての対応する識別モードでの分類及び出力のために、上述で識別された鼾音原因のタイプS1~S4及び口の位置M1~M2を入力ポートで入力することによって、第3の分類器K3を好ましくは訓練するか又はマトリクス形状に関連付けするステップであり、それぞれの閉塞タイプO1~O4が、閉塞タイプO1~O4のクラスの第3のグループから生じ、代替として、第3の分類器K3が、さらに、最も可能性の高い閉塞タイプO1~O4の分類のためにパラメータ入力によって予めプログラムされてもよい、訓練するか又はマトリクス形状に関連付けするステップ。
D)それぞれの識別モードにおいて、第1の分類器K1による鼾音信号Auからの鼾音原因のタイプS1~S4、第2の分類器K2による口の位置M1~M2、及び第3の分類器K3による結果として生じる閉塞タイプO1~O4を識別するステップ。
E)第1の分類器K1、第2の分類器K2、及び第3の分類器K3によって識別された、検査されるべき鼾音信号Auの閉塞タイプO1~O4を出力インタフェース3で出力するステップ。
[参照符号のリスト]
1 分類システム
2 入力インタフェース
3 出力インタフェース
Au 鼾音信号
Sx、S1~S4 鼾音原因のタイプ
Mx、M1、M2 口の位置
Ox、O1~O4 閉塞タイプ
K1 第1の分類器
K2 第2の分類器
K3 第3の分類器
Px 鼾又は患者データ
V 口蓋帆咽頭
O 中咽頭
T 舌根の領域
E 喉頭蓋の領域
[発明の項目]
[項目1]
検査されるべき鼾音信号(Au)の適切な分類による睡眠時無呼吸における閉塞タイプ(O1~O4)のマイクロプロセッサ支援識別のための分類システム(1)であって、
a)それぞれの前記鼾音信号(Au)のための入力インタフェースと、
b)第1の複数の鼾音信号(Au)が、対応する鼾音原因のタイプ(S1~S4)を伴って入力されるとき、識別モードにおいて、事前定義された鼾音原因のタイプ(S1~S4)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い鼾音原因のタイプ(S1~S4)を識別すること及び出力することを行うように訓練モードで学習するように構成された第1の分類器(K1)と、
c)第2の複数の鼾音信号(Au)が、対応する口の位置(M1~M2)を伴って入力されるとき、識別モードにおいて、事前定義された口の位置(M1~M2)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い口の位置(M1~M2)を識別すること及び出力することを行うように訓練モードで学習するように構成された第2の分類器(K2)と、
d)前記第1の分類器(K1)によって識別された前記鼾音原因のタイプ(S1~S4)及び前記第2の分類器(K2)によって識別された前記口の位置(M1~M2)が入力された場合、事前定義された閉塞タイプ(O1~O4)のグループから、最も可能性の高い閉塞タイプ(O1~O4)を識別モードで識別し、前記最も可能性の高い閉塞タイプ(O1~O4)を閉塞タイプ信号として出力するように構成された第3の分類器(K3)と、
e)前記閉塞タイプ信号のためのディスプレイへの出力インタフェース(3)と
を備える、分類システム(1)。
[項目2]
前記第1の分類器(K1)及び前記第2の分類器(K2)は、複数の鼾音信号(Au)による前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、互いに別個に実行され得るように構成され、前記第1の分類器(K1)が、前記口の位置(M1~M2)と無関係に訓練及び学習を行い、前記第2の分類器(K2)が、前記鼾音原因のタイプ(S1~S4)と無関係に訓練及び学習を行う、項目1に記載の分類システム(1)。
[項目3]
前記第1の分類器(K1)及び前記第2の分類器(K2)は、追加の複数の鼾音信号(Au)により前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、一緒に同時に、行われるように構成され、使用されるそれぞれの前記鼾音信号(Au)が、それぞれの前記鼾音原因のタイプ(S1~S4)と、対応する情報としてのそれぞれの前記口の位置(M1~M2)とを含む、項目1又は2に記載の分類システム(1)。
[項目4]
前記第1の分類器(K1)が、前記識別モードにおいて、それぞれの前記鼾音原因のタイプ(S1~S4)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、項目1~3の1つ又は複数に記載の分類システム(1)。
[項目5]
前記第2の分類器(K2)が、前記識別モードにおいて、それぞれの前記口の位置(M1~M2)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、項目1~4の1つ又は複数に記載の分類システム(1)。
[項目6]
前記第3の分類器(K3)は、前記第1の分類器(K1)によって識別された前記鼾音原因のタイプ(S1~S4)、前記第2の分類器(K2)によって識別された前記口の位置(M1~M2)、及び閉塞タイプ(O1~O4)が入力されたとき、前記識別モードにおいて、前記入力された閉塞タイプを、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)により前記最も可能性の高い閉塞タイプ(O1~O4)として識別するように訓練モードで学習するように構成される、項目1~5の1つ又は複数に記載の分類システム(1)。
[項目7]
前記第3に分類器(K3)が、識別モードにおいて、それぞれの前記閉塞タイプ(O1~O4)をそれぞれの確率で識別し、指し示し、前記出力インタフェース(3)に転送するように構成される、項目1~6の1つ又は複数に記載の分類システム(1)。
[項目8]
前記第3の分類器(K3)は、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)に加えて、鼾をかく人に関連する他の鼾又は患者データ(Px)を入力インタフェース(2)を介して識別し、前記訓練モードにおいて、及び/又は前記識別モードにおいて、前記閉塞タイプ(O1~O4)を分類する際にパラメータ又はパラメータ信号として前記鼾又は患者データ(Px)を考慮に入れるように構成される、項目1~7の1つ又は複数に記載の分類システム(1)。
[項目9]
前記鼾又は患者データ(Px)は、以下のパラメータ、すなわち、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間のうちの少なくとも1つを含む、項目8に記載の分類システム(1)。
[項目10]
前記第1の分類器(K1)が、機械学習の以下の方法、すなわち、
サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づき、及び/又は
前記第2の分類器(K2)が、前記機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づき、及び/又は
前記第3の分類器(K3)が、前記機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づき、又は
前記第3の分類器(K3)が、前記鼾音原因のタイプ(S1~S4)の第1の入力ベクトルと前記口の位置(M1~M2)の少なくとも1つの第2の入力ベクトルとのマトリクス確率評価に基づいており、その結果として、その集約確率が、様々な前記閉塞タイプ(O1~O4)及びその確率をもたらす、項目1~9の1つ又は複数に記載の分類システム(1)。
Claims (26)
- 検査されるべき鼾音信号(Au)の適切な分類による睡眠時無呼吸における閉塞タイプ(O1~O4)のマイクロプロセッサ支援識別のための分類システム(1)であって、
a)それぞれの前記鼾音信号(Au)のための入力インタフェースと、
b)第1の複数の鼾音信号(Au)が、対応する鼾音原因のタイプ(S1~S4)を伴って入力されたとき、識別モードにおいて、事前定義された鼾音原因のタイプ(S1~S4)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い鼾音原因のタイプ(S1~S4)を識別すること及び出力することを行うように訓練モードで学習するように構成された第1の分類器(K1)と、
c)第2の複数の鼾音信号(Au)が、対応する口の位置(M1~M2)を伴って入力されたとき、識別モードにおいて、事前定義された口の位置(M1~M2)のグループから、特定の鼾音信号(Au)に対して最も可能性の高い口の位置(M1~M2)を識別すること及び出力することを行うように訓練モードで学習するように構成された第2の分類器(K2)と、
d)前記第1の分類器(K1)によって識別された前記鼾音原因のタイプ(S1~S4)及び前記第2の分類器(K2)によって識別された前記口の位置(M1~M2)、及び閉塞タイプ(О1~О4)が入力されたとき、識別モードにおいて、前記入力された閉塞タイプを、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)により最も可能性の高い閉塞タイプ(O1~O4)として識別し、前記最も可能性の高い閉塞タイプ(O1~O4)を閉塞タイプ信号として出力するように訓練モードで学習するように構成された第3の分類器(K3)と、
e)前記閉塞タイプ信号のためのディスプレイへの出力インタフェース(3)と
を備える、分類システム(1)。 - 前記第1の分類器(K1)及び前記第2の分類器(K2)は、複数の鼾音信号(Au)による前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、互いに別個に実行され得るように構成され、前記第1の分類器(K1)が、前記口の位置(M1~M2)と無関係に訓練及び学習を行い、前記第2の分類器(K2)が、前記鼾音原因のタイプ(S1~S4)と無関係に訓練及び学習を行う、請求項1に記載の分類システム(1)。
- 前記第1の分類器(K1)及び前記第2の分類器(K2)は、追加の複数の鼾音信号(Au)により前記第1の分類器(K1)及び前記第2の分類器(K2)のそれぞれの前記訓練が、一緒に同時に、行われるように構成され、使用されるそれぞれの前記鼾音信号(Au)が、それぞれの前記鼾音原因のタイプ(S1~S4)と、対応する情報としてのそれぞれの前記口の位置(M1~M2)とを含む、請求項1又は2に記載の分類システム(1)。
- 前記第1の分類器(K1)が、前記識別モードにおいて、それぞれの前記鼾音原因のタイプ(S1~S4)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、請求項1~3のいずれか一項に記載の分類システム(1)。
- 前記第2の分類器(K2)が、前記識別モードにおいて、それぞれの前記口の位置(M1~M2)をそれぞれの確率で識別し、指し示し、前記第3の分類器(K3)に転送するように構成される、請求項1~4のいずれか一項に記載の分類システム(1)。
- 前記第3に分類器(K3)が、識別モードにおいて、それぞれの前記閉塞タイプ(O1~O4)をそれぞれの確率で識別し、指し示し、前記出力インタフェース(3)に転送するように構成される、請求項1~5のいずれか一項に記載の分類システム(1)。
- 前記第3の分類器(K3)は、それぞれの前記鼾音原因のタイプ(S1~S4)及びそれぞれの前記口の位置(M1~M2)に加えて、鼾をかく人に関連する他の鼾又は患者データ(Px)を入力インタフェース(2)を介して識別し、前記訓練モードにおいて、及び/又は前記識別モードにおいて、前記閉塞タイプ(O1~O4)を分類する際にパラメータ又はパラメータ信号として前記鼾又は患者データ(Px)を考慮に入れるように構成される、請求項1~6のいずれか一項に記載の分類システム(1)。
- 前記鼾又は患者データ(Px)は、以下のパラメータ、すなわち、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間のうちの少なくとも1つを含む、請求項7に記載の分類システム(1)。
- 前記第1の分類器(K1)が、機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づいている、請求項1~8のいずれか一項に記載の分類システム(1)。
- 前記第2の分類器(K2)が、機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づいている、請求項1~9のいずれか一項に記載の分類システム(1)。
- 前記第3の分類器(K3)が、機械学習の以下の方法、すなわち、サポートベクトルマシン(SVM)、ナイーブベイズシステム、最小2乗平均法、k最近傍法(k-NN)、線形判別分析(LDA)、ランダムフォレスト法(RF)、エクストリームラーニングマシン(ELM)、多層パーセプトロン(MLP)、ディープニューラルネットワーク(DNN)、ロジスティック回帰のうちの1つに基づいている、請求項1~10のいずれか一項に記載の分類システム(1)。
- 前記第3の分類器(K3)が、前記鼾音原因のタイプ(S1~S4)の第1の入力ベクトルと前記口の位置(M1~M2)の少なくとも1つの第2の入力ベクトルとのマトリクス確率評価に基づいており、その結果として、その集約確率が、様々な前記閉塞タイプ(O1~O4)及びその確率をもたらす、請求項1~11のいずれか一項に記載の分類システム(1)。
- 記録された検査されるべき鼾音信号を分類することによる睡眠時無呼吸の場合の閉塞タイプのマイクロプロセッサ支援識別のための分類システムにおいて実施される方法であって、
A)それぞれの識別モードにおけるそれぞれの最も可能性の高い鼾音原因のタイプの分類及び出力のために、それぞれの鼾音原因のタイプが割り当てられている第1の複数の鼾音信号を入力ポートで入力することによって第1の分類器を訓練するステップであり、それぞれの前記鼾音原因のタイプが、あり得る鼾音原因のタイプのクラスの第1のグループから生じる、訓練するステップと、
B)それぞれの識別モードにおけるそれぞれの最も可能性の高い口の位置の分類及び出力のために、それぞれの口の位置が割り当てられている第2の複数の鼾音信号を入力ポートで入力することによって第2の分類器を訓練するステップであり、それぞれの前記口の位置が、あり得る口の位置のクラスの第2のグループから生じる、訓練するステップと、
C)睡眠時無呼吸の場合の最も可能性の高い閉塞タイプに関しての対応する識別モードでの分類及び出力のために、上述で識別された鼾音原因のタイプ及び口の位置を入力ポートで入力することによって、第3の分類器を訓練するステップであり、それぞれの閉塞タイプが、閉塞タイプのクラスの第3のグループから生じる、訓練するステップと、
D)それぞれの識別モードにおいて、前記第1の分類器による前記鼾音信号からの前記鼾音原因のタイプ、前記第2の分類器による前記口の位置、及び前記第3の分類器による結果として生じる前記閉塞タイプを識別するステップと、
E)前記第1の分類器、前記第2の分類器、及び前記第3の分類器によって識別された、検査されるべき前記鼾音信号の前記閉塞タイプを出力インタフェースで出力するステップと、
を含む、方法。 - 前記複数の鼾音信号による、前記第1の分類器の訓練及び前記第2の分類器の訓練が、互いに別個に行われ、前記第1の分類器が、前記口の位置と無関係に訓練され学習し、前記第2の分類器が、前記鼾音原因のタイプと無関係に訓練される、請求項13に記載の方法。
- 前記第1の分類器及び前記第2の分類器の訓練及び学習は、時間シフトで行われる、請求項14に記載の方法。
- 前記第1の分類器及び前記第2の分類器の訓練及び学習は、同時に行われる、請求項14に記載の方法。
- 別の複数の鼾音信号による前記第1の分類器の訓練及び前記第2の分類器の訓練が、一緒に同時に行われ、前記鼾音原因のタイプ及び前記それぞれの口の位置が、それぞれの採用された鼾音信号に割り当てられる、請求項13に記載の方法。
- 前記識別モードにおいて、前記それぞれの鼾音原因のタイプが、前記第1の分類器によってそれぞれの確率で識別され、前記第3の分類器に供給される、請求項13に記載の方法。
- 前記識別モードにおいて、前記それぞれの口の位置が、前記第2の分類器によってそれぞれの確率で識別され、前記閉塞タイプの識別のために前記第3の分類器に供給される、請求項13に記載の方法。
- 前記識別モードにおいて、前記それぞれの閉塞タイプが、前記第3の分類器によって、前記それぞれの鼾音原因のタイプ及び口の位置から、対応する確率の指標で識別される、請求項13に記載の方法。
- 前記鼾音原因のタイプの第1のグループが、以下のクラス、すなわち、口蓋帆咽頭、中咽頭、舌根領域、及び/又は喉頭蓋領域を含む、請求項13に記載の方法。
- 前記それぞれの鼾音原因のタイプは、横振動又は円振動である振動の方向を含む、請求項21に記載の方法。
- 前記口の位置の第2のグループは、以下の口の位置、すなわち、口を開けた位置、口を閉じた位置を含む、請求項13に記載の方法。
- 前記口の位置の第2のグループは、以下の口の位置、すなわち、口を開けた位置、口を閉じた位置、中間位置の口の位置を含む、請求項13に記載の方法。
- 前記それぞれの鼾音原因のタイプ及び前記それぞれの口の位置に加えて、鼾をかく人に関連する追加の鼾又は患者データが、前記第3の分類器に供給され、前記鼾又は患者データが、前記閉塞タイプの訓練及び/又は識別中に、前記第3の分類器によって考慮及び評価される、請求項13に記載の方法。
- 前記鼾又は患者データは、以下のパラメータ、すなわち、肥満度指数、無呼吸呼吸低下指数、扁桃腺のサイズ、舌のサイズ、フリードマンスコア、鼾の時間、睡眠の持続時間のうちの少なくとも1つを含む、請求項13に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019105762.0A DE102019105762B4 (de) | 2019-03-07 | 2019-03-07 | System zur akustischen Erkennung von Obstruktionsarten bei der Schlafapnoe. |
DE102019105762.0 | 2019-03-07 | ||
PCT/EP2020/054789 WO2020178060A1 (de) | 2019-03-07 | 2020-02-24 | System zur akustischen erkennung von obstruktionsarten bei der schlafapnoe und entsprechendes verfahren |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022531535A JP2022531535A (ja) | 2022-07-07 |
JP7419641B2 true JP7419641B2 (ja) | 2024-01-23 |
Family
ID=70057073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021553028A Active JP7419641B2 (ja) | 2019-03-07 | 2020-02-24 | 睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220156640A1 (ja) |
EP (2) | EP3935648B1 (ja) |
JP (1) | JP7419641B2 (ja) |
CN (1) | CN113646848A (ja) |
DE (1) | DE102019105762B4 (ja) |
WO (1) | WO2020178060A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021129912A1 (de) | 2021-11-16 | 2023-05-17 | Diametos GmbH | Diagnose- und Steuersystem zur Erkennung und Therapie von respiratorischen Ereignissen im Schlaf |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013022360A (ja) | 2011-07-25 | 2013-02-04 | Omron Healthcare Co Ltd | 睡眠評価装置および睡眠評価装置における検出方法 |
JP2019010437A (ja) | 2017-06-30 | 2019-01-24 | ヤマハ株式会社 | 判定装置、及び判定方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006008844A1 (de) | 2006-02-25 | 2007-08-30 | Heiko Lorenzen | Verfahren zur Detektion von Atemstillständen während des Schlafes |
CA2836196C (en) | 2011-05-17 | 2021-06-29 | University Health Network | Breathing disorder identification, characterization and diagnosis methods, devices and systems |
US10537463B2 (en) * | 2015-01-13 | 2020-01-21 | Align Technology, Inc. | Systems and methods for positioning a patient's mandible in response to sleep apnea status |
EP3322336B1 (en) | 2015-07-16 | 2019-09-11 | Koninklijke Philips N.V. | System and method for analysis of the upper airway and a respiratory pressure support system |
-
2019
- 2019-03-07 DE DE102019105762.0A patent/DE102019105762B4/de active Active
-
2020
- 2020-02-24 EP EP20715275.2A patent/EP3935648B1/de active Active
- 2020-02-24 JP JP2021553028A patent/JP7419641B2/ja active Active
- 2020-02-24 WO PCT/EP2020/054789 patent/WO2020178060A1/de active Application Filing
- 2020-02-24 CN CN202080026813.1A patent/CN113646848A/zh active Pending
- 2020-02-24 US US17/436,623 patent/US20220156640A1/en active Pending
- 2020-02-24 EP EP23189065.8A patent/EP4276852A3/de active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013022360A (ja) | 2011-07-25 | 2013-02-04 | Omron Healthcare Co Ltd | 睡眠評価装置および睡眠評価装置における検出方法 |
JP2019010437A (ja) | 2017-06-30 | 2019-01-24 | ヤマハ株式会社 | 判定装置、及び判定方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3935648A1 (de) | 2022-01-12 |
CN113646848A (zh) | 2021-11-12 |
DE102019105762B4 (de) | 2021-09-16 |
EP4276852A3 (de) | 2024-01-24 |
DE102019105762A1 (de) | 2020-09-10 |
US20220156640A1 (en) | 2022-05-19 |
JP2022531535A (ja) | 2022-07-07 |
EP3935648B1 (de) | 2023-08-02 |
EP4276852A2 (de) | 2023-11-15 |
WO2020178060A1 (de) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rudraraju et al. | Cough sound analysis and objective correlation with spirometry and clinical diagnosis | |
CN103687540B (zh) | 使用记录的呼吸音振幅谱图和音高升降曲线诊断osa/csa | |
US8287470B2 (en) | Swallowing test apparatus | |
Yagi et al. | A noninvasive swallowing measurement system using a combination of respiratory flow, swallowing sound, and laryngeal motion | |
Khalifa et al. | Upper esophageal sphincter opening segmentation with convolutional recurrent neural networks in high resolution cervical auscultation | |
Mielens et al. | Application of classification models to pharyngeal high-resolution manometry | |
Sarraf Shirazi et al. | Detection of swallows with silent aspiration using swallowing and breath sound analysis | |
Olin et al. | Glottic configuration in patients with exercise‐induced stridor: a new paradigm | |
JP7419641B2 (ja) | 睡眠時無呼吸における閉塞タイプの音響識別のためのシステム、及び対応する方法 | |
Inoue et al. | Using machine learning and a combination of respiratory flow, laryngeal motion, and swallowing sounds to classify safe and unsafe swallowing | |
BT et al. | Asthmatic versus healthy child classification based on cough and vocalised/ɑ:/sounds | |
Shokrollahi et al. | Snoring sound classification from respiratory signal | |
Ding et al. | Automatically detecting apnea-hypopnea snoring signal based on vgg19+ lstm | |
Sabry et al. | Automatic estimation of laryngeal vestibule closure duration using high-resolution cervical auscultation signals | |
Sarraf Shirazi et al. | Noninvasive and automatic diagnosis of patients at high risk of swallowing aspiration | |
US9848819B2 (en) | Airflow and airway factors | |
Sebastian et al. | A preliminary study of the automatic classification of the site of airway collapse in OSA patients using snoring signals | |
Khlaifi et al. | Swallowing sound recognition at home using GMM | |
Balasubramanium et al. | Cervical auscultation: a systematic review | |
Sebastian et al. | Identifying the predominant site of upper airway collapse in obstructive sleep apnoea patients using snore signals | |
Glazova et al. | A method and algorithm for remote monitoring of patients in asthma | |
CN117116470B (zh) | 一种吞咽障碍筛查系统及筛查方法 | |
Liu et al. | Tracheal sound-based apnea detection using hidden Markov model in sedated volunteers and post anesthesia care unit patients | |
Sylligardos et al. | A Deep Learning Approach to Detect Ventilatory Over-Assistance | |
Sazonov et al. | Assessment of ingestion by chewing and swallowing sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7419641 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |