CN111629663A - 用疾病特征分析咳嗽声音以诊断呼吸系统疾病的方法 - Google Patents

用疾病特征分析咳嗽声音以诊断呼吸系统疾病的方法 Download PDF

Info

Publication number
CN111629663A
CN111629663A CN201880083344.XA CN201880083344A CN111629663A CN 111629663 A CN111629663 A CN 111629663A CN 201880083344 A CN201880083344 A CN 201880083344A CN 111629663 A CN111629663 A CN 111629663A
Authority
CN
China
Prior art keywords
disease
cough
features
model
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880083344.XA
Other languages
English (en)
Inventor
U·阿贝拉特纳
V·斯旺加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Queensland UQ
Original Assignee
University of Queensland UQ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2017905129A external-priority patent/AU2017905129A0/en
Application filed by University of Queensland UQ filed Critical University of Queensland UQ
Publication of CN111629663A publication Critical patent/CN111629663A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0803Recording apparatus specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0823Detecting or evaluating cough events
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/41Detecting, measuring or recording for evaluating the immune or lymphatic systems
    • A61B5/411Detecting or monitoring allergy or intolerance reactions to an allergenic agent or substance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/75Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 for modelling vocal tract parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fuzzy Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Dentistry (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

一种诊断患者一种或多种呼吸道疾病的方法,包括以下步骤:从患者获得咳嗽声音;对所述咳嗽声音进行处理,以产生表示来自咳嗽片段的一个或多个咳嗽声音特征的咳嗽声音特征信号;基于咳嗽声音特征信号获得一个或多个疾病特征;以及将一个或多个疾病特征分类,以将咳嗽片段视为指示一种或多种所述疾病;其中,基于咳嗽声音特征信号获取一个或多个疾病特征的步骤包括:将咳嗽声音特征应用于一个或多个预先训练的疾病特征决策机中的每一个,每一个所述决策机已预先训练以将咳嗽声音特征分类为对应于特定疾病或非疾病状态,或对应于第一特定疾病或与第一特定疾病不同的第二特定疾病。

Description

用疾病特征分析咳嗽声音以诊断呼吸系统疾病的方法
技术领域
本发明涉及帮助医务人员诊断和治疗罹患呼吸系统疾病的患者的方法和装置。
背景技术
对现有技术的方法、装置或文献的参考并不是证据,也不代表认可其由公知常识形成或其形成公知常识的一部分。
在一个或多个相同发明人的先前工作中,这是国际专利申请PCT/AU2013/000323(其在此通过引用整体并入本文)的主题,记录了患者的呼吸道声音,并从中识别出咳嗽声音。从咳嗽声音中提取特征,形成测试特征向量,然后应用于预先训练的分类器,优选逻辑回归模型,以诊断患者是否存在呼吸功能障碍,如肺炎。
虽然PCT/AU2013/000323中描述的诊断疾病状态的方法工作良好,并且已经成功地商业化实施,但是仍需要改进。例如,如果提供一种方法,该方法的改进在于能够产生更准确的诊断结果,则这将是有利的。还优选的是,该方法可以将域特定信息注入到诊断过程中。此外,如果能够适应标准临床诊断的主观性质,这将是可取的。
本发明的目的是提供一种辅助诊断呼吸道疾病状态的方法和装置。
发明内容
根据本发明的第一方面,提供了一种诊断患者的一种或多种呼吸道疾病的方法,包括以下步骤:
从患者获得咳嗽声音;
对所述咳嗽声音进行处理,以产生表示来自咳嗽片段的一个或多个咳嗽声音特征的咳嗽声音特征信号;
基于所述咳嗽声音特征信号获得一个或多个疾病特征;以及
将一个或多个疾病特征分类,以将咳嗽片段视为指示一个或多个所述疾病;
其中,基于咳嗽声音特征信号获取一个或多个疾病特征的步骤包括将咳嗽声音特征应用于一个或多个预先训练的疾病特征决策机中的每一个,每个所述决策机都经过预先训练,以将咳嗽声音特征分类为对应于特定疾病或非疾病状态,或对应于第一特定疾病或不同于第一特定疾病的第二特定疾病。
在本发明的一个优选实施方式中,一个或多个疾病特征机各自包括训练的逻辑回归模型(LRM)。
每个训练的逻辑回归模型(LRM)都可以使用一组简化的训练特征进行训练,可用训练特征组的特征被确定为对LRM重要,从而避免LRM的过度训练。
通过计算所有训练特征的平均p值,然后选择平均p值小于阈值Pmin的特征,确定训练特征对LRM具有重要意义。根据本发明一个实施方式的该过程的进一步细节在本文的附录F中阐述。
在本实施方式中,每个LRM的自变量是咳嗽声音特征的值,并且LRM的输出值包括咳嗽的预测概率,该概率指示参考第二特定疾病或参考非疾病状态的第一特定疾病。
疾病特征也可以训练以产生与呼吸医学中使用的特定评估或测量结果相关的评分。示例:喘息严重程度分数(WSS),通过训练特征来区分低WSS与高WSS;肺活量测定中测量的低FEV1与高FEV1;肺活量测定中测量的低FEV1/FVC与高FEV1/FVC。
在本发明的另一个实施方式中,一个或多个疾病特征机可以包括一个或多个经过训练的神经网络。提供连续输出的其他分类器或模型(如广义线性模型、隐马尔可夫模型等)也可用作信号机。
该方法还可以包括除了咳嗽特征之外,将临床患者测量作为自变量应用于疾病特征决策机。
在本发明的一个实施方式中,将一个或多个疾病特征分类以将咳嗽片段视为指示一个或多个所述疾病的步骤包括:将一个或多个疾病特征应用于进行训练以覆盖所有疾病组的单个分类器。
在本发明的另一实施方式中,将一个或多个疾病特征分类以将咳嗽片段视为指示一个或多个所述疾病的步骤包括:将一个或多个疾病特征应用于多个分类器,每个分类器都被训练以识别感兴趣的疾病。
在一个优选实施方式中,每个分类器都进行训练以识别以下疾病中的一个:毛细支气管炎(SBo);喉炎(Croup)(SC);哮喘/RAD(SA);肺炎(SP);下呼吸道疾病(SLRTD);原发性上呼吸道感染(SU)。
优选地,通过基于咳嗽声音特征信号获得一个或多个疾病特征的步骤产生d个疾病特征,相应地,人工神经网络(ANN)具有d维输入层,其中一个输入神经元对应于每个疾病特征。
在本发明的一个优选实施方式中,ANN具有k维输出层,其中输出层中的每个神经元输出对应于疾病的概率。
在本发明的一个优选实施方式中,将一个或多个疾病特征分类的步骤包括编译复合有效概率度量y编译复合有效概率度量P’Q为:
P′Q=PQ(1-PZ)
其中PQ包括属于疾病Q的患者概率的指示器,PZ包括属于疾病Z的患者概率的指示器。因此,乘积PQ(1-PZ)表示患者属于疾病Q而不属于疾病Z的复合事件的概率。
该方法可包括计算每个目标疾病的咳嗽指数,其中,目标疾病的患者的咳嗽指数被计算为“被分类为指示目标疾病的患者的咳嗽”与“为所述患者分析的咳嗽总数”的比率。
该方法还可包括应用特定治疗,例如基于诊断的特定疾病已知对患者有效的治疗。
附图说明
本发明的优选特征、实施方式和变体可以从以下详细说明中辨别出来,该详细说明为本领域技术人员执行本发明提供了足够的信息。详细说明不应被视为以任何方式限制前面的发明内容的范围。详细说明将参考以下多个图:
图1是根据本发明第一实施方式的优选诊断方法的流程图。
图2描述了具有d维输入层(图B中来自特征块的输入)和k维输出层的人工神经网络结构。输出层中的每个神经元对应于疾病亚组。
图3是根据本发明的另一实施方式的诊断方法的流程图的第一部分,其包括预筛选处理块和后筛选处理块。
图4包括图3流程图的第二部分。
图5是为特征映射训练的自动编码器神经网络的框图。
图6是特征层神经网络的框图,它被训练来生成疾病特异性特征。
图7是根据本发明一个实施方式的深神经网络的框图。
具体实施方式
图1描绘了根据本发明的一个优选实施方式的方法的流程图100。方法100包括以下四个主要处理框或块:咳嗽特征计算块112、疾病特征生成114、特征选择116和特征分类器块118。这些块中的每一个可以被实现以提供一个装置,例如通过使用特别编程的计算机来实现本文将描述的各种功能。或者,也可以使用定制的电子集成电路芯片和离散逻辑来实现各种处理块。更具体地,一些块,例如分类器块118,实现人工神经网络(ANN),并且可以使用专用的ANN集成电路来实现,例如IBM的Synapse芯片或高通公司的Zeroth处理器或其等价物。
患者声音102通过麦克风104从患者101在框106处记录。音频记录被传递到咳嗽识别和分割块108,该块对音频记录进行处理并自动将其分割为咳嗽声音,例如CG1 110a和CG2 110b。咳嗽声音110a和110b,其包括数字化信号,例如电子MP3文件段,被传输到咳嗽特征计算块114。咳嗽特征计算块114被布置成处理每一咳嗽声音,以提取信号形式的咳嗽特征值,例如在电路板或集成电路导体上传输的电信号,其表示每一咳嗽在多大程度上具有多个表征特征中的每一个,这将被描述。来自咳嗽特征计算块112的输出信号由特征生成块114处理。特征生成块114包括多个预先训练的决策机2a到2n,优选训练的逻辑回归机,它们各自经过预先训练以将咳嗽特征信号分类为指示第一特定疾病或第二特定疾病(或疾病组)。经过预先训练的决策机2a到2n中的一个也可以进行训练,以将咳嗽特征信号分类为表示特定疾病或正常(即无疾病)。
特征选择块116接收从疾病特征生成块114输出的信号,并且被布置成从它们识别一组将在分类器块118的输出处对数据的训练/验证集提供最佳诊断结果的特征。特征选择块116被布置成考虑如下多个因素:
(i)能够在个人特征生成过程中提供良好的训练和验证性能,
(ii)领域特定知识(例如,如果最终分类器的目标是诊断哮喘/RAD,则WSS特征将是有用的,因为喘息声是哮喘/RAD的有力指标。如果分类机必须诊断肺炎,则可能指示肺炎与毛细支气管炎特征,因为已知这些在临床实践中这代表诊断困境等),
(iii)基于对特征的搜索过程,以最大化训练/验证集分类器输出的诊断性能。
来自所选择的特征选择块116的输出值被传递到分类器块118,该分类器块118优选地包括多个预先训练的神经网络,每个神经网络被预先训练以将所选择的特征生成器的输出分类为多个预定疾病中的一个或另一个。
诊断指示块120响应于分类器块118,并呈现可由临床医生用于确认疾病诊断和向患者提供适当治疗的疾病诊断指示。输出框120涉及例如在可视电子显示器上向患者的临床医生或其他看护者呈现单个疾病或多个疾病的诊断指示,患者的临床医生或其他看护者随后可以应用特定治疗,例如,基于所诊断的特定疾病,已知对患者有效的治疗。
下面的讨论将提供进一步的细节。
咳嗽特征计算框112
在框112处,来自已被识别为包含咳嗽事件的患者记录的片段被应用到处理块,该处理块被布置成以PCT/AU2013/000323中描述的方式从每个咳嗽事件中提取数学特征。
此外,根据本发明的优选实施方式,咳嗽特征计算块112也被布置成基于高阶谱片提取倒谱系数,由梅尔频率倒谱系数(MFCC)启发。新系数在本文中称为BFCC(双谱频率倒谱系数),并在本文的附录B(i)中进一步详细描述。
咳嗽特征计算框设置成在使用中执行以下过程:
(i)设x表示来自任意咳嗽事件的离散时间声音信号。
(ii)将x例如分成三个大小相等、不重叠的亚片段。客观目标是捕捉一次咳嗽中数学特征的变化。让xi代表x的第i个亚片段,其中i=1、2、3。
从每个亚片段xi计算以下特征:8双谱系数(BC)、非高斯性分数(NGS)、第一四共振峰频率(FF)、对数能量(LogE)、过零(ZCR)、峰度(Kurt)、31梅尔频率倒谱系数(MFCC)、香农熵(SHE)。
(iii)此外,使用整个咳嗽事件数据计算13个子波特征[2]。关于每个咳嗽特征的简要描述,请参见附录B。
(iv)从每个咳嗽事件中总共提取了Cf=157个特征。
疾病特征生成框114
在先前的工作中(即PCT/AU2013/000323的主题),通过在框112中计算出的特征集上训练逻辑回归模型,直接将患者分类。
与在PCT/AU2013/000323中采取的方法相比,本发明的一个优选实施方式涉及已经构思并在本文中称为“特征生成”的新过程,其目的如下:(a)作为向诊断过程注入域特定信息的方法,(b)作为一种适应标准临床诊断主观性质的方法,(c)作为一种产生更准确诊断的方式。
在框114处执行的特征生成涉及将来自咳嗽特征计算块112的输入特征映射到在数字存储器中表示的一组轴,这些轴在0到1之间连续变化,并且定义了一个空间,在该空间中分类器可以更好地诊断个体疾病。每个轴都被称为一个特征。每个患者沿着每个轴(特征)提供一个响应,每个患者的每个特征的响应值的集合随后被发送到分类器块118,该分类器块118产生在诊断指示块120中呈现的诊断。正如将要解释的,轴(特征)嵌入了域特定知识。
在一个实施方式中,通过训练逻辑回归模型(LRM),可以将框112到框114的输入特征(feature)转换为特征(signature)。例如,特征轴可以通过训练一组模型来实现,例如{(毛细支气管炎vs正常),(喉炎vs正常),(毛细支气管炎vs喉炎),(毛细支气管炎vs所有疾病),(喉炎vs R/RAD)…等}。每个模型提供一个特征。实际使用的特征取决于需要诊断的疾病组。特征也可以通过模型(例如,高喘息严重程度分数WSS=5、6、7vs低喘息严重程度分数WSS=0、1、2)和基于临床症状的模型(其中映射临床症状被映射到(例如发烧、流鼻涕)0和1之间的连续变量)来构建。将输入映射到连续决策变量的任何其他分类器,例如神经网络,可用于生成特征块,作为LRM的替代。
逻辑回归(LR)模型是广义线性模型,它使用多个自变量来估算分类事件的概率。相关自变量为从咳嗽事件计算的数学特征,分类事件为疾病亚组。因此,在上面的例子中,可以训练LR模型,参考喉炎疾病来预测属于毛细支气管炎疾病的咳嗽的概率。使用回归函数导出LR模型,以考虑独立特征估算概率Y,如下所示:
Figure BDA0002550261040000081
z=β01·q12q2+…+βn-1qF (2)
在(2)中,β0称为截距,β1、β2等称为表示自变量的回归系数,q1、q2、…qF表示特征。
为了产生疾病特征生成块114所需的LR模型2a、…、2n,有必要使用获得的咳嗽声音来对它们进行训练。LRM模型2a,…,2n进行训练,以其能力进行指导,在相关患者亚组上正确分类疾病或测量等级。一旦经过训练,它们就被用来为所有需要诊断的患者生成(0,1)之间的连续值概率输出信号。
咳嗽声音获得
咳嗽声音是从两个临床地点记录的,Joondalup健康校园(JHC)和玛格丽特公主医院(PMH),都在西澳大利亚州的珀斯市。患者群体包括0-12岁的儿童,怀疑患有例如肺炎、哮喘/RAD(反应性气道疾病)、毛细支气管炎、喉炎和上呼吸道感染(URTI)等呼吸道疾病。昆士兰大学、Joondalup健康校园和玛格丽特公主医院的人类伦理委员会批准了研究方案和患者招募程序。
将符合纳入标准(有咳嗽、气喘、呼吸急促、喘鸣、上呼吸道感染)且不符合排除标准(需要呼吸支持,未同意)的患者招募到研究中。健康受试者,被定义为在测量时没有任何呼吸道疾病症状的儿童,也被招募。
使用苹果iPhone 6s记录咳嗽声音(参见图1的框106)。声音数据以fs=44.1k样品/秒的采样率记录,每样品16位的位深度。智能手机录音机放置在离口约50厘米的地方,角度约为45度。
数据库与实验设计
用于训练实现图1的装置所需的各种模型的数据库包括咳嗽记录和每个患者的详细临床诊断信息,包括最终诊断、临床检查发现和实验室结果以及成像结果。患者去识别格式的人口统计信息也是可用的。
诊断组(用于诊断疾病的病例定义见附录A)。
正常组(Nr):测量时无可识别呼吸道疾病的健康志愿者。
原发性上呼吸道感染组(U):仅上呼吸道感染(URTI)患者,在测量时没有医学上可识别的下呼吸道牵连或其他呼吸道疾病。
喉炎组(C):诊断分类为单独喉炎或喉炎伴随上呼吸道感染的患者。
哮喘/反应性气道疾病组(A):诊断分类为哮喘或反应性气道疾病,伴随或不伴随上呼吸道感染的患者。
临床肺炎组(P):诊断分类为伴随或不伴随上呼吸道感染的临床肺炎的患者。
毛细支气管炎组(Bo):诊断分类为伴随或不伴随上呼吸道感染的毛细支气管炎为的患者。
支气管炎组(Bc):诊断分类为伴随或不伴随上呼吸道感染的支气管炎的患者。
将全部受试者分成两个互斥集,对分类器模型进行训练、验证和测试。两个互斥集分别是:(1)训练验证集(TrV)和(2)前瞻性测试集(PT)。每个受试者只属于一个集合。具有诊断不确定性(如临床团队所示)和疾病共病(上呼吸道感染除外)的受试者被排除在TrV之外。
训练验证集TrV用于遵循留一验证(LOOV)或K折交叉验证技术来训练和验证模型。LOOV方法涉及使用除一名患者外的所有患者的数据来训练模型,并使用保留患者的咳嗽事件来验证模型。这个过程被系统地重复,使得TrV中的每个患者都被用于一次精确地验证模型。在K折交叉验证中,原始样本被随机分为K个大小相等的子样本。保留单个子样本作为测试模型的验证数据。剩下的(K-1)样本将用于训练模型。该过程将重复K次,直到TrV中的所有数据在测试模型时使用一次。注意,LOOV是K折交叉验证方法的特例,K设置为集合TrV中数据的总数(N)。
表1(跨页)列出了在图1的疾病特征生成块114中训练的不同LR模型2a,…,2n。
表1:LOOV实施方式中在图2的特征块中训练的特征生成模型的列表。
Figure BDA0002550261040000101
Figure BDA0002550261040000111
TrV数据集中的数据用于训练和验证表1中列出的所有LR模型。
在最简单的形式中,只使用基于咳嗽的特征来训练LR模型。然而,发明人认识到了一些简单的临床测量的存在,这些测量可以用来提高LR模型的性能,无需额外的成本且复杂性最小。受此启发,发明人将基于咳嗽的特征附加简单的临床特征,并训练了表1中第二组LR模型列表。表2示出了附加基于咳嗽的特征的简单的临床特征。
表2:“√”表示在模型设计中包含该特征。根据父母在临床检查时的报告,从患者病史中提取临床症状。
Figure BDA0002550261040000112
特征选择
特征选择是为设计最优特征模型而选择相关特征的技术。例如,在使用TrV集构建LR模型作为特征时,会为每个输入特征计算p值,以捕获特定特征对模型的重要性。重要特征的p值较低。将LR模型的这一特性应用于整个TrV集,以选择合理的特征组合。一旦重要特征的子集已知,它就被用来基于TrV数据集的LOOV(K-折)训练/验证重新训练LR模型。特征选择过程的更多细节可以在先前参考的早期PCT申请和“Abeyratne,U.R.等,Cough soundanalysis can rapidly diagnose childhood pneumonia.Annals of biomedicalengineering,2013年,41(11):第2448-2462页”中找到。
选择好的LR模型
LOOV训练/验证过程产生LR模型的Nk数,其中Nk是TrV集中的患者数。由于TrV集中不同疾病组的患者数量不同,表1中列出的不同LR模型的Nk值也会有所不同。从Nk LR模型中,基于k-均值聚类算法选择一个最佳模型。有关使用k-均值聚类算法进行模型选择的更多详细信息,请参见[1]。
Figure BDA0002550261040000121
表示基于使用仅限咳嗽的特征训练的LR模型j的选定特征,且
Figure BDA0002550261040000122
表示使用咳嗽和简单临床特征训练的选定LR模型。一旦选择了LR模型,它将在TrV数据集中的所有患者中运行,以生成疾病特征。
这些特征提供了给定的患者i针对通过不同的特征值测试的所有假设的“响应”
Figure BDA0002550261040000123
Figure BDA0002550261040000124
向量Xi代表了模型
Figure BDA0002550261040000125
Figure BDA0002550261040000126
所需求的第i个患者的咳嗽声音和临床症状等信息的收集。
例如,如果被测试的患者患有毛细支气管炎,那么他/她对模型(例如{毛细支气管炎与所有其他疾病})的反应,应该给出接近1的强值(“完全反应”),而{A/RAD与所有其他疾病}应该给出较低的反应(“部分反应”)。然而,患者将针对每个特征轴(LRM模型)给出特定的反应,并且代表每个患者i的这些反应的集合的向量Vi,c和Vi,cf将表征患者所患的疾病。
Vi,1=[{ρc,ij}|j=所有选定的特征(LRM模型)] (3)
Vi,cf=[{ρc,ij}|j=所有选定的特征(LRM模型)] (4)
并非信号生成块114中可用的所有模型2a,…,2n都必须在最终特征分类器块118中使用。特征的选择在特征选择块116中进行,特征选择块116被布置为考虑关于特定特征如何有利于最终疾病诊断性能以及特征之间的信息冗余性的域特定知识和观察。表1条目提供了从较大集合中选择的此类特征的优选列表。
分类器块118
分类器块118的功能是使用由信号生成块114提供的特征Vi,c和Vi,cf,并标记从每个患者记录的每个咳嗽属于特定疾病组的可能性。然后,使用几种不同的方法在每个患者的基础上进行全面的诊断决策。可以构建多个分类器块来覆盖感兴趣的疾病组,或者构建单个分类器来覆盖所有疾病组。在特征分类器块118中可以使用任何分类器,但是在优选实施方式中,使用Softmax人工神经网络层(Softmax ANN)作为分类器。
图2示出了图1的框118中使用的softmax ANN的典型结构200。为了训练和验证ANN,使用来自TrV数据集的数据,并采用LOOV(或K折)交叉验证过程。使用softmax函数的好处是,每个神经元的值在0到1之间,输出层中所有神经元的总和为1。这使得它成为有用的函数来建模和预测疾病亚组的概率。例如,如果希望建立诊断疾病Q的模型,并且已知疾病Z作为混杂疾病(例如,具有一些症状重叠)出现,则可以通过编译复合有效概率度量PQ'来提高诊断性能:
P′Q=PQ(1-PZ) (5)
其中PQ可被视为患者属于疾病Q的概率的指示器,PZ可被视为患者属于疾病Z的概率的指示器。因此,乘积PQ(1-PZ)表示患者属于疾病Q且不属于疾病Z的复合事件的概率。
图2所示的ANN示出了具有d维输入层201和k维输出层205的人工神经网络结构,d维输入层201由神经元203(从图1中的特征块114接收输入)组成。输出层203中的每个神经元207对应于一个疾病亚组。
在本发明的一个优选实施方式中,训练五种不同的softmax-ANN模型以识别疾病亚组:毛细支气管炎、喉炎、哮喘/RAD、肺炎和下呼吸道疾病(LRTD)。下面提供了这些疾病特异性softmax-ANN的详细信息。
1.毛细支气管炎softmax-ANN(SBo):在这个softmax-ANN模型中,使用了以毛细支气管炎为中心的特征。用于训练ANN的特征LR模型是
Figure BDA0002550261040000141
在输出层,k维度被设置为6个神经元,每个神经元对应于一个疾病亚组,毛细支气管炎、哮喘/RAD、肺炎、支气管炎、pURTI、喉炎。式(5)中,PQ为毛细支气管炎神经元的输出,PZ为RAD神经元的输出。
2.喉炎的softmax(SC):在这个ANN模型中,使用以喉炎为中心的特征。使用的特征LR模型是
Figure BDA0002550261040000142
在输出层,k维度被设置为6个神经元,每个神经元对应于一个疾病亚组,毛细支气管炎、哮喘/RAD、肺炎、支气管炎、pURTI、喉炎。在式(5)中,PQ是喉炎神经元的输出,PZ是pURTI神经元的输出。
3.哮喘/RAD的softmax-ANN(SA):在这个ANN模型中,使用以哮喘/RAD为中心的特征。使用的特征LR模型是
Figure BDA0002550261040000143
Figure BDA0002550261040000144
在输出层,k维度被设置为6个神经元,每个神经元对应于一个疾病亚组,毛细支气管炎、哮喘/RAD、肺炎、支气管炎、pURTI、喉炎。式(5)中,PQ为哮喘/RAD神经元的输出,PZ为pURTI神经元的输出。
4.肺炎的softmax-ANN(SP):在肺炎softmax-ANN模型中,使用的特征LR模型为
Figure BDA0002550261040000145
Figure BDA0002550261040000146
在输出层,k维度被设置为4个神经元;一个神经元分别用于毛细支气管炎、肺炎和喉炎,一个神经元用于哮喘/RAD、支气管炎和pURTI。在式(5)中,PQ是肺炎神经元的输出,PZ是哮喘/RAD、支气管炎、pURTI疾病神经元的输出。
5.下呼吸道疾病的softmax-ANN(SLRTD):下呼吸道疾病(LRTD)是涵盖性术语,用于表示涉及下呼吸道的疾病。LRTD亚组合并肺炎、哮喘/RAD、毛细支气管炎和支气管炎疾病的患者。训练LRTD soft-ANN模型,从喉炎和pURTI中识别LRTD疾病。在该ANN中,使用了以LRTD为中心的特征。使用的特征LR模型是
Figure BDA0002550261040000151
Figure BDA0002550261040000152
在输出层,k维度设为3个神经元,URTI和houy各1个神经元,LRTD疾病组1个神经元。在式(5)中,PQ是LRTD神经元的输出,PZ是pURTI神经元的输出。
6.原发性URTI的softmax ANN(SU):在该ANN模型中,使用了以pURTI为中心的特征。使用的特征LR模型是
Figure BDA0002550261040000153
Figure BDA0002550261040000154
在输出层,k维度被设置为6个神经元,每个神经元对应于一个疾病亚组,毛细支气管炎、哮喘/RAD、肺炎、支气管炎、pURTI、喉炎。式(5)中,PQ为pURTI神经元的输出,PZ为肺炎神经元的输出。
为了训练仅限咳嗽的softmax ANN,使用仅用咳嗽特征开发的LR特征模型。为了训练咳嗽加上简单的临床特征的softmax ANN,使用仅用咳嗽特征和/或咳嗽加上简单的临床特征开发的LR特征模型。
选择优选的softmax-ANN模型
LOOV交叉验证过程将产生N个softmax模型。其中N是TrV数据集中的患者数。从N个模型中,发明人根据k-均值聚类算法再次选择了一个最佳模型。有关使用k-均值聚类算法进行模型选择的更多细节,请参见[1]。设Ss表示所选的softmax ANN,λs为特定疾病亚组的相应概率决策阈值。一旦选择了Ss,则固定模型的所有参数并完全终止训练过程。然后将模型Ss用作进一步测试的最佳模型。在K折交叉验证方法中使用了类似的方法。
发明人在训练softmax ANN时探索的其他因素是网络的大小、训练时间、训练速率、停止标准以及训练和验证错误之间的差异。研究这些因素的目的是尽量减少我们可以利用的数据集的过度学习,并最大限度地推广到统计上相似的、以前看不到的群体。
以下描述了用于对每个患者作出诊断决定的方法的几个优选实施方式。
i)咳嗽指数与病人分类
在该方法中,处理分类器的直接(例如PQ、PZ等)输出(例如softmax ANN)或概率复合度量(例如P'Q等)。第一个目标是根据目标疾病类别(如毛细支气管炎)测试患者的每次咳嗽,并将每次咳嗽标记为“成功=1”或“失败=0”。例如,如果最终目标是检测毛细支气管炎,则每次咳嗽都被标记为毛细支气管炎(成功,标记为1)或非毛细支气管炎(失败,标记为0)。为了选择最佳决策阈值λ(即如果试验统计量≥λ,试验中的咳嗽属于目标疾病(成功,1)),则在TrV集上使用受试者工作曲线(ROC)分析。
然后计算每种目标疾病的咳嗽指数,如下所示。设CT是从患者i分析出来的咳嗽总数,CS是用softmax-ANN模型标记为“成功”的咳嗽数。然后,对于目标疾病亚组j,患者i的咳嗽指数CIi,j计算为:CIi,j=CS/CT
ii)基于深度学习策略的分类
softmax层的原始输出(它是0和1之间的连续变化的实数)可以按照深度学习方法的精神进行进一步处理。下面给出一些优选实施方式:
a)块1183的Softmax ANN的原始输出可以馈送到另一个分类器,例如神经网络,其将同时接收来自用不同原理训练的其他类似网络的输入。例如,另一个网络可以完全基于父母可以很容易地观察到并向临床医生报告的临床症状。临床症状网络可以具有与图1的疾病特征生成块114平行的结构,或者具有更简单的版本,例如一组选定的LRM分类器(或ANN分类器等),将临床症状映射到所需的疾病组。
图1的块114的基于LRM的特征生成器模型2a,…,2n可以被其他分类器(如ANN层)替代,使整个网络基于ANN,并遵循深度学习网络的原理。发明人已经构建并测试了这种模型。临床症状模型可以如上所述并入。
在一个优选实施方式中,发明人使用编码器方法训练深度神经网络。最终的分类器本身是神经网络,其中一个神经元代表每一个感兴趣的疾病类别。
D.测试过程
在本节中,我们将探讨最终诊断模型在预期数据集上的性能。在使用预期数据集之前,我们完全冻结我们的诊断模型,不允许进一步的训练、参数调整或协议更改。
结果
A.数据集
表3列出了本研究中使用的受试人群的细节。对于这项工作,我们使用了总共N=1151名的受试者(982名患者和169名正常人)的咳嗽声音数据来开发、验证和测试我们的模型。这些患者被分成两个不重叠的数据集:(1)训练验证集(TrV)和(2)预期测试集(PT)。根据病人到医院就诊的顺序,将病人分到每个集。
表3:研究中使用的总受试者人群的细节
Figure BDA0002550261040000171
训练验证数据集:对于模型训练和验证,当我们从两个地点招募了1011名受试者(852名患者和159名正常人)时,我们冻结了数据集;600名患者和134名正常人。
预期测试数据集:共有130名全部来自JHC记录点的患者,10名正常受试者记录(9名来自JHC,1名来自PMH)。
根据临床判断并与临床小组协商,数据集中的受试者被分为一系列诊断亚组:正常组(Nr)、原发性上呼吸道感染组(U)、喉炎组(C)、哮喘/反应性气道疾病组(A)、临床肺炎组(P)、毛细支气管炎组(Bo)、支气管炎组(Bc)。
B.训练验证数据集上特征模型的性能。
在1011名受试者中,725名受试者(602名患者,123名正常受试者)最终被用于模型训练和验证。
表4:诊断疾病亚组
Figure BDA0002550261040000181
表4示出了用于训练验证模型的每个疾病亚组的患者数量。
正常与疾病的LR模型:首先,我们探讨了LR特征模型在分类正常受试者和任何疾病亚组受试者的咳嗽中的性能。表5示出了该探索的留一验证结果。
表5:使用特征LR模型分类正常咳嗽和疾病咳嗽时的留一验证结果。
Figure BDA0002550261040000182
Figure BDA0002550261040000191
从表5可以看出,在特征选择之后,所有的LR模型都能够以非常高的准确性将正常咳嗽和疾病咳嗽分开。
疾病亚组间的LR模型:我们的下一个目标是探索LR特征模型在分类两个不同疾病组的咳嗽中的性能。这种探索将有助于确定LR模型捕获疾病特征的程度。表6(A)给出了当所有特征用于模型训练时,本次探索的留一验证结果。
表6(A):当所有特征都用于模型训练时,特征LR模型的留一验证性能
Figure BDA0002550261040000192
Figure BDA0002550261040000201
和表6(B)-跨页-呈现特征选择后的结果
表6(B):当选择的特征用于模型训练时,特征LR模型的留一验证性能
Figure BDA0002550261040000202
Figure BDA0002550261040000211
根据表6(B),在特征选择之后,大多数LR特征模型在将咳嗽从两个类别中分离出来方面达到了中等到高的准确度(70-90%)。在从任何其他疾病或疾病组鉴别喉炎或毛细支气管炎咳嗽方面,达到了最高的准确度。最不准确的LR特征模型是肺炎与支气管炎和支气管炎与pURTI(准确性~65%)。
C.softmax模型在训练验证数据集上的性能
表7(A):当所有特征都用于模型训练时,特征LR模型的留一验证性能
Figure BDA0002550261040000212
Figure BDA0002550261040000221
第3(B)节的结果表明,LR特征模型在捕获疾病特异性特征方面相当成功。利用第2(C)节第3步中的这些特征,我们训练了softmax神经网络模型,将目标疾病咳嗽与其他疾病分离。然后使用咳嗽指数和应用最佳阈值,我们实现了在患者层面分类疾病的最终目标。
表7(B)示出了使用softmax-ANN模型将一种疾病与其他疾病分离的留一验证结果。根据这些结果,除肺炎外,所有模型均能预测目标疾病,具有很高的灵敏度和特异性。喉炎模型获得的验证结果最好,灵敏度为100%,特异性为96%(使用咳嗽加简单临床症状模型),或灵敏度为95%,特异性为92%(仅咳嗽模型)。第二好的结果是毛细支气管炎模型,然后是原发性上呼吸道感染、哮喘和LRTD模型。所有使用咳嗽加简单临床特征训练的模型,明显优于仅使用咳嗽特征训练的模型。
表7(B):使用softmax ANN模型分类患者的留一验证结果
Figure BDA0002550261040000222
Figure BDA0002550261040000231
留一交叉验证过程将产生N个softmax模型。其中N是TrV数据集中的患者数。从N个模型中,我们按照k-均值聚类算法再次选择一个最佳模型。表8示出了所选ANN模型的性能。
表8:选定的softmax ANN模型对训练-验证数据集的性能
Figure BDA0002550261040000232
从表7(B)和表8可以看出,喉炎、毛细支气管炎、URTI和哮喘模型都是非常灵敏和特异的。另一方面,肺炎模型具有中等的特异性和高的灵敏度。因此,我们假设可以在肺炎模型中使用其他疾病模型作为后筛选器,来筛选假阳性病例并提高其特异性。为了验证这一假设,发明人依次应用哮喘、原发性上呼吸道感染、喉炎和毛细支气管炎模型作为肺炎模型的后筛选器。为了避免真正阳性的肺炎病例作为其他疾病筛选出来,我们使用了应用于筛选模型的咳嗽指数的阈值。这个阈值表明筛选模型是如何自信地表明受试者不是肺炎。使用训练验证数据集优化筛选阈值。
表9:应用后筛选器后softmax肺炎模型的结果。
Figure BDA0002550261040000233
表9(上)显示了对肺炎模型依次应用不同疾病后筛选器的结果。可见,在灵敏度损失较小的情况下,ANN肺炎模型的特异性得到增加。仅咳嗽模型的灵敏度下降为-9%,咳嗽加简单临床特征模型的灵敏度下降为-4%。仅咳嗽模型的特异性增加为18%,咳嗽加简单临床特征模型的特异性增加为16%。虽然不重要,后筛选器和预筛选器可用于本发明的实施方式中。
受后筛选器对肺炎模型的积极影响的激励,我们探索了它们在其他疾病模型中的应用。我们的分析表明,使用喉炎筛选器可以将毛细支气管炎和LRTD模型的特异性性能提高1-3%。哮喘和原发性上呼吸道感染模型的性能没有改善。由于喉炎模型的性能已经非常高,因此不尝试任何筛选器。表10示出了该研究的结果。
表10:对其他疾病模型应用后筛选器的结果
Figure BDA0002550261040000241
D.softmax模型在预期测试数据集上的性能
图3示出了所有训练结束后诊断算法的流程图300,所有参数固定,所选模型准备好进行预期测试。这些模型在完全独立于训练验证数据集的预期数据集上进行了测试。除肺炎外,所有模型对目标疾病的预测均达到了高准确度。在所有模型中,喉炎和毛细支气管炎在所有预期研究列表中、对于仅咳嗽和咳嗽加简单临床特征模型的灵敏度和特异性是最好的,在86%-100%范围内。哮喘/RAD模型仅咳嗽特征的性能中等,但在咳嗽特征上加上简单临床特征后,可显著提高(灵敏度~93%,特异性~90%)。有关预筛选器和后筛选器的详细信息,请参见附录E。
1.附录A
1.临床肺炎
美国临床肺炎病例定义-用于标记来自JHC和PMH的数据集。
2.WHO放射性原发性终点肺炎(PEP)
美国WHO放射性肺炎病例定义-用于标记来自JHC和PMH的X射线数据集。
3.喉炎
美国临床喉炎病例定义-用于标记来自JHC和PMH的数据集。
4.毛细支气管炎
美国毛细支气管炎病例定义-用于标记来自JHC和PMH的数据集。
5.哮喘(A)/反应性气道疾病(RAD)-A/RAD
美国A/RAD病例定义-用于标记来自JHC和PMH的数据集。
6.支气管炎
美国支气管炎病例定义-用于标记来自JHC和PMH的数据集。
7.上呼吸道感染
美国上呼吸道感染病例定义-用于标记来自JHC和PMH的数据集。
8.下呼吸道疾病(LRTD)
美国LRTD病例定义-用于标记JHC和PMH的数据集
2.附录B
从咳嗽中计算特征
咳嗽特征
我们的方法需要从咳嗽声音中计算出许多数学特征。本节描述了我们从记录的咳嗽声音x的每个子段xi,i=1,2,3计算的特征。
i)双谱频率倒谱系数(BFCC,共24个特征;咳嗽段每个部分8个)-信号的三阶谱称为双谱[3]。与功率谱(基于自相关的二阶谱)不同,双谱保留了傅里叶相位信息。从(6)中可以估算出片段xi的双谱Bxi(ω1,ω2),
Figure BDA0002550261040000261
其中W(τ1,τ2)是双谱窗函数,如本文所用的最小双谱偏差上确界窗,Cxi1,τ2)是用(2)估算的xi的3阶累积量,ω1,ω2表示数字频率。
Figure BDA0002550261040000262
在(7)中,Q是考虑的三阶相关滞后的长度,而xi是零均值信号。
双谱是二维信号。然而,可以证明,对于线性信号,除了平行于轴的切片:ω1=0,ω2=0和ω1+ω2=0之外的任何一维双谱斜切片都携带足够的信息来表征相位因子内的整个二维双谱。在这项工作中,我们通过由ω1=ω2=ω、即P(ω)=Bxi(ω,ω)定义的对角切片P(ω)捕获双谱中可用的信息。
然后对对角切片P(ω)应用滤波器算子,我们使用(8)计算双谱频率倒谱系数。
Figure BDA0002550261040000263
在(8)中,ζ表示滤波器算子,其中ω1和ωh是其较低和较高的截止频率,并且θ是滤波器的增益常数。在(8)中,ζ可以是三角形滤波器、矩形滤波器、梯形滤波器或更复杂的形状的滤波器。在本文的工作中,我们使用了θ=1的矩形滤波器,并使用下表11所示的ω1和ωh值计算了8个BFCC系数:
表11:式(8)中用于计算BFCC系数的滤波器较低截止值和高截止值。
Figure BDA0002550261040000271
ii)非高斯性分数(NGS,共3个特征,咳嗽片段的每个部分1个)-NGS分数是数据xi给定片段的非高斯性的数值度量。利用正态概率图可以获得一组数据的高斯性的可视化测量,NGS分数是基于回归分析的非高斯性的量化方法。我们使用(9)估算NGS分数,其中p和q代表参考正常数据和分析数据(xi)的正态概率图。符号N是概率图中使用的数据点的数目。
Figure BDA0002550261040000272
iii)共振峰频率(共12个特征,咳嗽片段的每个部分4个)-在语音分析中,共振峰频率(FF)被称为声道共振。在咳嗽分析中,可以合理地预期,有助于产生咳嗽声音的整个气道的共振将在共振峰结构中表现出来。一个典型的例子就是喘息。粘液的存在也会改变气道的声学特性。我们将前四个共振峰(F1、F2、F3、F4)包含在我们的候选特征集中。我们通过选择咳嗽片段xi的线性预测编码(LPC)谱的峰来计算F1-F4。在这项工作中,我们使用了14阶LPC模型,其参数是通过莱文森-德宾(Levinson-Durbin)递归过程确定的。
iv)对数能量(LogE,共3个特征,咳嗽片段的每个部分1个)-使用(10)计算每个子段xi的对数能量:
Figure BDA0002550261040000273
在(4)中,ε是为防止无意中计算0的对数而添加的任意小的正常数。
v)零交叉(Zcr,共3个特征,咳嗽片段的每个部分1个)-计数每个子段xi的零交叉数。
vi)峰度(Kurt,共3个特征,咳嗽片段的每个部分1个)-峰度是xi概率密度分布峰如何的量度。它是xi的第四个中心矩,可以用(11)计算,其中μ和σ分别表示xi的平均和标准偏差。
Figure BDA0002550261040000281
vii)梅尔频率倒谱系数(MFCC,共93个特征,咳嗽片段每个部分31个)—MFCC在语音识别系统中得到了广泛的应用。MFCC对语音信号中的非语言变异源提供了一定的恢复力。它们还提供正交特征,便于分类器的训练。MFCC的计算包括短期功率谱的估算、梅尔频率评分的映射和倒谱系数的计算。在我们的工作中,我们在我们的特征集中包含了31个MFCC系数。
viii)香农熵(ShE,共3个特征,咳嗽片段的每个部分1个):咳嗽声音是一个复杂的信号,代表呼吸道各亚结构的贡献。这些分量中的一些具有伪周期结构,而另一些具有随机性。在这项工作中,我们计算香农熵来捕捉这些特征。用(12)计算了每个子段xi的香农熵(ShE)。
Figure BDA0002550261040000282
ix)子波特征(WvL,每次咳嗽共13个特征):我们之前的研究已经表明了咳嗽声音的子波特征在肺炎诊断中的有用性[参考ieee trans paper]。对于这项工作,我们从每个咳嗽片段计算出13个子波特征。详情请参见[2]。
3.附录C
1.喘息信号生成器
儿童喘息是许多呼吸系统疾病的常见症状。喘息被定义为在呼吸过程中产生的一种高音调哨音。喘息常与哮喘有关,但也存在于其他呼吸道疾病中,如毛细支气管炎、支气管炎、肺炎、囊性纤维化和异物吸入等。它常被用于鉴别诊断和分离下呼吸道疾病和上呼吸道感染。更多细节见附录A:病例定义。
喘息的存在与否是临床社区实践的临床决策树中的关键决策节点。然而,对其的临床检测并不总是简单的任务。喘息是一种不稳定的现象,是生理/病理潜在变化的次要效应。医师在特定检查时间检测喘息的能力取决于许多因素,包括喘息当时存在,以及临床医生将听诊器放置在肺部上方的正确位置,喘息声以足够强的强度产生,以便在从肺部传播到躯干表面的过程中熬过能量损失,且临床医生可以感知声音,并有技能检测它。引起兴趣的潜在生理原因是由于各种原因导致的气道狭窄,而喘息是这种现象的替代措施。在某些情况下,喘息可能不会出现,即使是严重疾病,因为疾病的严重性导致气流受限(例如严重哮喘/RAD中的“静息胸”)。
为了了解喘息的严重程度,临床医生定义了许多不同版本的喘息严重程度分数(WSS)。我们的临床合作者版本使用三个不同的子分数来计算WSS。这些是:喘息的存在及其发生的呼吸阶段、呼吸频率、辅助肌的使用。我们已经开发了一个特征来捕捉仅使用咳嗽或增加父母可以观察到的简单症状的WSS。我们的WSS模型以分离高WSS(5-9)和低WSS分数(0,1)为目标,使用在0-1之间变化的连续特征评分(LRM输出)进行训练。
2.肺功能特征生成器
肺功能实验室技术,特别是肺活量测定,当可用时,可用于某些呼吸道疾病的确诊,如哮喘和慢性阻塞性肺病(COPD)。肺活量测定提供数值测量,如FEV1和FVC。利用肺活量测定时收集的咳嗽,我们建立了基于咳嗽的特征模型,如:高FEV1与低FEV1,高FEV1/FVC与低FEV1/FVC。一旦经过训练,它们就被用作所有患者的信号生成器,提供介于(0,1)之间的输出。
4.附录D
基于临床症状的特征和诊断模型
临床医生在诊断某些呼吸系统疾病时非常依赖临床症状(他们观察到的或父母报告的)。以前我们仅根据临床症状研究并建立模型,以确定诊断肺炎的最佳临床特征(印度尼西亚研究)。我们还研究了在临床症状模型中加入少量咳嗽时会发生什么。
我们已经建立了仅临床症状模型(使用父母可报告的症状),以按照图B所示的结构诊断呼吸系统疾病。在一个特定实施方式中,发烧、喘息、流鼻涕等症状和年龄、性别用于构建基于LRM模型的特征。LRM模型将分类症状转换为特征生成器级别的连续输出,然后在分类器块级别对其进行分类。在其他实施方式中,其他分类器方案(例如ANN)可用于相同目的。我们还可以将咳嗽添加到临床症状模型中,以提高性能,就像我们在印尼研究中在父母递交的临床症状中所做的那样。此外,我们可以使用临床症状特征来改善使用深度学习方法的分类。
设计神经深度学习结构的过程分为两个阶段,现在讨论这两个阶段:
第一阶段-层层训练-在第一阶段,我们单独训练三种类型的神经网络来完成特定的任务。
第一阶段-神经网类型1。特征编码神经网(FeNN):这里我们实现了自动编码器的概念。自动编码器是一种前馈神经网络,被训练来在输出端再现输入[1]。自动编码器中的隐藏层用符号表示可用于表示输入数据的代码。训练结束后,下一步使用编码器级输出。图5示出了训练来进行特征映射的自动编码器的示例。它的输入大小为144,表示输入特征向量的大小,隐藏层(编码器)大小为10,输出层(解码器)大小为144,与输入层的大小相同。
第1阶段-神经网类型2。特征神经网(SgNN):编码器的输出用于训练前馈神经网络以生成“特征生成块”一节中描述的特征。特征ANN在输出层没有隐藏层和softmax神经元。使用softmax神经元的优点是,输出的概率函数与LR模型相似,在0到1之间变化,但是现在输入到输出的映射是非线性的。图6示出了特征神经网的例子。该网络的输入来自编码器。这个神经网络被训练来产生疾病特异性特征。在所有26个特征神经网中,对表1中列出的所有特征模型进行了训练。表14给出了使用特征神经网模型对正常咳嗽和疾病咳嗽进行分类的留一验证结果。表15列出了特征神经网模型的留一验证性能。
第1阶段-神经网类型3。分类神经网(CaNN):然后利用特征神经网的输出训练最终的分类Softmax神经网。该神经网络类似于参考分类器块118描述的那些。
在一个优选实施方式中,发明人训练单个softmax-ANN模型,以识别所有目标疾病亚组:毛细支气管炎、喉炎、哮喘/RAD、肺炎和下呼吸道疾病。用于训练CaNN的特征神经网是
Figure BDA0002550261040000311
Figure BDA0002550261040000312
在输出层,k维度被设置为7个神经元,每个神经元对应于一个疾病亚组,毛细支气管炎,哮喘/RAD,肺炎,支气管炎,pURTI,喉炎和正常。
第2阶段-在这一阶段中的微调阶段,来自第一阶段的单独训练的神经网络被连接在一起,以创建一个如图7所示的堆叠式深度神经网络(DNN)。图7示出了DNN,其中第一层表示特征编码神经网,第二层表示特征神经网,第三输出层表示分类神经网。
然后用有限的训练时段对DNN进行重新训练,并使用训练验证数据集对DNN网络参数进行微调。DNN的微调根据留一验证技术完成。
表16给出了使用DNN模型对患者进行分类的留一验证结果。
5.附录E
预筛选器和后筛选器
现在,将参考在图4和图5中的两页上所示的诊断模型300的框图来描述本发明的另一实施方式。诊断模型300包括图1(参见图1)的第一实施方式100的疾病特征生成块114和分类器块118,其可以被称为主模型。然而,诊断模型300的第二实施方式还包括预筛选器块111和后筛选器块121,以改进整体诊断方法的诊断性能。
i)预筛选器块111
预筛选器块111的功能是筛选出不打算由主模型进行分析的受试者。
举个例子,考虑这样的情况:主模型的任务被定义为从在医疗机构就诊的受试者群体中从其他给定疾病的混合中诊断特定疾病,例如毛细支气管炎。整个诊断算法的结果是:“毛细支气管炎是/否?=否”或“毛细支气管炎是/否?=是”。在这种情况下,预筛选器111可以设计为将正常受试者与毛细支气管炎病例分开,并将结果报告为“毛细支气管炎是/否?=否”,无需将病例发送到主模型进行进一步分析。
筛选框111中的每个筛选器模型4a,…,4n具有设置为高的决策阈值,以确保具有在主模型中被靶向的实际疾病的人不会通过获得无疾病标签而从进一步分析中被错误地筛选出来。
ii)后筛选器块121
后筛选器块121的功能是通过确定主模型的显性假阳性的检测并进行校正来提高主模型的诊断性能。
作为示例,考虑这样的情况,即主模型的任务被定义为从在医疗机构就诊的受试者群体中从其它给定疾病的混合中诊断特定疾病,例如毛细支气管炎。整个诊断算法的结果是:“毛细支气管炎是/否?=否”或“毛细支气管炎是/否?=是”。假设我们知道在我们的主模型中,喉炎患者呈现为显性假阳性组。也就是说,在该组中:“毛细支气管炎是/否?=是”,我们发现有相当数量的受试者临床诊断为喉炎。在这个场景中,我们的方法是建立后筛选器模型:{喉炎对毛细支气管炎},其被训练来从喉炎和毛细支气管炎受试者混合中挑选喉炎患者。然后我们将使用我们的{喉炎对毛细支气管炎}模型处理“毛细支气管炎是/否?=是”组,并将检测到的喉炎患者移动到主模型输出的“毛细支气管炎是/否?=否”侧。
根据需要和功效,可以将多个后筛选器模型6a,…,6m应用于给定的主模型。也可能在给定的主模型中没有后筛选器是有用的或必需的。在需要时,筛选器模型被保守地使用,决策阈值设置得很高,以确保具有在主模型中被靶向的实际疾病的人不会错误地转移到诊断决策的另一侧。
6.附录F
模型开发中的特征约简
本文讨论的诊断模型是在现有临床数据集上使用交叉验证(CV)方法开发的。对可用数据使用K折交叉验证(K=10)和留一验证(LOOV)方法。这两种方法各有利弊。10折交叉验证有导致新数据集的模型的方差较低和估计偏差较高的(以前未看到的数据集上的泛化性能)趋势;LOOV有导致新数据集的模型的方差较高和偏差较低的趋势。
由于可用数据集的规模较小,在开发诊断模型时,通常优选LOOV方法超过10倍使用。为了补偿模型中较高的泛化方差,提出了一种特征约简方法,目标是使建立的模型尽可能小,从而降低模型过拟合的风险。步骤如下所述。
特征优化/约简是一种选择相关特征子集以构建鲁棒分类器的技术。最优特征选择需要对所有可能的特征子集进行穷尽搜索。然而,对于我们用作候选特征的大量特征,这样做是不切实际的。因此,采用基于p值的替代方法,以在使用逻辑回归模型(LRM)的特征模型设计阶段,确定显著特征。在LRM设计中,对每个特征计算p值,且其表明该特征对模型的重要性。重要特征具有较低的p值,利用LRM的该特性确定一个最佳特征组合,其有利于训练阶段模型中的分类。
所采取的方法包括计算整个数据集上所有特征的平均p值,然后选择平均p值小于阈值Pmin的特征。具体方法描述如下。
1.设FN=[F1,F2,F3,…,FN]表示所有N个特征的初始集合。
2.使用FN并遵循留一验证(或K折)方法训练逻辑回归模型(LRM)。计算所有特征的平均p值。
PN=[Pf1,Pf2,Pf3,…,Pfn] (1)
在(1)中,PN表示与所有N个特征的初始集合相关联的一组平均值。
3.通过选择平均p值小于Pths=PO的特征,从FN创建特征的新子集F'N
4.根据留一验证(或K折)方法,使用F'N特征集来训练LRM。计算F'N特征集的平均p值。
5.通过选择平均p值小于Pths的特征,从F'N创建新的特征子集F”N
6.如果F”N的大小等于F'N,即F'N中的所有特征的平均p值小于Pths,则使用公式(2)更改Pths
Pths=Pths-c(2)
其中,c<<Pths
7.重复步骤6,直到F”N集的大小小于F'N集。
8.将Pths的值重置为初始值,重复步骤4-7,直到F”N特征集的大小小于Fmin
9.对所选特征的每一个子集,计算模型性能(灵敏度、特异性和卡帕值)。为了选择特征的最佳子集,我们遵循下面的方案。
a.选择模型性能中卡帕值最大的特征子集。设该子集为Fa
b.现在用Fa特征子集识别性能(根据灵敏度/特异性)在模型性能q%以内的所有特征子集。
c.从已识别的特征子集池中,选择一个子集,其大小为最小值,但大于Z且小于Fa的大小。如果不满足此条件,则选择Fa作为最佳特征集。
在一个特定实施方式中,以下参数值与上述算法一起使用。仅咳嗽模型的FN大小为=157(即开始使用LRM的157个输入特征)。咳嗽加临床症状模型的FN大小为157+,取决于使用的临床特征数量。
Pths(在第3步)=PO=0.20
c(在第6步)=0.001
Fmin(在第8步)=10
Z(在第9步)=10
7.在一个特定的实施方式中,使用了以下参数值和上述算法。用这种方法得到的结果见下表12和13。
表12:特征优化后特征LR模型的留一验证性能。仅咳嗽特征。
Figure BDA0002550261040000351
Figure BDA0002550261040000361
表13:特征优化后特征LR模型的留一验证性能。咳嗽加简单临床特征
Figure BDA0002550261040000362
表14:使用特征神经网模型对正常咳嗽和疾病咳嗽进行分类时的留一验证结果
Figure BDA0002550261040000371
表15:特征神经网模型的留一验证性能
Figure BDA0002550261040000372
Figure BDA0002550261040000381
表16:使用DNN模型对患者进行分类时的留一验证结果
Figure BDA0002550261040000382
参考文献
以下文献通过引用整体并入本文。
1.Abeyratne,U.R.,et al.,Cough sound analysis can rapidly diagnosechildhood pneumonia.Annals of biomedical engineering,2013.41(11):p.2448-2462.
2.Kosasih,K.,et al.,Wavelet augmented cough analysis for rapidchildhood pneumonia diagnosis.IEEE Transactions on Biomedical Engineering,2015.62(4):p.1185-1194.
3.Abeyratne,U.Blind reconstruction of non-minimum-phase systems from1-D oblique slices of bispectrum.1999.IET.
4.Hinton GE,Salakhutdinov RR.Reducing the dimensionality of data withneural networks.science.2006Jul 28;313(5786):504-7.
根据法规,本发明已被或多或少地以特定于结构或方法特征的语言描述。“包含”一词及其变体,例如“包括”和“含有”,在全文中都是以包容的意义使用的,而不是排除任何附加特征。应当理解,本发明不限于所示或描述的特定特征,因为这里描述的装置包括使本发明生效的优选形式。因此,在本领域技术人员适当解读的所附权利要求的适当范围内,本发明要求保护其任何形式或修改。
在说明书和权利要求书(如有)中,除非上下文另有要求,否则术语“实质上”或“大约”将被理解为不限于术语限定的范围的值。
结合本发明的特定方面、实施方式或示例描述的特征、整数、特性、化合物、化学部分或基团应理解为适用于本文描述的任何其他方面、实施方式或示例,除非与之不相容。
本发明的任何实施方式仅用于说明,并不限制本发明。因此,应当理解,在不脱离本发明的精神和范围的情况下,可以对所描述的任何实施方式进行各种其它改变和修改。

Claims (17)

1.一种诊断患者的一种或多种呼吸道疾病的方法,包括以下步骤:
从患者获得咳嗽声音;
对所述咳嗽声音进行处理,以产生表示来自咳嗽片段的一个或多个咳嗽声音特征的咳嗽声音特征信号;
基于咳嗽声音特征信号获得一个或多个疾病特征;以及
将一个或多个疾病特征分类,以将咳嗽片段视为指示一个或多个所述疾病;
其中,基于咳嗽声音特征信号获取一个或多个疾病特征的步骤包括将咳嗽声音特征应用于一个或多个预先训练的疾病特征决策机中的每一个,每一个所述决策机已预先训练以将咳嗽声音特征分类为对应于疾病状态或非疾病状态,或对应于第一特定疾病或与第一特定疾病不同的第二特定疾病。
2.根据权利要求1所述的方法,其中所述一个或多个疾病特征决策机每一个均包括训练的逻辑回归模型(LRM)。
3.根据权利要求2所述的方法,其中每个训练的逻辑回归模型(LRM)使用约简训练特征集进行训练,所述特征被确定为对LRM是重要的,从而避免LRM过度训练。
4.根据权利要求2A所述的方法,其中,通过计算所有训练特征的平均p值,然后选择平均p值小于阈值Pmin的特征,确定训练特征对LRM是重要的。
5.根据权利要求2至4中任一项所述的方法,其中每个LRM的自变量是咳嗽声音特征的值,并且LRM的输出值包括咳嗽的预测概率,所述预测概率指示参考第二特定疾病或参考非疾病状态的第一特定疾病。
6.根据权利要求1所述的方法,其中所述一个或多个疾病特征决策机包括一个或多个经过训练的神经网络。
7.根据上述权利要求中任一项所述的方法,包括,除了咳嗽特征之外,将临床患者测量作为自变量应用于疾病特征决策机。
8.根据上述权利要求中任一项所述的方法,其中将一个或多个疾病特征分类、以将咳嗽片段视为指示一个或多个所述疾病的步骤包括:将所述一个或多个疾病特征应用于经训练以涵盖所有疾病组的单个分类器。
9.根据权利要求1至7中任一项所述的方法,其中,将一个或多个疾病特征分类、以将咳嗽片段视为指示一个或多个所述疾病的步骤包括:将所述一个或多个疾病特征应用于多个分类器,所述多个分类器的每一个均经训练以识别感兴趣的疾病。
10.根据权利要求86或9所述的方法,其中,将一个或多个疾病特征分类的步骤包括将一个或多个疾病特征分类为以下疾病之一:毛细支气管炎(SBo);喉炎(SC);哮喘/RAD(SA);肺炎(SP);下呼吸道疾病(SLRTD);原发性上呼吸道感染(SU)。
11.根据权利要求9所述的方法,其中,通过基于咳嗽声音特征信号获得一个或多个疾病特征的步骤产生d个疾病特征,相应地,人工神经网络(ANN)具有d维输入层,其中一个输入神经元对应于每个疾病特征。
12.根据权利要求11所述的方法,其中所述人工神经网络具有k维输出层,其中所述输出层中的每个神经元输出对应于疾病的概率。
13.根据上述权利要求中任一项所述的方法,其中,将一个或多个疾病特征分类的步骤包括将复合有效概率度量PQ'编译为:
P'Q=PQ(1-PZ),
其中PQ包括患者属于疾病Q的概率的指示器,PZ包括患者属于疾病Z的概率的指示器,其中,乘积PQ(1-PZ)表示患者属于疾病Q而不属于疾病Z的复合事件的概率。
14.根据权利要求10所述的方法,包括计算每个目标疾病的咳嗽指数,其中,患者目标疾病的咳嗽指数计算为被分类为指示目标疾病的患者的咳嗽数与为所述患者分析的咳嗽总数的比率。
15.根据上述权利要求任一项所述的方法,包括对来自分类一个或多个疾病特征的步骤的分类应用一个或多个后筛选测试,以检测显性假阳性。
16.根据权利要求15所述的方法,还包括根据检测到的假阳性调整分类一个或多个疾病特征的步骤。
17.根据上述权利要求中任一项所述的方法,进一步包括基于所诊断的特定疾病对患者应用特定治疗。
CN201880083344.XA 2017-12-21 2018-12-20 用疾病特征分析咳嗽声音以诊断呼吸系统疾病的方法 Pending CN111629663A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2017905129A AU2017905129A0 (en) 2017-12-21 A method for analysis of cough sounds to diagnose respiratory diseases
AU2017905129 2017-12-21
PCT/AU2018/051372 WO2019119050A1 (en) 2017-12-21 2018-12-20 A method for analysis of cough sounds using disease signatures to diagnose respiratory diseases

Publications (1)

Publication Number Publication Date
CN111629663A true CN111629663A (zh) 2020-09-04

Family

ID=66992417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880083344.XA Pending CN111629663A (zh) 2017-12-21 2018-12-20 用疾病特征分析咳嗽声音以诊断呼吸系统疾病的方法

Country Status (7)

Country Link
US (1) US11864880B2 (zh)
EP (1) EP3727148A4 (zh)
JP (2) JP2021506486A (zh)
KR (1) KR102630580B1 (zh)
CN (1) CN111629663A (zh)
AU (1) AU2018386721A1 (zh)
WO (1) WO2019119050A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111938652A (zh) * 2020-08-24 2020-11-17 上海市第一人民医院 人工智能诊断模式在支气管哮喘早期诊断中的应用
CN112494032A (zh) * 2021-02-03 2021-03-16 中南大学湘雅二医院 一种基于声学特征的呼吸道疾病监测预警系统
CN112687290A (zh) * 2020-12-30 2021-04-20 同济大学 一种经过压缩的咳嗽自动检测方法及嵌入式设备
CN112992337A (zh) * 2021-02-07 2021-06-18 华南理工大学 一种颈脊髓损伤患者肺功能评估算法、装置、介质和设备
CN113223498A (zh) * 2021-05-20 2021-08-06 四川大学华西医院 基于喉部语音信息的吞咽障碍识别方法、设备及装置
CN114041779A (zh) * 2021-11-26 2022-02-15 河南牧原智能科技有限公司 用于对牲畜呼吸道疾病进行识别的识别系统和计算机设备
CN114403878A (zh) * 2022-01-20 2022-04-29 南通理工学院 一种基于深度学习的语音检测疲劳度方法
WO2022252803A1 (zh) * 2021-05-31 2022-12-08 华为技术有限公司 筛查方法、设备、存储介质及程序产品

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9113591B2 (en) 2012-06-18 2015-08-25 Raven Industries, Inc. Implement for adjustably metering an agricultural field input according to different frame sections
CA2926448C (en) 2013-10-17 2020-09-22 Raven Industries, Inc. Nozzle control system and method
WO2018129323A1 (en) 2017-01-05 2018-07-12 Raven Industries, Inc. Localized product injection system and methods for same
CN118141344A (zh) * 2017-10-27 2024-06-07 高等工艺学校 用于估计扣除用户引起的伪影的用户耳内的噪声暴露量的方法和系统
US12070323B2 (en) * 2018-04-05 2024-08-27 Google Llc System and method for generating diagnostic health information using deep learning and sound understanding
WO2019202385A1 (en) * 2018-04-20 2019-10-24 RADHAKRISHNA, Suresh, Jamadagni Electronic stethoscope
CN113711319A (zh) * 2019-03-12 2021-11-26 诺华股份有限公司 用于区分哮喘与copd的数字解决方案
US11468994B2 (en) * 2019-06-28 2022-10-11 Cerner Innovation, Inc. Pneumonia readmission prevention
US11948690B2 (en) 2019-07-23 2024-04-02 Samsung Electronics Co., Ltd. Pulmonary function estimation
EP4017351A4 (en) * 2019-08-19 2023-08-23 The University Of Queensland METHOD AND DEVICE FOR PROCESSING ASTHMAPATIENT COUGH FOR ADMINISTRATION OF RELEVANT THERAPY
WO2021066962A1 (en) 2019-10-04 2021-04-08 Raven Industries, Inc. Valve control system and method
CN111248913B (zh) * 2020-01-21 2023-04-07 山东师范大学 基于迁移学习的慢性阻塞性肺疾病预测系统、设备及介质
US11468908B2 (en) 2020-04-15 2022-10-11 Optum, Inc. Hybrid input machine learning frameworks
KR102555235B1 (ko) * 2020-04-24 2023-07-13 다인기술 주식회사 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US20220104725A9 (en) * 2020-05-13 2022-04-07 Ali IMRAN Screening of individuals for a respiratory disease using artificial intelligence
CN112233700A (zh) * 2020-10-09 2021-01-15 平安科技(深圳)有限公司 基于音频的用户状态识别方法、装置及存储介质
US20240341672A1 (en) * 2021-03-08 2024-10-17 Dain Technology, Inc. Method for evaluating possibility of dysphagia by analyzing acoustic signals, and server and non-transitory computer-readable recording medium performing same
US20220384040A1 (en) * 2021-05-27 2022-12-01 Disney Enterprises Inc. Machine Learning Model Based Condition and Property Detection
CN113413163B (zh) * 2021-08-24 2021-11-19 山东大学 一种混合深度学习和低差异度森林的心音诊断系统
KR102624637B1 (ko) 2021-10-06 2024-01-15 주식회사 웨이센 시계열 기침음, 호흡음, 낭독음, 발성음 측정을 통한 호흡기 질환 예후 예측시스템 및 방법
KR102624676B1 (ko) 2021-12-14 2024-01-15 주식회사 웨이센 스마트폰으로 수집한 기침음, 호흡음, 성음 측정 데이터를 이용한 호흡기 질환 예측 방법
KR102376188B1 (ko) * 2021-12-15 2022-03-17 가천대학교 산학협력단 딥러닝 기반의 호흡음 분류를 위한 피쳐정보 선택방법 및 시스템
US20230368026A1 (en) * 2022-05-11 2023-11-16 Covid Cough, Inc. Systems and methods for chained machine learning models for signal data signature labelling
WO2024058585A1 (ko) * 2022-09-16 2024-03-21 사회복지법인 삼성생명공익재단 음성 데이터 및 임상 정보를 이용하여 대상자의 폐질환의 중증도를 분류하는 방법 및 분석장치
WO2024211379A1 (en) * 2023-04-04 2024-10-10 Sibel Health Inc. Body-worn sensor with haptic interface
CN117035073B (zh) * 2023-08-16 2024-03-29 南京信息工程大学 一种基于分层事件发展模式归纳的未来气象事件预测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008152433A1 (en) * 2007-06-15 2008-12-18 Biorics Nv Recognition and localisation of pathologic animal and human sounds
CN101894551A (zh) * 2010-07-02 2010-11-24 华南理工大学 一种咳嗽自动识别方法及装置
CN104321015A (zh) * 2012-03-29 2015-01-28 昆士兰大学 用于处理患者声音的方法与装置
CN106847262A (zh) * 2016-12-28 2017-06-13 华中农业大学 一种猪呼吸道疾病自动识别报警方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598508A (en) * 1991-10-18 1997-01-28 Goldman; Julian M. Real-time waveform analysis using artificial neural networks
EP1898786B1 (en) 2005-06-03 2011-03-30 South Manchester University Hospitals NHS Trust A method for generating output data
US20090312660A1 (en) * 2008-06-17 2009-12-17 Biorics Nv Recognition and localisation of pathologic animal and human sounds
US20120071777A1 (en) * 2009-09-18 2012-03-22 Macauslan Joel Cough Analysis
US11304624B2 (en) * 2012-06-18 2022-04-19 AireHealth Inc. Method and apparatus for performing dynamic respiratory classification and analysis for detecting wheeze particles and sources
US10426426B2 (en) * 2012-06-18 2019-10-01 Breathresearch, Inc. Methods and apparatus for performing dynamic respiratory classification and tracking
JP6780182B2 (ja) * 2015-10-08 2020-11-04 コルディオ メディカル リミテッド 音声分析による肺疾患の評価
EP3231368B1 (en) 2016-04-15 2019-07-03 Clebre Sp. z o.o. Method and system for identifying respiratory events

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008152433A1 (en) * 2007-06-15 2008-12-18 Biorics Nv Recognition and localisation of pathologic animal and human sounds
CN101894551A (zh) * 2010-07-02 2010-11-24 华南理工大学 一种咳嗽自动识别方法及装置
CN104321015A (zh) * 2012-03-29 2015-01-28 昆士兰大学 用于处理患者声音的方法与装置
US20150073306A1 (en) * 2012-03-29 2015-03-12 The University Of Queensland Method and apparatus for processing patient sounds
CN106847262A (zh) * 2016-12-28 2017-06-13 华中农业大学 一种猪呼吸道疾病自动识别报警方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111938652A (zh) * 2020-08-24 2020-11-17 上海市第一人民医院 人工智能诊断模式在支气管哮喘早期诊断中的应用
CN112687290A (zh) * 2020-12-30 2021-04-20 同济大学 一种经过压缩的咳嗽自动检测方法及嵌入式设备
CN112687290B (zh) * 2020-12-30 2022-09-20 同济大学 一种经过压缩的咳嗽自动检测方法及嵌入式设备
CN112494032A (zh) * 2021-02-03 2021-03-16 中南大学湘雅二医院 一种基于声学特征的呼吸道疾病监测预警系统
CN112992337A (zh) * 2021-02-07 2021-06-18 华南理工大学 一种颈脊髓损伤患者肺功能评估算法、装置、介质和设备
CN113223498A (zh) * 2021-05-20 2021-08-06 四川大学华西医院 基于喉部语音信息的吞咽障碍识别方法、设备及装置
WO2022252803A1 (zh) * 2021-05-31 2022-12-08 华为技术有限公司 筛查方法、设备、存储介质及程序产品
CN114041779A (zh) * 2021-11-26 2022-02-15 河南牧原智能科技有限公司 用于对牲畜呼吸道疾病进行识别的识别系统和计算机设备
CN114403878A (zh) * 2022-01-20 2022-04-29 南通理工学院 一种基于深度学习的语音检测疲劳度方法

Also Published As

Publication number Publication date
EP3727148A4 (en) 2021-03-03
AU2018386721A1 (en) 2020-07-16
EP3727148A1 (en) 2020-10-28
WO2019119050A1 (en) 2019-06-27
JP2023164839A (ja) 2023-11-14
JP2021506486A (ja) 2021-02-22
KR102630580B1 (ko) 2024-01-30
US20210076977A1 (en) 2021-03-18
KR20200122301A (ko) 2020-10-27
US11864880B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
KR102630580B1 (ko) 호흡기 질병 진단을 위한 질병 시그니처를 이용한 기침 소리 분석 방법
AU2013239327B2 (en) A method and apparatus for processing patient sounds
Akbari et al. An efficient voice pathology classification scheme based on applying multi-layer linear discriminant analysis to wavelet packet-based features
Jayachitra et al. A cognitive IoT-based framework for effective diagnosis of COVID-19 using multimodal data
Anupam et al. Preliminary diagnosis of COVID-19 based on cough sounds using machine learning algorithms
Aly et al. A novel deep learning model to detect COVID-19 based on wavelet features extracted from Mel-scale spectrogram of patients’ cough and breathing sounds
Hazra et al. Detecting respiratory diseases from recorded lung sounds by 2D CNN
Sinha et al. HSCAD: Heart sound classification for accurate diagnosis using machine learning and MATLAB
Sfayyih et al. A review on lung disease recognition by acoustic signal analysis with deep learning networks
Celik et al. Proposing a new approach based on convolutional neural networks and random forest for the diagnosis of Parkinson's disease from speech signals
Chauhan et al. Development of a classifier with analysis of feature selection methods for COVID-19 diagnosis
Zhao et al. Dysphagia diagnosis system with integrated speech analysis from throat vibration
Karaarslan et al. Respiratory sound-base disease classification and characterization with deep/machine learning techniques
Sharan et al. Automated Cough Sound Analysis for Detecting Childhood Pneumonia
Benmalek et al. A cough-based covid-19 detection with Gammatone and Mel-frequency cepstral coefficients
Evangeline et al. Detection of covid-19 through cough and breathing sounds using cnn
Kilic et al. GCLP: An automated asthma detection model based on global chaotic logistic pattern using cough sounds
Balasubramanian et al. Machine Learning-Based Classification of Pulmonary Diseases through Real-Time Lung Sounds.
Sharan Automated discrimination of cough in audio recordings: A scoping review
Suda Early Detection of Tuberculosis with Machine Learning Cough Audio Analysis: Towards More Accessible Global Triaging Usage
Bapat et al. Respiratory disorder classification based on lung auscultation using MFCC, Mel Spectrogram and Chroma STFT
Deeven et al. Pulmonary sound analysis with deep learning for efficient respiratory disease categorization
Chamberlain Design and validation of mobile kit and machine learning algorithms for pulmonary disease screening and diagnosis
Anjali et al. Machine learning-based classification of cardiac diseases from PCG recorded heart sounds
Kowalczuk et al. Automatic Breath Analysis System Using Convolutional Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination