JP2023539874A - Computerized decision support tools and medical devices for respiratory disease monitoring and care - Google Patents

Computerized decision support tools and medical devices for respiratory disease monitoring and care Download PDF

Info

Publication number
JP2023539874A
JP2023539874A JP2023513686A JP2023513686A JP2023539874A JP 2023539874 A JP2023539874 A JP 2023539874A JP 2023513686 A JP2023513686 A JP 2023513686A JP 2023513686 A JP2023513686 A JP 2023513686A JP 2023539874 A JP2023539874 A JP 2023539874A
Authority
JP
Japan
Prior art keywords
user
phoneme
human subject
respiratory
respiratory disease
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023513686A
Other languages
Japanese (ja)
Inventor
パテル シャマール
ウィリアム ウェイクニック ポール
チャッピー カーラ
メイザー ロバート
トレーシー ブライアン
デル マー サンタマリア セッラ マリア
Original Assignee
ファイザー・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファイザー・インク filed Critical ファイザー・インク
Publication of JP2023539874A publication Critical patent/JP2023539874A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4836Diagnosis combined with treatment in closed-loop systems or methods
    • A61B5/4839Diagnosis combined with treatment in closed-loop systems or methods combined with drug delivery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K31/00Medicinal preparations containing organic active ingredients
    • A61K31/66Phosphorus compounds
    • A61K31/675Phosphorus compounds having nitrogen as a ring hetero atom, e.g. pyridoxal phosphate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K38/00Medicinal preparations containing peptides
    • A61K38/04Peptides having up to 20 amino acids in a fully defined sequence; Derivatives thereof
    • A61K38/06Tripeptides
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/80ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for detecting, monitoring or modelling epidemics or pandemics, e.g. flu
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Pulmonology (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Cardiology (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Immunology (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)

Abstract

ユーザの呼吸器疾患をモニタリングするとともに、ユーザのオーディオデータを解析することにより意思決定支援を提供する技術が開示される。オーディオデータ内の発話音素が検出され、これらの音素に対して音響特性が抽出されるようになっていてもよい。距離測定基準の演算によって、ユーザの音素特性集合を比較するようにしてもよい。この比較に基づいて、ユーザが呼吸器疾患(たとえば、感染症)であるか、および/または、疾患が変化しているか等、ユーザの呼吸器疾患に関する判定がなされるようになっていてもよい。いくつかの態様には、音素特性集合を利用して、ユーザの将来の呼吸器疾患を予測することを含む。コンピュータアプリケーションまたはサービスの形態の意思決定支援ツールによる検出または予測呼吸器疾患情報の利用によって、現在の疾患の処置または将来リスクの緩和のための動作を開始するようにしてもよい。Techniques are disclosed for monitoring a user's respiratory disease and providing decision support by analyzing the user's audio data. Speech phonemes within the audio data may be detected and acoustic characteristics extracted for these phonemes. The computation of distance metrics may compare users' phoneme feature sets. Based on this comparison, a determination may be made regarding the user's respiratory illness, such as whether the user has a respiratory illness (e.g., an infection) and/or whether the illness is changing. . Some aspects include utilizing a set of phoneme features to predict a user's future respiratory illness. Utilization of detected or predictive respiratory disease information by decision support tools in the form of computer applications or services may initiate actions to treat current disease or mitigate future risks.

Description

インフルエンザ等のウイルスおよび細菌による呼吸器感染症は、毎年多くの人々に影響を及ぼし、軽度から重度までの症状を伴う。通常、感染者の体内では、自己報告症状よりも前にウイルスまたは細菌のレベルがピークとなり、患者が感染に気付かないことが多い。また、ほとんどの患者は通常、新規または軽度の呼吸器症状を検出したり、症状の変化(症状の悪化または改善)を定量化したりすることに困難を感じている。ただし、呼吸器感染症の早期検出によって、感染症の継続期間および/または重症度を抑えるより効果的な介入につながる可能性がある。また、臨床試験においても早期検出は有益である。潜在的な試験参加者の感染性因子負荷があまりに小さくなるほど遅くなってからでは、関心感染症と相関する潜在的な参加者の症状の確認が不可能となり得るためである。したがって、ヘルスケア提供者での受診が通常必要となるレベルまで症状が悪化する前に、客観的な尺度を利用して呼吸器感染症の症状を検出およびモニタリングするツールが求められている。 Viral and bacterial respiratory infections, such as influenza, affect many people each year, with symptoms ranging from mild to severe. Viral or bacterial levels typically peak in an infected person's body before self-reported symptoms, and patients often do not realize they are infected. Additionally, most patients typically have difficulty detecting new or mild respiratory symptoms or quantifying changes in symptoms (worsening or improvement of symptoms). However, early detection of respiratory infections may lead to more effective interventions that reduce the duration and/or severity of infections. Early detection is also beneficial in clinical trials. This is because it may be impossible to ascertain symptoms in a potential trial participant that correlate with the infection of interest until such a time that the infectious agent burden in the potential trial participant becomes too low. Therefore, there is a need for tools that utilize objective measures to detect and monitor symptoms of respiratory infections before symptoms worsen to the point that a visit to a health care provider is usually required.

本概要は、以下の詳細な説明において詳述される概念の一部を簡略化形態にて紹介するために提供される。本概要は、特許請求の範囲に係る主題の重要または本質的な特徴を識別することも、特許請求の範囲に係る主題の範囲の決定の補助として単独で使用されることも意図されない。 This Summary is provided to introduce some concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key or essential features of the claimed subject matter or to be used alone as an aid in determining the scope of the claimed subject matter.

本開示に記載の技術の実施形態は、改良されたコンピュータ化意思決定支援ツールによって、患者の呼吸器疾患の変化の判定および定量化、患者が(呼吸器感染症の可能性もある)呼吸器疾患となる可能性の決定、または患者の将来の呼吸器疾患の予測等により患者の呼吸器疾患をモニタリングすることを可能にする。 Embodiments of the technology described in this disclosure provide improved computerized decision support tools for determining and quantifying changes in a patient's respiratory disease, including the possibility of a respiratory infection. It is possible to monitor a patient's respiratory disease by determining the possibility of developing the disease or predicting the patient's future respiratory disease.

高いレベルにおいて、これらの実施形態には、スマートフォン等のユーザコンピュータ機器に組み込まれ得るマイク等のセンサ機器により取得されたオーディオデータを利用して、患者の呼吸器疾患を示すデータを自動的に検出することを含んでいてもよい。たとえば、オーディオデータは、これらの技術の一実施形態のユーザにより、オーディオサンプルとして提供されるようになっていてもよく、これは、コンピュータ機器(たとえば、スマートスピーカ)との日常的な相互作用中に取得された持続的な発声(たとえば、「アーア(aaaaaaaa)」)、計画された発話、または無計画の発話の形態であってもよい。また、いくつかの実施形態では、ユーザの呼吸器疾患のモニタリングに使用可能なオーディオデータを提供する手順にユーザをガイドする指示を与えるようにしてもよい。このように、ユーザが自宅での活動を含む日々の活動を実行している間に、呼吸器疾患をモニタリングするためのデータが非研究室的な設定で目立たず確実に取得されるようになっていてもよい。したがって、本明細書に記載の実施形態は、信頼性の高いデータを提供してユーザの呼吸器疾患を正確かつ効果的にモニタリングしつつ、ユーザの順守の可能性を高くする。 At a high level, these embodiments include automatically detecting data indicative of respiratory illness in a patient by utilizing audio data acquired by a sensor device, such as a microphone, that may be incorporated into a user computing device, such as a smartphone. It may include doing. For example, audio data may be provided as audio samples by users of one embodiment of these technologies, which may be provided during daily interactions with computing equipment (e.g., smart speakers). It may be in the form of a sustained utterance (e.g., "aaaaaaaa"), a planned utterance, or an unplanned utterance. In some embodiments, instructions may also be provided to guide the user through steps that provide audio data that can be used to monitor the user's respiratory illness. In this way, data for monitoring respiratory diseases can now be obtained unobtrusively and reliably in a non-laboratory setting while users perform their daily activities, including home activities. You can leave it there. Thus, embodiments described herein increase the likelihood of user compliance while providing reliable data to accurately and effectively monitor a user's respiratory disease.

一実施形態によれば、ユーザの記録されたオーディオデータから音素が検出され、検出された音素に対する音響特性が抽出または決定されるようになっていてもよい。これらの特性には、特定の時間区分(たとえば、日時)におけるユーザの呼吸器疾患を特徴付ける音素特性集合または特性ベクトルを含み得るため、当該特定の時間区分と関連付けられると考えられる。ユーザは、複数の時間区分(たとえば、毎日または複数日の毎朝および毎夜)で複数のオーディオ音声サンプルを提供することにより、オーディオサンプルデータがユーザによって提供された特定の時間区分に対して決定された各音素特性集合が関連付けられるようにしてもよい。たとえば、一態様において、検出音素には、 According to one embodiment, phonemes may be detected from the user's recorded audio data, and acoustic characteristics for the detected phonemes may be extracted or determined. These characteristics may include a set of phoneme features or feature vectors that characterize a user's respiratory illness at a particular time interval (eg, date and time), and thus are considered associated with the particular time interval. The user may provide multiple audio voice samples at multiple time intervals (e.g., every morning and night of each day or multiple days) so that the audio sample data is determined for the particular time interval provided by the user. Each phoneme characteristic set may be associated with each other. For example, in one aspect, the detected phonemes include:

またはこれらの任意の組み合わせを含み得る。別の態様において、検出音素には、 or any combination thereof. In another aspect, the detected phonemes include:

等の基本母音音素のうちの1つまたは複数を含み得るとともに、音素 may include one or more of the basic vowel phonemes such as

をさらに含み得る。呼吸器疾患のバイオマーカを決定するため、検出音素が本明細書に記載の技術の一実施形態により利用されるようになっていてもよい。別の態様においては、バイオマーカを決定するため、上記音素またはそれぞれの特性のうちの1つまたは複数の組み合わせが利用されるようになっていてもよい。さらに別の態様においては、バイオマーカを決定するため、他の音素もしくは音素特性ならびに/または呼吸もしくは音声関連データが利用されるようになっていてもよい。 may further include. Detected phonemes may be utilized by one embodiment of the techniques described herein to determine biomarkers of respiratory disease. In another aspect, a combination of one or more of the phonemes or their respective characteristics may be utilized to determine the biomarker. In yet other embodiments, other phonemes or phoneme characteristics and/or respiratory or speech-related data may be utilized to determine the biomarkers.

音素特性の値間の差を決定するため、異なる時間区分の音素特性集合が比較されるようになっていてもよい。たとえば、音素特性集合間のユークリッド距離測定結果が決定されるようになっていてもよい。同様に、いくつかの実施形態において、ユーザによる文章の音読を比較する実施態様等の場合は、レーベンシュタイン距離が決定されるようになっていてもよい。異なる時間区分の音素特性集合間の差に基づいて、ユーザの呼吸器疾患に関する判定がなされるようになっていてもよい。たとえば、本開示の一実施形態では、ユーザが概して呼吸器疾患である旨、ユーザが特定種類の呼吸器疾患(たとえば、インフルエンザ)である旨、ならびに/またはある期間にわたってユーザの呼吸器疾患が悪化している旨、改善している旨、および/もしくは変化していない旨を判定するようにしてもよい。このように、本明細書に開示の技術は、音素特性の定量化可能な検出変化等、ユーザの呼吸器疾患の客観的なデータに基づいて、呼吸器感染症の可能性等、ユーザの呼吸器疾患に関する自動的な判定に利用されるようになっていてもよい。いくつかの実施形態において、これらの決定された音素特性間の差は、ユーザの将来(すなわち、将来時点)の呼吸器疾患の予測に利用されるようになっていてもよい。また、いくつかの実施形態においては、ユーザの呼吸器疾患の判定または予想のため、音素特性データと併せて、ユーザの生理学的データ、自己報告症状、睡眠データ、場所、および/または天候関連情報等のコンテキスト情報が利用されるようになっていてもよい。 In order to determine the differences between the values of the phoneme characteristics, sets of phoneme characteristics of different time periods may be compared. For example, Euclidean distance measurements between phoneme feature sets may be determined. Similarly, in some embodiments, Levenshtein distances may be determined, such as embodiments that compare user readings of sentences aloud. A determination regarding a user's respiratory disease may be made based on differences between sets of phoneme characteristics in different time periods. For example, one embodiment of the present disclosure may provide information that the user has a respiratory illness in general, that the user has a particular type of respiratory illness (e.g., influenza), and/or that the user's respiratory illness has worsened over a period of time. It may be determined whether the change is occurring, improving, and/or not changing. As such, the techniques disclosed herein are based on objective data of a user's respiratory illness, such as quantifiable detected changes in phonemic characteristics, and the ability to detect a user's respiratory illness, such as the likelihood of a respiratory infection. It may also be used for automatic determination regarding organ diseases. In some embodiments, the differences between these determined phoneme characteristics may be utilized to predict a user's future (ie, future point in time) respiratory illness. In some embodiments, the user's physiological data, self-reported symptoms, sleep data, location, and/or weather-related information may also be used in conjunction with the phonemic feature data to determine or predict respiratory disease in the user. Context information such as the following may also be used.

ユーザの呼吸器疾患の判定に基づいて、コンピュータ機器が動作を開始するようにしてもよい。非限定的な一例として、この動作には、ユーザ、臨床医、またはユーザの介護者へのアラートまたは通知の電子的な伝達を含んでいてもよい。通知には、ユーザの呼吸器疾患に関する情報を含んでいてもよく、場合によっては、ユーザの呼吸器疾患の検出変化および/またはユーザの将来の呼吸器疾患の予想を含んでいてもよい。動作の別の例には、ユーザの判定または予想された呼吸器疾患に基づく処置または支援の推奨の伝達を含んでいてもよい。たとえば、この推奨には、ヘルスケア提供者への相談、既存の処方もしくは市販薬剤の継続(処方の補充等)、現在の処置手順の投薬量もしくは薬剤の修正、および/または呼吸器疾患のモニタリングの継続を含んでいてもよい。いくつかの態様において、上記動作には、ユーザのヘルスケア提供者の自動予約および/または処方の補充に関する通知の薬局への伝達等、上記または他の推奨のうちの1つまたは複数の開始を含んでいてもよい。 The computing device may be activated based on the determination of the user's respiratory illness. As one non-limiting example, this action may include electronic communication of the alert or notification to the user, clinician, or caregiver of the user. The notification may include information regarding the user's respiratory illness and, in some cases, may include a detected change in the user's respiratory illness and/or a prediction of the user's future respiratory illness. Another example of an operation may include communicating a recommendation for treatment or support based on the user's determination or anticipated respiratory illness. For example, this recommendation may include consulting a health care provider, continuing an existing prescription or over-the-counter medication (e.g., refilling a prescription), modifying the dosage or medication of a current treatment procedure, and/or monitoring for respiratory disease. may include the continuation of In some embodiments, the operations include initiating one or more of the above or other recommendations, such as automatically reserving the user's healthcare provider and/or communicating notifications to the pharmacy regarding prescription refills. May contain.

場合によっては、ユーザの音声サンプルからの音響特性情報を利用することにより、ユーザが症状を感じていなくても、呼吸器疾患(たとえば、ユーザが感染症である可能性)が判定されるようになっていてもよい。本明細書に開示の技術のいくつかの実施形態により提供されるこの機能は、症状の発現後の臨床医の訪問により取得される主観的または客観的なデータのみに依拠し得る従来技術に対する利点および改良である。この呼吸器疾患の早期検出および警告によって、疾患の継続期間および/または重症度を抑えるより効果的な処置が可能となり得る。さらに、早期検出を可能にするこれらの実施形態は、従来手法よりも早期に呼吸器疾患を警告することによって、重度急性呼吸器症候群コロナウイルス2(SARS-CoV-2)またはコロナウイルス感染症(COVID-19)等の呼吸器系のパンデミックとの闘いに特に有用と考えられる。疾患がウイルスまたは細菌を原因とする場合は、早期警告によって、ユーザが伝播に対する予防策(たとえば、マスクの着用、自己検疫、またはソーシャルディスタンスの実行)を直ちに講じることができるため、他者への伝播の可能性が低くなり得る。また、本開示の実施形態により提供される早期検出は、呼吸器感染症のワクチンおよび/または処置を研究する臨床試験においても有用と考えられる。いくつかの実施形態によれば、臨床試験で使用される従来技術で頻繁に発生する問題として病原体負荷が小さくなり過ぎる前に、参加者は、任意の症状が関心感染症と相関していることに関する確認を行い得る。 In some cases, acoustic signature information from a user's voice sample can be used to determine a respiratory illness (for example, the user may have an infection) even if the user is not experiencing symptoms. It may be. This functionality provided by some embodiments of the techniques disclosed herein is an advantage over prior art techniques that may rely solely on subjective or objective data obtained from a clinician's visit after the onset of symptoms. and improvements. Early detection and warning of this respiratory disease may allow for more effective treatment to reduce the duration and/or severity of the disease. In addition, these embodiments that enable early detection can reduce severe acute respiratory syndrome coronavirus 2 (SARS-CoV-2) or coronavirus infection ( It is believed to be particularly useful in combating respiratory pandemics such as COVID-19). If the disease is caused by a virus or bacteria, early warning allows users to take immediate precautions against transmission (e.g., wearing a mask, self-quarantine, or practicing social distancing), thereby reducing the risk to others. Potential for transmission may be reduced. Early detection provided by embodiments of the present disclosure may also be useful in clinical trials investigating vaccines and/or treatments for respiratory infections. According to some embodiments, participants are able to confirm that any symptoms are correlated with the infection of interest before the pathogen load becomes too small, a problem that frequently occurs with conventional techniques used in clinical trials. Confirmation regarding the following may be carried out.

さらに、音声記録からの音響特性を利用して呼吸器疾患をモニタリングすることにより、呼吸器疾患の患者の処置の精度を向上可能となる。たとえば、患者に対する処置が時期尚早および/または期間が長すぎることなく、抗生物質等の処置が必要なタイミングをより正確に決定するため、本開示に従って、患者の潜在的な呼吸器疾患が音声記録を利用して自宅で追跡されるようになっていてもよい。さらに、本開示の実施形態に従って処置されている患者の疾患の進展を追跡することは、薬剤および/または投薬量の変更等、処置の変更が推奨されるか否かの判定に役立ち得る。このように、本明細書に開示の技術は、抗生物質/抗菌薬のより正確な利用を促進し得る。このような薬剤は、患者の呼吸器疾患で検出される客観的かつ定量化可能な変化に基づく処方または継続の必要があるためである。 Furthermore, monitoring respiratory diseases using acoustic signatures from voice recordings can improve the accuracy of treatment of patients with respiratory diseases. For example, in order to more accurately determine when treatment, such as antibiotics, is needed, without treating the patient prematurely and/or for too long, a patient's underlying respiratory illness may be detected in audio recordings in accordance with the present disclosure. You may also be able to be tracked at home using Additionally, tracking the evolution of a patient's disease being treated according to embodiments of the present disclosure can help determine whether changes in treatment are recommended, such as changes in drugs and/or dosages. As such, the techniques disclosed herein may facilitate more accurate utilization of antibiotics/antimicrobials. This is because such drugs require prescription or continuation based on objective and quantifiable changes detected in a patient's respiratory disease.

以下、添付の図面を参照しつつ、本開示の態様を詳しく説明する。 Hereinafter, aspects of the present disclosure will be described in detail with reference to the accompanying drawings.

本開示の態様の実施に適した例示的な動作環境のブロック図である。1 is a block diagram of an exemplary operating environment suitable for implementing aspects of the present disclosure. FIG. 本開示の態様の実施に適した例示的なコンピュータアーキテクチャを示した図である。1 illustrates an example computer architecture suitable for implementing aspects of the present disclosure. FIG. 本開示の一実施形態に係る、呼吸器疾患をモニタリングする例示的なプロセスの図解表現を例示的に示した図である。1 is an exemplary diagram illustrating a diagrammatic representation of an exemplary process for monitoring respiratory disease, according to an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、呼吸器疾患をモニタリングするためのデータを収集する例示的なプロセスの図解表現を例示的に示した図である。1 is an exemplary diagram illustrating a diagrammatic representation of an exemplary process for collecting data for monitoring respiratory disease, according to an embodiment of the present disclosure; FIG. 本開示の一実施形態を利用した例示的なシナリオを例示的に示した図である。1 is an illustration of an example scenario utilizing an embodiment of the present disclosure; FIG. 本開示の一実施形態を利用した例示的なシナリオを例示的に示した図である。1 is an illustration of an example scenario utilizing an embodiment of the present disclosure; FIG. 本開示の一実施形態を利用した例示的なシナリオを例示的に示した図である。1 is an illustration of an example scenario utilizing an embodiment of the present disclosure; FIG. 本開示の一実施形態を利用した例示的なシナリオを例示的に示した図である。1 is an illustration of an example scenario utilizing an embodiment of the present disclosure; FIG. 本開示の一実施形態を利用した例示的なシナリオを例示的に示した図である。1 is an illustration of an example scenario utilizing an embodiment of the present disclosure; FIG. 本開示の一実施形態を利用した例示的なシナリオを例示的に示した図である。1 is an illustration of an example scenario utilizing an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、例示的なグラフィカルユーザインターフェース(GUI)の一態様を示したコンピュータ機器からの例示的なスクリーンショットを例示的に示した図である。1 is an illustrative illustration of an example screenshot from a computing device illustrating an aspect of an example graphical user interface (GUI), in accordance with an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、例示的なグラフィカルユーザインターフェース(GUI)の一態様を示したコンピュータ機器からの例示的なスクリーンショットを例示的に示した図である。1 is an illustrative illustration of an example screenshot from a computing device illustrating an aspect of an example graphical user interface (GUI), in accordance with an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、例示的なグラフィカルユーザインターフェース(GUI)の一態様を示したコンピュータ機器からの例示的なスクリーンショットを例示的に示した図である。1 is an illustrative illustration of an example screenshot from a computing device illustrating an aspect of an example graphical user interface (GUI), in accordance with an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、例示的なグラフィカルユーザインターフェース(GUI)の一態様を示したコンピュータ機器からの例示的なスクリーンショットを例示的に示した図である。1 is an illustrative illustration of an example screenshot from a computing device illustrating an aspect of an example graphical user interface (GUI), in accordance with an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、例示的なグラフィカルユーザインターフェース(GUI)の一態様を示したコンピュータ機器からの例示的なスクリーンショットを例示的に示した図である。1 is an illustrative illustration of an example screenshot from a computing device illustrating an aspect of an example graphical user interface (GUI), in accordance with an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、呼吸器疾患をモニタリングする例示的な方法を例示的に示したフロー図である。1 is a flow diagram illustrating an example method of monitoring respiratory disease, according to an embodiment of the present disclosure; FIG. 本開示の別の実施形態に係る、呼吸器疾患をモニタリングする例示的な方法を例示的に示したフロー図である。FIG. 2 is a flow diagram illustrating an example method of monitoring respiratory disease, according to another embodiment of the present disclosure. 本開示の一実施形態に係る、例示的な音響特性の経時的な変化の表現を例示的に示した図である。FIG. 3 is an exemplary diagram illustrating a representation of an exemplary change in acoustic characteristics over time, according to an embodiment of the present disclosure. 本開示の一実施形態に係る、呼吸器感染症の症状の減衰定数のグラフ表現を例示的に示した図である。1 is an exemplary diagram illustrating a graphical representation of a decay constant of symptoms of a respiratory infection, according to an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、音響特性と呼吸器感染症の症状との相関のグラフ表現を例示的に示した図である。1 is an exemplary diagram illustrating a graphical representation of a correlation between acoustic characteristics and symptoms of a respiratory infection, according to an embodiment of the present disclosure; FIG. 本開示の一実施形態に係る、例示的な患者の自己報告症状スコアの経時的な変化のグラフ表現を例示的に示した図である。FIG. 2 is an illustrative graphical representation of an exemplary patient's self-reported symptom score change over time, according to an embodiment of the present disclosure. 本開示の一実施形態に係る、異なる音響特性に対して演算された距離測定基準と自己報告症状スコアとの順位相関のグラフ表現を例示的に示した図である。FIG. 3 is an exemplary graphical representation of a rank correlation between distance metrics computed for different acoustic characteristics and self-reported symptom scores, according to an embodiment of the present disclosure. 本開示の一実施形態に係る、異なる音響特性に対して演算された距離測定基準と自己報告症状スコアとの順位相関のグラフ表現を例示的に示した図である。FIG. 3 is an exemplary graphical representation of a rank correlation between distance metrics computed for different acoustic characteristics and self-reported symptom scores, according to an embodiment of the present disclosure. 本開示の一実施形態に係る、異なる患者に対する距離測定基準と自己報告症状スコアとの順位相関のグラフ表現を例示的に示した図である。FIG. 3 is an exemplary graphical representation of rank correlation between distance metrics and self-reported symptom scores for different patients, according to an embodiment of the present disclosure. 本開示の一実施形態に係る、音響特性種類と音素との統計的に有意な相関を例示的に示した図である。FIG. 2 is a diagram illustrating statistically significant correlations between acoustic characteristic types and phonemes according to an embodiment of the present disclosure. 本開示の一実施形態に係る、3人の例示的な患者の音響特性および自己報告症状の経時的な相対変化のグラフ表現を例示的に示した図である。FIG. 3 is an illustrative graphical representation of relative changes in acoustic characteristics and self-reported symptoms over time for three exemplary patients, according to an embodiment of the present disclosure. 本開示の一実施形態に係る、呼吸器感染症検出器の性能の例示的な表現を例示的に示した図である。FIG. 2 is an illustrative diagram of an exemplary representation of the performance of a respiratory infection detector, according to an embodiment of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 is an illustration of an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 is an illustration of an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 is an illustration of an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の種々実施形態に係る、呼吸器疾患をモニタリングするための音響特性を抽出する例示的なコンピュータプログラムルーチンを示した図である。FIG. 3 illustrates an example computer program routine for extracting acoustic characteristics for monitoring respiratory disease, in accordance with various embodiments of the present disclosure. 本開示の一実施形態の実現における使用に適した例示的なコンピュータ環境のブロック図である。1 is a block diagram of an exemplary computer environment suitable for use in implementing an embodiment of the present disclosure. FIG.

本開示の主題は、法定要件を満たすためにさまざまな態様を用いることにより、本明細書において具体的に記載される。ただし、記載自体が本特許の範囲を制限することは意図されない。特許請求の範囲に係る主題は、他の方法での具現化により、現在または将来の他の技術と併せて、本開示に記載のものと類似の異なるステップまたはステップの組み合わせを含むことも考えられる。さらに、本明細書においては、採用方法のさまざまな要素の含意のため、用語「ステップ(step)」および/または「ブロック(block)」が用いられる場合があるものの、これらの用語は、個々のステップの順序が明示的に記載されている場合を除いて、本明細書に開示のさまざまなステップ間の任意特定の順序を暗示するものとして解釈されるべきではない。本明細書に記載の各方法は、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを用いて実行され得るコンピュータプロセスを含んでいてもよい。たとえば、コンピュータメモリに格納された命令を実行するプロセッサにより、さまざまな機能が実行されるようになっていてもよい。また、これらの方法は、コンピュータ記憶媒体に格納されたコンピュータ使用可能命令として具現化されていてもよい。これらの方法は、数例を挙げるなら、スタンドアロンのアプリケーション、サービスもしくはホスティングサービス(スタンドアロンもしくは別のホスティングサービスとの組み合わせ)、または別の製品へのプラグインによって提供され得る。 The subject matter of the present disclosure is particularly described herein using various aspects to satisfy statutory requirements. However, the description itself is not intended to limit the scope of this patent. The claimed subject matter may also be embodied in other ways to include different steps or combinations of steps similar to those described in this disclosure, in conjunction with other current or future technologies. . Additionally, although the terms "step" and/or "block" may be used herein to connote various elements of the method employed, these terms may refer to individual Unless the order of steps is explicitly stated, it should not be construed as implying any particular order between the various steps disclosed herein. Each method described herein may include a computer process that may be implemented using any combination of hardware, firmware, and/or software. For example, various functions may be performed by a processor that executes instructions stored in computer memory. Additionally, these methods may be embodied as computer-usable instructions stored on a computer storage medium. These methods may be provided by a standalone application, service or hosting service (standalone or in combination with another hosting service), or a plug-in to another product, to name a few.

本開示の態様は、呼吸器疾患モニタリングおよびケア用コンピュータ化意思決定支援ツールに関する。呼吸器疾患は、毎年多くの人々に影響を及ぼし、軽度から重度までの症状を伴う。このような呼吸器疾患には、細菌性因子もしくはインフルエンザ等のウイルス性因子を原因とする呼吸器感染症または非感染性の呼吸器系症状を含み得る。本開示のいくつかの態様では呼吸器感染症を記載するが、このような態様は、呼吸器疾患全般に当てはまり得ると考えられる。 Aspects of the present disclosure relate to computerized decision support tools for respiratory disease monitoring and care. Respiratory diseases affect many people every year, with symptoms ranging from mild to severe. Such respiratory diseases may include respiratory infections or non-infectious respiratory conditions caused by bacterial or viral agents such as influenza. Although some aspects of this disclosure describe respiratory infections, it is believed that such aspects may apply to respiratory diseases in general.

患者は通常、新規または軽度の呼吸器症状を検出するほか、症状の変化(すなわち、症状の悪化または改善)を定量化することに困難を感じている。従来は、患者がヘルスケア専門家を受診し、試料分析が実行された場合にのみ、呼吸器疾患の客観的な尺度が決定される。ただし、感染した患者の体内では、自己報告症状よりも前に、呼吸器感染症の原因となり得るウイルスまたは細菌のレベルが通常ピークとなり、診断を受けるまでは患者が感染に気付かないことが多い。たとえば、インフルエンザまたはコロナウイルス感染症2019(COVID-19)の患者は、症状を感じる前に他者に感染させる可能性がある。感染症等の呼吸器疾患の軽度の症状を早い段階で客観的に測定できなければ、感染症の他者への伝播、呼吸器疾患の長期化、および呼吸器疾患の重症化の可能性が高くなる。 Patients typically have difficulty detecting new or mild respiratory symptoms as well as quantifying changes in symptoms (ie, worsening or improvement of symptoms). Traditionally, objective measures of respiratory disease are determined only when a patient presents to a health care professional and a sample analysis is performed. However, levels of viruses or bacteria that can cause respiratory infections usually peak in an infected patient's body before self-reported symptoms, and patients often do not realize they have an infection until they are diagnosed. For example, people with influenza or coronavirus disease 2019 (COVID-19) can infect others before they feel symptoms. If mild symptoms of respiratory diseases such as infections cannot be measured objectively at an early stage, there is a risk of transmitting the infection to others, prolonging the respiratory disease, and making the respiratory disease more severe. It gets expensive.

呼吸器疾患のモニタリングおよびケアを改善するため、本開示の実施形態は、ユーザの音声記録からの音響データに基づいてユーザの呼吸器疾患の判定および/またはユーザの将来の呼吸器疾患の予想を行うための1つまたは複数の意思決定支援ツールを提供可能である。たとえば、ユーザが音声記録を通じてオーディオデータを提供することにより、オーディオデータ中の音素の音響特性(本明細書においては、音素特性と称される場合もある)が決定されるようになっていてもよい。一実施形態においては、異なる時間区分にそれぞれ対応する複数の音声記録が受信されるようになっていてもよい(たとえば、数日間にわたって、音声記録が毎日取得されるようになっていてもよい)。ユーザの呼吸器疾患の経時的な変化の有無等、ユーザの呼吸器疾患に関する情報を決定するため、異なる時間区分の音素特性値が比較されるようになっていてもよい。ユーザの呼吸器疾患の判定に基づいて、アラートまたは意思決定支援推奨等の動作がユーザおよび/またはユーザの臨床医に対して自動的に与えられるようになっていてもよい。 To improve respiratory disease monitoring and care, embodiments of the present disclosure determine a user's respiratory disease and/or predict a user's future respiratory disease based on acoustic data from the user's voice recordings. One or more decision support tools can be provided to assist in making decisions. For example, if a user provides audio data through a voice recording, the acoustic properties of phonemes in the audio data (sometimes referred to herein as phoneme properties) may be determined. good. In one embodiment, multiple audio recordings may be received, each corresponding to a different time segment (e.g., audio recordings may be obtained daily over several days). . In order to determine information regarding the user's respiratory disease, such as whether the user's respiratory disease has changed over time, phoneme characteristic values in different time periods may be compared. Based on the determination of the user's respiratory illness, actions such as alerts or decision support recommendations may be automatically provided to the user and/or the user's clinician.

一実施形態においては、本明細書に別途記載の通り、マイク等のセンサを利用してモニタリング患者(本明細書においては、ユーザと称される場合もある)から音響情報が受信されるようになっていてもよい。音響情報には、ユーザの音声(たとえば、発声または他の呼吸音)の1つまたは複数の記録を含んでいてもよい。音声記録には、たとえば持続的な発声(たとえば、「アーア」)、計画された発話、または無計画の発話のオーディオサンプルを含んでいてもよい。マイクは、スマートフォン、スマートウォッチ、またはスマートスピーカ等のユーザコンピュータ機器に組み込まれていてもよいし、あるいは結合されていてもよい。場合によっては、ユーザの自宅またはユーザの日々の活動において音声オーディオサンプルが記録されるようになっていてもよく、また、スマートスピーカ等のユーザコンピュータ機器とのユーザの日常的な相互作用中に記録されたデータを含んでいてもよい。 In one embodiment, acoustic information is received from a monitoring patient (sometimes referred to herein as a user) using a sensor, such as a microphone, as described elsewhere herein. It may be. The acoustic information may include one or more recordings of the user's sounds (eg, vocalizations or other breathing sounds). The audio recording may include, for example, audio samples of sustained utterances (eg, "aah"), planned utterances, or unplanned utterances. A microphone may be integrated into or coupled to user computing equipment such as a smartphone, smart watch, or smart speaker. In some cases, voice audio samples may be recorded at the user's home or in the user's daily activities, and may also be recorded during the user's daily interactions with the user's computer equipment, such as smart speakers. It may also contain data that was

また、いくつかの実施形態では、ユーザの呼吸器疾患のモニタリングに使用可能なオーディオデータを提供する手順にユーザをガイドする命令を生成および/または提供するようにしてもよい。たとえば、図4A、図4B、および図4Cはそれぞれ、ユーザコンピュータ機器(または、ユーザ機器)が評価行使の一部として(たとえば、テキストおよび/または可聴指示の形態の)指示をユーザに対して出力しているシナリオを示している。これらの指示は、特定音の発声をユーザに促し、いくつかの実施形態では、発声の継続時間を指示する(たとえば、「『アー(aah)』という音を5秒間言い続けてください」)。いくつかの実施形態においては、指示によって、 Additionally, some embodiments may generate and/or provide instructions that guide the user through providing audio data that can be used to monitor the user's respiratory illness. For example, FIGS. 4A, 4B, and 4C each show that user computing equipment (or user equipment) outputs instructions (e.g., in the form of text and/or audible instructions) to the user as part of an evaluation exercise. It shows a scenario where These instructions prompt the user to utter a particular sound and, in some embodiments, indicate the duration of the utterance (eg, "Keep saying the sound 'aah' for 5 seconds"). In some embodiments, the instructions include:

等の基本母音のうちの1つの発声等の発声を可能な限り長く保持または維持することをユーザに求めるようにしてもよい。また、いくつかの実施形態においては、書かれた文章の音読をユーザに求めることを指示に含む。いくつかの実施形態には、開始/終了のタイミング、長く話すこと、長時間にわたって保持すること、バックグラウンドノイズの低減、および/または品質管理のための他のフィードバックのユーザへの指示等、音声サンプルを使用可能にするフィードバックをユーザに与えることをさらに含んでいてもよい。 The user may be asked to hold or maintain a utterance for as long as possible, such as the utterance of one of the basic vowels such as . In some embodiments, the instructions also include asking the user to read the written text aloud. Some embodiments include audio instructions, such as instructing the user when to start/stop, to speak longer, to hold for longer periods of time, to reduce background noise, and/or other feedback for quality control. The method may further include providing feedback to the user to enable the sample.

いくつかの実施形態においては、ユーザから受信されたオーディオデータから、音素等の音響および音声情報が検出されるようになっていてもよい。一実施形態において、検出音素には、音素 In some embodiments, acoustic and audio information, such as phonemes, may be detected from audio data received from a user. In one embodiment, the detected phoneme includes the phoneme

を含み得る。別の実施形態において、検出音素には、音素 may include. In another embodiment, the detected phoneme includes the phoneme

を含む。本明細書に記載の技術のいくつかの実施形態において、検出音素は、呼吸器疾患の検出およびモニタリング用のバイオマーカの決定に利用されるようになっていてもよい。音素が検出されると、オーディオデータから、検出音素の音響特性が抽出または決定され得る。音響特性の例としては、パワーおよびパワー変動性、ピッチおよびピッチ変動性、スペクトル構造、ならびに/またはフォルマントの尺度を特徴付けるデータが挙げられるが、これらに限定されない。いくつかの実施形態においては、オーディオデータにおいて検出された異なる音素に対して、異なる特性集合(すなわち、音響特性の異なる組み合わせ)が決定されるようになっていてもよい。例示的な一実施形態においては、音素 including. In some embodiments of the techniques described herein, the detected phonemes may be adapted for use in determining biomarkers for detection and monitoring of respiratory diseases. Once a phoneme is detected, acoustic characteristics of the detected phoneme may be extracted or determined from the audio data. Examples of acoustic properties include, but are not limited to, data characterizing power and power variability, pitch and pitch variability, spectral structure, and/or formant measures. In some embodiments, different sets of characteristics (ie, different combinations of acoustic characteristics) may be determined for different phonemes detected in the audio data. In one exemplary embodiment, the phoneme

に対して12個の特性が決定され、音素 Twelve characteristics were determined for the phoneme

に対して12個の特性が決定され、音素 Twelve characteristics were determined for the phoneme

に対して8つの特性が決定される。いくつかの実施形態においては、音素の検出の容易化および/または音素特性の決定のため、前処理または信号調節動作が実行されるようになっていてもよい。これらの動作には、たとえばオーディオサンプルデータのトリミング、周波数フィルタリング、正規化、バックグラウンドノイズの除去、断続的なスパイク、他の音響アーチファクト、または本明細書に記載のような他の動作を含んでいてもよい。 Eight characteristics are determined for . In some embodiments, preprocessing or signal conditioning operations may be performed to facilitate phoneme detection and/or determine phoneme characteristics. These operations may include, for example, trimming the audio sample data, frequency filtering, normalization, removing background noise, intermittent spikes, other acoustic artifacts, or other operations as described herein. You can stay there.

オーディオデータが経時的にユーザから取得されるため、音素特性ベクトルを含み得る複数の音素特性集合が生成され、異なる時間区分と関連付けられ得る。いくつかの実施形態においては、ユーザの音素特性集合と関連付けられた時間情報に従って、時間順または逆時間順に連続する特性集合により時系列が組み立てられていてもよい。異なる時点または時間区分で関連付けられた特性集合内の特性の値の差または変化が決定されるようになっていてもよい。たとえば、異なる時点または時間区分と関連付けられた1つまたは複数の音素特性ベクトルを比較することにより、ユーザの音素特性ベクトルの差が決定されるようになっていてもよい。一実施形態において、この差は、特性ベクトル間のユークリッド距離等の距離測定基準を演算することにより決定されるようになっていてもよい。場合によっては、比較に利用される音素特性集合のうちの1つがユーザの健康基準を表す。健康基準の特性集合は、ユーザが呼吸器疾患ではないことが把握されている場合または推定される場合に取得されたオーディオデータに基づいて決定されるようになっていてもよい。同様に、ユーザが呼吸器疾患であることが把握されている場合または推定される場合に取得されたオーディオデータに基づいて決定された疾病基準の特性集合が利用されるようになっていてもよい。 As audio data is acquired from a user over time, multiple phoneme feature sets, which may include phoneme feature vectors, are generated and may be associated with different time segments. In some embodiments, a time series may be assembled with successive feature sets in chronological or reverse chronological order according to temporal information associated with a user's phoneme feature set. Differences or changes in the values of characteristics within the associated characteristic set at different points in time or time intervals may be determined. For example, differences in the user's phoneme feature vectors may be determined by comparing one or more phoneme feature vectors associated with different points in time or time periods. In one embodiment, this difference may be determined by computing a distance metric such as the Euclidean distance between the characteristic vectors. In some cases, one of the phoneme feature sets utilized for comparison represents a health criterion for the user. The set of health criteria characteristics may be determined based on audio data obtained when it is known or estimated that the user does not have a respiratory disease. Similarly, a set of disease criteria characteristics determined based on audio data obtained when a user is known to have a respiratory disease or is presumed to have a respiratory disease may be used. .

異なる時間の音素特性集合間の差に基づいて、呼吸器疾患に関するユーザの判定に関する情報が提供されるようになっていてもよい。いくつかの実施形態においては、本明細書に別途記載の通り、この決定が呼吸器疾患スコアとして提供されるようになっていてもよい。呼吸器疾患スコアは、(たとえば全般的に、任意の呼吸器疾患または特定の呼吸器疾患に関して)ユーザが感染症等の呼吸器疾患である(または、呼吸器疾患ではない)可能性または確率に対応していてもよい。この代替または追加として、呼吸器疾患スコアは、ユーザの呼吸器疾患が改善しているか、悪化しているか、または変化していないかを示すものであってもよい。たとえば、図4Fの例示的なシナリオは、本明細書に記載の通り、ユーザの音声情報の解析に基づいて、ユーザが呼吸器疾患から回復していないものと判定される一実施形態を示している。他の実施形態において、呼吸器疾患スコアは、将来の時間区分内でユーザが呼吸器疾患を発症する可能性、依然として罹患している可能性、または回復する可能性を示すものであってもよい。図4Eの例示的なシナリオは、風邪をひいているユーザが次の3日以内に良くなることが予測される一実施形態を示している。 Based on the differences between sets of phoneme features at different times, information regarding a user's determination of respiratory disease may be provided. In some embodiments, this determination may be provided as a respiratory disease score, as described elsewhere herein. A respiratory illness score measures the likelihood or probability that a user has (or does not have) a respiratory illness, such as an infection (e.g., with respect to any respiratory illness in general or a particular respiratory illness). It may be compatible. Alternatively or additionally, the respiratory illness score may indicate whether the user's respiratory illness is improving, worsening, or unchanged. For example, the example scenario of FIG. 4F illustrates one embodiment in which a user is determined to have not recovered from a respiratory illness based on an analysis of the user's audio information, as described herein. There is. In other embodiments, the respiratory illness score may indicate the likelihood that the user will develop, remain afflicted with, or recover from a respiratory illness within a future time interval. . The example scenario of FIG. 4E depicts one embodiment in which a user with a cold is expected to get better within the next three days.

いくつかの実施形態においては、ユーザの呼吸器疾患の判定または予測のため、ユーザの音声情報のほか、コンテキスト情報が利用されるようになっていてもよい。本明細書に別途記載の通り、コンテキスト情報としては、体温、睡眠データ等のユーザの生理学的データ、移動情報、自己報告症状、場所、または天候関連情報が挙げられるが、これに限定されない。自己報告症状データには、たとえばユーザが鼻づまり等の特定の症状を感じているか否かを含んでいてもよく、さらに、その症状の体感的な程度または重症度の評価を含んでいてもよい。場合によっては、ユーザの症状情報を取得するため、症状自己報告ツールが利用されるようになっていてもよい。いくつかの実施形態においては、ユーザの音声関連データの分析またはユーザの呼吸器疾患の判定に基づいて、自己報告情報を提供するための自動指示(または、症状データの報告をユーザに要求する通知)が発生するようになっていてもよい。図4Dの例示的なシナリオは、ユーザの音声の解析に基づいて、ユーザが発病している可能性があるものと判定される一実施形態を示している。本実施形態においては、モニタリング用ソフトウェアアプリケーションがユーザに対して、たとえばユーザが特定の呼吸器関連症状(たとえば、鼻づまり、疲労等)を感じているかを尋ねるようにしてもよい。図4Dの例は、鼻づまりを認めたユーザが鼻づまりの重症度を評価するように促されることをさらに示している。このユーザの自己報告症状は、ユーザの呼吸器疾患に関する付加的な判定または予想に利用されるようになっていてもよい。いくつかの実施形態においては、ユーザの生理学的データ(心拍数、体温、睡眠、もしくは他のデータ等)、天候関連情報(たとえば、湿度、温度、汚染、もしくは類似データ)、場所、または本明細書に記載の他のコンテキスト情報(ユーザの地域における呼吸器感染症の流行に関する情報等)といった他のコンテキスト情報が利用されるようになっていてもよい。 In some embodiments, context information in addition to the user's voice information may be utilized to determine or predict a user's respiratory illness. As described elsewhere herein, contextual information may include, but is not limited to, user physiological data such as body temperature, sleep data, travel information, self-reported symptoms, location, or weather-related information. Self-reported symptom data may include, for example, whether the user is experiencing a particular symptom, such as nasal congestion, and may further include an assessment of the perceived degree or severity of the symptom. . In some cases, symptom self-reporting tools may be utilized to obtain user symptom information. In some embodiments, automated instructions to provide self-report information (or notifications requesting the user to report symptom data) based on an analysis of the user's voice-related data or a determination of the user's respiratory illness. ) may occur. The example scenario of FIG. 4D illustrates one embodiment in which a user is determined to be potentially ill based on an analysis of the user's voice. In this embodiment, the monitoring software application may ask the user, for example, whether the user is experiencing certain respiratory-related symptoms (eg, stuffy nose, fatigue, etc.). The example of FIG. 4D further shows that a user who recognizes nasal congestion is prompted to rate the severity of the nasal congestion. The user's self-reported symptoms may be used to make additional determinations or predictions regarding the user's respiratory illness. In some embodiments, the user's physiological data (such as heart rate, body temperature, sleep, or other data), weather-related information (such as humidity, temperature, pollution, or similar data), location, or Other context information may also be used, such as information about the prevalence of respiratory infections in the user's area, such as information about the prevalence of respiratory infections in the user's area.

ユーザの呼吸器疾患(疾患の変化(または、変化の無さ)を含み得る)の判定に基づいて、コンピュータ機器が動作を開始するようにしてもよい。この動作には、たとえばユーザ、臨床医、またはユーザの介護者へのアラートまたは通知の電子的な伝達を含んでいてもよい。いくつかの実施形態において、通知またはアラートには、呼吸器疾患スコア、ユーザの呼吸器疾患の変化を定量化もしくは特徴付ける情報、呼吸器疾患の現在の状態、ならびに/またはユーザの将来の呼吸器疾患の予測等、ユーザの呼吸器疾患に関する情報を含んでいてもよい。いくつかの実施形態において、動作には、呼吸器疾患情報を処理してさらに意思決定することを含んでいてもよく、これは、ユーザの呼吸器疾患に基づく処置および支援の推奨を含んでいてもよい。たとえば、この推奨には、ヘルスケア提供者への相談、既存の処方もしくは市販薬剤の継続(処方の補充等)、現在の処置手順の投薬量もしくは薬剤の修正、および/または呼吸器疾患のモニタリングの修正もしくは無修正(すなわち、継続)を含んでいてもよい。いくつかの態様において、上記動作には、ユーザのヘルスケア提供者の自動予約および/または処方の補充に関する通知の薬局への伝達等、上記または他の推奨のうちの1つまたは複数の開始を含んでいてもよい。図4Fの例示的なシナリオは、ユーザの呼吸器疾患が改善していない旨の判定に基づいて、ユーザの医師にそのことが通知され、抗生物質の処方が補充されるとともにユーザへの送達がスケジューリングされる一実施形態を示している。 The computing device may initiate an operation based on a determination of a user's respiratory illness, which may include a change (or lack of change) in the disease. This action may include, for example, electronic communication of the alert or notification to the user, clinician, or caregiver of the user. In some embodiments, the notification or alert includes a respiratory disease score, information quantifying or characterizing changes in the user's respiratory disease, the current state of the respiratory disease, and/or the user's future respiratory disease. It may also include information regarding the user's respiratory disease, such as a prediction of. In some embodiments, the operations may include processing the respiratory disease information to further make decisions, including recommending treatment and support based on the user's respiratory disease. Good too. For example, this recommendation may include consulting a health care provider, continuing an existing prescription or over-the-counter medication (e.g., refilling a prescription), modifying the dosage or medication of a current treatment procedure, and/or monitoring for respiratory disease. It may include modification or no modification (i.e., continuation) of . In some embodiments, the operations include initiating one or more of the above or other recommendations, such as automatically scheduling a user's healthcare provider and/or communicating a prescription refill notification to a pharmacy. May contain. The example scenario of FIG. 4F is that based on a determination that the user's respiratory illness is not improving, the user's physician is notified and the antibiotic prescription is refilled and delivered to the user. 3 illustrates one embodiment of a scheduled embodiment.

さらに別の種類の動作には、ユーザの呼吸器疾患のモニタリングまたは処置と関連付けられた動作の自動的な開始または実行を含んでいてもよい。非限定的な一例として、この動作には、ユーザのヘルスケア提供者の自動予約、処方の補充に関する通知の薬局への送付、またはユーザの呼吸器疾患のモニタリングと関連付けられた手順もしくはユーザの呼吸器疾患のモニタリングに利用されるコンピュータ動作の修正を含んでいてもよい。例示的な動作の一実施形態においては、ユーザの音声関連データの取得または解析に利用されるコンピュータプログラミング動作等の音声解析手順が修正される。このような一実施形態においては、一日に2回等、より高頻度に音声サンプルを提供することをユーザが促されるようになっていてもよいし、コンピュータ機器との日常的な相互作用から音声情報が収集される実施形態等においては、音声情報がより高頻度に収集されるようになっていてもよい。別のこのような実施形態においては、呼吸器疾患モニタリングアプリケーションにより収集または解析された特定の音素または特性情報が修正されるようになっていてもよい。一実施形態においては、過去に提供された音と異なる一組の音を出すようにユーザが指示され得るように、コンピュータプログラミング動作が修正されるようになっていてもよい。同様に、別の種類の動作においては、上述のような症状データを提供することをユーザに促すように、コンピュータプログラミング動作が修正されるようになっていてもよい。 Still other types of operations may include automatically initiating or performing operations associated with monitoring or treating a user's respiratory illness. By way of non-limiting example, this action may include automatically scheduling a user's healthcare provider, sending notifications to a pharmacy regarding prescription refills, or procedures associated with monitoring a user's respiratory illness or breathing. may include modifications to computer operations used to monitor organ disease. In one embodiment of an exemplary operation, a voice analysis procedure, such as a computer programming operation, utilized to obtain or analyze user voice-related data is modified. In one such embodiment, the user may be prompted to provide audio samples more frequently, such as twice a day, or may be prompted to provide audio samples more frequently, such as twice a day, or from daily interactions with computer equipment. In embodiments where audio information is collected, the audio information may be collected more frequently. In another such embodiment, specific phoneme or characteristic information collected or analyzed by the respiratory disease monitoring application may be modified. In one embodiment, the computer programming operations may be modified such that the user may be instructed to produce a different set of sounds than previously provided sounds. Similarly, in another type of operation, computer programming operations may be modified to prompt a user to provide symptom data as described above.

とりわけ、本明細書に開示の技術の実施形態により提供され得る利点として、感染症等の呼吸器疾患の早期検出がある。これらの実施形態によれば、患者が病気を疑う前に(たとえば、ユーザが症状を感じる前に)、はるかに軽度の呼吸器症状または呼吸器疾患の兆候を検出するとともに、患者またはヘルスケア提供者に注意を促すため、呼吸音を含むユーザの発声の音響特性が利用されるようになっていてもよい。呼吸器疾患の早期検出によって、感染症の継続期間および/または重症度を抑えるより効果的な介入につながる可能性がある。また、呼吸器感染症の早期検出は、他の患者への伝播のリスクを低減可能である。他の患者が実行する前に、マスクの着用または自己検疫等、感染した患者が伝播に対して予防策を講じることができるためである。このように、これらの実施形態は、ユーザによる症状の報告に依存するため疾患の検出が遅くなる(または、検出されない)従来の呼吸器疾患(呼吸器感染症を含む)の検出手法に対する改良を提供する。また、これら従来の手法は、ユーザの自己報告データの主観性のため、低精度または不正確である。 Among other benefits, embodiments of the technology disclosed herein may provide early detection of respiratory diseases such as infections. These embodiments may detect much milder respiratory symptoms or signs of respiratory illness before the patient suspects illness (e.g., before the user feels symptoms) and may be used to detect symptoms by the patient or healthcare provider. The acoustic characteristics of the user's vocalizations, including breathing sounds, may be used to alert the user. Early detection of respiratory disease may lead to more effective interventions to reduce the duration and/or severity of infection. Also, early detection of respiratory infections can reduce the risk of transmission to other patients. This is because infected patients can take precautions against transmission, such as wearing masks or self-quarantining, before other patients do. As such, these embodiments provide an improvement over traditional respiratory disease (including respiratory infections) detection techniques that rely on user reporting of symptoms, resulting in slow (or no) disease detection. provide. Additionally, these traditional techniques have low accuracy or inaccuracy due to the subjectivity of users' self-reported data.

また、呼吸器感染症の早期検出は、臨床試験においても有益となり得る。たとえば、ワクチンの臨床試験においては、患者の症状と関心感染症との相関の確認が求められる。患者が十分早期に診断されない場合は、患者の病原体負荷があまりにも小さくなるため、関心感染症に対する患者の症状の相関を確認できなくなる可能性もある。確認なしでは、患者が試験に参加することも不可能である。したがって、本明細書に記載の実施形態は、より効果的な処置のための早期検出に利用されるのみならず、臨床試験に利用される場合は、より多くの試験参加によって、新たな潜在的処置またはワクチンの開発が可能となり得る。 Early detection of respiratory infections can also be beneficial in clinical trials. For example, in vaccine clinical trials, it is necessary to confirm the correlation between patient symptoms and the infectious disease of interest. If a patient is not diagnosed early enough, the patient's pathogen burden may become too small to correlate the patient's symptoms with the infection of interest. Without confirmation, it is also not possible for the patient to participate in the trial. Therefore, the embodiments described herein can be utilized not only for early detection for more effective treatment, but also, when utilized in clinical trials, to increase potential new potential by increasing trial participation. Treatments or vaccines may be developed.

本明細書に開示の技術の実施形態により提供され得る別の利点として、ユーザが呼吸器疾患のモニタリングを順守する可能性が高くなる。たとえば、本明細書に別途記載の通り、自宅または診療所から離れた場所で、いくつかの態様においては、患者の負担がほとんどない日課(たとえば、日常会話)を行っている時間にユーザの音声記録が目立たずに取得されるようになっていてもよい。ユーザデータの取得を含めて、呼吸器疾患をモニタリングする低負担の方法は、ユーザの順守を高めるため、早期検出の保証に役立ち得るとともに、呼吸器疾患をモニタリングする従来の手法に対する別の改良を提供可能である。 Another advantage that may be provided by embodiments of the technology disclosed herein is that users are more likely to comply with respiratory disease monitoring. For example, as described elsewhere herein, a user's voice may be recorded remotely from the home or clinic and, in some embodiments, while performing daily routines (e.g., daily conversations) that are of little burden to the patient. Records may be obtained unobtrusively. A low-burden method of monitoring respiratory diseases, including the capture of user data, could increase user compliance, help ensure early detection, and provide another improvement to traditional methods of monitoring respiratory diseases. Available.

本明細書に開示の技術の実施形態により提供され得るさらに別の利点として、呼吸器疾患の患者の処置における精度の向上がある。特に、本開示の実施形態のうちのいくつかでは、感染症等の潜在的な呼吸器疾患の追跡によって、疾患が悪化しているか、改善しているか、または変化していないかを判定可能であり、これは、患者の処置に影響を及ぼす可能性がある。たとえば、初期症状が軽度の患者は、即座の投薬または治療を要しない場合もある。本開示のいくつかの実施形態は、疾患の進展のモニタリングならびに処置(たとえば、投薬)が必要となり得る状態もしくは推奨される状態まで疾患が悪化した場合の患者および/もしくはヘルスケア提供者への注意喚起に利用されるようになっていてもよい。また、本開示の実施形態では、感染症等の呼吸器疾患から患者が回復しているか否か、ひいては、薬剤および/または投薬量の変更等の処置の変更が推奨されるか否かを判定するようにしてもよい。別の例において、本開示の実施形態では、特定の抗がん剤等、潜在的な呼吸器関連副作用を伴う薬剤をユーザが処方された場合のユーザの呼吸器疾患を判定するとともに、ユーザが呼吸器関連副作用を起こしているか否か、およびその程度に基づいて、処置の変更が推奨されるかを判定するようにしてもよい。このように、本明細書に記載の技術のいくつかの実施形態は、薬剤、特に、抗生薬/抗菌薬等の特定の薬剤のより正確な利用を可能にすることによって、従来技術に対する改良を提供可能である。このような薬剤は、患者の呼吸器疾患で検出される定量化可能な変化に基づく処方または継続がなされ得るためである。 Yet another advantage that may be provided by embodiments of the technology disclosed herein is increased precision in treating patients with respiratory diseases. In particular, some of the embodiments of the present disclosure enable tracking of underlying respiratory illnesses, such as infections, to determine whether the illness is getting worse, improving, or unchanged. Yes, this may affect patient treatment. For example, patients with mild initial symptoms may not require immediate medication or treatment. Some embodiments of the present disclosure include monitoring disease evolution and alerting patients and/or health care providers when the disease worsens to the point where treatment (e.g., medication) may be required or recommended. It may also be used for arousal. Embodiments of the present disclosure also determine whether a patient is recovering from a respiratory illness, such as an infection, and thus whether a change in treatment, such as a change in drug and/or dosage, is recommended. You may also do so. In another example, embodiments of the present disclosure may determine a user's respiratory disease if the user is prescribed a drug with potential respiratory-related side effects, such as a certain anti-cancer drug, and It may be determined whether a change in treatment is recommended based on whether respiratory-related side effects are occurring and their severity. As such, some embodiments of the technology described herein provide improvements over the prior art by allowing for more accurate utilization of drugs, particularly certain drugs such as antibiotics/antibacterials. Available. This is because such drugs can be prescribed or continued based on quantifiable changes detected in a patient's respiratory disease.

ここで図1を参照して、本開示のいくつかの実施形態が採用され得る例示的な動作環境100を示したブロック図が提供される。この構成および本明細書に記載の他の構成は、例として示されるに過ぎないことが了解されるものとする。図1および他の図面に示される構成および要素(たとえば、装置、インターフェース、機能、順序、および機能のグループ化)の追加または代替として、他の構成および要素を使用可能であり、いくつかの要素は、明瞭化のため完全に省略される場合がある。さらに、本明細書に記載の要素の多くは、任意好適な組み合わせおよび場所において、離散または分散構成要素としての実現または他の構成要素と併せた実現がなされ得る機能的エンティティである。本明細書に記載のさまざまな機能または動作は、ハードウェア、ファームウェア、ソフトウェア、およびこれらの組み合わせを含む1つまたは複数のエンティティにより実行されている。たとえば、メモリに格納された命令を実行するプロセッサにより、いくつかの機能が実行されるようになっていてもよい。 Referring now to FIG. 1, a block diagram illustrating an example operating environment 100 in which some embodiments of the present disclosure may be employed is provided. It is to be understood that this configuration and other configurations described herein are shown by way of example only. Other configurations and elements may be used in addition to or in place of the configurations and elements (e.g., devices, interfaces, functions, orders, and groupings of functions) shown in FIG. 1 and other drawings, and some of the elements may be omitted entirely for clarity. Furthermore, many of the elements described herein are functional entities that can be implemented as discrete or distributed components or in conjunction with other components in any suitable combination and location. Various functions or operations described herein are performed by one or more entities including hardware, firmware, software, and combinations thereof. For example, some functions may be performed by a processor executing instructions stored in memory.

図1に示されるように、例示的な動作環境100は、ユーザコンピュータ機器(同義で「ユーザ機器」と称される)102a,102b,102c~102nおよび臨床医ユーザ機器108等の多くのユーザ機器と、意思決定支援アプリケーション105aおよび105b等の1つまたは複数の意思決定支援アプリケーションと、電子健康レコード(EHR)104と、データストア150等の1つまたは複数のデータソースと、サーバ106と、センサ103等の1つまたは複数のセンサと、ネットワーク110と、を具備する。図1に示される動作環境100は、ある好適な動作環境の一例であることが了解されるものとする。図1に示される構成要素はそれぞれ、たとえば図16に関連して記載のコンピュータ機器1700等の如何なる種類のコンピュータ機器により実現されるようになっていてもよい。これらの構成要素は、1つまたは複数のローカルエリアネットワーク(LAN)および/またはワイドエリアネットワーク(WAN)を非限定的に含み得るネットワーク110を介して互いに通信するようになっていてもよい。例示的な実施態様において、ネットワーク110は、考え得る多様なパブリックネットワークおよび/またはプライベートネットワークのいずれかのうち、インターネットおよび/またはセルラーネットワークを含んでいてもよい。 As shown in FIG. 1, an exemplary operating environment 100 includes a number of user equipments, such as user computing equipment (synonymously referred to as "user equipment") 102a, 102b, 102c-102n and clinician user equipment 108. one or more decision support applications, such as decision support applications 105a and 105b, an electronic health record (EHR) 104, one or more data sources, such as a data store 150, a server 106, and a sensor. 103 and a network 110. It is understood that the operating environment 100 shown in FIG. 1 is one example of one suitable operating environment. Each of the components shown in FIG. 1 may be implemented by any type of computer equipment, such as computer equipment 1700 described in connection with FIG. 16, for example. These components may be adapted to communicate with each other via a network 110, which may include, without limitation, one or more local area networks (LANs) and/or wide area networks (WANs). In an exemplary implementation, network 110 may include the Internet and/or a cellular network, among any of a variety of possible public and/or private networks.

動作環境100においては、本開示の範囲内の任意数のユーザ機器(102a~102nおよび108等)、サーバ(106等)、意思決定支援アプリケーション(105a、105b等)、データソース(データストア150等)、およびEHR(104等)が採用され得ることが了解されるものとする。各要素は、単一の機器または構成要素を備えていてもよいし、分散環境において協働する複数の機器または構成要素を備えていてもよい。たとえば、サーバ106は、本明細書に記載の機能を一体的に提供する分散環境に配置された複数の機器により提供されていてもよい。また、本明細書において図示されない他の構成要素が分散環境に含まれていてもよい。 Operating environment 100 includes any number of user equipment (such as 102a-102n and 108), servers (such as 106), decision support applications (such as 105a, 105b), and data sources (such as data store 150) within the scope of this disclosure. ), and EHRs (such as 104) may be employed. Each element may include a single device or component, or multiple devices or components working together in a distributed environment. For example, server 106 may be provided by multiple devices located in a distributed environment that collectively provide the functionality described herein. Additionally, other components not illustrated herein may be included in the distributed environment.

ユーザ機器102a,102b,102c~102nおよび臨床医ユーザ機器108は動作環境100のクライアント側のクライアントユーザ機器であってもよく、一方、サーバ106は動作環境100のサーバ側であってもよい。サーバ106は、ユーザ機器102a,102b,102c~102nおよび108上のクライアント側ソフトウェアと連動するように設計されたサーバ側ソフトウェアを含むことにより、本開示において論じられる特徴および機能の任意の組み合わせを実現していてもよい。この動作環境100の区分は、好適な環境の一例を説明するために提供されており、サーバ106とユーザ機器102a,102b,102c~102nおよび108との任意の組み合わせが別個のエンティティのままであることを求めるものではない。 User equipment 102a, 102b, 102c-102n and clinician user equipment 108 may be client user equipment on the client side of operating environment 100, while server 106 may be on the server side of operating environment 100. Server 106 includes server-side software designed to interface with client-side software on user equipment 102a, 102b, 102c-102n, and 108 to achieve any combination of features and functionality discussed in this disclosure. You may do so. This division of operating environment 100 is provided to illustrate one example of a suitable environment, and any combination of server 106 and user equipment 102a, 102b, 102c-102n, and 108 remains a separate entity. It's not something I'm asking for.

ユーザ機器102a,102b,102c~102nおよび108は、ユーザによる使用が可能な如何なる種類のコンピュータ機器を含んでいてもよい。たとえば、一実施形態において、ユーザ機器102a,102b,102c~102nおよび108は、本明細書の図16に関連して記載の種類のコンピュータ機器であってもよい。非限定的な一例として、ユーザ機器は、パソコン(PC)、ラップトップコンピュータ、モバイルもしくはモバイル機器、スマートフォン、スマートスピーカ、タブレットコンピュータ、スマートウォッチ、ウェアラブルコンピュータ、個人用デジタル補助(PDA)装置、音楽プレーヤもしくはMP3プレーヤ、全地球測位システム(GPS)、ビデオプレーヤ、手持ち式通信機器、ゲーム機器、娯楽システム、車両コンピュータシステム、組み込みシステムコントローラ、カメラ、リモートコントローラ、電化製品、家庭用電子機器、ワークステーション、またはこれらの機器の任意の組み合わせ、あるいはその他任意の好適なコンピュータ機器として具現化されていてもよい。 User equipment 102a, 102b, 102c-102n, and 108 may include any type of computing equipment that can be used by a user. For example, in one embodiment, user equipment 102a, 102b, 102c-102n, and 108 may be computer equipment of the type described in connection with FIG. 16 herein. By way of non-limiting example, user equipment may include a personal computer (PC), a laptop computer, a mobile or mobile device, a smartphone, a smart speaker, a tablet computer, a smart watch, a wearable computer, a personal digital assistant (PDA) device, a music player. or MP3 players, Global Positioning System (GPS), video players, handheld communication devices, gaming devices, entertainment systems, vehicle computer systems, embedded system controllers, cameras, remote controllers, appliances, consumer electronics, workstations, Alternatively, it may be embodied as any combination of these devices, or any other suitable computer device.

ユーザ機器102a,102b,102c~102n等のいくつかのユーザ機器は、センサ103等の1つまたは複数のセンサにより観測されているユーザによる使用が意図されていてもよい。いくつかの実施形態において、ユーザ機器は、(センサ103に類似の)組み込みセンサを具備していてもよいし、(103に類似の)外部センサと連動するようになっていてもよい。例示的な実施形態において、センサ103は、音響情報を検知する。たとえば、センサ103は、スマートスピーカ、スマートモバイル機器、スマートウォッチ等のスマート機器での実装、スマート機器を通じた実装、もしくはスマート機器に対する通信可能な結合、または、別個のマイク機器としての実装がなされた1つまたは複数のマイク(または、マイクアレイ)を含んでいてもよい。また、生理学的センサ(たとえば、心拍数、血圧、血中酸素濃度、体温、および関連するデータを検出するセンサ)等、他種のセンサがユーザ機器に組み込まれていてもよいし、ユーザ機器と協働するようになっていてもよい。ただし、本開示の実施形態に係る、患者に関する生理学的情報は、EHR104における患者の履歴データまたはヒトの測定結果もしくはヒトの観察結果から受け取られ得るとも考えられる。動作環境100において実装可能な別の種類のセンサとして、ユーザの場所を検出するように構成されたセンサ(たとえば、屋内測位システム(IPS)または全地球測位システム(GPS))、大気情報を検出するように構成されたセンサ(たとえば、温度計、湿度計、または気圧計)、周囲光を検出するように構成されたセンサ(たとえば、光検出器)、および運動を検出するように構成されたセンサ(たとえば、ジャイロスコープまたは加速度計)が挙げられる。 Some user equipment, such as user equipment 102a, 102b, 102c-102n, may be intended for use by a user being observed by one or more sensors, such as sensor 103. In some embodiments, the user equipment may include an embedded sensor (similar to sensor 103) or may be adapted to interface with an external sensor (similar to 103). In an exemplary embodiment, sensor 103 detects acoustic information. For example, sensor 103 may be implemented in, through, or communicatively coupled to a smart device, such as a smart speaker, smart mobile device, smart watch, or as a separate microphone device. It may include one or more microphones (or microphone array). Other types of sensors may also be integrated into or integrated with the user equipment, such as physiological sensors (e.g., sensors that detect heart rate, blood pressure, blood oxygen levels, body temperature, and related data). They may also collaborate. However, it is also contemplated that physiological information regarding a patient, according to embodiments of the present disclosure, may be received from patient historical data in the EHR 104 or human measurements or human observations. Other types of sensors that may be implemented in the operating environment 100 include sensors configured to detect the user's location (e.g., indoor positioning system (IPS) or global positioning system (GPS)), detect atmospheric information, etc. sensors configured to detect ambient light (e.g., light detectors); and sensors configured to detect motion. (e.g. gyroscope or accelerometer).

いくつかの態様において、センサ103は、ユーザにより携帯されるスマートフォン(ユーザ機器102c等)または患者が存在し得る1つもしくは複数のエリアに配置されたスマートスピーカ(ユーザ機器102b等)での動作またはこれらを通じた動作が可能であってもよい。たとえば、センサ103は、患者の自宅に配置されたスマートスピーカに組み込まれ、スマートスピーカからの最長距離内で発生する音情報(ユーザの音声を含む)を検知し得るマイクであってもよい。あるいは、装着者の身体またはその近傍に配置された機器への組み込み等、センサ103が他の方法で組み込まれ得るとも考えられる。他の態様において、センサ103は、たとえばユーザの皮膚に付着された皮膚パッチセンサ、摂取可能なセンサもしくは皮下センサ、またはユーザの生活環境(テレビ、サーモスタット、ドアベル、カメラ等の電化製品を含む)に組み込まれたセンサ構成要素であってもよい。 In some embodiments, the sensor 103 operates or operates on a smartphone carried by a user (such as user equipment 102c) or a smart speaker (such as user equipment 102b) located in one or more areas where a patient may be present. Operation through these may be possible. For example, sensor 103 may be a microphone that is integrated into a smart speaker located in the patient's home and can detect sound information (including the user's voice) occurring within a maximum distance from the smart speaker. Alternatively, it is contemplated that sensor 103 may be incorporated in other ways, such as incorporation into equipment placed on or near the wearer's body. In other embodiments, the sensor 103 is, for example, a skin patch sensor attached to the user's skin, an ingestible sensor, or a subcutaneous sensor, or attached to the user's living environment (including appliances such as a television, thermostat, doorbell, camera, etc.). It may also be an integrated sensor component.

データは、センサ103により連続的、周期的、随時的、または利用可能となった場合に取得されるようになっていてもよい。さらに、センサ103により取得されたデータは、時間および日付情報と関連付けられていてもよく、また、1つまたは複数の時系列の測定変数として表されていてもよい。一実施形態において、センサ103は、生のセンサ情報を収集して、信号処理、変数決定統計値の形成、累積和、トレンド分析、ウェーブレット処理、閾値化、決定統計値の演算処理、決定統計値の論理処理、前処理、および/または信号条件を実行するようにしてもよい。いくつかの実施形態において、センサ103は、アナログオーディオ情報のデジタルオーディオサンプリングを実行するためのアナログ-デジタル変換器(ADC)および/または処理機能を含んでいてもよい。いくつかの実施形態において、デジタルオーディオサンプリングを実行してデジタルオーディオ情報を決定するアナログ-デジタル変換器および/または処理機能は、ユーザ機器102a~102nまたはサーバ106のいずれかに実装されていてもよい。あるいは、ユーザ機器102a~102nもしくは臨床医ユーザ機器108、サーバ106、および/または意思決定支援アプリケーション(アプリ)105aもしくは105b等のユーザ機器によって、これらの信号処理機能のうちの1つまたは複数が実行されるようになっていてもよい。 Data may be acquired by sensor 103 continuously, periodically, from time to time, or as it becomes available. Additionally, the data acquired by sensor 103 may be associated with time and date information and may be represented as one or more time-series measured variables. In one embodiment, the sensor 103 collects raw sensor information to perform signal processing, forming variable decision statistics, cumulative sums, trend analysis, wavelet processing, thresholding, computing decision statistics, and determining decision statistics. logic processing, preprocessing, and/or signal conditioning may be performed. In some embodiments, sensor 103 may include an analog-to-digital converter (ADC) and/or processing functionality to perform digital audio sampling of analog audio information. In some embodiments, analog-to-digital converters and/or processing functionality that performs digital audio sampling to determine digital audio information may be implemented in either user equipment 102a-102n or server 106. . Alternatively, one or more of these signal processing functions may be performed by user equipment such as user equipment 102a-102n or clinician user equipment 108, server 106, and/or decision support application (app) 105a or 105b. It may be possible to do so.

臨床医ユーザ機器108等のいくつかのユーザ機器は、センサ103と関連付けられたユーザを処置あるいはモニタリングしている臨床医により使用されるように構成されていてもよい。臨床医ユーザ機器108は、ユーザ機器102a~102nまたはサーバ106等の1つまたは複数のコンピュータ機器として具現化されていてもよく、また、ネットワーク110を通じてEHR104に通信結合されている。動作環境100は、臨床医ユーザ機器108とEHR104との間のネットワーク110を通じた間接的通信結合を示している。ただし、臨床医ユーザ機器108の一実施形態は、EHR104に直接、通信結合され得るとも考えられる。臨床医ユーザ機器108の一実施形態は、当該臨床医ユーザ機器108上のソフトウェアアプリケーションまたは一組のアプリケーションによって操作されるユーザインターフェース(図1には示さず)を含んでいてもよい。一実施形態において、このアプリケーションは、ウェブベースのアプリケーションまたはアプレットであってもよい。このアプリケーションの一例には、図3Aに関連して記載の例示的なダッシュボード3108等の臨床医ダッシュボードを含む。本明細書に記載の実施形態によれば、音響特性および/または呼吸器疾患データが決定され得る特定の患者または一組の患者に関する情報へのアクセスおよび受信をヘルスケア提供者アプリケーション(たとえば、臨床医ユーザ機器108上で動作し得るダッシュボードアプリケーション等の臨床医アプリケーション)が容易化し得る。臨床医ユーザ機器108(または、機器上で動作する臨床医アプリケーション)のいくつかの実施形態は、患者の履歴、ヘルスケアリソースデータ、生理学的変数もしくはデータ(たとえば、バイタルサイン)、測定結果、時系列、後述の予測(決定結果のプロットもしくは表示ならびに/またはアラートの発行を含む)、あるいは他のヘルスケア関連情報等、特定の患者または一組の患者に関する情報へのアクセスおよび受信をさらに容易化し得る。臨床医ユーザ機器108は、たとえば結果、推奨、または他の指示の表示をさらに容易化し得る。一実施形態において、臨床医ユーザ機器108は、本明細書に記載の呼吸器疾患のモニタリングおよび判定または予測の結果に基づく患者への指示の受け取りを容易化し得る。また、臨床医ユーザ機器108は、種々実施形態と併せて本明細書に記載の技術の性能の診断サービスまたは評価の提供に用いられるようになっていてもよい。 Some user equipment, such as clinician user equipment 108, may be configured for use by a clinician treating or monitoring a user associated with sensor 103. Clinician user equipment 108 may be embodied as user equipment 102a-102n or one or more computer equipment, such as server 106, and is communicatively coupled to EHR 104 through network 110. Operating environment 100 illustrates indirect communication coupling between clinician user equipment 108 and EHR 104 through network 110 . However, it is also contemplated that one embodiment of clinician user equipment 108 may be communicatively coupled directly to EHR 104. One embodiment of clinician user equipment 108 may include a user interface (not shown in FIG. 1) that is operated by a software application or set of applications on clinician user equipment 108. In one embodiment, this application may be a web-based application or applet. An example of this application includes a clinician dashboard, such as the example dashboard 3108 described in connection with FIG. 3A. Embodiments described herein enable healthcare provider applications (e.g., clinical Clinician applications (such as dashboard applications) that may run on clinician user equipment 108 may be facilitated. Some embodiments of clinician user equipment 108 (or a clinician application running on the equipment) may record patient history, healthcare resource data, physiological variables or data (e.g., vital signs), measurement results, time further facilitate accessing and receiving information regarding a particular patient or set of patients, such as series, predictions described below (including plotting or displaying decision results and/or issuing alerts), or other healthcare related information; obtain. Clinician user equipment 108 may further facilitate displaying results, recommendations, or other instructions, for example. In one embodiment, clinician user equipment 108 may facilitate receiving patient instructions based on the results of respiratory disease monitoring and determination or prediction described herein. Clinician user equipment 108 may also be used in conjunction with various embodiments to provide diagnostic services or evaluations of the performance of the techniques described herein.

意思決定支援アプリケーション105aおよび105bの実施形態には、クラウドコンピューティング環境に分散した1つまたは複数のサーバ上に存在するソフトウェアアプリケーションまたは一組のアプリケーション(プログラム、ルーチン、機能、またはコンピュータ実行サービスを含み得る)(たとえば、意思決定支援アプリケーション105b)、あるいは、パソコン、ラップトップ、スマートフォン、タブレット、モバイルコンピュータ機器、もしくはバックエンドコンピュータシステムと連通したフロントエンド端末、またはユーザ機器102a~102nのいずれか等の1つまたは複数のクライアントコンピュータ機器上に存在するソフトウェアアプリケーションまたは一組のアプリケーション(プログラム、ルーチン、機能、またはコンピュータ実行サービスを含み得る)(たとえば、意思決定支援アプリケーション105a)を含んでいてもよい。一実施形態において、意思決定支援アプリケーション105aおよび105bには、本開示の一実施形態により提供されるユーザサービスへのアクセスに使用可能なクライアントベースおよび/またはウェブベースのアプリケーション(もしくは、アプリ)または一組のアプリケーション(もしくは、アプリ)を含んでいてもよい。このような一実施形態において、意思決定支援アプリケーション105aおよび105bはそれぞれ、本開示の実施形態により決定される予測および評価を含めて、ユーザ機器102a~102n、臨床医ユーザ機器108、センサ103、EHR104、またはデータストア150により取得された情報の処理、解釈、アクセス、格納、読み出し、および伝達を容易化し得る。 Embodiments of decision support applications 105a and 105b include a software application or set of applications (including programs, routines, functions, or computer-executed services) that reside on one or more servers distributed in a cloud computing environment. (e.g., decision support application 105b), or any of the user equipment 102a-102n, such as a personal computer, laptop, smartphone, tablet, mobile computing device, or front-end terminal in communication with a back-end computer system, or any of the user equipment 102a-102n. It may include a software application or set of applications (which may include programs, routines, functions, or computer-implemented services) (eg, decision support application 105a) residing on one or more client computing devices. In one embodiment, decision support applications 105a and 105b include client-based and/or web-based applications (or apps) that can be used to access user services provided by an embodiment of the present disclosure. It may include a set of applications (or apps). In one such embodiment, decision support applications 105a and 105b each include user equipment 102a-102n, clinician user equipment 108, sensor 103, and EHR 104, including predictions and assessments determined by embodiments of the present disclosure. , or may facilitate processing, interpretation, access, storage, retrieval, and communication of information obtained by data store 150.

意思決定支援アプリケーション105aおよび105bを通じた情報の利用ならびに読み出しまたは関連する機能の利用には、患者または臨床医等のユーザの認証情報によるログインを要する場合がある。さらに、意思決定支援アプリケーション105aおよび105bは、臨床医、患者、関連するヘルスケア設備もしくはシステム、ならびに/または医療保険の携行性と責任に関する法律(HIPAA)の規約等の健康情報の保護に関して適用可能な地方および連邦規約により定められるプライバシ設定に従ってデータの格納および送信を行うようにしてもよい。 Use of information and retrieval or related functionality through decision support applications 105a and 105b may require login with user credentials, such as a patient or clinician. Additionally, decision support applications 105a and 105b may be applicable to clinicians, patients, associated health care facilities or systems, and/or regarding the protection of health information, such as the provisions of the Health Insurance Portability and Accountability Act (HIPAA). Data may be stored and transmitted in accordance with privacy settings established by local and federal regulations.

一実施形態において、意思決定支援アプリケーション105aおよび105bは、ネットワーク110を通じて臨床医ユーザ機器108またはユーザ機器102a~102nに直接、通知(警告または指示等)を伝達するようにしてもよい。これらのアプリケーションは、これらの機器上で動作していない場合、意思決定支援アプリケーション105aおよび105bが動作しているその他任意の機器に通知を表示するようにしてもよい。また、意思決定支援アプリケーション105aおよび105bは、臨床医ユーザ機器108またはユーザ機器102a~102nに保守指示を送信または表示するようにしてもよい。さらに、意思決定支援アプリケーション105aおよび105bにおけるインターフェースコンポーネントの使用によって、たとえば動作設定またはパラメータ、ユーザ識別、センサ103に格納されたユーザデータ、およびセンサ103の診断サービスまたはファームウェア更新等、センサ103の機能または情報へのユーザ(臨床医/介護者または患者を含む)によるアクセスを容易化するようにしてもよい。 In one embodiment, decision support applications 105a and 105b may communicate notifications (such as alerts or instructions) directly to clinician user equipment 108 or user equipment 102a-102n over network 110. If these applications are not running on these devices, notifications may be displayed on any other devices on which decision support applications 105a and 105b are running. Decision support applications 105a and 105b may also send or display maintenance instructions to clinician user equipment 108 or user equipment 102a-102n. Additionally, the use of interface components in decision support applications 105a and 105b may provide information about the functionality or functionality of sensor 103, such as operational settings or parameters, user identification, user data stored on sensor 103, and diagnostic services or firmware updates for sensor 103. Access to information by users (including clinicians/caregivers or patients) may be facilitated.

さらに、意思決定支援アプリケーション105aおよび105bの実施形態では、センサ103から直接または間接的にセンサデータを収集するようにしてもよい。図2に関する記載の通り、意思決定支援アプリケーション105aおよび105bは、センサデータを利用して、音響特性を抽出または決定するとともに、呼吸器疾患および/または症状を判定するようにしてもよい。一態様において、意思決定支援アプリケーション105aおよび105bは、ユーザ機器102a~102nおよび108等のユーザ機器(図5A~図5Eに示される例示的なグラフィカルユーザインターフェース(GUI)等のさまざまなグラフィカルユーザインターフェース、オーディオユーザインターフェース、または他のユーザインターフェースを含む)を介して、上記のようなプロセスの結果をユーザに表示あるいは提供するようにしてもよい。このように、図2に関して以下に論じられる1つまたは複数の構成要素の機能は、意思決定支援アプリケーション105aもしくは105bとともに動作するコンピュータプログラム、ルーチン、もしくはサービス、意思決定支援アプリケーション105aもしくは105bの一部であるコンピュータプログラム、ルーチン、もしくはサービス、または意思決定支援アプリケーション105aおよび105bにより制御されるコンピュータプログラム、ルーチン、もしくはサービスによって実行されるようになっていてもよい。この追加または代替として、意思決定支援アプリケーション105aおよび105bは、図2の意思決定支援ツール290等の意思決定支援ツールを含んでいてもよい。 Further, embodiments of decision support applications 105a and 105b may collect sensor data directly or indirectly from sensors 103. As described with respect to FIG. 2, decision support applications 105a and 105b may utilize sensor data to extract or determine acoustic characteristics and to determine respiratory diseases and/or symptoms. In one aspect, decision support applications 105a and 105b may include user equipment such as user equipment 102a-102n and 108 (such as a variety of graphical user interfaces (GUIs), such as the exemplary graphical user interfaces (GUI) shown in FIGS. 5A-5E); The results of such processes may be displayed or provided to the user via an audio user interface or other user interface. As such, the functionality of one or more components discussed below with respect to FIG. or controlled by decision support applications 105a and 105b. Additionally or alternatively, decision support applications 105a and 105b may include a decision support tool, such as decision support tool 290 of FIG.

前述の通り、動作環境100は、モニタリング患者と関連付けられ得る1つまたは複数のEHR104を具備する。EHR104は、ネットワーク110を介して、ユーザ機器102a~102nおよび108に直接または間接的に通信結合されていてもよい。いくつかの実施形態において、EHR104は、さまざまなソースからの健康情報を表していてもよく、また、異なる臨床医ユーザ機器(108等)に対する別個のEHRシステム等の異なるレコードシステムとして具現化されていてもよい。結果として、臨床医ユーザ機器(108等)は、異なる提供者ネットワークまたはケア施設の臨床医に対するものであってもよい。 As previously mentioned, operating environment 100 includes one or more EHRs 104 that may be associated with monitoring patients. EHR 104 may be communicatively coupled directly or indirectly to user equipment 102a-102n and 108 via network 110. In some embodiments, the EHR 104 may represent health information from a variety of sources and may be embodied as different systems of record, such as separate EHR systems for different clinician user equipment (such as 108). You can. As a result, clinician user equipment (such as 108) may be for clinicians at different provider networks or care facilities.

EHR104の実施形態は、データストア150に格納され得る健康レコードまたは健康情報の1つまたは複数のデータストアを含んでいてもよく、また、健康レコードの格納および読み出しを容易化する1つまたは複数のコンピュータまたはサーバ(サーバ106等)をさらに含んでいてもよい。いくつかの実施形態において、EHR104は、クラウドベースのプラットフォームとして実現されていてもよいし、複数の物理的な場所に分散していてもよい。EHR104は、たとえばウェアラブル、ベッドサイド、または家庭内患者モニタ等、リアルタイムまたは近リアルタイムの患者(または、ユーザ)情報を格納し得るレコードシステムをさらに具備していてもよい。 Embodiments of EHR 104 may include one or more data stores of health records or health information that may be stored in data store 150 and one or more data stores that facilitate storage and retrieval of health records. It may further include a computer or server (such as server 106). In some embodiments, EHR 104 may be implemented as a cloud-based platform or distributed across multiple physical locations. EHR 104 may further include a record system that may store real-time or near real-time patient (or user) information, such as a wearable, bedside, or in-home patient monitor.

データストア150は、動作環境100または図2と併せて記載のシステム200のさまざまな構成要素のいずれかに対してデータを利用可能にするように構成された1つまたは複数のデータソースおよび/またはコンピュータデータストレージシステムを表していてもよい。一実施形態において、データストア150は、システム200のデータ収集コンポーネント210に対して利用可能となり得るセンサデータを提供するようにしてもよい(または、アクセスに利用可能としてもよい)。データストア150には、単一のデータストアまたは複数のデータストアを含んでいてもよく、また、ローカルおよび/またはリモートに配置されていてもよい。データストア150のいくつかの実施形態には、クラウド環境に配置されたサーバ(サーバ106等)上のストレージを含むネットワーク化ストレージまたは分散ストレージを含んでいてもよい。データストア150は、ユーザ機器102a~102nおよび108ならびにサーバ106から離散していてもよいし、これらの機器のうちの少なくとも1つとの組み合わせおよび/または一体化がなされていてもよい。 Data store 150 may include one or more data sources and/or configured to make data available to any of the various components of operating environment 100 or system 200 described in conjunction with FIG. May represent a computer data storage system. In one embodiment, data store 150 may provide sensor data that may be made available (or otherwise available for access) to data collection component 210 of system 200. Data store 150 may include a single data store or multiple data stores, and may be located locally and/or remotely. Some embodiments of data store 150 may include networked or distributed storage, including storage on a server (such as server 106) located in a cloud environment. Data store 150 may be discrete from user equipment 102a-102n and 108 and server 106, or may be combined and/or integrated with at least one of these equipment.

動作環境100は、音声データもしくはコンテキスト情報を収集するための構成要素もしくは動作を含めて、(図2に示されるとともに図2と併せて記載の)システム200の1つもしくは複数の構成要素もしくはこれらの構成要素により実行される動作の実装、このようなデータを収集するためのユーザとの相互作用の容易化、考え得る呼吸器疾患もしくは既知の呼吸器疾患(たとえば、呼吸器感染症もしくは非感染性の呼吸器症状)の追跡、および/または意思決定支援ツール(図2の意思決定支援ツール290等)の実装に利用されるようになっていてもよい。また、動作環境100は、それぞれ図6Aおよび図6Bと併せて記載のような方法6100および6200の態様の実現に利用されるようになっていてもよい。 Operating environment 100 includes one or more components or operations of system 200 (shown in and described in conjunction with FIG. 2), including components or operations for collecting audio data or context information. implementing the operations performed by the components of the system, facilitating user interaction to collect such data, identifying possible or known respiratory diseases (e.g., respiratory infections or non-infectious diseases); and/or to implement decision support tools (such as decision support tool 290 of FIG. 2). Operating environment 100 may also be adapted to implement aspects of methods 6100 and 6200 as described in conjunction with FIGS. 6A and 6B, respectively.

ここで図2を参照するとともに図1を引き続き参照して、本開示の一実施形態の実現に適するとともにシステム200として大略指定される例示的なコンピュータシステムアーキテクチャの態様を示したブロック図が提供される。システム200は、好適なコンピュータシステムアーキテクチャの一例を表すに過ぎない。図示の構成および要素の追加または代替として、他の構成および要素が用いられるようになっていてもよく、いくつかの要素は、明瞭化のため完全に省略される場合がある。さらに、図1の動作環境100と同様に、本明細書に記載の多くの要素は、任意好適な組み合わせおよび場所において、離散もしくは分散構成要素としての実現または他の構成要素と併せた実現がなされ得る機能的エンティティである。 Referring now to FIG. 2 and with continued reference to FIG. 1, a block diagram illustrating aspects of an exemplary computer system architecture, generally designated as system 200, suitable for implementing an embodiment of the present disclosure is provided. Ru. System 200 represents only one example of a suitable computer system architecture. Other structures and elements may be used in addition to or in place of those illustrated, and some elements may be omitted entirely for clarity. Further, similar to operating environment 100 of FIG. 1, many of the elements described herein may be implemented as discrete or distributed components or in conjunction with other components, in any suitable combination and location. It is a functional entity that obtains.

例示的なシステム200は、データ収集コンポーネント210、提示コンポーネント220、ユーザ音声モニタ260、ユーザ相互作用管理器280、呼吸器疾患追跡器270、意思決定支援ツール290、およびストレージ250等のシステム200の構成要素を通信結合する図1に関連して記載のネットワーク110を含む。たとえば図16に関連して記載のコンピュータ機器1700等の1つまたは複数のコンピュータシステム上で実行される一組のコンパイル済みコンピュータ命令もしくは機能、プログラムモジュール、コンピュータソフトウェアサービス、またはプロセスの構成として、上記構成要素のうちの1つまたは複数が具現化されていてもよい。 The example system 200 includes a data collection component 210, a presentation component 220, a user voice monitor 260, a user interaction manager 280, a respiratory disease tracker 270, a decision support tool 290, and a storage 250. It includes the network 110 described in connection with FIG. 1 communicatively coupling the elements. For example, as a composition of compiled computer instructions or functions, program modules, computer software services, or processes executed on one or more computer systems, such as computer equipment 1700 described in connection with FIG. One or more of the components may be embodied.

一実施形態において、システム200の構成要素により実行される機能は、1つまたは複数の意思決定支援アプリケーション、サービス、またはルーチン(図1の意思決定支援アプリケーション105aおよび105b)と関連付けられている。特に、このようなアプリケーション、サービス、またはルーチンは、1つもしくは複数のユーザ機器およびサーバでの分散またはクラウド環境(図示せず)における実装がなされた1つまたは複数のユーザ機器(ユーザ機器102aおよび/もしくは臨床医ユーザ機器108等)またはサーバ(サーバ106等)上で動作するようになっていてもよい。さらに、いくつかの実施形態において、システム200のこれらの構成要素は、クラウド環境において、1つもしくは複数のサーバ(サーバ106等)およびクライアント機器(ユーザ機器102a~102nもしくは臨床医ユーザ機器108等)を接続するネットワーク全体で分散していてもよいし、ユーザコンピュータ機器102a~102nまたは臨床医ユーザ機器108のいずれか等のユーザ機器上に存在していてもよい。さらに、これらの構成要素により実行される機能またはサービスは、コンピュータシステムのオペレーティングシステム層、アプリケーション層、ハードウェア層等の適当な抽象化層で実装されていてもよい。この代替または追加として、これらの構成要素および/または本明細書に記載の実施形態の機能は、1つまたは複数のハードウェア論理コンポーネントによって少なくとも部分的に実行されるようになっていてもよい。たとえば、使用可能なハードウェア論理コンポーネントの例示的な種類としては、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ・システム(SoC)、コンプレックスプログラマブルロジックデバイス(CPLD)等が挙げられるが、これらに限定されない。また、本明細書においては、例示的なシステム200に示される特定の構成要素に関して機能が記載されるが、いくつかの実施形態においては、これらの構成要素の機能を他の構成要素全体で共有または分散し得るとも考えられる。 In one embodiment, the functions performed by the components of system 200 are associated with one or more decision support applications, services, or routines (decision support applications 105a and 105b of FIG. 1). In particular, such applications, services, or routines may be implemented on one or more user equipments (user equipment 102a and and/or clinician user equipment 108) or a server (such as server 106). Further, in some embodiments, these components of system 200 are integrated into one or more servers (such as server 106) and client devices (such as user equipment 102a-102n or clinician user equipment 108) in a cloud environment. may be distributed throughout the network connecting the computers or may reside on user equipment, such as any of the user computer equipment 102a-102n or the clinician user equipment 108. Furthermore, the functions or services performed by these components may be implemented at any suitable abstraction layer, such as an operating system layer, an application layer, a hardware layer, etc. of a computer system. Alternatively or additionally, these components and/or the functionality of the embodiments described herein may be at least partially performed by one or more hardware logic components. For example, exemplary types of hardware logic components that can be used include field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), application specific standard products (ASSPs), and systems-on-chip systems (SoCs). ), complex programmable logic device (CPLD), etc., but are not limited to these. Additionally, although functionality is described herein with respect to particular components shown in example system 200, in some embodiments the functionality of these components may be shared across other components. Alternatively, it is also possible that it can be dispersed.

引き続き図2を参照して、データ収集コンポーネント210は一般的に、本開示の実施形態において利用するため、図1のセンサ103および/またはデータストア150からのデータ等、1つまたは複数のデータソースからのデータのアクセスまたは受信(および、場合により識別)を担うようにしてもよい。いくつかの実施形態において、データ収集コンポーネント210は、ユーザ音声モニタ260、ユーザ相互作用管理器280、および/または呼吸器疾患追跡器270等、システム200の他の構成要素に対して、特定のユーザ(または場合により、クラウドソースデータを含む複数のユーザ)について取得されたセンサデータの蓄積を容易化するために採用されたものであってもよい。このデータは、データ収集コンポーネント210による受信(または、アクセス)、蓄積、再フォーマット化、および/または結合がなされ、ストレージ250等の1つまたは複数のデータストアに格納されることにより、システム200の他の構成要素に利用可能となり得る。たとえば、本明細書に記載の通り、ユーザデータは、患者レコード240に格納されていてもよいし、患者レコード240と関連付けられていてもよい。この追加または代替として、いくつかの実施形態においては、個人識別可能な如何なるデータ(すなわち、特定のユーザを具体的に識別するユーザデータ)もアップロードされず、1つまたは複数のデータソースからも提供されず、永久に保存されることおよび/またはシステム200の他の構成要素に利用可能となることもない。一実施形態においては、ユーザのプライバシが保護されるように、ユーザ関連データの暗号化等のセキュリティ対策が実施される。別の実施形態において、ユーザは、本明細書に記載の技術により提供されるサービスに対する参加もしくは脱退、ならびに/または、これらの技術により利用されるユーザデータおよび/もしくはユーザデータソースの選択が可能となる。 With continued reference to FIG. 2, data collection component 210 generally includes one or more data sources, such as data from sensor 103 and/or data store 150 of FIG. 1, for utilization in embodiments of the present disclosure. may be responsible for accessing or receiving (and possibly identifying) data from. In some embodiments, the data collection component 210 may be configured to provide a specific (or, in some cases, multiple users, including crowdsourced data). This data is received (or accessed) by data collection component 210 , stored, reformatted, and/or combined, and stored in one or more data stores, such as storage 250 , to facilitate system 200 . May be available to other components. For example, user data may be stored in or associated with patient record 240, as described herein. Additionally or alternatively, in some embodiments, no personally identifiable data (i.e., user data that specifically identifies a particular user) is uploaded or provided from one or more data sources. is not stored permanently and/or made available to other components of system 200. In one embodiment, security measures are implemented such as encryption of user-related data so that user privacy is protected. In another embodiment, a user may be able to join or opt out of services provided by the technologies described herein and/or select the user data and/or user data sources utilized by these technologies. Become.

本開示の実施形態において利用されるデータは、多様なソースから受信されるようになっていてもよく、また、多様なフォーマットにて利用可能であってもよい。たとえば、いくつかの実施形態においては、データ収集コンポーネント210を介して受信されるユーザデータが1つまたは複数のセンサ(図1のセンサ103等)を介して決定されるようになっていてもよいし、1つまたは複数のユーザ機器(ユーザ機器102a等)、サーバ(サーバ106等)、ならびに/または他のコンピュータ機器に格納されていてもよいし、これらと関連付けられていてもよい。本明細書における使用の通り、センサは、データストア150からのユーザデータ等の情報を検知、検出、あるいは取得する機能、ルーチン、コンポーネント、またはこれらの組み合わせを含んでいてもよく、また、ハードウェア、ソフトウェア、または両者として具現化されていてもよい。前述の通り、非限定的な一例として、1つまたは複数のセンサにより検知または決定されるデータには、音響情報(ユーザの発話、発言、呼吸、咳、もしくは他の声音を含む)、モバイル機器により決定可能な屋内測位システム(IPS)もしくは全地球測位システム(GPS)データ等の場所情報、温度、湿度、および/もしくは汚染等の大気情報、体温、心拍数、血圧、血中酸素濃度、睡眠関連情報等の生理学的情報、加速度計もしくはジャイロスコープデータ等の運動情報、ならびに/または光検出器情報等の周囲光情報を含んでいてもよい。 Data utilized in embodiments of the present disclosure may be received from a variety of sources and may be available in a variety of formats. For example, in some embodiments, user data received via data collection component 210 may be determined via one or more sensors (such as sensor 103 of FIG. 1). However, it may be stored on or associated with one or more user equipment (such as user equipment 102a), a server (such as server 106), and/or other computer equipment. As used herein, a sensor may include any functionality, routine, component, or combination thereof that senses, detects, or obtains information such as user data from data store 150, and may also include hardware , software, or both. As mentioned above, by way of non-limiting example, data sensed or determined by one or more sensors may include acoustic information (including user speech, utterances, breathing, coughing, or other vocal sounds), mobile device location information such as Indoor Positioning System (IPS) or Global Positioning System (GPS) data that can be determined by; atmospheric information such as temperature, humidity, and/or pollution; body temperature, heart rate, blood pressure, blood oxygen level, sleep; It may include physiological information such as related information, kinematic information such as accelerometer or gyroscope data, and/or ambient light information such as photodetector information.

いくつかの態様において、データ収集コンポーネント210により収集されるセンサ情報には、本明細書に記載の通り、ユーザ機器の別の特性または特徴(機器状態、充電データ、日付/時間、またはモバイル機器もしくはスマートスピーカ等のユーザ機器に由来する他の情報等)、ユーザ活動情報(たとえば、アプリ使用、オンライン活動、オンライン検索、自動発話認識等の音声データ、または活動ログ)(いくつかの実施形態においては、2つ以上のユーザ機器で発生するユーザ活動を含む)、ユーザ履歴、セッションログ、アプリケーションデータ、連絡先、カレンダーおよびスケジュールデータ、通知データ、ソーシャルネットワークデータ、ニュース(たとえば、検索エンジン、ソーシャルネットワーク上の人気またはトレンド項目、ある地理的地域における呼吸器感染症の数または割合に関する情報を提供し得る保健所の通知を含む)、eコマース活動(アマゾン(Amazon.com)(登録商標)、グーグル(Google)(登録商標)、イーベイ(eBay)(登録商標)、ペイパル(PayPal)(登録商標)等のオンラインアカウントからのデータを含む)、ユーザアカウントデータ(個人用補助アプリケーションまたはサービスと関連付けられたユーザ選好または設定からのデータを含み得る)、ホームセンサデータ、電化製品データ、車両信号データ、交通データ、他のウェアラブルデバイスデータ、他のユーザ機器データ(たとえば、機器設定、プロファイル、ネットワーク関連情報(たとえば、ネットワーク名またはID、ドメイン情報、ワークグループ情報、接続データ、ワイヤレスフィデリティ(Wi-Fi)ネットワークデータ、設定データ、たとえばユーザがBluetoothヘッドセットとペアリングされた携帯電話を有する場合のモデル番号、ファームウェア、機器、デバイスペアリングに関するデータ、または他のネットワーク関連情報))、支払いまたはクレジットカード使用データ(たとえば、ユーザのペイパル(登録商標)アカウントからの情報を含み得る)、購入履歴データ(ユーザのアマゾン(登録商標)またはオンラインドラッグストアのアカウントからの情報等)、ユーザと関連付けられたセンサコンポーネントに由来するデータを含むセンサ(または、他の検出器)コンポーネントにより感知あるいは検出され得る他のセンサデータ(場所、運動、配向、位置、ユーザアクセス、ユーザ活動、ネットワークアクセス、ユーザ機器充電、または1つもしくは複数のセンサコンポーネントにより提供され得る他のデータを含む)、他のデータ(たとえば、Wi-Fi、セルラーネットワーク、またはインターネットプロトコル(IP)アドレスデータに由来し得る位置データ)に基づいて導出されるデータ、ならびに検知または決定がなされ得る略その他任意のデータソースを含んでいてもよい。 In some aspects, the sensor information collected by data collection component 210 may include other characteristics or characteristics of the user equipment (device status, charging data, date/time, or mobile device or user activity information (e.g., app usage, online activities, online searches, audio data such as automatic speech recognition, or activity logs) (in some embodiments , user activity that occurs on two or more user devices), user history, session logs, application data, contacts, calendar and schedule data, notification data, social network data, news (e.g., search engines, social network popular or trending items, health department announcements that may provide information about the number or rate of respiratory infections in a geographic area), e-commerce activity (Amazon.com®, Google ) (including data from online accounts such as eBay®, PayPal®, etc.), user account data (user preferences associated with a personal assistant application or service) or settings), home sensor data, appliance data, vehicle signal data, traffic data, other wearable device data, other user equipment data (e.g., device settings, profiles, network-related information (e.g., network name or ID, domain information, workgroup information, connection data, wireless fidelity (Wi-Fi) network data, configuration data, such as model number if the user has a mobile phone paired with a Bluetooth headset, firmware, equipment, device pairing, or other network-related information), payment or credit card usage data (which may include, for example, information from a user's PayPal account), purchase history data (which may include information from a user's Amazon ( trademark or other sensor data that may be sensed or detected by the sensor (or other detector) component, including data originating from the sensor component associated with the user (such as information from a user's online drugstore account), , movement, orientation, location, user access, user activity, network access, user equipment charging, or other data that may be provided by one or more sensor components), other data (e.g., Wi-Fi, cellular network, or location data that may be derived from Internet Protocol (IP) address data), as well as nearly any other data source from which sensing or determinations may be made.

いくつかの態様において、データ収集コンポーネント210は、データストリームまたは信号の形態で収集されたデータを提供するようにしてもよい。「信号」は、対応するデータソースからのデータのフィードまたはストリームであってもよい。たとえば、ユーザ信号としては、スマートスピーカ、スマートフォン、ウェアラブルデバイス(たとえば、フィットネストラッカーもしくはスマートウォッチ)、ホームセンサ機器、GPS機器(たとえば、位置座標用)、車両センサ機器、ユーザ機器、カレンダーサービス、電子メールアカウント、クレジットカードアカウント、サブスクリプションサービス、ニュースもしくは通知フィード、ウェブサイト、ポータル、またはその他任意のデータソースから取得されたユーザデータも可能である。いくつかの実施形態において、データ収集コンポーネント210は、連続的、周期的、または随時的なデータの受信またはアクセスを行う。 In some aspects, data collection component 210 may provide collected data in the form of a data stream or signal. A "signal" may be a feed or stream of data from a corresponding data source. For example, user signals may include smart speakers, smartphones, wearable devices (e.g., fitness trackers or smart watches), home sensor devices, GPS devices (e.g., for location coordinates), vehicle sensor devices, user equipment, calendar services, email User data obtained from accounts, credit card accounts, subscription services, news or notification feeds, websites, portals, or any other data source is also possible. In some embodiments, data collection component 210 receives or accesses data on a continuous, periodic, or occasional basis.

さらに、動作環境200のユーザ音声モニタ260は一般的に、呼吸器疾患の検出またはモニタリングに利用可能なユーザの音声関連データの収集または決定を担うものであってもよい。音声関連データ(voice-related data)という用語(本明細書においては、同義で「音声データ」または「音声情報」と称される)は、本明細書において広義に使用されており、非限定的な一例として、ユーザの発話、発声もしくは声音を含む発言、または呼吸、咳、くしゃみ、もしくは嗅音等、ユーザの口もしくは鼻により生成される他の音と関連するデータを含んでいてもよい。ユーザ音声モニタ260の実施形態は、データ収集コンポーネント210により受信され得るオーディオまたは音響情報(たとえば、発声または音声サンプルのオーディオ記録)、および、いくつかの態様においてはコンテキスト情報の取得を容易化し得る。ユーザ音声モニタ260の実施形態では、このオーディオデータから、音素特性等の関連する音声関連情報を決定するようにしてもよい。ユーザ音声モニタ260は、連続的、周期的、または随時的にデータを受信するようにしてもよく、同様に、呼吸器疾患のモニタリングに利用される音声情報を連続的、周期的、または随時的に抽出あるいは決定するようにしてもよい。 Further, user voice monitor 260 of operating environment 200 may generally be responsible for collecting or determining user voice-related data that can be used to detect or monitor respiratory disease. The term voice-related data (synonymously referred to herein as "voice data" or "voice information") is used herein in a broad sense and includes a non-limiting term. As one example, it may include data associated with the user's utterances, vocalizations or utterances that include vocal sounds, or other sounds produced by the user's mouth or nose, such as breathing, coughing, sneezing, or sniffing sounds. Embodiments of user voice monitor 260 may facilitate the acquisition of audio or acoustic information (eg, audio recordings of utterances or voice samples) and, in some aspects, contextual information that may be received by data collection component 210. Embodiments of user speech monitor 260 may determine relevant speech-related information, such as phoneme characteristics, from this audio data. User audio monitor 260 may receive data continuously, periodically, or from time to time, and similarly may receive audio information utilized for respiratory disease monitoring continuously, periodically, or from time to time. It may also be extracted or determined.

システム200の例示的な実施形態において、ユーザ音声モニタ260は、録音最適化器2602、音声サンプル収集器2604、信号作成プロセッサ2606、サンプル記録検査器2608、音素分割器2610、音響特性抽出器2614、およびコンテキスト情報決定器2616を備えていてもよい。ユーザ音声モニタ260の別の実施形態(図示せず)においては、これらの副構成要素のうちの一部のみが具備されていてもよいし、付加的な副構成要素が追加されていてもよい。本明細書において別途説明される通り、信号作成プロセッサ2606等、ユーザ音声モニタ260の1つまたは複数の構成要素が生の音響データ等のオーディオデータに対して前処理動作を実行するようにしてもよい。いくつかの実施形態においては、データ収集コンポーネント210に従って付加的な前処理が実行され得るとも考えられる。 In an exemplary embodiment of system 200, user speech monitor 260 includes a recording optimizer 2602, a speech sample collector 2604, a signal preparation processor 2606, a sample recording examiner 2608, a phoneme segmenter 2610, an acoustic feature extractor 2614, and a context information determiner 2616. Alternate embodiments (not shown) of user voice monitor 260 may include only some of these subcomponents or may include additional subcomponents. . As described elsewhere herein, one or more components of user audio monitor 260, such as signal preparation processor 2606, may perform preprocessing operations on audio data, such as raw acoustic data. good. It is also contemplated that additional pre-processing may be performed in accordance with data collection component 210 in some embodiments.

録音最適化器2602は一般的に、使用可能なオーディオデータを取得するための適正な設定または最適化された設定の決定を担うものであってもよい。上述の通り、本明細書に記載の技術の実施形態は、自宅環境において利用されるようになっていてもよいし、研究所または診療所等の管理された環境以外の状況においてエンドユーザにより利用されるようになっていてもよい。したがって、いくつかの実施形態には、ユーザの呼吸器疾患のモニタリングに使用される十分な品質のオーディオデータの取得を容易化する機能を含んでいてもよい。特に、一実施形態において、録音最適化器2602は、オーディオデータ音声関連情報の取得のための最適化された設定による上記のような機能の提供に利用されるようになっていてもよい。例示的な一実施形態においては、センサの調節または信号強度、指向性、感度、周波数、および信号対雑音比(SNR)等の他の音響パラメータ(たとえば、マイクパラメータ)の修正によって、最適化された設定が提供されるようになっていてもよい。録音最適化器2602は、状況が適正な設定のための予め定められた範囲内であるものと判定するようにしてもよいし、予め定められた閾値を満たすようにしてもよい(たとえば、ユーザの音声データがオーディオデータから取得され得るように、マイクの感度またはレベルが十分に調整される)。いくつかの実施形態において、録音最適化器2602は、記録が開始されたか否かを判定するようにしてもよい。また、いくつかの実施形態において、録音最適化器2602は、サンプリングレートが閾値サンプリングレートを満たすか否かを判定するようにしてもよい。例示的な一実施形態において、録音最適化器2602は、オーディオ信号がナイキストレート(場合によっては、44.1キロヘルツ(kHz)の最小レートを含む)でサンプリングされているものと判定するようにしてもよい。また、録音最適化器2602は、ビット深度が16ビット等の閾値を満たすものと判定するようにしてもよい。さらに、いくつかの実施形態において、録音最適化器2602は、マイクが調節されたか否かを判定するようにしてもよい。 Recording optimizer 2602 may generally be responsible for determining proper or optimized settings to obtain usable audio data. As mentioned above, embodiments of the technology described herein may be adapted for use in a home environment or by an end user in a setting other than a controlled environment, such as a laboratory or clinic. It may be possible to do so. Accordingly, some embodiments may include features that facilitate obtaining audio data of sufficient quality for use in monitoring a user's respiratory disease. In particular, in one embodiment, the recording optimizer 2602 may be utilized to provide such functionality with optimized settings for the acquisition of audio data voice-related information. In an exemplary embodiment, optimization is achieved by adjusting the sensor or modifying signal strength, directivity, sensitivity, frequency, and other acoustic parameters (e.g., microphone parameters) such as signal-to-noise ratio (SNR). settings may be provided. The recording optimizer 2602 may determine that the situation is within a predetermined range for proper settings, or may meet a predetermined threshold (e.g., when the user The sensitivity or level of the microphone is adjusted sufficiently so that voice data can be obtained from the audio data). In some embodiments, recording optimizer 2602 may determine whether recording has started. Also, in some embodiments, recording optimizer 2602 may determine whether the sampling rate meets a threshold sampling rate. In an exemplary embodiment, the recording optimizer 2602 is configured to determine that the audio signal is sampled at the Nyquist rate, which in some cases includes a minimum rate of 44.1 kilohertz (kHz). Good too. Further, the recording optimizer 2602 may determine that the bit depth satisfies a threshold value such as 16 bits. Additionally, in some embodiments, recording optimizer 2602 may determine whether the microphone has been adjusted.

いくつかの実施形態において、録音最適化器2602は、初期化モードの実行により、マイクが配置される特定の環境に対してマイクレベルを最適化するようにしてもよい。初期化モードには、録音最適化器2602が特定の環境に対する適当なレベルを決定するため、音の再生または音の発生をユーザに促すことを含んでいてもよい。また、初期化モードにおいて、録音最適化器2602は、ユーザ入力を要求する際に、ユーザが通常マイクに対して対向または位置する場所に対向または位置することをユーザに促すようにしてもよい。ユーザフィードバック(すなわち、音声記録)に基づいて、初期化モードにおいては、録音最適化器2602が将来の記録セッションのために最適化された設定を提供するため、オーディオ収集および処理コンポーネントを設定するための範囲、閾値、および/または他のパラメータを決定するようにしてもよい。いくつかの実施形態において、録音最適化器2602は、この追加または代替として、使用可能なオーディオデータの取得を容易化するための信号処理機能または設定(たとえば、後述のようなノイズキャンセリング)を決定するようにしてもよい。 In some embodiments, the recording optimizer 2602 may perform an initialization mode to optimize the microphone level for the particular environment in which the microphone is placed. The initialization mode may include prompting the user to play or generate sounds so that recording optimizer 2602 determines appropriate levels for a particular environment. Additionally, in the initialization mode, the recording optimizer 2602 may prompt the user to face or position the microphone where the user would normally face or position it when requesting user input. Based on user feedback (i.e., audio recording), in the initialization mode, the recording optimizer 2602 configures the audio collection and processing components to provide optimized settings for future recording sessions. Ranges, thresholds, and/or other parameters may be determined. In some embodiments, the recording optimizer 2602 additionally or alternatively includes signal processing features or settings (e.g., noise cancellation as described below) to facilitate the acquisition of usable audio data. It may be decided.

いくつかの実施形態において、録音最適化器2602は、信号作成プロセッサ2606との協働による前処理によって、好適な設定を実現するための最適化された調整(たとえば、レベルの調整または増幅)を行うようにしてもよい。あるいは、録音最適化器2602は、センサの設定によって、信号強度等の特定のパラメータに対して予め定められた範囲または閾値内のレベルを実現するようにしてもよい。 In some embodiments, recording optimizer 2602 makes optimized adjustments (e.g., level adjustments or amplification) to achieve preferred settings through preprocessing in conjunction with signal creation processor 2606. You may also do so. Alternatively, recording optimizer 2602 may configure sensors to achieve a level within a predetermined range or threshold for a particular parameter, such as signal strength.

図2に示されるように、録音最適化器2602は、一般的にバックグラウンドノイズの識別および、いくつかの実施形態において、除去または低減を担い得るバックグラウンドノイズ解析器2603を具備していてもよい。いくつかの実施形態において、バックグラウンドノイズ解析器2603は、ノイズ強度レベルが最大閾値を満たすことを確認するようにしてもよい。たとえば、バックグラウンドノイズ解析器2603は、ユーザの記録環境における周囲ノイズが30デシベル(dB)未満であるものと判定するようにしてもよい。バックグラウンドノイズ解析器2603は、(テレビまたはラジオから到来するような)発話を確認するようにしてもよい。また、バックグラウンドノイズ解析器2603は、たとえば子どもの叫び声、大きな時計の音、またはモバイル機器の通知の結果と考えられる断続的なスパイクまたは類似の音響アーチファクトを確認するようにしてもよい。 As shown in FIG. 2, the recording optimizer 2602 may also include a background noise analyzer 2603, which may generally be responsible for identifying and, in some embodiments, removing or reducing, background noise. good. In some embodiments, background noise analyzer 2603 may ensure that the noise intensity level meets a maximum threshold. For example, background noise analyzer 2603 may determine that the ambient noise in the user's recording environment is less than 30 decibels (dB). Background noise analyzer 2603 may also check for speech (such as coming from television or radio). The background noise analyzer 2603 may also check for intermittent spikes or similar acoustic artifacts that may be the result of, for example, a child's scream, a loud clock ticking, or a mobile device notification.

いくつかの実施形態において、バックグラウンドノイズ解析器2603は、記録が開始された後、バックグラウンドノイズチェックを実行するようにしてもよい。このような一実施形態において、バックグラウンドノイズチェックは、(音素分割器2610と併せて記載される通りに検出可能な)記録中の第1の音素の検出に先立って、予め定められた時間区分内に受信されたオーディオデータの一部に対して実行される。たとえば、バックグラウンドノイズ解析器2603は、オーディオデータ中の第1の音素の開始に先立って、バックグラウンドノイズチェックを5秒間にわたり実行するようにしてもよい。 In some embodiments, background noise analyzer 2603 may perform a background noise check after recording has begun. In one such embodiment, the background noise check is performed at a predetermined time interval prior to detection of the first phoneme in the recording (detectable as described in conjunction with phoneme splitter 2610). is performed on a portion of the audio data received within. For example, background noise analyzer 2603 may perform a background noise check for 5 seconds prior to the beginning of the first phoneme in the audio data.

バックグラウンドノイズが検出された場合、バックグラウンドノイズ解析器2603は、オーディオデータの処理(または、処理の試行)によって、ノイズを低減または除去するようにしてもよい。あるいは、フィルタリングおよび/または減算プロセスの実行によるノイズの低減または除去のため、バックグラウンドノイズ解析器2603により決定されたノイズの指標が信号作成プロセッサ2606に与えられるようになっていてもよい。いくつかの実施形態においては、バックグラウンドノイズの自動的な低減または除去の追加または代替として、バックグラウンドノイズ解析器2603は、バックグラウンドノイズが音声収集を妨害していることまたは妨害する可能性があることをユーザ(または、ユーザ相互作用管理器280等のシステム200の他の構成要素)に知らせる指標を送信して、バックグラウンドノイズを除去するための行動をユーザに要求するようにしてもよい。たとえば、より静かな環境への移動のための通知が(たとえば、ユーザ相互作用管理器280または提示コンポーネント220を介して)ユーザに与えられるようになっていてもよい。 If background noise is detected, background noise analyzer 2603 may process (or attempt to process) the audio data to reduce or remove the noise. Alternatively, an indication of the noise determined by the background noise analyzer 2603 may be provided to the signal preparation processor 2606 for noise reduction or removal by performing a filtering and/or subtraction process. In some embodiments, in addition to or as an alternative to automatically reducing or removing background noise, the background noise analyzer 2603 determines whether background noise is interfering with or has the potential of interfering with audio collection. An indicator may be sent that informs the user (or other components of system 200, such as user interaction manager 280), and requests action from the user to eliminate the background noise. . For example, a notification may be provided to the user (eg, via user interaction manager 280 or presentation component 220) to move to a quieter environment.

場合によって、オーディオデータが取得された後、バックグラウンドノイズ解析器2603は、当該オーディオデータについて、バックグラウンドノイズの有無を再確認するようにしてもよい。たとえば、録音最適化器2602(または、いくつかの実施形態において、信号作成プロセッサ2606)が設定を自動的に調整してノイズを低減または除去した後、別の確認が実行されるようになっていてもよい。いくつかの態様においては、記録セッションの開始時、前回の確認から予め定められた期間の後、および/またはバックグラウンドノイズの低減もしくは除去の実行を示す指示がユーザ等から受け付けられた場合に、後続の確認が必要に応じて実行されるようになっていてもよい。 In some cases, after the audio data is acquired, the background noise analyzer 2603 may recheck the audio data for the presence or absence of background noise. For example, after the recording optimizer 2602 (or in some embodiments, the signal creation processor 2606) automatically adjusts settings to reduce or eliminate noise, another check is performed. You can. In some aspects, at the beginning of a recording session, after a predetermined period of time since the last check, and/or when an instruction is received from a user or the like to perform background noise reduction or removal. Subsequent checks may be performed as required.

ユーザ音声モニタ260内において、音声サンプル収集器2604は一般的に、オーディオサンプルまたは記録の形態のユーザの音声関連データの取得を担うものであってもよい。音声サンプル収集器2604は、データ収集コンポーネント210およびユーザ相互作用管理器280との連動により、ユーザの発話等の音声情報のサンプルを取得するようにしてもよい。オーディオサンプルは、持続的な音素、計画された発話、および/または無計画の発話の記録またはサンプルを含む1つまたは複数のオーディオファイルの形態であってもよい。本明細書における使用の通り、オーディオ記録(audio recording)という用語は概して、(たとえば、アナログ-デジタル変換(ADC)を利用したオーディオサンプリングにより決定され得るオーディオサンプルの)デジタル記録を表す。 Within user voice monitor 260, voice sample collector 2604 may be generally responsible for obtaining user voice-related data in the form of audio samples or recordings. Audio sample collector 2604 may work in conjunction with data collection component 210 and user interaction manager 280 to obtain samples of audio information, such as user utterances. The audio samples may be in the form of one or more audio files containing recordings or samples of sustained phonemes, planned utterances, and/or unplanned utterances. As used herein, the term audio recording generally refers to a digital recording (eg, of audio samples that may be determined by audio sampling using analog-to-digital conversion (ADC)).

いくつかの実施形態において、音声サンプル収集器2604は、(センサ103またはアナログ記録から受信され得る)アナログオーディオからデジタルオーディオを取り込んで処理するADC変換機能等の機能を含んでいてもよい。このように、音声サンプル収集器2604のいくつかの実施形態は、デジタルオーディオサンプルの決定を提供または容易化し得る。また、いくつかの実施形態において、音声サンプル収集器2604は、オーディオデータが取得されたタイムフレームに対応するオーディオサンプルに対して日時情報を関連付けるようにしてもよい(たとえば、日付および/または時刻でオーディオサンプルにタイムスタンプする)。一実施形態において、オーディオサンプルは、患者レコード240における音声サンプル242等、ユーザと関連付けられた患者レコードに格納されるようになっていてもよい。 In some embodiments, audio sample collector 2604 may include functionality such as ADC conversion functionality to capture and process digital audio from analog audio (which may be received from sensor 103 or analog recording). Thus, some embodiments of audio sample collector 2604 may provide or facilitate determination of digital audio samples. Additionally, in some embodiments, the audio sample collector 2604 may associate date and time information with audio samples that correspond to the time frame in which the audio data was acquired (e.g., date and/or time information). timestamp audio samples). In one embodiment, the audio sample may be stored in a patient record associated with the user, such as audio sample 242 in patient record 240.

ユーザ相互作用管理器280に関して、図4A~図4Cおよび図5Bの例に示されるように、音声サンプル242は、ユーザの発話関連タスクへの関与に応じて取得されるようになっていてもよい。たとえば、ユーザは、音声サンプル242が得られるように、特定の音(たとえば、「ウーン(mmmm)」)をある時間区分もしくは可能な限り長く発話し続けること、特定の単語もしくは言葉を繰り返すこと、文章を読むこと、を求められる、または質問に答えることもしくは会話に参加することを促される場合があるが、これらに限定されない。さまざまな種類の発話関連タスクを表す音声サンプル242が同じ収集セッションにおいてユーザから取得されるようになっていてもよい。たとえば、ユーザは、特定の時間区分にわたって1つまたは複数の音素を発話し続けることと、可能な限り長く1つまたは複数の音素を発話し続けることと、を求められる場合があり、後者の音素は、特定の時間区分にわたって保持された音素と同じであってもよいし、異なっていてもよい。また、いくつかの実施形態において、ユーザは、多様な音素を有し得る書かれた文章を読むことを求められる場合もある。 With respect to user interaction manager 280, audio samples 242 may be obtained in response to the user's engagement in speech-related tasks, as shown in the examples of FIGS. 4A-4C and 5B. . For example, the user may continue to utter a particular sound (e.g., "mmmm") for a period of time or as long as possible, repeat a particular word or phrases, etc., to obtain the audio sample 242; You may be asked to read text, or be prompted to answer questions or participate in a conversation. Audio samples 242 representing different types of speech-related tasks may be obtained from the user in the same collection session. For example, a user may be asked to continue speaking one or more phonemes for a particular time interval, and to continue speaking one or more phonemes for as long as possible, with the latter phoneme may be the same as or different from the phoneme retained over a particular time interval. Also, in some embodiments, a user may be asked to read written text that may have a variety of phonemes.

本明細書において、音声サンプルは、オーディオサンプル中の音声関連情報を表し、本明細書に記載の通り、オーディオサンプルから決定されるようになっていてもよい。たとえば、オーディオサンプルには、バックグラウンドノイズ等、ユーザの音声と関連しない他の音響情報を含んでいてもよい。したがって、場合により、音声サンプルは、音声関連情報を含むオーディオサンプルの一部を表していてもよい。一実施形態において、音声サンプルは、ユーザのユーザコンピュータ機器(たとえば、図1のユーザ機器102a)との日常的な相互作用または日々の相互作用中に収集されたオーディオから決定されるようになっていてもよい。たとえば、ユーザがスマートスピーカに対して自発的な指示を投げかけたり、電話で会話したりする場合に、音声サンプルが収集されるようになっていてもよい。いくつかの実施形態において、ユーザのユーザ機器との日常的な相互作用から音声サンプル情報が取得される場合は、発話関連タスクへの関与をユーザに促す必要はないと考えられる。同様に、いくつかの実施形態において、ユーザは、特定の音素に関する情報が日常的な相互作用発話から取得されていない場合等、ユーザの発話を介して日常的な相互作用から取得されていない音声サンプル情報を取得する発話関連タスクの完了を促される場合もある。 As used herein, a voice sample represents voice-related information in an audio sample and may be determined from the audio sample as described herein. For example, the audio samples may include other acoustic information not associated with the user's voice, such as background noise. Thus, in some cases, the audio sample may represent a portion of the audio sample that includes audio-related information. In one embodiment, the audio samples are determined from audio collected during a user's daily interactions or daily interactions with user computing equipment (e.g., user equipment 102a of FIG. 1). You can. For example, voice samples may be collected when a user gives spontaneous commands to a smart speaker or has a phone conversation. In some embodiments, if voice sample information is obtained from the user's daily interactions with user equipment, there may be no need to prompt the user to engage in speech-related tasks. Similarly, in some embodiments, the user may be able to communicate through the user's utterances through speech that is not obtained from everyday interaction, such as when information about a particular phoneme is not obtained from everyday interaction utterances. You may also be prompted to complete speech-related tasks to obtain sample information.

前述の通り、本明細書に記載の技術は、ユーザのプライバシの保全および保護を可能にする。ユーザ機器との日常的な相互作用からオーディオサンプルを取得する実施形態では、呼吸器疾患のモニタリング用の音声関連データが決定されたら、オーディオデータを消去し得ることも考えられる。同様に、オーディオデータの暗号化、および/または、いわゆる日常的な相互作用からのユーザによる(呼吸器疾患のモニタリング用の)音声関連データの収集への「参加」も可能である。 As mentioned above, the techniques described herein enable the preservation and protection of user privacy. In embodiments that obtain audio samples from daily interactions with user equipment, it is also contemplated that the audio data may be erased once voice-related data for respiratory disease monitoring has been determined. It is likewise possible to encrypt audio data and/or "participate" in the collection of voice-related data (for respiratory disease monitoring) by the user from so-called daily interactions.

信号作成プロセッサ2606は一般的に、別途解析する音素特性等の音声関連情報を抽出するためのオーディオサンプルの作成を担うものであってもよい。したがって、信号作成プロセッサ2606は、音声サンプル収集器2604により取得または決定されたオーディオデータに対する信号処理、前処理、および/または調節を実行するようにしてもよい。一実施形態において、信号作成プロセッサ2606は、音声サンプル収集器2604からオーディオデータを受信するようにしてもよいし、ユーザと関連付けられた患者レコード240中の音声サンプル242からの音声サンプルデータにアクセスするようにしてもよい。信号作成プロセッサ2606により作成または処理されたオーディオデータは、音声サンプル242としての格納および/またはユーザ音声モニタ260の他の副構成要素もしくはシステム200の他の構成要素への提供がなされるようになっていてもよい。 Signal creation processor 2606 may generally be responsible for creating audio samples for extracting speech-related information, such as phoneme characteristics, for further analysis. Accordingly, signal creation processor 2606 may perform signal processing, preprocessing, and/or conditioning on audio data obtained or determined by audio sample collector 2604. In one embodiment, signal generation processor 2606 may receive audio data from voice sample collector 2604 and access voice sample data from voice samples 242 in patient record 240 associated with the user. You can do it like this. Audio data created or processed by signal creation processor 2606 may be stored as audio samples 242 and/or provided to other subcomponents of user audio monitor 260 or other components of system 200. You can leave it there.

いくつかの実施形態においては、オーディオデータの全部ではないが一部の周波数帯において、ユーザの呼吸器疾患のモニタリングに利用される特定の音素特性または音声情報が存在し得る。したがって、信号作成プロセッサ2606のいくつかの実施形態では、高域通過または帯域通過フィルタリング等の周波数フィルタリングの実行によって、低周波バックグラウンドノイズ等の有用ではないオーディオ信号の周波数の除去または減衰を行うようにしてもよい。また、信号周波数フィルタリングによれば、オーディオサンプルサイズの低減によって演算効率が向上するとともに、サンプルの処理時間が改善される。一実施形態において、信号作成プロセッサ2606は、1.5~6.4キロヘルツ(kHz)の帯域通過フィルタを適用するようにしてもよい。図15A~図15Mに提供されるコンピュータプログラムルーチンの例示的な一実施形態においては、バターワース帯域通過フィルタが利用される(図15Aに示される)。一例において、信号作成プロセッサ26066は、ローリングメディアンフィルタの適用によって、外れ値の平滑化および特性の正規化を行うようにしてもよい。ローリングメディアフィルタは、これらのサンプルのウィンドウを用いることにより適用され得る。特性値の正規化には、zスコアが利用されるようになっていてもよい。 In some embodiments, there may be certain phoneme characteristics or audio information in some, but not all, frequency bands of the audio data that are utilized to monitor a user's respiratory disease. Accordingly, some embodiments of the signal creation processor 2606 are configured to perform frequency filtering, such as high-pass or band-pass filtering, to remove or attenuate frequencies of the audio signal that are not useful, such as low frequency background noise. You may also do so. Signal frequency filtering also improves computational efficiency by reducing audio sample size and improves sample processing time. In one embodiment, signal creation processor 2606 may apply a 1.5-6.4 kilohertz (kHz) bandpass filter. In one exemplary embodiment of the computer program routine provided in FIGS. 15A-15M, a Butterworth bandpass filter is utilized (as shown in FIG. 15A). In one example, signal creation processor 26066 may smooth out outliers and normalize characteristics by applying a rolling median filter. A rolling media filter can be applied by using a window of these samples. A z-score may be used to normalize the characteristic values.

また、信号作成プロセッサ2606は、オーディオ正規化の実行によって、目標とする信号振幅レベル、帯域フィルタおよび/もしくは増幅器の適用による信号対雑音比(SNR)の改善、または他の信号調節もしくは前処理を実現するようにしてもよい。いくつかの実施形態において、信号作成プロセッサ2606は、オーディオデータの処理によって、バックグラウンドノイズ解析器2603により決定されたバックグラウンドノイズ等のバックグラウンドノイズの除去または減衰を行うようにしてもよい。たとえば、いくつかの実施形態において、信号作成プロセッサ2606は、バックグラウンドノイズ解析器2603により決定されたバックグラウンドノイズ情報を用いて、ノイズキャンセリング動作(あるいは、ノイズアーチファクトを含むバックグラウンドノイズの減算または減衰)を実行するようにしてもよい。 Signal preparation processor 2606 may also perform audio normalization to target signal amplitude levels, apply bandpass filters and/or amplifiers to improve signal-to-noise ratio (SNR), or perform other signal conditioning or preprocessing. It may be realized. In some embodiments, signal creation processor 2606 may process the audio data to remove or attenuate background noise, such as the background noise determined by background noise analyzer 2603. For example, in some embodiments, the signal creation processor 2606 uses the background noise information determined by the background noise analyzer 2603 to perform noise canceling operations (or subtract or subtract background noise including noise artifacts). Attenuation) may also be performed.

ユーザ音声モニタ260において、サンプル記録検査器2608は一般的に、十分なオーディオサンプル(または、音声サンプル)が取得されたか否かの判定を担うものであってもよい。したがって、サンプル記録検査器2608は、サンプル記録が最短の時間を有する旨および/または発声もしくは声音等の特定の音声関連情報を含む旨の判定を行うにしてもよい。いくつかの実施形態において、サンプル記録検査器2608は、検出対象の特定の音素または音素特性に基づいてオーディオサンプルを確認する基準を適用するようにしてもよい。このように、サンプル記録検査器2608のいくつかの実施形態では、オーディオデータに対する音素検出を実行するようにしてもよいし、ユーザ音声モニタ260の音素分割器2610等の副構成要素と連動するようになっていてもよい。いくつかの実施形態において、サンプル記録検査器2608は、オーディオサンプル(または場合により、オーディオ記録内の音声サンプル)が閾値時間長を満たすか否かを判定するようにしてもよい。閾値時間長は、記録された特定種類の発話関連タスクにより異なるものであってもよいし、音声サンプルから取得しようとする特定の音素または音素特性およびこれらの特性が現在のセッションまたはタイムフレームにおいて決定済みである程度に基づくものであってもよい。一実施形態においては、ユーザ音声サンプルを取得するセッションにおいて、文章の読み上げの記録をユーザが(たとえば、ユーザ相互作用管理器280により)促された場合、サンプル記録検査器2608は、後続の音声サンプル記録の長さが少なくとも15秒であるか否かを判定するようにしてもよい。また、一実施形態において、サンプル記録検査器2608は、長さが少なくとも4.5秒等、特定のオーディオサンプルが十分な継続時間にわたる持続的な発声を含むか否かを判定するようにしてもよい。同様に、ユーザコンピュータ機器(ユーザ機器102a等)との日常的な相互作用からオーディオデータまたは音声サンプル(242等)を取得する実施形態の場合、サンプル記録検査器2608は、音素または音素特性の決定等の別途解析に利用される特定の音声サンプルが閾値継続時間を満たす旨および/または特定の音もしくは音素情報を含む旨の判定を行うようにしてもよい。検査基準(たとえば、最短閾値継続時間)を満たさない記録または音声サンプルは、不完全と考えられ、消去されるようになっていてもよいし、これ以上処理されなくてもよい。いくつかの実施形態において、サンプル記録検査器2608は、特定のサンプルが不完全あるいは不十分である旨の指標をユーザ(または、ユーザ相互作用管理器280、提示コンポーネント220、もしくはシステム200の他の構成要素)に提供するようにしてもよく、さらに、ユーザが特定の音声サンプルを再記録する必要があることを示すようにしてもよい。 In user audio monitor 260, sample recording checker 2608 may generally be responsible for determining whether sufficient audio samples (or voice samples) have been acquired. Accordingly, the sample recording examiner 2608 may determine that the sample recording has the shortest duration and/or contains particular audio-related information, such as utterances or vocal sounds. In some embodiments, sample recording examiner 2608 may apply criteria to validate audio samples based on particular phonemes or phoneme characteristics to be detected. Thus, some embodiments of the sample recording checker 2608 may perform phoneme detection on audio data and may be configured to work in conjunction with subcomponents of the user speech monitor 260, such as the phoneme splitter 2610. It may be . In some embodiments, sample recording examiner 2608 may determine whether an audio sample (or, in some cases, an audio sample within an audio recording) satisfies a threshold length of time. The threshold time length may vary depending on the particular type of speech-related task being recorded, and may vary depending on the particular phoneme or phoneme characteristics that are sought to be obtained from the speech sample and how these characteristics are determined in the current session or time frame. It may also be based on the extent to which it has already been completed. In one embodiment, if the user is prompted (e.g., by the user interaction manager 280) to record the reading of a sentence during a session in which a user audio sample is obtained, the sample recording examiner 2608 may record a subsequent audio sample. It may be determined whether the length of the recording is at least 15 seconds. Additionally, in one embodiment, the sample recording examiner 2608 is configured to determine whether a particular audio sample includes sustained utterances of sufficient duration, such as at least 4.5 seconds in length. good. Similarly, for embodiments that obtain audio data or voice samples (such as 242) from routine interactions with user computing equipment (such as user equipment 102a), sample recording examiner 2608 may include the determination of phonemes or phoneme characteristics. It may be determined that a specific audio sample used for separate analysis, such as, satisfies a threshold duration time and/or includes specific sound or phoneme information. Recordings or audio samples that do not meet inspection criteria (eg, minimum threshold duration) are considered incomplete and may be deleted or not processed further. In some embodiments, the sample record examiner 2608 provides an indication to the user (or user interaction manager 280, presentation component 220, or other system 200) that a particular sample is incomplete or insufficient. component) and may also indicate that the user needs to re-record a particular audio sample.

いくつかの実施形態において、サンプル記録検査器2608は、あるタイムフレーム内(すなわち、あるセッション内)の同一(または、類似)の音声関連情報をそれぞれが表し得る複数の音声サンプル(音声サンプル242から得られる)から音声サンプルを選択するようにしてもよい。場合によっては、この選択の後、その他の未選択サンプルが消去または破棄されるようになっていてもよい。たとえば、所与の時点または時間区分について、所望の音素の複数の完全な記録(ユーザが特定の発話関連タスクを繰り返すことにより生成されたものであってもよい)が存在する場合、サンプル記録検査器2608は、最も新しく取得された記録(最後に記録されたもの)を解析用に選択するようにしてもよく、これは、前回記録時の技術的な問題から、計画された発話をユーザが再記録したことを前提として実行されるようになっていてもよい。あるいは、サンプル記録検査器2608は、最小ノイズおよび/または最大音量等の音パラメータに基づいて、音声サンプルを選択するようにしてもよい。 In some embodiments, sample recording examiner 2608 analyzes multiple audio samples (from audio samples 242), each of which may represent the same (or similar) audio-related information within a time frame (i.e., within a session). The audio samples may be selected from the available sources. In some cases, after this selection, other unselected samples may be deleted or discarded. For example, if multiple complete recordings of the desired phoneme exist for a given point in time or time segment (which may have been generated by the user repeating a particular speech-related task), sample recording inspection The device 2608 may select the most recently acquired recording (the last recorded one) for analysis, as this may be due to technical issues with the previous recording. It may also be executed on the premise that it has been re-recorded. Alternatively, sample recording examiner 2608 may select audio samples based on sound parameters such as minimum noise and/or maximum volume.

また、別途処理する十分な音声サンプル記録の判定には、ノイズアーチファクトが存在しない旨、最小限のノイズアーチファクトしか存在しない旨、および/または記録が少なくとも略正しい音を含む旨もしくは指定の指示に従う旨の判定を含んでいてもよい。いくつかの実施形態において、サンプル記録検査器2608は、音声サンプルのSNRが20デシベル(dB)等の最大許容SNRを満たすか否かを判定するようにしてもよい。たとえば、サンプル記録検査器2608は、記録のSNRが20dBの閾値より大きいものと判定するようにしてもよく、また、ユーザからの新たな音声サンプルの取得を要求する指標をユーザ(または、ユーザ相互作用管理器280等のシステム200の別の構成要素)に提供するようにしてもよい。 Determining a sufficient audio sample recording for separate processing may also include determining that no noise artifacts are present, that only minimal noise artifacts are present, and/or that the recording contains at least approximately correct sound or that the specified instructions are followed. may also include a determination of In some embodiments, the sample recording checker 2608 may determine whether the SNR of the audio sample meets a maximum allowed SNR, such as 20 decibels (dB). For example, the sample recording examiner 2608 may determine that the SNR of the recording is greater than a 20 dB threshold, and may also set an indicator to the user (or user interaction) that requests the acquisition of new audio samples from the user. (another component of system 200, such as action manager 280).

サンプル記録検査器2608のいくつかの実施形態では、特定の持続的な発声(たとえば、 In some embodiments of the sample recording examiner 2608, certain sustained vocalizations (e.g.,

)等、要求された発話関連タスクに対応するサンプル音が存在するかを判定するようにしてもよい。特に、ユーザが発話関連タスク(たとえば、「『ウーン』を5秒間言い続ける)を実行することにより音声サンプルが取得された場合は、タスクにおいて要求された音(または、音素)をサンプルが含むかを判定するため、音声サンプルの確認または検査が行われるようになっていてもよい。いくつかの実施形態において、この確認動作では、自動発話認識(ASR)機能を利用することにより、音声サンプル中の音素を決定するとともに、サンプル中の決定した音素を要求音または音素(すなわち、「ラベル付けされた」音素または音)と比較するようにしてもよい。不一致が判定された場合またはラベル付けされた音素もしくは音がサンプルにおいて検出されない場合、サンプル記録検査器2608は、正しい音声サンプルが再取得され得るように、指標をユーザ(または、ユーザ相互作用管理器280等のシステム200の別の構成要素)に提供するようにしてもよい。ASRの別途詳細については、音素分割器2610に関連して以下に記載される。 ) etc., it may be determined whether a sample sound corresponding to the requested speech-related task exists. In particular, if the audio sample is obtained by the user performing a speech-related task (e.g., "saying 'Um' for 5 seconds"), the sample contains the sound (or phoneme) requested in the task. The verification or testing of the audio sample may be performed to determine whether the audio sample The determined phoneme in the sample may be compared to the requested sound or phoneme (ie, the "labeled" phoneme or sound). If a mismatch is determined or the labeled phoneme or sound is not detected in the sample, the sample recording examiner 2608 sends an indication to the user (or user interaction manager) so that the correct audio sample can be reacquired. 280). Additional details of ASR are described below in connection with phoneme splitter 2610.

サンプル記録検査器2608のいくつかの実施形態では、オーディオサンプルにおける特定の音素の有無を必ずしも判定しなくてもよいが、当該サンプルにおいて、持続的な音素または音素の組み合わせが取り込まれたものと判定するようにしてもよい。また、サンプル記録検査器2608は、最短継続時間にわたって音素が音声サンプルで持続しているかを判定するようにしてもよい。一実施形態において、最短継続時間は、4.5秒であってもよい。 Some embodiments of the sample recording examiner 2608 do not necessarily determine the presence or absence of a particular phoneme in an audio sample, but may determine that the sample captures a sustained phoneme or combination of phonemes. You may also do so. The sample recording checker 2608 may also determine whether a phoneme persists in the audio sample for a minimum duration. In one embodiment, the minimum duration may be 4.5 seconds.

サンプル記録検査器2608はさらに、トリミング、カッティング、またはフィルタリングの実行によって、音声サンプル記録の不要な部分および/または使用不可能な部分を除去するようにしてもよい。いくつかの実施形態において、サンプル記録検査器2608は、信号作成プロセッサ2606との協働により、このような動作を実行するようにしてもよい。たとえば、サンプル記録検査器2608は、各記録から、開始部および終了部(たとえば、0.25秒)をトリミングするようにしてもよい。音声サンプルの使用可能な部分には、別途処理によって音素または特性情報を決定するのに十分な音声関連データを含み得る。いくつかの実施形態において、サンプル記録検査器2608(または、音声サンプル収集器2604および/もしくはユーザ音声モニタ260の他の副構成要素)は、音声サンプルの切り取りまたはトリミングによって、使用可能と判定された部分のみを保持するようにしてもよい。同様に、サンプル記録検査器2608は、同じタイムフレーム内(すなわち、記録セッション内)で取得され得る複数のサンプル(音声サンプル242等)のうちのオーディオサンプルの使用可能な部分の決定を容易化し得る。 The sample recording examiner 2608 may further perform trimming, cutting, or filtering to remove unnecessary and/or unusable portions of the audio sample recording. In some embodiments, sample recording examiner 2608 may perform such operations in cooperation with signal generation processor 2606. For example, sample record examiner 2608 may trim the start and end (eg, 0.25 seconds) from each record. The usable portion of the audio sample may include sufficient audio-related data to determine phoneme or characteristic information by further processing. In some embodiments, the sample recording examiner 2608 (or other subcomponents of the audio sample collector 2604 and/or user audio monitor 260) determines that the audio sample is usable by cutting or trimming the audio sample. It is also possible to retain only a portion. Similarly, sample recording examiner 2608 may facilitate determining a usable portion of audio samples among multiple samples (such as audio samples 242) that may be acquired within the same time frame (i.e., within a recording session). .

サンプル記録検査器2608は、音声サンプル242またはユーザ音声モニタ260の別の副構成要素からオーディオサンプルデータを受信するようにしてもよく、また、処理または修正した音声サンプルデータを音声サンプル242に格納するようにしてもよいし、処理または修正した音声サンプルデータをユーザ音声モニタ260の別の副構成要素に提供するようにしてもよい。場合により(使用不可能な部分の記録または除去後に記録が不完全な場合等)、サンプル記録検査器2608は、新たな記録または音声サンプルの取得が必要であるか否かを判定して、指標をユーザに提供するようにしてもよいが、これについては、ユーザ相互作用管理器280に関して以下に記載される。 Sample recording examiner 2608 may be configured to receive audio sample data from audio sample 242 or another subcomponent of user audio monitor 260 and store processed or modified audio sample data in audio sample 242. Alternatively, processed or modified audio sample data may be provided to another subcomponent of user audio monitor 260. In some cases (such as when an unusable portion is recorded or the recording is incomplete after removal), the sample recording examiner 2608 determines whether a new recording or audio sample needs to be acquired and provides an indicator. may be provided to the user, as described below with respect to user interaction manager 280.

音素分割器2610は一般的に、音声サンプル中の個々の音素の有無の検出および/または個々の音素が音声サンプル中に存在するタイミング情報の決定を担うものであってもよい。たとえば、タイミング情報は、音声サンプル中の音素の発生に関する始まりの時間(すなわち、開始時間)、継続時間、および/または終了時間(すなわち、停止時間)を含んでいてもよく、これらは、特徴解析用の音素の識別および/または分離の容易化に利用されるようになっていてもよい。場合によっては、開始および停止時間情報を音素の境界と称し得る。前述の通り、音声サンプルは、ユーザが発した持続的な個々の音素または計画された発話および無計画の発話等の音素の組み合わせの記録(たとえば、オーディオサンプル)を含み得る。たとえば、ユーザが単語「春」を発した場合に音声サンプルが生成されるようになっていてもよく、この音声サンプルは、個々の音素(たとえば、 Phoneme segmenter 2610 may generally be responsible for detecting the presence or absence of individual phonemes in a speech sample and/or determining timing information for the presence of individual phonemes in a speech sample. For example, the timing information may include the onset time (i.e., start time), duration, and/or end time (i.e., stop time) for the occurrence of a phoneme in the audio sample, which may be used for feature analysis. It may be used to facilitate the identification and/or separation of phonemes for use. In some cases, start and stop time information may be referred to as phoneme boundaries. As previously discussed, speech samples may include recordings (eg, audio samples) of sustained individual phonemes or combinations of phonemes, such as planned and unplanned utterances, uttered by a user. For example, an audio sample may be generated when a user utters the word "spring," and this audio sample may be configured to generate individual phonemes (e.g.,

)へと分割されるようになっていてもよい。場合によっては、持続的な個々の音素の音声サンプルの分割によって、当該音素をその他のサンプルから分離するようにしてもよい。
いくつかの態様において、音素分割器2610は、音素を検出するとともに、(たとえば、オーディオサンプル中の音素へのポインタもしくは参照として利用可能なタイミング情報を使用して論理的に、または、オーディオサンプルからの音素関連データのコピーもしくは抽出等によって物理的に)音素をさらに分離するようにしてもよい。音素分割器2610による音素検出には、音声サンプル(または、音声サンプルの一部)が特定の一組の音素における特定の音素または1つの音素を有する旨の判定を含んでいてもよい。音声サンプルデータは、音声サンプル242またはユーザ音声モニタ260の別の副構成要素から受信されるようになっていてもよい。音素分割器2610により検出される特定の音素は、ユーザの呼吸器疾患について解析される音素に基づいていてもよい。たとえば、いくつかの実施形態において、音素分割器2610は、(1つまたは複数の)サンプルが
). In some cases, continuous segmentation of the audio samples of individual phonemes may be used to separate the phonemes from other samples.
In some aspects, phoneme segmenter 2610 detects phonemes (e.g., logically or from the audio sample using timing information available as pointers or references to phonemes in the audio sample). The phonemes may be further separated (physically, such as by copying or extracting the phoneme-related data of the above). Phoneme detection by phoneme segmenter 2610 may include determining that a speech sample (or portion of a speech sample) has a particular phoneme or a phoneme in a particular set of phonemes. Voice sample data may be received from voice samples 242 or another subcomponent of user voice monitor 260. The particular phonemes detected by phoneme segmenter 2610 may be based on the phonemes analyzed for the user's respiratory illness. For example, in some embodiments, phoneme segmenter 2610 is configured such that the sample(s) are

に対応する音素を含むか否かを検出するようにしてもよい。別の実施形態において、音素分割器2610は、(1つまたは複数の)サンプルが Alternatively, it may be detected whether or not a phoneme corresponding to is included. In another embodiment, phoneme segmenter 2610 is configured such that the sample(s) are

に対応する音素を含むか否かを判定するようにしてもよい。他の実施形態において、音素分割器2610は、任意の発話言語の音素を含み得る他の音素または音素集合を検出するようにしてもよい。 Alternatively, it may be determined whether or not a phoneme corresponding to is included. In other embodiments, phoneme segmenter 2610 may detect other phonemes or phoneme sets that may include phonemes of any spoken language.

音素分割器2610のいくつかの実施形態においては、音声サンプルの一部からの音素の判定に自動発話認識(ASR)(「音声認識」と称される)機能が利用される。ASR機能では、1つまたは複数の音響モデルまたは発話コーパスをさらに利用するようにしてもよい。一実施形態においては、一組の1つまたは複数の可能性が高い音素を決定するため、ユーザの音声サンプルに対応する発話信号の処理において、隠れマルコフモデル(HMM)が利用されるようになっていてもよい。別の実施形態においては、人工ニューラルネットワーク(ANN)(本明細書においては、「ニューラルネットワーク」と称される場合もある)、ASRのための他の音響モデル、またはこれらのモデルの組み合わせを使用する技術が利用されるようになっていてもよい。たとえば、HMMの適用に先立って、次元縮退または特性変換を実行するため、ニューラルネットワークがASRの前処理ステップとして利用されるようになっていてもよい。音声サンプルから音素を検出または識別するために音素分割器2610により実行される動作のいくつかの実施形態では、発話データを処理するためのソフトウェアパッケージ、モジュール、またはライブラリを含み得る発話認識エンジンまたはASRソフトウェアツールキットを介して提供されるASR機能または音響モデルを利用するようにしてもよい。このような発話認識ソフトウェアツールの例としては、kaldi-asr.orgを介して入手可能なKaldi発話認識ツールキット、Carnegie Mellon Universityで開発されたCMU Sphinx、Cambridge Universityで開発されたHidden Markov Model Toolkit(HTK)が挙げられる。 Some embodiments of phoneme segmenter 2610 utilize automatic speech recognition (ASR) (referred to as "speech recognition") functionality to determine phonemes from a portion of a speech sample. ASR functionality may also utilize one or more acoustic models or speech corpora. In one embodiment, hidden Markov models (HMMs) are utilized in processing a speech signal corresponding to a user's speech samples to determine a set of one or more likely phonemes. You can leave it there. In another embodiment, an artificial neural network (ANN) (sometimes referred to herein as a "neural network"), other acoustic models for ASR, or a combination of these models is used. technology may be used. For example, neural networks may be utilized as a pre-processing step in ASR to perform dimensionality reduction or characteristic transformation prior to application of the HMM. Some embodiments of the operations performed by phoneme segmenter 2610 to detect or identify phonemes from speech samples include a speech recognition engine or ASR that may include software packages, modules, or libraries for processing speech data. ASR functionality or acoustic models provided via a software toolkit may be utilized. Examples of such speech recognition software tools include kaldi-asr. CMU Sphinx, developed at Carnegie Mellon University, and the Hidden Markov Model Toolkit (HTK), developed at Cambridge University.

本明細書に記載の通り、音声サンプルを取得するいくつかの実施態様において、ユーザは、発話関連タスクを実行するようにしてもよく、これは、図5Bに関連して記載の繰り返し音行使等の評価行使の一部であってもよい。これらの発話関連タスクの一部では、ユーザが特定の音または音素を言い続けることを要求する場合がある。この追加または代替として、発話関連タスクでは、ユーザが可能な限り長く特定の音または音素を言い続けることを要求する場合がある。また、異なる音素に対して、さまざまなタスクが用いられるようになっていてもよい。たとえば、一実施形態において、ユーザは、可能な限り長く「アーア」(または、音素 In some embodiments of acquiring audio samples as described herein, the user may perform speech-related tasks, such as the repetitive sound exercise described in connection with FIG. 5B. may be part of the evaluation exercise. Some of these speech-related tasks may require the user to continue saying a particular sound or phoneme. Additionally or alternatively, speech-related tasks may require the user to continue saying a particular sound or phoneme for as long as possible. Further, various tasks may be used for different phonemes. For example, in one embodiment, the user may say "aah" (or

)を言い続けることを求められる場合もあれば、5秒間等の予め定められた時間にわたって他の音または音素(たとえば、 ) over a predetermined period of time, such as 5 seconds, or another sound or phoneme (e.g.

)を言い続けることを求められる場合もある。いくつかの実施形態においては、同じ音素に対して、複数種類の発話関連タスクが収集されるようになっていてもよい。
このタスクの実行により生成されたオーディオサンプルは、ユーザが発言を要求された音または音素のラベル付けあるいは音または音素との関連付けがなされるようになっていてもよい。たとえば、ユーザが5秒間にわたって「ウーン」を言い続けるように促された場合、記録されるオーディオサンプルは、「ウーン」音(または、音素
) may be required to continue saying. In some embodiments, multiple types of speech-related tasks may be collected for the same phoneme.
The audio samples generated by performing this task may be labeled with or associated with the sounds or phonemes that the user is requested to utter. For example, if a user is prompted to say "Oooh" for 5 seconds, the recorded audio sample will contain the "Oooh" sound (or phoneme).

)のラベル付けまたは「ウーン」音との関連付けがなされるようになっていてもよい。
いくつかの実施形態において、音素分割器2610は、ASR機能を利用して、発話関連タスクの実行による取得またはユーザ機器との日常的な相互作用により取得されたユーザ発話からの受信が可能なオーディオサンプル中の特定の音または音素を決定するようにしてもよい。これらの実施形態において、オーディオサンプルの音または音素が決定されると、オーディオサンプル(または、サンプルの一部)に対する音もしくは音素のラベル付けまたは音もしくは音素との関連付けがなされ得る。例示的な一実施形態において、音素分割器2610は、ユーザから取得されたオーディオサンプルが当該サンプルの特定の部分で発生した「アーア」音を有するものと判定した場合、「アーア」音を検出し、これに応じて(たとえば、データベース中のオーディオサンプルまたはその一部とのラベルの関連付けにより)オーディオサンプルの当該部分にラベル付けを行うようにしてもよい。別の実施形態において、音素分割器2610は、音素の分離によって、オーディオサンプル中のタイミングまたは音素境界を決定するようにしてもよい。
) or may be associated with a "woom" sound.
In some embodiments, the phoneme segmenter 2610 utilizes ASR functionality to generate audio that may be received from user utterances obtained by performing speech-related tasks or by daily interaction with user equipment. A particular sound or phoneme in the sample may be determined. In these embodiments, once the sounds or phonemes of the audio sample are determined, the audio sample (or portion of the sample) may be labeled or associated with a sound or phoneme. In an exemplary embodiment, the phoneme segmenter 2610 detects an "aah" sound if it determines that the audio sample obtained from the user has an "aah" sound occurring in a particular portion of the sample. , the portion of the audio sample may be labeled accordingly (eg, by association of the label with the audio sample or portion thereof in the database). In another embodiment, phoneme segmenter 2610 may determine timing or phoneme boundaries in an audio sample by separating phonemes.

いくつかの実施形態において、音素分割器2610は、音素を取り込んだ音声サンプル内の音素境界またはある区分の開始時間、継続時間、および/もしくは停止時間の識別によって、音素を分離するようにしてもよい。いくつかの実施形態において、音素分割器2610はまず、特定の音素の有無を検出した後、その特定の音素を分離する(たとえば、 In some embodiments, the phoneme segmenter 2610 may separate phonemes by identifying the start time, duration, and/or stop time of a phoneme boundary or a segment within the audio sample that captures the phoneme. good. In some embodiments, phoneme segmenter 2610 first detects the presence or absence of a particular phoneme and then separates the particular phoneme (e.g.,

等)。代替実施形態において、音素分割器2610は、音声サンプル中に特定の音素が存在することを検出し、検出されたすべての音素を分離するようにしてもよい。音素分割器2610のいくつかの実施形態では、音素分割または音素整合ツールを利用することにより、オーディオサンプル中の音素または音素境界の時間位置の決定を容易化し得る。このようなツールの例としては、University of Amsterdamで開発された発話解析および音声学用のコンピュータソフトウェアパッケージPraat、ならびに/または、University of Genevaで開発された音素整合を実行するためのEasyAlign等、Praatと連動するソフトウェアモジュールにより提供される機能が挙げられる。 etc). In an alternative embodiment, phoneme segmenter 2610 may detect the presence of a particular phoneme in a speech sample and separate all detected phonemes. Some embodiments of phoneme segmenter 2610 may utilize phoneme segmentation or phoneme alignment tools to facilitate determining the temporal location of phonemes or phoneme boundaries in an audio sample. Examples of such tools include the computer software package Praat for speech analysis and phonetics developed at the University of Amsterdam, and/or EasyAlign for performing phoneme alignment developed at the University of Geneva; Examples include functions provided by software modules that work with.

例示的な態様において、音素分割器2610は、音声サンプル中の検出強度レベルに対する閾値の適用によって、自動分割を実行するようにしてもよい。たとえば、記録全体で音響強度が演算され、サンプル中の高エネルギー事象(発話事象を表す)からバックグラウンドノイズを分離するための閾値が適用されるようになっていてもよい。一実施形態において、音響強度の演算は、発話解析および音声学用のコンピュータソフトウェアパッケージPraatにより提供される機能を利用して実行されるようになっていてもよい。図15A~図15Mは、Praatを使用する上記のような一例を例示するものであり、Parselmouth Pythonライブラリを用いて示される。一実施形態によれば、音素分割の閾値が大津の方法により決定されるようになっていてもよい。いくつかの実施形態において、この閾値は、同じユーザの異なる音声サンプルに対して異なる閾値が決定および適用され得るように、音声サンプルごとに決定されるようになっていてもよい。音響強度レベルが演算され、閾値が決定されると、音素分割器2610は、この閾値を演算強度レベルに適用して、音素の有無を検出するとともに、検出音素の開始および終了にそれぞれ対応する開始時間および停止時間をさらに識別するようにしてもよい。いくつかの実施形態には、音声サンプルの少なくとも一部に対する手動分割の使用によって、音素分割器2610により実行される自動分割を検証することを含む。 In an exemplary aspect, phoneme segmenter 2610 may perform automatic segmentation by applying a threshold to detected intensity levels in the audio sample. For example, sound intensity may be calculated across the recording and a threshold applied to separate background noise from high-energy events (representing speech events) in the sample. In one embodiment, the calculation of sound intensity may be performed using functionality provided by the computer software package Praat for speech analysis and phonetics. Figures 15A-15M illustrate one such example using Praat and are shown using the Parselmouth Python library. According to one embodiment, the phoneme segmentation threshold may be determined by Otsu's method. In some embodiments, this threshold may be determined for each audio sample, such that different thresholds may be determined and applied to different audio samples of the same user. Once the sound intensity level is computed and a threshold is determined, the phoneme divider 2610 applies this threshold to the computed intensity level to detect the presence or absence of a phoneme, and to detect the presence or absence of a phoneme, as well as to detect the beginning and end of the detected phoneme, respectively. Further identification of time and stop time may be provided. Some embodiments include validating the automatic segmentation performed by phoneme segmenter 2610 through the use of manual segmentation on at least a portion of the audio samples.

いくつかの実施形態においては、形態学的な「充填」操作を使用することにより、音素として検出されたセグメント内の間隙が充填されるようになっていてもよい。間隙は、その継続時間が0.2秒等の最大閾値未満の場合に充填されるようになっていてもよい。また、音素分割器2610の実施形態では、検出された音素の1つまたは複数の部分をトリミングするようにしてもよい。たとえば、音素分割器2610は、各検出音素の最初の0.75秒等の初期継続時間をトリミングまたは無視することにより、過渡効果を回避するようにしてもよい。したがって、検出音素が最初の0.75秒を含まないように、検出音素の開始時間が変更され得る。また、いくつかの実施形態においては、音素の総継続時間が2秒または他の設定継続時間となるように、各検出音素がトリミングされるようになっていてもよい。 In some embodiments, a morphological "filling" operation may be used to fill gaps within segments detected as phonemes. The gap may be filled if its duration is less than a maximum threshold, such as 0.2 seconds. Embodiments of phoneme segmenter 2610 may also trim one or more portions of detected phonemes. For example, phoneme segmenter 2610 may avoid transient effects by trimming or ignoring the initial duration, such as the first 0.75 seconds, of each detected phoneme. Therefore, the start time of the detected phoneme may be changed so that the detected phoneme does not include the first 0.75 seconds. Additionally, in some embodiments, each detected phoneme may be trimmed such that the total duration of the phoneme is two seconds or some other set duration.

いくつかの実施形態においては、分割された音素に対して、データ品質確認が実行されるようになっていてもよい。これらのデータ品質確認は、音素分割器2610により実行されるようになっていてもよいし、信号作成プロセッサ2606および/またはサンプル記録検査器2608等、ユーザ音声モニタ260の別の構成要素により実行されるようになっていてもよい。一実施形態においては、検出セグメント内の平均強度を検出セグメント外の平均強度で除した比として、音素セグメントごとに信号対雑音比(SNR)が推定される。さらに、検出音素が最短継続時間を満たすか否かを判定するため、予め定められたセグメント継続時間閾値が適用されるようになっていてもよい。別の品質確認には、ユーザから音声サンプルを出させる催促に基づき得る予想音素数に対する検出音素数の比較によって正しい音素数を決定することを含んでいてもよい。たとえば、一実施形態において、正しい音素数には、持続的な鼻音記録の場合に3つの分割音素を、持続的な母音記録の場合に4つの分割音素を含み得る。例示的な一態様においては、正しい音素数(たとえば、持続的な鼻音記録の場合に3つ、持続的な母音記録の場合に4つ)が見つかった場合、SNRが9デシベルよりも大きい場合、および各音素の継続時間が2秒以上である場合に、分割された音声サンプルが高品質と決定され得る。いくつかの実施形態においては、母音音声サンプルの場合に付加的な品質確認が実行されるようになっていてもよく、これには、第1フォルマント周波数が許容範囲内に含まれるか否かを判定することを含み得る。許容範囲内に含まれる場合、サンプルは高品質と決定される。許容範囲内に含まれない場合は、サンプルが不十分、不完全、または再取得が必要である旨の指標が提供される(ユーザ相互作用管理器280に提供されるようになっていてもよい)。 In some embodiments, data quality checks may be performed on the segmented phonemes. These data quality checks may be performed by phoneme segmenter 2610 or by other components of user speech monitor 260, such as signal preparation processor 2606 and/or sample recording examiner 2608. It is also possible to make it look like this. In one embodiment, the signal-to-noise ratio (SNR) is estimated for each phoneme segment as the ratio of the average intensity within the detection segment divided by the average intensity outside the detection segment. Furthermore, a predetermined segment duration threshold may be applied to determine whether the detected phoneme satisfies the minimum duration. Another quality check may include determining the correct number of phonemes by comparing the number of detected phonemes to the expected number of phonemes, which may be based on a prompt for a voice sample from the user. For example, in one embodiment, the correct number of phonemes may include three split phonemes for sustained nasal recordings and four split phonemes for sustained vowel recordings. In an exemplary aspect, if the correct number of phonemes is found (e.g., three for sustained nasal recordings and four for sustained vowel recordings), if the SNR is greater than 9 dB; and the duration of each phoneme is 2 seconds or more, the segmented audio sample may be determined to be of high quality. In some embodiments, additional quality checks may be performed on vowel speech samples, including determining whether the first formant frequency falls within an acceptable range. may include determining. If it falls within the acceptable range, the sample is determined to be of high quality. If not, an indication is provided (which may be provided to the user interaction manager 280) that the sample is insufficient, incomplete, or requires reacquisition. ).

ユーザ音声モニタ260に関して引き続き、音響特性抽出器2614は一般的に、音声サンプル内の音素の特性の抽出(あるいは、決定)を担うものであってもよい。音素の特性は、予め定められたフレームレートで音声サンプルから抽出されるようになっていてもよい。一例においては、10ミリ秒のレートで特性が抽出される。抽出された特性は、呼吸器疾患追跡器270に関して別途記載のようなユーザの呼吸器疾患の追跡に利用されるようになっていてもよい。抽出される音響特性の例としては、非限定的な一例として、パワーおよびパワー変動性、ピッチおよびピッチ変動性、スペクトル構造、ならびに/またはフォルマントの尺度を特徴付けるデータが挙げられる。 Continuing with user speech monitor 260, acoustic feature extractor 2614 may generally be responsible for extracting (or determining) features of phonemes within a speech sample. The phoneme characteristics may be extracted from the audio samples at a predetermined frame rate. In one example, features are extracted at a rate of 10 milliseconds. The extracted characteristics may be utilized to track a user's respiratory illness as described further with respect to respiratory illness tracker 270. Examples of extracted acoustic characteristics include, by way of non-limiting example, data characterizing power and power variability, pitch and pitch variability, spectral structure, and/or formant measures.

パワーおよびパワー変動性に関する特性(振幅関連特性とも称され得る)の他の例としては、分割音素ごとの音響パワーの二乗平均平方根(RMS)、シマー、および1/3オクターブバンドにおけるパワー変動性が挙げられる。いくつかの実施形態において、音響パワーのRMSは、その他任意の音響特性の抽出に先立つデータの正規化のために演算および利用される。また、RMSは、パワー関連特性自体として考慮するために、デシベルに変換されるようになっていてもよい。シマーは、声門のパルス間隔で測定される波形振幅の急速な変動性を捉えたものである。また、1/3オクターブバンドフィルタの出力におけるパワーの変動がさまざまな周波数で演算されるようになっていてもよい。例示的な一実施形態においては、抽出特性が200ヘルツ(Hz)1/3オクターブバンドにおける変動を示していてもよく、これは、178~224Hzの通過帯域周波数を適用することにより決定され得る。 Other examples of properties related to power and power variability (which may also be referred to as amplitude-related properties) include the root mean square (RMS) of acoustic power per segment phoneme, shimmer, and power variability in the 1/3 octave band. Can be mentioned. In some embodiments, the RMS of sound power is computed and utilized for data normalization prior to extraction of any other sound characteristics. The RMS may also be converted to decibels for consideration as a power-related characteristic itself. Shimmer captures the rapid variability in waveform amplitude measured at the glottal pulse interval. Further, the power fluctuation in the output of the 1/3 octave band filter may be calculated at various frequencies. In one exemplary embodiment, the extraction characteristics may exhibit variations in a 200 Hertz (Hz) 1/3 octave band, which may be determined by applying a passband frequency of 178-224 Hz.

ピッチおよびピッチ変動性に関する特性の他の例としては、ピッチの変動係数(COV)およびジッターが挙げられる。ピッチの変動係数を抽出するため、各セグメントにわたって平均ピッチ(pitchmn)およびピッチ標準偏差(pitchsd)が決定され、ピッチの変動係数(pitchcov)は、pitchcov=pitchsd/pitchmnとして演算され得る。特に音声サンプルにノイズが多い場合のいくつかの実施形態においては、ユーザの音声データの適当な周波数に対して推定ピッチ値が確実に計算されるように、変動係数の閾値が適用され得る。たとえば、変動係数が変動係数値の10%の閾値を下回るか否かが判定され(経験的に判定され)、値が閾値よりも大きなセグメントが欠損データとして扱われるようになっていてもよい。ジッターは、より短い時間スケール上でピッチ変動性を捉えたものと考えられる。ジッターは、ローカルジッターまたはローカル絶対ジッターの形態で抽出されるようになっていてもよい。いくつかの態様においては、自己相関法を用いることにより、ピッチ関連特性が各セグメントから抽出される。ピッチ関連特性を決定するための自己相関の一例は、University of Amsterdamで開発された発話解析および音声学用のコンピュータソフトウェアパッケージPraatにより与えられる。図15Eおよび図15Fは、このようにPraat機能を利用する一実施形態の例示的なコンピュータプログラムルーチンの態様を示している。 Other examples of characteristics related to pitch and pitch variability include pitch coefficient of variation (COV) and jitter. To extract the pitch coefficient of variation, the average pitch (pitch mn ) and pitch standard deviation (pitch sd ) are determined over each segment, and the pitch coefficient of variation (pitch cov ) is calculated as pitch cov = pitch sd /pitch mn can be done. In some embodiments, particularly when the audio samples are noisy, a coefficient of variation threshold may be applied to ensure that the estimated pitch value is calculated for the appropriate frequency of the user's audio data. For example, it may be determined whether the coefficient of variation is less than a threshold of 10% of the coefficient of variation value (determined empirically), and segments with values greater than the threshold may be treated as missing data. Jitter can be thought of as capturing pitch variability on a shorter time scale. The jitter may be extracted in the form of local jitter or local absolute jitter. In some aspects, pitch-related characteristics are extracted from each segment by using an autocorrelation method. An example of autocorrelation for determining pitch-related properties is given by the computer software package Praat for speech analysis and phonetics developed at the University of Amsterdam. 15E and 15F illustrate aspects of an exemplary computer program routine of one embodiment that utilizes Praat functionality in this manner.

音響特性抽出器2614(または、ユーザ音声モニタ260)のいくつかの実施形態では、音響特性抽出器2614によるピッチ関連特性の抽出に先立ってピッチフロアを調整する処理動作を実行するようにしてもよい。たとえば、ピッチフロアは、男性ユーザの場合に80Hzまで、女性ユーザの場合に100Hzまで高くなって、ピッチ誤検出を防止し得る。一実施形態によれば、低周波の周期的なバックグラウンドノイズが存在する場合に、ピッチフロアの上昇が保証され得る。ピッチフロアを調整するか否かの判定は、音声データを収集するシステム、音声データが収集される環境、および/またはアプリケーション設定(たとえば、設定249)によって異なり得る。 Some embodiments of acoustic feature extractor 2614 (or user voice monitor 260) may perform processing operations to adjust the pitch floor prior to extraction of pitch-related features by acoustic feature extractor 2614. . For example, the pitch floor may be as high as 80 Hz for male users and 100 Hz for female users to prevent false pitch detections. According to one embodiment, an increase in pitch floor may be guaranteed in the presence of low frequency periodic background noise. The determination of whether to adjust the pitch floor may depend on the system collecting the audio data, the environment in which the audio data is collected, and/or application settings (eg, settings 249).

スペクトル構造に関する特性には、高調波対雑音比(HNR(「調和性」と称される場合もある)、スペクトルエントロピー、スペクトルコントラスト、スペクトル平坦性、音声低高比(VLHR)、メル周波数ケプストラム係数(MFCC)、ケプストラムピーク卓立度(CPP)、有声(または、無声)フレームの割合または比率、および線形予測係数(LPC)を含んでいてもよい。HNRまたは調和性は、非高調波成分のパワーに対する高調波成分のパワーの比であり、音響周期性の程度を表す。HNRを決定する一例が図15Eのコンピュータプログラミングルーチンに示されるが、これは、調和性を決定するため、コンピュータソフトウェアパッケージPraatにより提供される機能を利用する。スペクトルエントロピーは、特定の周波数帯におけるスペクトルのエントロピーを示す。スペクトルコントラストは、パワースペクトル値を特定の周波数帯の強度でソートし、周波数帯の最低四分位(トラフ)の値に対する最高四分位(ピーク)の値の比を演算することにより決定され得る。スペクトル平坦性は、所与の周波数帯におけるスペクトル値の算術平均に対する幾何平均の比を演算することにより決定され得る。スペクトルエントロピー、スペクトルコントラスト、およびスペクトル平坦性はそれぞれ、特定の周波数帯に対して演算されるようになっていてもよい。一実施形態においては、スペクトルエントロピーが1.5~2.5キロヘルツ(kHz)および1.6~3.2kHzで決定され、スペクトル平坦性が1.5~2.5kHzで決定され、スペクトルコントラストが1.6~3.2kHzおよび3.2~6.4kHzで決定される。 Properties related to spectral structure include harmonic-to-noise ratio (HNR (sometimes referred to as "harmonicity"), spectral entropy, spectral contrast, spectral flatness, voice low-to-height ratio (VLHR), and Mel frequency cepstral coefficients. (MFCC), cepstral peak prominence (CPP), percentage or proportion of voiced (or unvoiced) frames, and linear prediction coefficient (LPC). It is the ratio of the power of the harmonic components to the power and represents the degree of acoustic periodicity. An example of determining HNR is shown in the computer programming routine of FIG. 15E, which uses a computer software package to determine harmonicity. Utilizes the functionality provided by Praat. Spectral entropy indicates the entropy of the spectrum in a particular frequency band. Spectral contrast sorts the power spectral values by the intensity of a particular frequency band, and the lowest quartile of the frequency band. Spectral flatness can be determined by calculating the ratio of the highest quartile (peak) value to the (trough) value. Spectral flatness can be determined by calculating the ratio of the geometric mean to the arithmetic mean of the spectral values in a given frequency band. Spectral entropy, spectral contrast, and spectral flatness may each be calculated for a particular frequency band. In one embodiment, the spectral entropy is between 1.5 and 1.5. 2.5 kilohertz (kHz) and 1.6 to 3.2 kHz, spectral flatness determined from 1.5 to 2.5 kHz, and spectral contrast from 1.6 to 3.2 kHz and 3.2 to 6 .4kHz.

VLHRは、積分された低高周波数エネルギーの比率を演算することにより決定され得る。一実施形態においては、低高周波数間の分離が600Hzに固定されている。このため、この特性は、VLHR600として示され得る。 VLHR can be determined by calculating the ratio of integrated low and high frequency energy. In one embodiment, the separation between low and high frequencies is fixed at 600Hz. Therefore, this characteristic may be designated as VLHR600.

メル周波数ケプストラム係数(MFCC)は、スケーリングされたパワースペクトルの離散コサイン変換を表し、MFCCは、メル周波数ケプストラム(MFC)を一体的に構成する。MFCCは通常、スペクトルの変化の影響を受けやすく、環境ノイズに対して堅牢である。例示的な態様においては、平均MFCC値および標準偏差MFCC値が決定される。一実施形態においては、メル周波数ケプストラム係数MFCC6およびMFCC8について平均値が決定され、メル周波数ケプストラム係数MFCC1、MFCC2、MFCC3、MFCC8、MFCC9、MFCC10、MFCC11、およびMFCC12について標準偏差値が決定される。 The Mel frequency cepstral coefficients (MFCC) represent the discrete cosine transform of the scaled power spectrum, and the MFCC collectively constitutes the Mel frequency cepstral coefficient (MFC). MFCCs are typically sensitive to spectral changes and robust to environmental noise. In an exemplary embodiment, a mean MFCC value and a standard deviation MFCC value are determined. In one embodiment, mean values are determined for Mel frequency cepstral coefficients MFCC6 and MFCC8, and standard deviation values are determined for Mel frequency cepstral coefficients MFCC1, MFCC2, MFCC3, MFCC8, MFCC9, MFCC10, MFCC11, and MFCC12.

有声は、記録された発声における周期性を表し、本開示のいくつかの態様には、有声の発声記録のフレームの割合、比率、または比の決定を含む。あるいは、この特性は、無声フレームを用いて決定されるようになっていてもよい。有声(または、無声)フレームの決定の場合によっては、発話が疑われるフレームに関して有声または無声フレームの割合が算出されるように、予め定められたピッチ閾値が適用されるようになっていてもよい。いくつかの実施形態において、有声(または、無声)フレームの割合または比率は、音声処理用のコンピュータソフトウェアパッケージツールキットPraatを用いて決定されるようになっていてもよい。 Voicedness refers to periodicity in recorded utterances, and some aspects of this disclosure include determining the rate, ratio, or ratio of frames of a voiced utterance recording. Alternatively, this characteristic may be determined using unvoiced frames. In some cases for the determination of voiced (or unvoiced) frames, a predetermined pitch threshold may be applied such that a proportion of voiced or unvoiced frames is calculated for frames suspected of being spoken. . In some embodiments, the proportion or ratio of voiced (or unvoiced) frames may be determined using the computer software package toolkit Praat for audio processing.

音響特性抽出器2614により抽出または決定される他の特性は、声道の共鳴を表す1つまたは複数の音響フォルマントに関連するものであってもよい。特に、音声サンプルの音素の場合は、1つまたは複数のフォルマントに対して、平均フォルマント周波数およびフォルマント帯域幅の標準偏差が演算されるようになっていてもよい。例示的な態様においては、フォルマント1(F1として示される)に対して平均フォルマント周波数およびフォルマント帯域幅の標準偏差が演算される。ただし、フォルマント2および3(F2およびF3として示される)等の追加または代替が利用されるようになっていてもよいと考えられる。いくつかの態様において、フォルマント特性は、ユーザが音を正しく発音することを保証するため、サンプル記録検査器2608によって実行され得る自動確認を容易化することによりデータ品質管理として動作し得る。 Other characteristics extracted or determined by acoustic feature extractor 2614 may be related to one or more acoustic formants representative of vocal tract resonance. In particular, in the case of phonemes in a speech sample, the average formant frequency and the standard deviation of the formant bandwidth may be calculated for one or more formants. In an exemplary embodiment, the average formant frequency and standard deviation of formant bandwidth are computed for formant 1 (denoted as F1). However, it is contemplated that additions or substitutions such as formants 2 and 3 (denoted as F2 and F3) may be utilized. In some aspects, formant characteristics may act as data quality control by facilitating automated checks that may be performed by sample recording checker 2608 to ensure that a user pronounces sounds correctly.

いくつかの実施形態においては、上記音響特性がそれぞれ、異なる音素に対して抽出または決定され得ると考えられる。たとえば、一実施形態においては、7つの音素( It is contemplated that in some embodiments, each of the above acoustic characteristics may be extracted or determined for a different phoneme. For example, in one embodiment, seven phonemes (

)に対して、上記特性のうちの23個(振幅のRMSを含まない)が決定されることにより、161個の一意の音素特性が得られる。本開示のいくつかの実施形態には、別途解析する一組の特性を識別または選択することを含んでいてもよい。たとえば、一実施形態には、1つもしくは複数の音声サンプルまたは基準音声データから161個の全特性を決定することと、ユーザの呼吸器感染症疾患のモニタリングに関連すると考えられる特定の特性を選択あるいは決定することと、を含んでいてもよい。 ), 23 of the above characteristics (not including the RMS of amplitude) are determined, resulting in 161 unique phoneme characteristics. Some embodiments of the present disclosure may include identifying or selecting a set of characteristics for separate analysis. For example, one embodiment includes determining a total of 161 characteristics from one or more audio samples or reference audio data and selecting particular characteristics that are believed to be relevant to monitoring a user's respiratory infectious disease. Alternatively, it may include determining.

また、特定の種類の発話関連タスクによる音声サンプルから、これらの音響特性のうちの1つまたは複数が抽出されるようになっていてもよい。たとえば、上記特性は、予め定められた継続時間の発声から抽出された音素に対して決定されるようになっていてもよい。また、ユーザによる文章の読み上げにより抽出された発声に対して、これら上記特性のうちの1つまたは複数が決定されるようになっていてもよい。いくつかの実施形態においては、特定の種類の発話関連タスクから、他の特性が抽出されるようになっていてもよい。たとえば、例示的な態様においては、ユーザが可能な限り長く音を維持する持続的な発声の音声サンプルから、呼吸容量の尺度として使用可能な最大発声時間が決定されるようになっていてもよい。本明細書における使用の通り、最大発声時間は、ユーザが特定の発声を持続する継続時間を表す。 Also, one or more of these acoustic characteristics may be extracted from audio samples from a particular type of speech-related task. For example, the characteristics may be determined for phonemes extracted from utterances of a predetermined duration. Furthermore, one or more of the above-mentioned characteristics may be determined for the utterance extracted by reading out the text by the user. In some embodiments, other characteristics may be extracted from particular types of speech-related tasks. For example, in an exemplary embodiment, the maximum vocalization time that can be used as a measure of respiratory capacity may be determined from an audio sample of sustained vocalizations in which the user holds the sound for as long as possible. . As used herein, maximum utterance time represents the duration that a user sustains a particular utterance.

さらに、いくつかの実施形態においては、上記種類の音声サンプルに対して、持続的な発声における振幅の変化が決定されるようになっていてもよい。いくつかの例示的な実施形態においては、文章音声サンプルから他の音響特性が決定される。たとえば、ユーザによる文章の読み上げの記録またはモニタリングから、発話速度、平均休止長、休止数、および/またはグローバルSNRが決定されるようになっていてもよい。発話速度は、1秒当たりの音節数または単語数として決定され得る。休止長は、200ミリ秒等、少なくとも予め定められた最短継続時間であるユーザの発話の休止を表し得る。いくつかの態様においては、ユーザの音声サンプルからテキストを生成し、ユーザが単語を開始したタイミングおよびユーザが単語を終了したタイミングのタイムスタンプを決定し、これらのタイムスタンプを使用して、単語間の継続時間を決定するため、自動発話テキスト化アルゴリズムを利用することにより、平均休止長および/または休止数の決定に用いられる休止が決定されるようになっていてもよい。グローバルSNRは、発話のない時間を含む記録全体での信号対雑音比と考えられる。 Furthermore, in some embodiments, amplitude changes in sustained utterances may be determined for audio samples of the type described above. In some exemplary embodiments, other acoustic characteristics are determined from the text audio sample. For example, speech rate, average pause length, number of pauses, and/or global SNR may be determined from recording or monitoring a user's reading of sentences. Speech rate may be determined as the number of syllables or words per second. The pause length may represent a pause in the user's speech that is at least a predetermined minimum duration, such as 200 milliseconds. In some aspects, the text is generated from a user's audio sample, determining timestamps for when the user starts a word and when the user ends a word, and using these timestamps to In order to determine the duration of the pauses used to determine the average pause length and/or number of pauses, an automatic speech-to-text algorithm may be used to determine the pauses. Global SNR can be thought of as the signal-to-noise ratio over the entire recording, including periods without speech.

さらに、特定の種類の呼吸器感染症のモニタリングには、特定の特性または特性の組み合わせがより好適と考えられる。特性選択の実施形態には、考え得る特性組み合わせの識別、異なる日付の特性集合もしくはベクトル間の距離測定基準の計算、および呼吸器症状の自己報告評価に対する距離測定基準の相関を含んでいてもよい。一例においては、(たとえば、例示的な音素の組み合わせとして図11Aおよび図1IBに示される)考え得る音素の組み合わせの最初の6つの主成分を演算し、音声データが収集された各日付対全体での音素の組み合わせについての音響特性を表すベクトルの間のユークリッド距離等の距離測定基準を計算するのに、主成分分析(PCA)が利用される。また、良好な状態を表す最終日に対する各日の距離測定基準と自己報告症状評価との間でスペアマンの順位相関が演算されるようになっていてもよい。 Additionally, certain properties or combinations of properties may be more suitable for monitoring certain types of respiratory infections. Embodiments of trait selection may include identifying possible trait combinations, calculating a distance metric between trait sets or vectors of different dates, and correlating the distance metric to self-reported ratings of respiratory symptoms. . In one example, the first six principal components of possible phoneme combinations (e.g., shown in FIGS. 11A and 1IB as exemplary phoneme combinations) are computed, and across each pair of dates on which audio data was collected. Principal component analysis (PCA) is utilized to calculate distance metrics, such as Euclidean distances, between vectors representing acoustic properties for combinations of phonemes. Additionally, a Spareman's rank correlation may be calculated between the distance metric and self-reported symptom ratings for each day relative to the last day representing a good condition.

さらに、いくつかの実施形態においては、データセットの次元をさらに縮退させるため、スパースPCAを適用することにより教師なし特性選択が実行される。あるいは、いくつかの実施形態においては、線形判別分析(LCA)が次元縮退に利用されるようになっていてもよい。いくつかの実施形態においては、非ゼロ重みの(経験的に決定される)上位の主成分中の特性(具体的には、音素および特性の組み合わせ)が選択され、さらに解析されるようになっていてもよい。特性選択の態様については、図7~図14と併せて以下に詳しく論じられる。 Additionally, in some embodiments, unsupervised feature selection is performed by applying sparse PCA to further reduce the dimensionality of the dataset. Alternatively, in some embodiments, linear discriminant analysis (LCA) may be utilized for dimensionality reduction. In some embodiments, features (specifically phoneme and feature combinations) in the top principal components (as determined empirically) with non-zero weights are selected for further analysis. You can leave it there. Aspects of characteristic selection are discussed in detail below in conjunction with FIGS. 7-14.

例示的な態様において、図7~図14に関連して記載の特性選択により決定される代表的な音素特性集合は、音素 In an exemplary embodiment, the representative phoneme feature set determined by the feature selection described in connection with FIGS.

の12個の特性、音素 12 characteristics, phonemes

の12個の特性、および音素 12 characteristics of and phonemes

の8つの特性を含む32個の音素特性を含む。これらの例示的な32個の特性は、以下の表にリスト化されている。 Contains 32 phoneme characteristics, including 8 characteristics. Thirty-two of these exemplary properties are listed in the table below.

上表に示されるように、正規性のため、音響特性抽出器2614によって、1つまたは複数の特性の値が変換されるようになっていてもよい。たとえば、特性の部分集合にログ変換(LGとして示される)が適用されるようになっていてもよい。他の特性は変換を含んでいなくてもよい。さらに、上表には含まれないが、二乗平方根変換(SRT)等の他の変換が適用され得るとも考えられる。一実施形態において、特性選択には、1つまたは複数のさまざまな特性に対する変換を選択することを含む。一例においては、1つまたは複数の特性に対して、SRT、LG等の異なる種類の変換または無変換が検定され、当該特定の特性について最も正規分布したデータを与える変換種別を選択するため、シャピロ・ウィルク検定が用いられるようになっていてもよい。 As shown in the table above, acoustic feature extractor 2614 may transform the values of one or more features for normality. For example, a log transformation (denoted as LG) may be applied to a subset of characteristics. Other properties may not include transformations. Additionally, although not included in the above table, it is also contemplated that other transformations may be applied, such as a square root transformation (SRT). In one embodiment, characteristic selection includes selecting transformations for one or more various characteristics. In one example, different types of transformations or no transformations, such as SRT, LG, etc., are tested for one or more characteristics, and the Shapiro - The Wilk test may be used.

いくつかの実施形態においては、音響特性抽出器2614、音素分割器2610、またはユーザ音声モニタ260の他の副構成要素が(図2のストレージ250に示されるような)音声-音素抽出ロジック233を利用して、音素の決定または音素の特性の抽出を行うようにしてもよい。音声-音素抽出ロジック233は、分割音素に対応する音響データから音響特性値を識別して抽出するための命令、ルール、条件、関連付け、機械学習モデル、または他の基準を含んでいてもよい。いくつかの実施形態において、音声-音素抽出ロジック233は、音素分割器2610に関連して記載のASR機能、音響モデル、または関連する機能を利用する。たとえば、オーディオサンプル中の特定の音素の識別および対応する音響特性の決定には、さまざまな分類モデルまたはソフトウェアツール(たとえば、HMM、ニューラルネットワークモデル、および上述の他のソフトウェアツール)が利用されるようになっていてもよい。音響特性抽出器2614または音声-音素抽出ロジック233の例示的な一実施形態では、発話解析および音声学用のコンピュータソフトウェアパッケージPraatにおいて提供される機能を包含または利用するようにしてもよい。このような一実施形態の態様(コンピュータプログラムルーチンを含む)が図15A~図15Mにおいて例示的に提供されるが、これらは、ソフトウェアパッケージPraatにアクセスするためのParselmouth Pythonライブラリを用いて示される。 In some embodiments, acoustic feature extractor 2614, phoneme segmenter 2610, or other subcomponents of user speech monitor 260 implement speech-to-phoneme extraction logic 233 (as shown in storage 250 in FIG. 2). This may be used to determine phonemes or extract characteristics of phonemes. Speech-to-phoneme extraction logic 233 may include instructions, rules, conditions, associations, machine learning models, or other criteria for identifying and extracting acoustic feature values from acoustic data corresponding to segmented phonemes. In some embodiments, speech-to-phoneme extraction logic 233 utilizes ASR functionality, acoustic models, or related functionality described in connection with phoneme segmenter 2610. For example, various classification models or software tools (e.g., HMMs, neural network models, and other software tools mentioned above) may be utilized to identify specific phonemes in audio samples and determine the corresponding acoustic characteristics. It may be . An exemplary embodiment of the acoustic feature extractor 2614 or speech-phoneme extraction logic 233 may include or utilize functionality provided in the speech analysis and phonetics computer software package Praat. Aspects of one such embodiment (including computer program routines) are illustratively provided in FIGS. 15A-15M, which are illustrated using the Parselmouth Python library to access the software package Praat.

音素特性の決定後、音響特性抽出器2614は、記録セッションまたはタイムフレームに対応するユーザ音声サンプルから決定された音素の音素特性ベクトル(または、一組の音素特性ベクトル)を含み得る音素特性集合を決定するようにしてもよい。たとえば、ユーザが一日に2回(たとえば、朝セッションおよび夜セッション)、音声サンプルを提供するようにしてもよく、各セッションは、当該セッション中に取り込まれた音声サンプルから検出された音素から抽出または決定された特性を表す音素特性ベクトルまたは一組のベクトルに対応し得る。音素特性集合は、音素特性ベクトル244等、ユーザと関連付けられた患者レコード240に格納されるようになっていてもよく、また、音素特性の決定に用いられる音声サンプルが取得された日付または時刻に対応する日時情報との格納あるいは関連付けがなされるようになっていてもよい。 After determining the phoneme properties, the acoustic feature extractor 2614 generates a phoneme feature set that may include a phoneme feature vector (or set of phoneme feature vectors) for the phonemes determined from the user audio samples corresponding to the recording session or time frame. It may be decided. For example, a user may provide audio samples twice a day (e.g., a morning session and an evening session), with each session extracting phonemes from the audio samples captured during that session. or may correspond to a phoneme feature vector or set of vectors representing the determined properties. The phoneme feature set may be stored in the patient record 240 associated with the user, such as a phoneme feature vector 244, and may also be associated with the date or time at which the speech sample used to determine the phoneme feature was obtained. It may also be stored or associated with corresponding date and time information.

本明細書においては場合により、用語「特性集合(feature set)」および「特性ベクトル(feature vector)」が同義で使用され得る。たとえば、2つの特性集合間の比較の実行を容易化するため、各ベクトルの対応する特性間の距離測定結果が決定され得るように(すなわち、特性ベクトル比較)、または、他の動作の特性への適用を容易化するため、集合のメンバー特性が特性ベクトルと考えられる。いくつかの実施形態においては、音素特性ベクトル244が正規化されるようになっていてもよい。いくつかの実施形態においては、特性ベクトルが多次元ベクトルであってもよく、各音素は、特性を表す次元を有する。いくつかの実施形態においては、呼吸器疾患追跡器270に関連して記載の通り、2つの特性ベクトル間の比較の決定等に先立って、多次元ベクトルが平坦化されるようになっていてもよい。 In some cases, the terms "feature set" and "feature vector" may be used interchangeably herein. For example, to facilitate performing comparisons between two sets of properties, distance measurements between corresponding properties of each vector can be determined (i.e., property vector comparison), or to properties of other operations. To facilitate the application of , the member characteristics of the set are considered as characteristic vectors. In some embodiments, phoneme feature vector 244 may be normalized. In some embodiments, the characteristic vector may be a multidimensional vector, with each phoneme having dimensions that represent the characteristic. In some embodiments, multidimensional vectors may be flattened, such as before determining a comparison between two characteristic vectors, as described in connection with respiratory disease tracker 270. good.

音響特性の決定のほか、ユーザ音声モニタ260のいくつかの実施形態には、特性が決定された音声サンプルと関連するコンテキスト情報を決定するコンテキスト情報決定器2616を含んでいてもよい。コンテキスト情報は、たとえば音声サンプル記録時の条件を示し得る。例示的な実施形態において、コンテキスト情報決定器2616は、音響特性抽出器2614により生成された音素特性ベクトルとの格納あるいは関連付けがなされ得る記録の日付および/もしくは時刻(すなわち、タイムスタンプ)または記録の継続時間を決定するようにしてもよい。コンテキスト情報決定器2616により決定される情報は、抽出音響特性のほか、ユーザの呼吸器疾患の追跡と関連していてもよい。たとえば、コンテキスト情報決定器2616は、音声サンプルが得られる特定の時間帯(たとえば、朝、昼、もしくは夜)ならびに/または環境もしくは大気関連情報(たとえば、天候、湿度、および/もしくは汚染レベル)が決定され得るユーザ位置も決定可能である。また、一実施形態において、ユーザの呼吸器疾患の追跡には、音声サンプルの継続時間が用いられるようになっていてもよい。たとえば、ユーザは、可能な限り長く「アーア」音(すなわち、音素 In addition to determining acoustic characteristics, some embodiments of user audio monitor 260 may include a context information determiner 2616 that determines context information associated with the characterized audio samples. The context information may indicate, for example, the conditions under which the audio sample was recorded. In an exemplary embodiment, the context information determiner 2616 includes a date and/or time (i.e., a timestamp) of the recording that may be stored or associated with the phoneme feature vector generated by the acoustic feature extractor 2614 or a The duration may also be determined. The information determined by the context information determiner 2616 may be related to the extracted acoustic characteristics as well as tracking of the user's respiratory illness. For example, the context information determiner 2616 may determine the specific time of day (e.g., morning, noon, or night) during which the audio samples are obtained and/or environmental or atmospheric related information (e.g., weather, humidity, and/or pollution levels). A user location that may be determined may also be determined. Additionally, in one embodiment, the duration of the audio sample may be used to track a user's respiratory illness. For example, the user may want to play the "aah" sound (i.e., the phoneme for as long as possible).

)を言い続けるように求められる場合があり、ユーザの呼吸器疾患の判定には、ユーザがこの音を言い続けられる継続期間を測定する継続時間測定基準が用いられるようになっていてもよい。 ), and determining a user's respiratory illness may use a duration metric that measures how long the user can continue to say this sound.

いくつかの実施形態において、コンテキスト情報決定器2616は、音声サンプルが取得されたタイムフレームと関連付けられ得るユーザに関する生理学的情報を決定または受信するようにしてもよい。たとえば、ユーザは、図4D、図5D、および図5Eに示される実施形態に図示および記載の通り、自身が感じている症状に関する情報を提供するようにしてもよい。場合により、コンテキスト情報決定器2616は、後述の通り、ユーザ相互作用管理器280との連動によって、症状データを取得するようにしてもよい。いくつかの実施形態において、コンテキスト情報決定器2616は、ユーザのプロファイル/健康データ(EHR)241またはセンサ(図1の103等)から、ウェアラブルユーザデバイス(たとえば、フィットネストラッカー)上での体温または血中酸素濃度等の生理学的データを受信するようにしてもよい。 In some embodiments, the context information determiner 2616 may be configured to determine or receive physiological information about the user that may be associated with the time frame in which the audio samples were acquired. For example, the user may provide information regarding the symptoms he or she is experiencing, as illustrated and described in the embodiments shown in FIGS. 4D, 5D, and 5E. In some cases, context information determiner 2616 may obtain symptom data in conjunction with user interaction manager 280, as described below. In some embodiments, the context information determiner 2616 determines temperature or blood pressure on a wearable user device (e.g., a fitness tracker) from a user's profile/health data (EHR) 241 or a sensor (such as 103 in FIG. 1). Physiological data such as oxygen concentration may also be received.

いくつかの実施形態において、コンテキスト情報決定器2616は、ユーザが投薬中であるか否かおよび/またはユーザが投薬済みであるか否かを判定するようにしてもよい。この判定は、ユーザが投薬済みであることを示すデジタルアプリケーション上のインジケータの選択またはユーザが投薬済みであるかを尋ねるスマートデバイスからの催促に対する応答等、ユーザによる明示的な信号の提供に基づいてもよいし、スマートピルボックスもしくは薬箱等の別のセンサによる提供またはユーザの介護者等の別のユーザからの提供がなされるようになっていてもよい。いくつかの実施形態において、コンテキスト情報決定器2616は、処方もしくは購入および/または購入情報を示すユーザの電子健康レコード(EHR)241、電子メール、またはメッセージにアクセスすることにより、ユーザ、医師もしくはヘルスケア提供者、または介護者により提供される情報に基づいて、ユーザが投薬中であるかを判定するようにしてもよい。たとえば、ユーザまたはヘルスケア提供者は、図5Dと併せて記載の例示的な呼吸器感染症モニタリングアプリ5101等のデジタルアプリケーションを介して、ユーザに投薬中の特定の薬剤または処置方針を指定するようにしてもよい。 In some embodiments, the context information determiner 2616 may determine whether the user is on medication and/or whether the user has taken medication. This determination is based on the user providing an explicit signal, such as selecting an indicator on a digital application that indicates the user has taken the medication or responding to a prompt from a smart device asking if the user has taken the medication. Alternatively, the information may be provided by another sensor, such as a smart pill box or medicine chest, or by another user, such as the user's caregiver. In some embodiments, the context information determiner 2616 provides information about the user, physician, or health care provider by accessing the user's electronic health record (EHR) 241, email, or message indicating prescription or purchase and/or purchase information. It may be determined whether the user is on medication based on information provided by a care provider or caregiver. For example, a user or healthcare provider may prompt the user to specify a particular medication or course of treatment via a digital application, such as the exemplary respiratory infection monitoring app 5101 described in conjunction with FIG. 5D. You may also do so.

コンテキスト情報決定器2616は、(たとえば、ユーザ機器上の位置センサまたは郵便番号等のユーザによる位置情報の入力によって)ユーザの地理的地域をさらに決定するようにしてもよい。いくつかの実施形態において、コンテキスト情報決定器2616は、ユーザの地理的地域に存在する呼吸器感染症の原因となることが知られている特定のウイルスまたは細菌(インフルエンザまたはCOVID-19等)の程度をさらに決定するようにしてもよい。このような情報は、米国疾病管理予防センター(CDC)、世界保健機関(WHO)、州保健局、または国家保健機関により運営されるような政府または医療機関のウェブサイトまたはウェブポータルから入手可能と考えられる。 The context information determiner 2616 may further determine the user's geographic region (eg, via a location sensor on the user equipment or input of location information by the user, such as a zip code). In some embodiments, the context information determiner 2616 determines which viruses or bacteria (such as influenza or COVID-19) are present in the user's geographic region and are known to cause respiratory infections. The degree may be further determined. Such information may be available from government or health care agency websites or web portals, such as those operated by the Centers for Disease Control and Prevention (CDC), the World Health Organization (WHO), state health departments, or national health agencies. Conceivable.

コンテキスト情報決定器2616により決定された情報は、患者レコード240に格納されるようになっていてもよく、いくつかの実施形態においては、関係データベースに格納され、同じく患者レコード240に格納され得る特定の音声サンプルまたは音声サンプルから決定された特定の音素特性ベクトルとコンテキスト情報が関連付けられるようになっていてもよい。 The information determined by the context information determiner 2616 may be stored in the patient record 240, and in some embodiments, the information determined by the context information determiner 2616 may be stored in a relational database and may also be stored in the patient record 240. The context information may be associated with a speech sample or a specific phoneme feature vector determined from the speech sample.

上述の通り、ユーザ音声モニタ260は一般的に、ユーザの音声のオーディオサンプルからの関連する音響情報の取得を担うものであってもよい。このデータの収集には、ユーザとの相互作用の指示を含んでいてもよい。したがって、システム200の実施形態には、音声サンプルおよび/またはユーザ症状情報の取得を含むユーザデータの収集を容易化するユーザ相互作用管理器280をさらに含んでいてもよい。このため、ユーザ相互作用管理器280の実施形態には、ユーザ指示生成器282、自己報告ツール284、およびユーザ入力応答生成器286を含んでいてもよい。本明細書において後述される通り、ユーザ相互作用管理器280は、ユーザ音声モニタ260(または、その副構成要素のうちの1つもしくは複数)、提示コンポーネント220および、いくつかの実施形態において、自己報告データ評価器276と協働するようになっていてもよい。 As mentioned above, user speech monitor 260 may generally be responsible for obtaining relevant acoustic information from audio samples of the user's speech. This data collection may include instructions for interaction with the user. Accordingly, embodiments of system 200 may further include a user interaction manager 280 that facilitates the collection of user data, including obtaining voice samples and/or user symptom information. As such, embodiments of user interaction manager 280 may include a user instruction generator 282, a self-reporting tool 284, and a user input response generator 286. As described later herein, user interaction manager 280 includes user audio monitor 260 (or one or more of its subcomponents), presentation component 220, and, in some embodiments, It may be adapted to cooperate with report data evaluator 276.

ユーザ指示生成器282は一般的に、音声サンプルの提供に向けたユーザのガイドを担うものであってもよい。ユーザ指示生成器282は、音声データを取り込む手順をユーザに提供するようにしてもよい(たとえば、図5Aの例示に示されるようなグラフィカルユーザインターフェースを介した表示または図4Cの例示的な相互作用に示されるようなオーディオもしくは音声ユーザインターフェースを介した発話を容易化するようにしてもよい)。とりわけ、ユーザ指示生成器282は、ユーザに対する指示231の読み上げおよび/または発話を行うようにしてもよい(たとえば、「『アー』と5秒間言ってください」)。これらの指示231は、予めプログラムされたもので、ユーザに求められる音素、音声関連データ、または他のユーザ情報に固有であってもよい。場合によっては、ユーザの臨床医または介護者によって、指示231が決定されるようになっていてもよい。このように、いくつかの実施形態によれば、指示231は、(たとえば、患者としての処置の一部として)ユーザおよび/または呼吸器感染症もしくは薬剤に固有であってもよい。この代替または追加として、指示231が自動的に生成(たとえば、合成または構築)されるようになっていてもよい。たとえば、ユーザの呼吸器疾患の判定に対して特定の音素に関する特性情報が必要または有用である旨の判定に基づいて、特定の音素を要求する指示231が生成されるようになっていてもよい。同様に、ユーザに対する特定の指示または適合された指示の構築に対して、一組の予め定められた指示231または動作が(たとえば、臨床医もしくは介護者から)提供され(または、105aもしくは105b等の意思決定支援アプリケーションにプログラムされ)、使用されるようになっていてもよい。 User instruction generator 282 may generally be responsible for guiding the user toward providing audio samples. User instruction generator 282 may provide instructions to the user for capturing audio data (e.g., via a graphical user interface as shown in the example of FIG. 5A or the example interaction of FIG. 4C). utterances may be facilitated via an audio or voice user interface such as that shown in Figure 1). Among other things, user instruction generator 282 may read and/or utter instructions 231 to the user (eg, "Say 'Ah' for 5 seconds"). These instructions 231 may be pre-programmed and specific to the phonemes, speech-related data, or other user information desired by the user. In some cases, instructions 231 may be determined by the user's clinician or caregiver. Thus, according to some embodiments, instructions 231 may be specific to the user and/or respiratory infection or medication (eg, as part of treatment as a patient). Alternatively or additionally, instructions 231 may be automatically generated (eg, synthesized or constructed). For example, the instruction 231 requesting a specific phoneme may be generated based on a determination that characteristic information regarding a specific phoneme is necessary or useful for determining a user's respiratory disease. . Similarly, a set of predetermined instructions 231 or actions (e.g., from a clinician or caregiver) may be provided (or such as 105a or 105b) for constructing specific or adapted instructions for the user. may be programmed into a decision support application) and adapted for use.

予めプログラムまたは生成された指示231は、設定継続時間にわたる特定の音素の発話、可能な限り長時間にわたる特定の音素の発話継続、特定の単語もしくは単語の組み合わせの発話、または文章の音読等、特定の発話関連タスクの実行に関するものであってもよい。ユーザによる文章の音読が要求されるいくつかの実施形態においては、ユーザが提供された文章を音読できるように、文章のテキストがユーザに提供されるようになっていてもよい。この追加または代替として、ユーザがテキストを読まずに可聴文章を繰り返せるように、文章の一部がユーザに対して可聴出力されるようになっていてもよい。一実施形態において、ユーザは、(書かれたテキストの読み上げまたは発話指示の繰り返しによって)予め定められた音韻のバランスがとれた文章(虹の一節(rainbow passage)等)を声に出して、虹の一節の5行等、文章のある一部を読むように要求される場合がある。場合により、ユーザには、文章の読み上げの完了のため、2分間等の予め定められた時間が与えられ得る。 The preprogrammed or generated instructions 231 may be specific, such as uttering a particular phoneme for a set duration, continuing to utter a particular phoneme for as long as possible, uttering a particular word or combination of words, or reading a sentence aloud. may be related to performing speech-related tasks. In some embodiments where a user is required to read a text aloud, the text of the text may be provided to the user so that the user can read the provided text aloud. Additionally or alternatively, portions of the text may be output audibly to the user so that the user can repeat the audible text without reading the text. In one embodiment, the user speaks aloud (by reading written text or repeating spoken instructions) a predetermined phonologically balanced sentence (such as a rainbow passage) to create a rainbow passage. You may be asked to read a part of the text, such as the five lines of a passage. In some cases, the user may be given a predetermined amount of time, such as two minutes, to complete reading the text.

いくつかの実施形態において、指示231は、ユーザによる提供が指示された音素のサンプル音を提供するようにしてもよい。いくつかの実施形態において、ユーザ指示生成器282は、呼吸器疾患の解析に求められる音素または音のみに関する指示231を与えるようにしてもよく、これには、指示231の一部のみの提供を含み得る。たとえば、所与のタイムフレームにわたって特定の音素を含む音声サンプルをユーザ音声モニタ260が未だに取得していない場合、ユーザ指示生成器282は、当該音素情報を含む音声サンプルの取得を容易化する指示231を与えるようにしてもよい。ユーザ指示生成器282(または、ユーザ相互作用管理器280)により提供され得る指示231を示す別の例については、図4A、図4B、および図5Bに関連して図示および詳述される。 In some embodiments, the instructions 231 may provide sample sounds of the phonemes that the user is instructed to provide. In some embodiments, the user instruction generator 282 may provide instructions 231 regarding only the phonemes or sounds required for respiratory disease analysis, including providing only a portion of the instructions 231. may be included. For example, if the user speech monitor 260 has not yet acquired a speech sample containing a particular phoneme over a given time frame, the user instruction generator 282 may generate instructions 231 to facilitate the acquisition of a speech sample containing the phoneme information. You may also give Another example of instructions 231 that may be provided by user instruction generator 282 (or user interaction manager 280) is illustrated and detailed in connection with FIGS. 4A, 4B, and 5B.

ユーザ指示生成器282のいくつかの実施形態では、特定のユーザに適合された指示231を与えるようにしてもよい。このため、ユーザ指示生成器282は、特定のユーザの健康状態、臨床医の指示、ユーザに対する処方もしくは推奨、ユーザの属性情報もしくはEHR情報(たとえば、ユーザが喫煙者と判定された場合は、指示が修正される)、またはユーザから過去に取り込まれた音声/音素情報に基づいて、指示231を生成するようにしてもよい。たとえば、ユーザにより提供された過去の音素の解析は、呼吸器感染症の全期間または一部期間(たとえば、回復時)により大きな変化を示す特定の音素を示し得る。この追加または代替としては、いくつかの音素特性によって、他の特性よりも容易に検出または追跡される呼吸器疾患をユーザが罹患しているものと判定されるようになっていてもよい。これらの例において、ユーザ指示生成器282の一実施形態では、当該関心音素の付加的なサンプルの取り込みをユーザに指示するようにしてもよいし、指示231を生成または修正することにより、特定のユーザに対して有用ではない音素を含む音声サンプルを取得する指示を除去する(または、提供しない)ようにしてもよい。ユーザ指示生成器282のいくつかの実施形態においては、ユーザの呼吸器疾患に関する過去の判定(たとえば、ユーザが病中であるか否か、または、回復しているか)に基づいて、指示231が修正されるようになっていてもよい。 Some embodiments of user instruction generator 282 may provide instructions 231 that are tailored to a particular user. To this end, the user instruction generator 282 may include information such as a particular user's health status, a clinician's instructions, a prescription or recommendation for the user, user demographic information or EHR information (e.g., if the user is determined to be a smoker, an instruction The instructions 231 may be generated based on previously captured audio/phoneme information from the user. For example, an analysis of past phonemes provided by a user may indicate certain phonemes that exhibit greater changes during all or part of a respiratory infection (eg, during recovery). Additionally or alternatively, some phoneme characteristics may indicate that a user has a respiratory disease that is more easily detected or tracked than other characteristics. In these examples, one embodiment of user instruction generator 282 may instruct the user to capture additional samples of the phoneme of interest, or generate or modify instructions 231 to Instructions to obtain audio samples containing phonemes that are not useful to the user may be removed (or not provided). In some embodiments of the user instruction generator 282, the instructions 231 are based on past determinations regarding the user's respiratory illness (e.g., whether the user is sick or recovering). It may be modified.

自己報告ツール284は一般的に、呼吸器疾患と関連し得るデータおよび他のコンテキスト情報の提供に向けたユーザのガイドを担うものであってもよい。自己報告ツール284は、自己報告データ評価器276およびデータ収集コンポーネント210と連動するようになっていてもよい。自己報告ツール284のいくつかの実施形態では、ユーザ指示生成器282との連動によって、ユーザ関連データを提供するようにユーザをガイドする指示231を与えるようにしてもよい。たとえば、自己報告ツール284は、指示231を利用して、ユーザが呼吸器疾患に関して体験している症状に関する情報の提供をユーザに促すようにしてもよい。一実施形態において、自己報告ツール284は、一組の症状のうちの各症状(鼻づまりと関連していてもよいし、鼻づまりと関連していなくてもよい)の重症度の評価をユーザに促すようにしてもよい。この追加または代替として、自己報告ツール284は、ユーザの健康またはユーザの全般的な感じ方に関する情報を提供するように、指示231の利用またはユーザへの依頼を行うようにしてもよい。一実施形態において、自己報告ツール284は、後鼻漏、鼻閉、鼻水、粘液の多い鼻汁、咳、喉の痛み、鼻をかむ必要性の重症度の表示をユーザに促すようにしてもよい。いくつかの実施形態において、自己報告ツール284は、ユーザへの催促またはユーザからのデータの受け付けを容易化するユーザインターフェース要素を備えていてもよい。たとえば、図5Dおよび図5Eには、自己報告ツール284を提供するGUIの態様が示される。また、図4D、図4E、および図4Fには、自己報告ツール284を提供する音声ユーザインターフェース(VUI)の態様を示す例示的なユーザ相互作用が示される。 Self-reporting tools 284 may generally be responsible for guiding the user toward providing data and other contextual information that may be associated with a respiratory disease. Self-reporting tool 284 may be adapted to work with self-reporting data evaluator 276 and data collection component 210. Some embodiments of self-reporting tool 284 may work in conjunction with user instruction generator 282 to provide instructions 231 that guide the user to provide user-related data. For example, self-reporting tool 284 may utilize instructions 231 to prompt a user to provide information regarding symptoms the user is experiencing regarding a respiratory illness. In one embodiment, the self-report tool 284 allows the user to rate the severity of each symptom of the set of symptoms, which may or may not be associated with nasal congestion. You may also be prompted to do so. Additionally or alternatively, the self-reporting tool 284 may utilize instructions 231 or ask the user to provide information regarding the user's health or how the user is feeling generally. In one embodiment, the self-report tool 284 may prompt the user to indicate the severity of post-nasal drip, nasal congestion, runny nose, mucus-filled nasal discharge, cough, sore throat, and need to blow the nose. . In some embodiments, self-reporting tool 284 may include user interface elements that facilitate prompting or accepting data from a user. For example, FIGS. 5D and 5E depict aspects of a GUI that provides a self-reporting tool 284. Also shown in FIGS. 4D, 4E, and 4F are example user interactions that illustrate aspects of a voice user interface (VUI) that provides self-reporting tool 284.

いくつかの実施形態において、自己報告ツール284は、指示231を利用して、一日に複数回の症状または全身状態の入力をユーザに促すようにしてもよく、また、要求される入力は、時間帯によって異なり得る。いくつかの実施形態において、入力時間は、ユーザ音声サンプルが取得されるタイムフレームまたはセッションに対応していてもよい。一例において、自己報告ツール284は、朝に19個の症状、夜に16個の症状について、知覚される重症度の評価をユーザに促すようにしてもよい。この追加または代替として、自己報告ツール284は、睡眠関連の質問について朝に4つ、一日の終わりの疲労感の質問について夜に1つ答えることをユーザに促すようにしてもよい。以下の表は、指示231を利用することにより自己報告ツール284によって決定され、自己報告ツール284またはユーザ相互作用管理器280の他の副構成要素によって出力され得るユーザ入力の催促の例示的なリストを示している。 In some embodiments, self-reporting tool 284 may utilize instructions 231 to prompt the user to enter symptoms or general condition multiple times per day, and the requested inputs may include: May vary depending on time of day. In some embodiments, the input time may correspond to a time frame or session in which the user audio samples are obtained. In one example, self-report tool 284 may prompt the user to rate the perceived severity of 19 symptoms in the morning and 16 symptoms in the evening. Additionally or alternatively, the self-report tool 284 may prompt the user to answer four sleep-related questions in the morning and one end-of-day fatigue question at night. The following table is an exemplary list of user input prompts that may be determined by self-reporting tool 284 by utilizing instructions 231 and output by self-reporting tool 284 or other subcomponents of user interaction manager 280. It shows.

いくつかの実施形態において、自己報告ツール284は、ユーザの検出された音素特性(すなわち、疑われる呼吸器疾患に基づく)、過去に取り込まれた音素データ、および/または他の自己報告入力に基づいて、追加の質問を提供するようにしてもよいし、追加の催促を与えるようにしてもよい。例示的な一実施形態において、ユーザが呼吸器感染症を発症している可能性または呼吸器感染症から回復中である可能性を音素特性の解析が示す場合、自己報告ツール284は、症状の報告に関するユーザへの催促を容易化するようにしてもよい。たとえば、指示231の利用および/またはユーザ相互作用管理器280との連動が可能な自己報告ツール284は、ユーザの症状に関する質問(または、ユーザの症状を求めるリクエストの表示)を行うようにしてもよい。本実施形態において、ユーザは、「鼻づまりを感じますか?」等、ユーザの感じ方に関する質問を尋ねられる場合がある。同様の例において、ユーザが鼻づまりまたは特定の症状を起こしていることを報告した場合、自己報告ツール284は、「1~10段階でどの程度の鼻づまりですか?」という質問またはこの追加詳細を提供する旨のユーザへの催促を別途行うようにしてもよい。 In some embodiments, the self-report tool 284 is based on the user's detected phoneme characteristics (i.e., based on suspected respiratory illness), previously captured phoneme data, and/or other self-report input. may be used to ask additional questions or provide additional prompts. In an exemplary embodiment, if the analysis of phonemic characteristics indicates that the user may have a respiratory infection or is recovering from a respiratory infection, the self-reporting tool 284 may indicate that the user may be suffering from a respiratory infection. It may also be possible to facilitate prompting of users regarding reporting. For example, a self-reporting tool 284 that can utilize instructions 231 and/or interface with a user interaction manager 280 may be configured to ask questions regarding (or display requests for) a user's symptoms. good. In this embodiment, the user may be asked questions regarding how the user feels, such as "Do you feel stuffy?" In a similar example, if a user reports having a stuffy nose or certain symptoms, the self-report tool 284 may ask, "On a scale of 1-10, how stuffy is your nose?" or this additional detail. It is also possible to separately remind the user that the service will be provided.

いくつかの実施形態において、自己報告ツール284は、ユーザがウェアラブルデバイス、健康モニタ、または生理学的センサの通信結合によってユーザの生理学的データの自動収集を容易化し得る機能を含んでいてもよい。このような一実施形態においては、コンテキスト情報決定器2616またはシステム200の他の構成要素によってデータが受信され、患者レコード240に格納されるようになっていてもよい。いくつかの実施形態においては、上述の通り、この自己報告ツール284から受信された情報が関係データベースに格納され、あるセッションから取得された特定の音声サンプルまたは音声サンプルから決定された特定の音素特性ベクトルと関連付けられるようになっていてもよい。いくつかの実施形態においては、受信した生理学的データに基づいて、自己報告ツール284が上述の通り、自己報告症状情報をユーザに催促または要求するようにしてもよい。 In some embodiments, self-reporting tools 284 may include functionality that allows a user to facilitate automatic collection of a user's physiological data through communicative coupling of a wearable device, health monitor, or physiological sensor. In one such embodiment, data may be received by context information determiner 2616 or other components of system 200 and stored in patient record 240. In some embodiments, as described above, the information received from this self-reporting tool 284 is stored in a relational database to identify specific speech samples obtained from a session or specific phoneme characteristics determined from the speech samples. It may also be associated with a vector. In some embodiments, based on the physiological data received, self-reporting tool 284 may prompt or request self-reported symptom information from the user, as described above.

種々実施形態によれば、ユーザ入力応答生成器286は一般的に、ユーザへのフィードバックの提供を担うものであってもよい。このような一実施形態において、ユーザ入力応答生成器286は、発話または音声記録等、ユーザデータに関するユーザの入力を解析するようにしてもよく、また、ユーザ指示生成器282および/またはサンプル記録検査器2608との連動により、ユーザの入力に基づいてフィードバックをユーザに与えるようにしてもよい。一実施形態において、ユーザ入力応答生成器286は、ユーザの応答を解析して、ユーザが良好な音声サンプルを提供したか否かを判定した後、当該判定をユーザに示すようにしてもよい。たとえば、記録されたサンプルが良好であることを示すため、緑色の光、チェックマーク、スマイルマーク、サムズアップ、ベルもしくはチャープ音、または類似のインジケータがユーザに提供されるようになっていてもよい。同様に、サンプルが不完全または欠陥であったことをユーザに報知するため、赤色の光、しかめ面、ブザー、または類似のインジケータが提供されるようになっていてもよい。いくつかの実施形態において、ユーザ入力応答生成器286は、ユーザ指示生成器282からの指示231をユーザが順守できなかったかを判定するようにしてもよい。ユーザ入力応答生成器286のいくつかの実施形態では、問題が検出された場合、チャットボットソフトウェアエージェントを呼び出して、状況に応じたヘルプまたは補助をユーザに提供するようにしてもよい。 According to various embodiments, user input response generator 286 may be generally responsible for providing feedback to the user. In one such embodiment, user input response generator 286 may be configured to analyze user input for user data, such as utterances or audio recordings, and may also include user instruction generator 282 and/or sample recording inspection. In conjunction with device 2608, feedback may be provided to the user based on the user's input. In one embodiment, user input response generator 286 may analyze the user's response to determine whether the user provided a good audio sample and then indicate that determination to the user. For example, a green light, check mark, smiley face, thumbs up, bell or chirp, or similar indicator may be provided to the user to indicate that the recorded sample is good. . Similarly, a red light, grimace, buzzer, or similar indicator may be provided to alert the user that the sample is incomplete or defective. In some embodiments, user input response generator 286 may determine whether the user has failed to comply with instructions 231 from user instruction generator 282. In some embodiments of user input response generator 286, if a problem is detected, a chatbot software agent may be invoked to provide contextual help or assistance to the user.

ユーザ入力応答生成器286の実施形態では、過去の音声サンプルの音レベル等の音響特性が不十分な場合、バックグラウンドノイズが多すぎる場合、またはサンプルで記録された音が十分な長さではない場合に、ユーザへの報知を行うようにしてもよい。たとえば、ユーザが最初の音声サンプルを提供した後、ユーザ入力応答生成器286は、「聞き取れませんでした。もう一度お願いします。『アーア』と5秒間言ってください。」と出力するようにしてもよい。一実施形態において、ユーザ入力応答生成器286は、記録時にユーザが実現すべき音量レベルの表示および/または音声サンプルが受け入れ可能であるか否かに関するフィードバックのユーザへの提供を行うようにしてもよく、これは、サンプル記録検査器2608に従って判定されるようになっていてもよい。 Embodiments of the user input response generator 286 may detect if past audio samples have insufficient acoustic characteristics such as sound level, if there is too much background noise, or if the sound recorded in the sample is not long enough. In this case, the user may be notified. For example, after the user provides the first audio sample, the user input response generator 286 may output, "I couldn't catch you. Please repeat. Say 'aaaaa' for 5 seconds." good. In one embodiment, the user input response generator 286 may provide an indication of the volume level that the user should achieve during recording and/or provide feedback to the user regarding whether the audio sample is acceptable. Often, this may be determined according to sample record examiner 2608.

いくつかの実施形態において、ユーザ入力応答生成器286は、ユーザインターフェースの態様を利用して、音レベル、バックグラウンドノイズ、または音声サンプルを取得するタイミング継続時間に関するフィードバックをユーザに与えるようにしてもよい。たとえば、音声サンプルの記録のための発話を開始するタイミングまたは停止するタイミングを知らせるため、視覚的または聴覚的なカウントダウンクロックまたはタイマーが用いられるようになっていてもよい。図5Aには、GUI要素5122として、タイマーの一実施形態が示される。図5Bにおいては、GUI要素5222として、ユーザ入力応答を与える同様の例が示されており、これには、タイマーおよびバックグラウンドノイズのインジケータを含む。他の例(図示せず)としては、オーディオ入力レベル、バックグラウンドノイズ、単語の色替えもしくは単語の発話時にユーザが読んでいる単語に沿って跳ねるボール、または類似の聴覚的もしくは視覚的インジケータに関するGUI要素が挙げられる。 In some embodiments, the user input response generator 286 may utilize aspects of the user interface to provide feedback to the user regarding sound levels, background noise, or timing durations for acquiring audio samples. good. For example, a visual or audible countdown clock or timer may be used to signal when to start or stop speaking for recording audio samples. One embodiment of a timer is shown in FIG. 5A as GUI element 5122. A similar example of providing user input responses is shown in FIG. 5B as GUI elements 5222, including a timer and an indicator of background noise. Other examples (not shown) may relate to audio input levels, background noise, word color changes or balls bouncing along with the words the user is reading as the words are spoken, or similar auditory or visual indicators. Examples include GUI elements.

ユーザ入力応答生成器286は、特定の発話関連タスク(たとえば、発声)または音声セッションの進展の指標をユーザに与えるようにしてもよい。たとえば、上述の通り、ユーザ入力応答生成器286は、ユーザが持続的な発声を行う際の秒数を(グラフィカルユーザインターフェースまたはオーディオユーザインターフェースでの表示により)カウントするようにしてもよいし、開始および/または停止のタイミングをユーザに示すようにしてもよい。ユーザ入力応答生成器286(または、ユーザ指示生成器282)のいくつかの実施形態では、特定のセッション、タイムフレーム、または日付について、完了予定の発話関連タスクまたは完了済みの発話関連タスクに関する指標を提供するようにしてもよい。 User input response generator 286 may provide the user with an indication of the progress of a particular speech-related task (eg, vocalization) or audio session. For example, as discussed above, the user input response generator 286 may count the number of seconds (as displayed in the graphical user interface or audio user interface) during which the user makes a sustained utterance, And/or the timing of stopping may be indicated to the user. Some embodiments of user input response generator 286 (or user instruction generator 282) provide indicators regarding upcoming or completed speech-related tasks for a particular session, time frame, or date. It may also be provided.

上述の通り、ユーザ入力応答生成器286のいくつかの実施形態では、ユーザが提供した音声サンプルのフィードバックを確認し得るように、たとえばサンプルの音量レベル、サンプルが受け入れ可能であるか否か、および/またはサンプルが正しく取り込まれたか否かに関するインジケータ等、ユーザに対する視覚的なインジケータを生成するようにしてもよい。 As discussed above, some embodiments of the user input response generator 286 may check feedback of the audio sample provided by the user, such as the volume level of the sample, whether the sample is acceptable, and /Or a visual indicator may be generated for the user, such as an indicator as to whether the sample was correctly captured.

ユーザ音声モニタ260により(単独もしくはユーザ相互作用管理器280との連動で)収集および決定された音声情報を利用して、呼吸器疾患追跡器270は、ユーザの呼吸器疾患に関する情報および/またはユーザの将来の呼吸器疾患に関する予測を決定するようにしてもよい。一実施形態において、呼吸器疾患追跡器270は、特定の時間またはタイムフレームと関連付けられ、日付および/または時刻情報でタイムスタンプされ得る音素特性集合(たとえば、1つまたは複数の音素特性ベクトル)を受信するようにしてもよい。たとえば、音素特性集合は、ユーザ音声モニタ260またはユーザと関連付けられた患者レコード240(音素特性ベクトル244等)から受信されるようになっていてもよい。本明細書に記載の通り、音素特性集合と関連付けられた時間情報は、音素特性集合の決定に用いられる音声サンプル(または、音声関連データ)がユーザから取得された日付および/または時刻に対応していてもよい。また、呼吸器疾患追跡器270は、音素特性が決定されたオーディオ記録または音声サンプルと関連するコンテキスト情報を受信するようにしてもよく、これはまた、患者レコード240および/またはユーザ音声モニタ260(もしくは具体的に、コンテキスト情報決定器2616)から受信されるようになっていてもよい。呼吸器疾患追跡器270の実施形態では、1つまたは複数の分類器を利用することにより、複数回の音素特性集合(ベクトル)および、いくつかの実施形態においては、コンテキスト情報に基づいて、ユーザの現在可能性の高い呼吸器疾患のスコアまたは判定を生成するようにしてもよい。この追加または代替として、呼吸器疾患追跡器270は、予測器モデルを利用して、ユーザの将来的に可能性の高い呼吸器疾患を予想するようにしてもよい。呼吸器疾患追跡器270の実施形態には、特性ベクトル時系列組立器272、音素特性比較器274、自己報告データ評価器276、および呼吸器疾患推論エンジン278を含んでいてもよい。 Utilizing the voice information collected and determined by user voice monitor 260 (alone or in conjunction with user interaction manager 280), respiratory disease tracker 270 may generate information regarding the user's respiratory disease and/or the user's A prediction regarding future respiratory disease may be determined. In one embodiment, respiratory disease tracker 270 generates a set of phoneme features (e.g., one or more phoneme feature vectors) that can be associated with a particular time or time frame and timestamped with date and/or time information. You may also receive it. For example, the phoneme feature set may be received from a user voice monitor 260 or a patient record 240 (such as a phoneme feature vector 244) associated with the user. As described herein, the temporal information associated with the phoneme feature set corresponds to the date and/or time at which the speech sample (or speech-related data) used to determine the phoneme feature set was obtained from the user. You can leave it there. Respiratory disease tracker 270 may also receive context information associated with the audio recording or voice sample for which phonemic characteristics have been determined, which may also be associated with patient record 240 and/or user voice monitor 260 ( Or specifically, it may be received from the context information determiner 2616). Embodiments of the respiratory disease tracker 270 utilize one or more classifiers to identify the user based on multiple sets of phoneme features (vectors) and, in some embodiments, context information. A currently likely respiratory disease score or determination may be generated. Additionally or alternatively, respiratory illness tracker 270 may utilize a predictor model to predict likely future respiratory illnesses for the user. Embodiments of respiratory disease tracker 270 may include a feature vector time series assembler 272, a phoneme feature comparator 274, a self-report data evaluator 276, and a respiratory disease inference engine 278.

特性ベクトル時系列組立器272は、ユーザの連続する音素特性ベクトル(または、特性集合)の時系列の組み立てのために採用されたものであってもよい。時系列は、特性ベクトルと関連付けられた時間情報(または、タイムスタンプ)に従って、時間順または逆時間順に組み立てられていてもよい。いくつかの実施形態において、時系列には、ユーザもしくは患者の収集された音声サンプルに対して生成された音素特性ベクトル、患者が病中である(すなわち、呼吸器感染症である)時間区分内に収集されたサンプルに対して生成された音素特性ベクトル、または、たとえば過去3~5週間、過去2週間、もしくは過去1週間等、設定された時間区分もしくは予め定められた時間区分内の時間と関連付けられた音素特性ベクトルのすべてを含んでいてもよい。他の実施形態において、時系列には、2つの特性ベクトルのみを含む。このような一実施形態においては、時系列の第1の音素特性ベクトルが対応するタイムスタンプに応じた最新期間または時点と関連付けられていてもよく、このため、ユーザの現在の呼吸器疾患に関する情報を表す。一方、第2の特性ベクトルは、より早い期間または時点と関連付けられていてもよい。いくつかの実施形態において、より早い期間は、ユーザの呼吸器疾患が最新の期間または時点と異なる時間区分(すなわち、ユーザが病中または健康であった時間)に対応する。 The feature vector time series assembler 272 may be employed to assemble a time series of consecutive phoneme feature vectors (or feature sets) of the user. The time series may be assembled in chronological or reverse chronological order according to time information (or timestamps) associated with the characteristic vectors. In some embodiments, the time series includes phoneme feature vectors generated for collected speech samples of a user or patient, within a time period during which the patient is ill (i.e., has a respiratory infection). or a time within a set or predetermined time interval, such as the past 3-5 weeks, the past 2 weeks, or the past 1 week. It may include all associated phoneme feature vectors. In other embodiments, the time series includes only two characteristic vectors. In one such embodiment, the first phoneme feature vector of the time series may be associated with the most recent time period or point in time according to the corresponding timestamp, thus providing information regarding the user's current respiratory illness. represents. On the other hand, the second characteristic vector may be associated with an earlier time period or point in time. In some embodiments, the earlier time period corresponds to a time interval (ie, a time when the user was sick or well) during which the user's respiratory illness was different from the most recent time period or point in time.

さらに、音素特性比較器274は一般的に、ユーザの音素特性ベクトル244の差(または、異なる特性集合における特性の値の差)の決定を担うものであってもよい。音素特性比較器274は、2つ以上の音素特性ベクトルの比較によって差を決定するようにしてもよい。たとえば、任意の2つの異なる時点または期間と関連付けられた音素特性ベクトル244間または最新の期間もしくは時点と関連付けられた特性ベクトルとより早い期間もしくは時点と関連付けられた特性ベクトルとの間で比較が実行されるようになっていてもよい。音素特性比較器274による比較によって、異なる期間または時点にまたがる特性の変化に関する(ユーザの呼吸器疾患の変化を表す)情報が得られるように、比較される各音素特性集合(または、ベクトル)は、異なる期間または時点と関連付けられていてもよい。いくつかの実施形態においては、比較される2つ以上の特性ベクトルが同じ継続時間を有し得ること、または、各ベクトルが比較のための対応する特性(すなわち、同じ次元)を有することも考えられる。場合によっては、特性ベクトルの一部(または、特性の部分集合)のみが比較されるようになっていてもよい。一実施形態においては、異なる期間または時点に及ぶタイムフレームにわたる特性の変化を特徴付ける解析を実行するため、複数の特性ベクトル(異なる期間または時点とそれぞれ関連付けられた3つ以上のベクトルを含み得る)が音素特性比較器274により利用されるようになっていてもよい。たとえば、この解析には、変化率の決定、回帰もしくは曲線フィッティング、クラスタ分析、判別分析、または他の分析を含んでいてもよい。上述の通り、本明細書においては、特性集合間の比較の実行を容易化するため、用語「特性集合(feature set)」および「特性ベクトル(feature vector)」が同義で使用され得るものの、特性集合の個々の特性は特性ベクトルと考えられる。 Furthermore, the phoneme feature comparator 274 may generally be responsible for determining differences in the user's phoneme feature vectors 244 (or differences in the values of features in different feature sets). The phoneme feature comparator 274 may determine the difference by comparing two or more phoneme feature vectors. For example, a comparison may be performed between phoneme feature vectors 244 associated with any two different time periods or time periods or between a feature vector associated with the most recent time period or time point and a feature vector associated with an earlier time period or time point. It may be possible to do so. Each phoneme feature set (or vector) being compared is , may be associated with different time periods or points in time. In some embodiments, it is also contemplated that two or more characteristic vectors that are compared may have the same duration, or that each vector has a corresponding characteristic (i.e., the same dimension) for comparison. It will be done. In some cases, only some of the characteristic vectors (or a subset of characteristics) may be compared. In one embodiment, multiple characteristic vectors (which may include three or more vectors, each associated with a different time period or point in time) are used to perform an analysis characterizing changes in a characteristic over time frames spanning different time periods or points in time. It may also be used by the phoneme characteristic comparator 274. For example, this analysis may include determining rate of change, regression or curve fitting, cluster analysis, discriminant analysis, or other analysis. As mentioned above, herein the terms "feature set" and "feature vector" may be used interchangeably to facilitate comparisons between feature sets; The individual properties of the set can be thought of as a property vector.

いくつかの実施形態においては、最新の期間または時点の特性ベクトル(たとえば、最も新しく取得された音声サンプルから決定された特性ベクトル)と複数のより早い期間または時点に対応する特性ベクトルの平均または合成(たとえば、複数の先行特性ベクトルまたは音声サンプルに基づくボックスカー移動平均)との間で比較が実行されるようになっていてもよい。場合により、この平均には、ユーザの先行期間もしくは時点と関連付けられた最大数の特性ベクトルを考慮するようにしてもよいし(たとえば、音声サンプルを取得する10個の先行セッションに対応する特性ベクトルの平均)、過去1週間または2週間等、予め定められたより早い時間区分からの最大数の特性ベクトルを考慮するようにしてもよい。この代替または追加として、音素特性比較器274は、本明細書に別途記載の通り、一般大衆またはモニタリングユーザに類似する他のユーザ等のユーザまたは他のユーザ(たとえば、類似の呼吸器疾患またはモニタリングユーザに対する他の類似性を有するコホート)に基づき得る音素特性基準に対して、最新の時間区分に関するユーザの特性ベクトルを比較するようにしてもよい。さらに、場合により、この比較では、基準に対応する特性集合の(または、特性集合に対応する)統計的分散または標準偏差等、基準(または、基準を利用しない実施形態では、特性集合)に関する統計情報を利用するようにしてもよい。いくつかの実施形態においては、先行特性ベクトル(すなわち、より早い期間または時点に取得された音声サンプルに対応する特性ベクトル)に対する平滑化関数として動作するように、平均、特に、ローリング平均または移動平均の採用が考慮され得る。このように、早期サンプルで発生し得る呼吸器感染症を考慮しない音声関連データの変動(たとえば、音声サンプルの取得が、ユーザが最初に目覚めた朝か、長い一日の終わりか、ユーザが大きな声で応援したり歌ったりした後の時間か)が最小化され得る。また、音素特性比較器274のいくつかの実施形態では、早期の特性ベクトルの平均または単一のより早い期間もしくは時点と関連付けられた特性ベクトルに対して、最新の特性ベクトルの平均を比較し得るとも考えられる。同様に、最新の特性の特性値(または、特性値の一部)の統計的分散が決定され、早期の特性値(または、その一部)の分散に対して比較されるようになっていてもよい。 In some embodiments, an average or combination of the characteristic vector for the most recent time period or time point (e.g., the characteristic vector determined from the most recently acquired audio sample) and the characteristic vector corresponding to multiple earlier time periods or time points. (eg, a boxcar moving average based on multiple prior characteristic vectors or audio samples). Optionally, this average may take into account the maximum number of feature vectors associated with the user's previous period or point in time (e.g., feature vectors corresponding to 10 previous sessions in which audio samples were obtained). The maximum number of characteristic vectors from a predetermined earlier time interval, such as the past week or two weeks, may be taken into account. Alternatively or additionally, the phoneme feature comparator 274 may be used to detect a user such as the general public or other users similar to the monitoring user (e.g., with a similar respiratory disease or monitoring The user's feature vector for the most recent time segment may be compared against phoneme feature criteria that may be based on other similar cohorts for the user. Additionally, in some cases, the comparison includes statistics about the criterion (or, in embodiments that do not utilize a criterion, the characteristic set), such as the statistical variance or standard deviation of the characteristic set (or corresponding to the characteristic set) corresponding to the criterion. The information may also be used. In some embodiments, an average, in particular a rolling average or a moving average, is used to act as a smoothing function for the preceding characteristic vector (i.e., the characteristic vector corresponding to the audio samples taken at an earlier time period or point in time). may be considered. This variation in voice-related data does not account for respiratory infections that may occur in early samples (e.g., whether voice samples were taken in the morning when the user first woke up, at the end of a long day, or if the user The amount of time spent cheering or singing can be minimized. Additionally, some embodiments of the phoneme feature comparator 274 may compare the average of the most recent feature vectors to the mean of earlier feature vectors or feature vectors associated with a single earlier time period or point in time. You might also say that. Similarly, the statistical variance of the characteristic value (or part of the characteristic value) of the most recent characteristic is determined and compared against the variance of the earlier characteristic value (or part thereof). Good too.

音素特性比較器274のいくつかの実施形態では、音素特性比較ロジック235を利用して、音素特性ベクトルの比較を決定するようにしてもよい。音素特性比較ロジック235には、コンピュータ命令(たとえば、関数、ルーチン、プログラム、ライブラリ等)を含んでいてもよく、特性もしくは特性ベクトルの比較の実行または比較もしくは比較の処理による解釈の容易化のための1つまたは複数のルール、条件、プロセス、モデル、または他のロジックが挙げられるが、これらに限定されない。いくつかの実施形態においては、音素特性ベクトルの距離測定基準または差分測定結果を演算するため、音素特性比較ロジック235が音素特性比較器274により利用される。例示的な態様において、距離測定結果は、ユーザの時間経過に対して、音声情報の音響特性空間の変化を定量化したものと考えられる。このように、ユーザの音声情報が取得された2つ以上の時刻間で音響特性空間(たとえば、音素特性)に検出される定量化可能な変化に基づいて、ユーザの呼吸器疾患の変化が観察および定量化されるようになっていてもよい。一実施形態において、音素特性比較器274は、距離測定結果を決定するため、2つの特性ベクトル(または、特性ベクトルの平均)に対するユークリッド測定結果またはL2距離を決定するようにしてもよい。場合により、音素特性比較ロジック235には、比較演算に先立って、または、比較演算の一部として、多次元ベクトルの場合の平坦化、正規化、または他の処理演算を実行するロジックを含んでいてもよい。いくつかの実施形態において、音素特性比較ロジック235には、他の距離測定基準(たとえば、マンハッタン距離)を実行するロジックを含んでいてもよい。たとえば、最新の特性ベクトルと、より早い期間または時点と関連付けられた一組の特性ベクトルとの間の距離を決定するため、マハラノビス距離が利用されるようになっていてもよい。いくつかの実施形態において、ユーザによる文章の音読を比較する実施態様等の場合は、レーベンシュタイン距離が決定されるようになっていてもよい。たとえば、一実施形態によれば、ユーザによる文章の音読からテキストを生成するため、発話テキスト化アルゴリズムが利用されるようになっていてもよい。また、文章の音節もしくは単語およびユーザがこれらの単語を読み上げたタイミングの対応するタイムスタンプを含む1つまたは複数のエントリの時系列が決定されるようになっていてもよい。この時系列(または、タイムスタンプ)情報は、同様に決定される基準特性ベクトルに対する(たとえば、レーベンシュタイン距離アルゴリズムを用いた)比較のための特性ベクトルの生成に用いられるようになっていてもよい(あるいは、特性として用いられるようになっていてもよい)。 Some embodiments of phoneme feature comparator 274 may utilize phoneme feature comparison logic 235 to determine comparisons of phoneme feature vectors. Phoneme feature comparison logic 235 may include computer instructions (e.g., functions, routines, programs, libraries, etc.) for performing comparisons of features or feature vectors or for facilitating interpretation by comparing or processing comparisons. including, but not limited to, one or more rules, conditions, processes, models, or other logic. In some embodiments, phoneme feature comparison logic 235 is utilized by phoneme feature comparator 274 to compute distance metrics or difference measurements for phoneme feature vectors. In an exemplary aspect, the distance measurement results may be considered to quantify changes in the acoustic characteristic space of the audio information over time for the user. In this way, changes in a user's respiratory illness can be observed based on quantifiable changes detected in the acoustic feature space (e.g., phoneme features) between two or more times at which the user's speech information is acquired. and may be quantified. In one embodiment, phoneme feature comparator 274 may determine a Euclidean measurement or L2 distance for two feature vectors (or an average of feature vectors) to determine the distance measurement. Optionally, phoneme feature comparison logic 235 includes logic to perform flattening, normalization, or other processing operations for multidimensional vectors prior to or as part of the comparison operation. You can stay there. In some embodiments, phoneme feature comparison logic 235 may include logic to implement other distance metrics (eg, Manhattan distance). For example, Mahalanobis distance may be utilized to determine the distance between the most recent feature vector and a set of feature vectors associated with earlier time periods or points in time. In some embodiments, Levenshtein distances may be determined, such as embodiments that compare readings of sentences by users. For example, according to one embodiment, a speech-to-text algorithm may be utilized to generate text from a user's reading of a text aloud. Also, a chronology of one or more entries including syllables or words of the sentence and corresponding timestamps of when the user read these words may be determined. This time series (or timestamp) information may be adapted to generate a characteristic vector for comparison (e.g. using a Levenshtein distance algorithm) against a similarly determined reference characteristic vector. (Alternatively, it may be used as a characteristic).

いくつかの実施形態においては、患者の複数対の時間に対して、音素特性差(または、距離測定基準)が決定されるようになっていてもよい。たとえば、最も新しい日付の音素特性ベクトルと最新日の前の日付の音素特性ベクトルとの間の距離の演算、および/または、最も新しい日付の音素特性ベクトルと1週間前に収集されたサンプルの音素特性ベクトルもしくは基準を表す音素特性ベクトルとの間の距離の演算が行われるようになっていてもよい。さらに、いくつかの実施形態においては、異なる音素特性ベクトルまたは特性に対する異なる種類の距離測定結果が演算されるようになっていてもよい。 In some embodiments, phoneme feature differences (or distance metrics) may be determined for multiple pairs of times for a patient. For example, calculating the distance between the phoneme feature vector of the most recent date and the phoneme feature vector of the date before the most recent date, and/or calculating the distance between the phoneme feature vector of the most recent date and the phoneme feature vector of a sample collected one week ago. The distance between the characteristic vector or the phoneme characteristic vector representing the reference may be calculated. Additionally, in some embodiments, different types of distance measurements may be computed for different phoneme feature vectors or features.

いくつかの実施形態においては、音素特性差(または、距離測定基準)が期間または時点に対する特定の音響特性の差を示し得る。たとえば、音素特性比較器274は、音素 In some embodiments, phoneme feature differences (or distance metrics) may indicate differences in particular acoustic features over time or points in time. For example, the phoneme characteristic comparator 274

の調和性に関する距離測定基準を演算するようにしてもよく、音素 A distance metric regarding the harmonicity of the phoneme may be computed.

のシマーに関しては別の距離測定基準が演算されるようになっていてもよい。この追加または代替として、期間または時点に対する音響特性の組み合わせに対して、距離測定基準(または、変化の指標)が決定されるようになっていてもよい。 A different distance metric may be calculated for the shimmer. Additionally or alternatively, a distance metric (or indicator of change) may be determined for a combination of acoustic characteristics over a period or time.

いくつかの実施形態において、音素特性比較ロジック235(または、音素特性比較器274)は、ユーザに対する特性基準を生成または利用するコンピュータ命令を含む。基準は、健康状態、病気状態(たとえば、インフルエンザ状態もしくは呼吸器感染症状態)、回復状態、またはその他任意のユーザの状態を表し得る。他の状態の例としては、ある時点もしくは時間区分(たとえば、30日前)におけるユーザの状態、事象と関連付けられた(たとえば、手術もしくは負傷前の)ユーザの状態、条件に応じたユーザの状態(たとえば、投薬中もしくは汚染された都市に住んでいた時のユーザの状態)、または他の基準と関連付けられた状態が挙げられる。たとえば、健康状態の基準は、ユーザが健康であった1つまたは複数の時間区分(たとえば、日にち)に対応する1つまたは複数の特性集合を利用して決定されるようになっていてもよい。 In some embodiments, phoneme feature comparison logic 235 (or phoneme feature comparator 274) includes computer instructions that generate or utilize feature criteria for a user. The criteria may represent a health condition, an illness condition (eg, an influenza condition or a respiratory infection condition), a recovery condition, or any other condition of the user. Examples of other states include the user's state at a point or time interval (e.g., 30 days ago), the user's state associated with an event (e.g., before surgery or injury), the user's state in response to conditions ( For example, the user's condition when on medication or living in a polluted city) or in conjunction with other criteria. For example, the criteria for health status may be determined using one or more sets of characteristics that correspond to one or more time periods (e.g., days) during which the user was in good health. .

本明細書においては、それぞれが異なる時間区分に対応する複数の特性集合に基づいて決定された基準が複数参照または複数日基準と称される場合もある。場合により、複数参照基準には、異なる時間区分にそれぞれ対応する複数の特性集合または一群の特性集合を含む。あるいは、複数参照の基準には、複数の時間区分の複数の特性集合に基づく単一の代表的な特性集合を含んでいてもよい(たとえば、上述の通り、異なる期間または時点の特性集合値の平均または合成を含む)。いくつかの実施形態において、基準には、特性に関する統計データ、補足データ、またはメタデータを含んでいてもよい。たとえば、複数の特性集合が使用される場合(たとえば、複数参照基準)、基準には、(複数の時間区分を代表し得る)特性集合ならびに特性値の統計的分散もしくは標準偏差を含んでいてもよい。補足データには、基準の決定に用いられる特性集合の時間区分と関連付けられ得るコンテキスト情報を含んでいてもよい。メタデータには、当該時間区分におけるユーザの呼吸器疾患に関する情報(たとえば、ユーザが健康、病中、回復中等)等、基準の決定に用いられる特性集合に関する情報または基準に関する他の情報を含んでいてもよい。いくつかの実施形態においては、本明細書に記載の通り、さまざまな基準に基づいて、異なる比較を実行するため、一組の基準が決定されるようになっていてもよい。 In this specification, a criterion determined based on a plurality of characteristic sets, each of which corresponds to a different time period, may be referred to as a multi-reference or multi-day criterion. Optionally, the multiple references include multiple feature sets or a group of feature sets, each corresponding to a different time segment. Alternatively, a multi-reference criterion may include a single representative set of characteristics based on multiple characteristic sets from multiple time periods (e.g., as discussed above, for characteristic set values at different time periods or points in time). (including average or composite). In some embodiments, the criteria may include statistical data, supplemental data, or metadata about the characteristics. For example, if multiple characteristic sets are used (e.g., multiple reference standards), the criteria may include the characteristic set (which may represent multiple time periods) as well as the statistical variance or standard deviation of the characteristic values. good. Supplemental data may include contextual information that may be associated with the time segment of the feature set used to determine the criteria. The metadata may include information about the set of characteristics used to determine the criteria, such as information about the user's respiratory illness in the time period (e.g., whether the user is healthy, sick, recovering, etc.) or other information about the criteria. You can stay there. In some embodiments, a set of criteria may be determined to perform different comparisons based on various criteria, as described herein.

収集音声サンプルから生成された特性ベクトルを特定状態の基準と比較することで、既知の調子または状態と比較した場合のユーザの調子または状態を示すようにしてもよい。例示的な実施形態においては、基準に対する比較によってユーザの調子または状態が変化したか否かを示すように、特定のユーザに対して基準が決定される。この代替または追加として、一般大衆に対する基準の決定または類似ユーザのコホートからの基準の決定がなされるようになっていてもよい。いくつかの実施形態においては、異なる特性集合に対して異なる種類の基準が使用される。たとえば、一部の特性がユーザ固有の基準と比較される一方、他の特性は、多くの患者からのデータにより決定された標準的な基準と比較されるようになっていてもよい。いくつかの実施形態において、ユーザは、基準の決定に使用する特定の音声サンプル、日付、または時間区分を(たとえば、設定249によって)指定するようにしてもよい。たとえば、ユーザは、ユーザの既知の状態または調子に対応するカレンダー上の日にちの選択等、GUIによって日付またはある範囲の日にちを指定するようにしてもよく、さらに、既知の状態または調子に関する情報を提供するようにしてもよい(たとえば、「健康であった日付を少なくとも1つ選択してください」)。同様に、音声サンプルを取得する記録セッションにおいて、ユーザは、基準の決定に音声サンプルを使用すべき旨を示すとともに、ユーザの調子または状態に関する対応する指標を提供するようにしてもよい。たとえば、記録セッションにおいては、健康(または、病中もしくは回復)状態の基準としてサンプルを使用するためのGUIチェックボックスが提示されるようになっていてもよい。 The characteristic vector generated from the collected audio samples may be compared to a reference for a particular state to indicate the user's tone or state as compared to a known tone or state. In an exemplary embodiment, a criterion is determined for a particular user such that comparison to the criterion indicates whether the user's condition or condition has changed. Alternatively or in addition to this, the criteria may be determined for the general public or from a cohort of similar users. In some embodiments, different types of criteria are used for different sets of characteristics. For example, some characteristics may be compared to user-specific criteria, while other characteristics are compared to standard criteria determined by data from many patients. In some embodiments, a user may specify (eg, via settings 249) a particular audio sample, date, or time period to use in determining the criteria. For example, the user may specify a date or range of dates through the GUI, such as selecting a date on a calendar that corresponds to the user's known condition or condition, and may also specify information regarding the known condition or condition. (eg, "Please select at least one date on which you were healthy"). Similarly, in a recording session in which a voice sample is obtained, the user may indicate that the voice sample is to be used for determining the criteria and provide a corresponding indication of the user's tone or condition. For example, during a recording session, a GUI checkbox may be presented to use the sample as a measure of healthy (or sick or recovering) status.

いくつかの実施形態において、音素特性比較ロジック235は、複数日または複数参照基準を生成して利用するコンピュータ命令を含んでいてもよい。複数日基準は、たとえば変動していてもよいし、固定されていてもよい。特に、この基準に対する最新の特性ベクトルの比較を実行することによって、音素特性比較器274は、ユーザの呼吸器疾患が変化したことと、ユーザが病中であるか健康であるかを示す情報を決定するようにしてもよい。音素特性比較器274により実行される比較に基づくユーザの呼吸器疾患の判定に関する詳細については、呼吸器疾患推論エンジン278に関連して記載される。同様に、音素特性比較ロジック235は、(たとえば、呼吸器疾患推論エンジン278によって)ユーザの呼吸器疾患が変化した旨およびユーザが病中(もしくは、健康)である旨またはユーザの調子が上向きもしくは下向きである旨が判定され得るように、最新の音素特性ベクトルおよび一組の早期ベクトル(または、複数参照基準)を利用して複数の比較を実行する命令と、差分測定結果を互いに比較する命令と、を含んでいてもよい。距離測定結果の比較を含む複数の比較の実行の別途詳細については、呼吸器疾患推論エンジン278に関連して記載される。 In some embodiments, phoneme feature comparison logic 235 may include computer instructions that generate and utilize multiple dates or multiple references. The multi-day criterion may be variable or fixed, for example. In particular, by performing a comparison of the most recent feature vector against this reference, the phoneme feature comparator 274 provides information indicating that the user's respiratory disease has changed and whether the user is sick or healthy. It may be decided. Details regarding determining a user's respiratory illness based on the comparisons performed by the phoneme feature comparator 274 are described in connection with the respiratory illness inference engine 278. Similarly, the phoneme feature comparison logic 235 may determine (e.g., by the respiratory disease inference engine 278) that the user's respiratory disease has changed and that the user is sick (or healthy) or that the user is doing well or Instructions for performing multiple comparisons utilizing the most recent phoneme feature vector and a set of early vectors (or multiple references) and for comparing the difference measurements with each other so that a downward trend can be determined. It may include. Further details of performing multiple comparisons, including comparing distance measurements, are described in connection with respiratory disease inference engine 278.

いくつかの実施形態において、基準は、ユーザに関するより多くの情報が取得された場合に、動的かつ自動的に規定されるようになっていてもよい。たとえば、ユーザの音声情報の通常の変動性が経時的に変化するため、ユーザの基準も変化して、ユーザの現在の通常の変動性を反映し得る。いくつかの実施形態では、最新の特性集合または(複数の時間区分(たとえば、日にち)に対応する)複数の最新の特性集合から決定され得、基準の尺度(たとえば、健康、病中、回復)に適合する新たな特性集合が決定された場合に更新される適応型基準を利用するようにしてもよい。たとえば、基準に対する新たな特性集合が(たとえば、より新しい日にちから)決定された場合に、古い時間の特性集合が考慮されなくなるように、適応型基準に利用される複数の特性集合は、先入れ先出し(FIFO)データフローに従うものであってもよい。このように、適応型基準によって、ユーザの音声で発生し得る小さな変動または遅い変化および適応が除外され得る。適応型基準を利用するいくつかの実施形態において、この基準のパラメータ(たとえば、含まれる特性集合の数または含まれる最新の特性集合の時間ウィンドウ)は、アプリケーション設定(たとえば、設定249)において設定されていてもよい。複数の時間区分(たとえば、日にち)の特性集合が基準に利用される実施形態の場合によっては、基準が最新となるように、より新しく決定された特性集合が重み付けされ、より重要な意味を持つようにしてもよい。この代替または追加として、より早い期間または時点に対応する古い(すなわち、「陳腐な」)特性集合は、重み付けによって、経時的な減衰または基準に対する寄与度の低下が起こるようにしてもよい。 In some embodiments, criteria may be defined dynamically and automatically as more information about the user is obtained. For example, as the user's normal variability of voice information changes over time, the user's criteria may also change to reflect the user's current normal variability. In some embodiments, the most recent feature set or multiple current feature sets (corresponding to multiple time periods (e.g., days)) may be determined from a baseline measure (e.g., healthy, sick, recovered). Adaptive criteria may be used that are updated when a new set of characteristics is determined that match the criteria. For example, multiple feature sets utilized in an adaptive criterion can be configured on a first-in, first-out basis so that when a new feature set for the criterion is determined (e.g., from a more recent date), the feature set from an older time is no longer considered. FIFO) data flow may be followed. In this way, the adaptive criteria may exclude small fluctuations or slow changes and adaptations that may occur in the user's voice. In some embodiments that utilize an adaptive criterion, the parameters of this criterion (e.g., the number of feature sets included or the time window of the most recent feature set included) are set in the application settings (e.g., settings 249). You can leave it there. In some embodiments where feature sets from multiple time periods (e.g., dates) are utilized as a criterion, the more recently determined feature sets are weighted to have more significance so that the criteria is more recent. You can do it like this. Alternatively or additionally, older (ie, "stale") characteristic sets corresponding to earlier time periods or points in time may be weighted such that they decay or contribute less to the criterion over time.

いくつかの実施形態においては、ユーザの基準内の特定の特性が当該特定のユーザに対して適合されるようになっていてもよい。このように、異なるユーザがそれぞれの基準内の音素特性の異なる組み合わせを有していてもよく、したがって、異なる音素特性が決定され、各ユーザの呼吸器疾患のモニタリングに利用されるようになっていてもよい。たとえば、第1のユーザの健康な音声サンプルにおいて、特定の音響特性は(概して、または、特定の音素に対して)、自然に変動することでユーザの呼吸器疾患の変化の検出には有用となり得ないものの、別のユーザに対しては有用で、その基準に含まれる可能性がある。 In some embodiments, certain characteristics within the user criteria may be adapted for the particular user. Thus, different users may have different combinations of phoneme characteristics within their respective criteria, and thus different phoneme characteristics are determined and utilized for respiratory disease monitoring for each user. You can. For example, in a first user's healthy voice sample, certain acoustic characteristics (in general or for specific phonemes) may vary naturally and be useful for detecting changes in the user's respiratory illness. However, it may be useful to other users and may be included in their criteria.

いくつかの実施形態においては、ユーザの基準が天候、時間帯、および/または季節(すなわち、時期)等のコンテキスト情報と相関されるようになっていてもよい。たとえば、高湿度の期間に記録されたサンプルからユーザの基準が生成されるようになっていてもよい。この基準は、高湿度の期間に記録されたサンプルから生成された音素特性ベクトルと比較されるようになっていてもよい。逆に、比較的低湿度の期間に取得されたサンプルから生成された音素特性ベクトルに対して、異なる基準が比較されるようになっていてもよい。このように、所与のユーザに対して決定され、異なるコンテキストで利用される複数の基準が存在していてもよい。 In some embodiments, the user's criteria may be correlated with contextual information such as weather, time of day, and/or season (ie, time of year). For example, the user's baseline may be generated from samples recorded during periods of high humidity. This criterion may be adapted to be compared to phoneme feature vectors generated from samples recorded during periods of high humidity. Conversely, different criteria may be compared to phoneme feature vectors generated from samples taken during periods of relatively low humidity. Thus, there may be multiple criteria determined for a given user and utilized in different contexts.

さらに、いくつかの実施形態においては、特定のユーザに対してではなく、一組の共通した特徴を共有する患者等の特定のコホートに対して基準が決定されるようになっていてもよい。例示的な一実施形態においては、呼吸器疾患(たとえば、インフルエンザ、ライノウイルス、COVID-19、喘息、慢性閉塞性肺疾患(COPD)等)が同じであることが知られている患者からのデータを利用して決定され得る点から、基準が呼吸器疾患に固有のものであってもよい。ユーザに関するより多くの情報が取得された場合に基準が動的に規定され得るいくつかの実施形態においては、一般大衆またはユーザに類似するコホートからの音素特性データに基づく初期基準が提供されるようになっていてもよい。時間の経過とともに、ユーザのより多くの音素特性集合が決定されると、ユーザの音素特性集合を用いることにより基準が更新され、当該ユーザに適合されるようになっていてもよい。 Furthermore, in some embodiments, the criteria may be determined not for a particular user, but for a particular cohort, such as patients, that share a set of common characteristics. In an exemplary embodiment, data from patients known to have the same respiratory disease (e.g., influenza, rhinovirus, COVID-19, asthma, chronic obstructive pulmonary disease (COPD), etc.) The criteria may be specific to respiratory diseases in that they can be determined using the following: In some embodiments, criteria may be defined dynamically as more information about the user is obtained, such as providing initial criteria based on phoneme characteristic data from the general public or a cohort similar to the user. It may be . Over time, as more phoneme feature sets for a user are determined, the criteria may be updated and adapted to the user using the user's phoneme feature sets.

呼吸器疾患追跡器270のいくつかの実施形態には、ユーザの診断(たとえば、ユーザの現在の呼吸器疾患の決定)に相関もしくは考慮され得る自己報告情報および/または将来の調子を予想する自己報告情報をユーザから収集し得る自己報告データ評価器276を含んでいてもよい。自己報告データ評価器276は、自己報告ツール284および/またはコンテキスト情報決定器2616から、この情報を収集するようにしてもよい。この情報は、ユーザの感じ方またはユーザの現在の調子に関する(たとえば、体温、呼吸速度、血中酸素等を示すセンサからの)ユーザ提供データまたはユーザ由来データであってもよい。一実施形態において、この情報には、呼吸器疾患に関して、ユーザの自己報告によるさまざまな症状の知覚的重症度を含む。たとえば、この情報には、後鼻漏、鼻閉、鼻水、粘液の多い鼻汁、咳、喉の痛み、鼻をかむ必要性に関するユーザの重症度スコアを含んでいてもよい。 Some embodiments of respiratory illness tracker 270 include self-reporting information that may be correlated with or taken into account in a user's diagnosis (e.g., determining a user's current respiratory illness) and/or self-predicting future health. A self-report data evaluator 276 may be included that may collect reporting information from the user. Self-report data evaluator 276 may collect this information from self-report tool 284 and/or context information determiner 2616. This information may be user-provided or user-derived data (eg, from sensors indicating body temperature, breathing rate, blood oxygen, etc.) regarding how the user feels or how the user is currently doing. In one embodiment, this information includes the user's self-reported perceived severity of various symptoms with respect to the respiratory illness. For example, this information may include the user's severity score for post-nasal drip, nasal congestion, runny nose, mucus-filled nasal discharge, cough, sore throat, and need to blow the nose.

自己報告データ評価器276は、入力データを利用して、呼吸器疾患または症状の重症度を示す症状スコアを決定するようにしてもよい。たとえば、自己報告データ評価器276は、複数の症状のスコアを組み合わせることにより演算され得る合成症状スコア(CSS)を出力するようにしてもよい。また、合成症状スコアを求めるため、個々の症状スコアが合算または平均化されるようになっていてもよい。たとえば、一実施形態においては、7つの呼吸器疾患関連症状の症状スコア(0~5の範囲)を合算することにより合成症状スコアが決定されるようになっていてもよく、この結果、合成症状スコアの範囲は0~35である。症状スコアが高いほど、より重度の症状を示し得る。一実施形態において、症状には、後鼻漏、鼻閉、鼻水、粘液の多い鼻汁、咳、喉の痛み、鼻をかむ必要性を含んでいてもよい。いくつかの実施形態においては、鼻づまりに関連する症状および鼻づまりに関連しない症状等、すべての症状に対して別個の症状スコアが生成されるようになっていてもよい。 Self-report data evaluator 276 may utilize the input data to determine a symptom score indicative of the severity of the respiratory disease or condition. For example, self-report data evaluator 276 may output a composite symptom score (CSS) that may be computed by combining scores for multiple symptoms. Furthermore, individual symptom scores may be summed or averaged to obtain a composite symptom score. For example, in one embodiment, a composite symptom score may be determined by summing symptom scores (range 0-5) for seven respiratory disease-related symptoms, resulting in a composite symptom score. Scores range from 0 to 35. Higher symptom scores may indicate more severe symptoms. In one embodiment, symptoms may include postnasal drip, nasal congestion, runny nose, mucous nasal discharge, cough, sore throat, and the need to blow the nose. In some embodiments, separate symptom scores may be generated for all symptoms, such as symptoms related to nasal congestion and symptoms not related to nasal congestion.

いくつかの実施形態において、自己報告データ評価器276は、決定した症状スコアを生成したユーザ入力と同じ時間ウィンドウに対応する音声サンプルから決定された音素特性に対して、当該症状スコアを関連付けるようにしてもよい。他の実施形態において、自己報告データ評価器276は、音素特性ベクトルまたは音素特性ベクトルの比較により決定された距離測定基準に対して、症状スコアを相関させるようにしてもよい。指数関数的な減衰モデルの適合および音響特性値の減衰率との相関によって、鼻づまりに関連する症状または鼻づまりに関連しない症状を含むすべての症状に対する合成症状スコア等の症状スコアが音素特性に対して相関されるようになっていてもよい。減衰モデルは、症状の変化の大きさおよび速度の推定に利用され得る。一実施形態においては、スコア≒ae-b(日数-1)+εが指数関数的な減衰モデルに利用される。ここで、aは変化の大きさを表し、bは減衰率を表す。この指数関数的な減衰モデルは、Rシステム(Comprehensive R Archive Network(CRAN)を通じてアクセス可能なthe R-project for Statistical Computing)のパッケージnlme(バージョン3.1.144)の被験者をランダム効果として用いた非線形混合効果モデルを用いることにより実装されていてもよい。音素特性ベクトルと症状スコアとの間ならびに音素特性ベクトルおよび/または導出された距離測定基準間の相関の例については、それぞれ図9ならびに図11Aおよび図11Bに示される。自己報告データ評価器276により生成された症状スコアならびに、いくつかの実施形態においては、音素特性ベクトルもしくは距離測定基準との関連付けおよび/もしくは相関は、ユーザの患者レコード240に格納されていてもよい。 In some embodiments, self-report data evaluator 276 associates the determined symptom score to phoneme characteristics determined from audio samples that correspond to the same time window as the user input that generated the determined symptom score. It's okay. In other embodiments, self-report data evaluator 276 may correlate the symptom score against a phoneme feature vector or a distance metric determined by a comparison of phoneme feature vectors. By fitting an exponential decay model and correlating acoustic feature values with decay rates, symptom scores, such as composite symptom scores for all symptoms, including nasal congestion-related or non-nasal congestion-related symptoms, can be generated for phonemic features. They may be correlated. Decay models can be utilized to estimate the magnitude and rate of change in symptoms. In one embodiment, the score ≈ ae - b (days - 1) + ε is utilized for an exponential decay model. Here, a represents the magnitude of change, and b represents the attenuation rate. This exponential decay model used subjects as a random effect in the R-project for Statistical Computing, package nlme (version 3.1.144), accessible through the Comprehensive R Archive Network (CRAN). It may be implemented by using a non-linear mixed effects model. Examples of correlations between phoneme feature vectors and symptom scores and between phoneme feature vectors and/or derived distance metrics are shown in FIG. 9 and FIGS. 11A and 11B, respectively. Symptom scores generated by self-report data evaluator 276 and, in some embodiments, associations and/or correlations with phoneme feature vectors or distance metrics may be stored in the user's patient record 240. .

いくつかの実施形態においては、検出された変化(たとえば、ユーザの調子が悪化していること)に基づいて、または、ユーザがすでに病中である場合に、自己報告が開始される。また、自己報告の開始は、患者レコード240における設定249等、ユーザ設定の選好に基づいていてもよい。いくつかの実施形態においては、ユーザの収集音声サンプルから検出された呼吸器疾患に基づいて、自己報告が開始される。たとえば、自己報告データ評価器276は、音素特性比較器274により実行される特性ベクトルの比較に基づいて決定され得る音声解析によるユーザの調子の検出に基づいて、自己報告症状情報の取得をユーザに促すことを決定するようにしてもよい。 In some embodiments, self-reporting is initiated based on a detected change (eg, the user's condition is worsening) or if the user is already sick. Initiation of self-reporting may also be based on user-configured preferences, such as settings 249 in patient record 240. In some embodiments, self-reporting is initiated based on respiratory illness detected from the user's collected voice samples. For example, the self-report data evaluator 276 may prompt the user to obtain self-report symptom information based on the detection of the user's tone through speech analysis, which may be determined based on the feature vector comparison performed by the phoneme feature comparator 274. You may also decide to prompt.

さらに、呼吸器疾患推論エンジン278は一般的に、ユーザの現在の呼吸器疾患の決定もしくは推論および/またはユーザの将来の呼吸器疾患の予測を担うものであってもよい。この決定は、特性値において検出された変化を含むユーザの音響特性に基づいていてもよい。このため、呼吸器疾患推論エンジン278は、距離測定基準として決定され得るユーザの音素特性および/または検出された特性の変化に関する情報を受信するようにしてもよい。呼吸器疾患推論エンジン278のいくつかの実施形態では、コンテキスト情報決定器2616により決定され得るコンテキスト情報、および/または自己報告データ評価器276により決定された合成症状スコア等、ユーザの自己報告データもしくは自己報告データの解析をさらに利用するようにしてもよい。一実施形態においては、ユーザの呼吸器疾患の指標として、最長発声時間あるいは Further, the respiratory illness inference engine 278 may generally be responsible for determining or inferring a user's current respiratory illness and/or predicting a user's future respiratory illness. This determination may be based on the user's acoustic characteristics, including detected changes in characteristic values. To this end, the respiratory disease inference engine 278 may receive information regarding changes in the user's phonemic characteristics and/or detected characteristics that may be determined as a distance metric. Some embodiments of respiratory disease inference engine 278 may include user self-reported data or Further use may be made of analysis of self-reported data. In one embodiment, the longest utterance time or

等の1つもしくは複数の特定の音素、別の基本母音発声、または他の発声をユーザが持続する継続時間が呼吸器疾患推論エンジン278により用いられるようになっていてもよい。たとえば、最長発声時間が短い場合は、息切れおよび/または肺活量の減少を示し、呼吸器疾患の悪化と関連付けられ得る。さらに、呼吸器疾患推論エンジン278は、音響特性を1つまたは複数の基準と比較して、ユーザの呼吸器疾患を判定するようにしてもよい。たとえば、ユーザの呼吸容量が増加しているか減少しているかを判定するため、ユーザの最長発声時間がユーザの基準最長発声時間と比較されるようになっていてもよく、最長発生時間が短い場合は、呼吸器疾患の悪化を示し得る。同様に、予め定められた継続時間の音声サンプルから抽出された音素の有声フレームの割合が低い場合も、呼吸器疾患の悪化を示し得る。非限定的な一例として、文章を読み上げる音声サンプルの場合は、発話速度の低下、平均休止長の増大、休止数の増加、および/またはグローバルSNRの低下が呼吸器疾患の悪化を示し得る。これらの変化のいずれかを決定することは、本明細書に記載の通り、ユーザ固有の基準等の基準に対する最新サンプルの比較により行われるようになっていてもよい。 The duration of a user's duration of one or more particular phonemes such as, another basic vowel utterance, or other utterances may be adapted for use by the respiratory disease inference engine 278. For example, a short maximum phonation time indicates shortness of breath and/or decreased vital capacity and may be associated with worsening of respiratory disease. Additionally, respiratory illness inference engine 278 may compare the acoustic characteristics to one or more criteria to determine a user's respiratory illness. For example, to determine whether the user's respiratory capacity is increasing or decreasing, the user's longest phonation time may be compared to the user's baseline maximum phonation time, and if the maximum phonation time is shorter; may indicate worsening of respiratory disease. Similarly, a low percentage of voiced frames of phonemes extracted from a voice sample of a predetermined duration may also indicate worsening of a respiratory disease. As a non-limiting example, for audio samples of reading sentences, a decrease in speech rate, an increase in average pause length, an increase in the number of pauses, and/or a decrease in global SNR may indicate worsening of a respiratory disease. Determining any of these changes may be accomplished by comparing the most recent sample to a criterion, such as a user-specific criterion, as described herein.

呼吸器疾患推論エンジン278は、この入力情報を利用して、ユーザの現在の呼吸器疾患および/または将来の疾患(すなわち、予測)を表す1つまたは複数の呼吸器疾患スコアまたは分類を生成するようにしてもよい。呼吸器疾患推論エンジン278からの出力は、ユーザの患者レコード240の結果/推論状態246に格納されるようになっていてもよく、また、図5Cの例示的なGUI5300に関連して記載の通り、ユーザに提示されるようになっていてもよい。 Respiratory disease inference engine 278 utilizes this input information to generate one or more respiratory disease scores or classifications representative of the user's current respiratory disease and/or future disease (i.e., prediction). You can do it like this. The output from the respiratory disease inference engine 278 may be stored in the results/inference state 246 of the user's patient record 240 and as described in connection with the example GUI 5300 of FIG. 5C. , may be presented to the user.

いくつかの実施形態において、呼吸器疾患推論エンジン278は、ユーザの呼吸器疾患において検出された定量的変化に対応する呼吸器疾患スコアを決定するようにしてもよい。この代替または追加として、ユーザの呼吸器感染症疾患の呼吸器疾患スコアまたは推論は、1つもしくは複数の特定の音素特性の検出値(すなわち、変化ではなく1回の測定値)または1つもしくは複数の特定の特性値、特性値の検出変化、および異なる変化率の組み合わせに基づいていてもよい。一実施形態において、呼吸器疾患スコアは、(たとえば全般的に、任意の疾患または特定の呼吸器感染症に関して)ユーザが呼吸器疾患である(または、呼吸器疾患ではない)可能性または確率を示し得る。たとえば、呼吸器疾患スコアは、ユーザが呼吸器感染症である可能性が60%であることを示し得る。いくつかの態様において、呼吸器疾患スコアには、合成スコアまたは一組のスコア(たとえば、ユーザが一組の呼吸器疾患を有する一組の確率)を含んでいてもよい。たとえば、呼吸器疾患推論エンジン278は、ユーザがアレルギー(0.2)、ライノウイルス(0.3)、COVID-19(0.04)等の各疾患である対応する可能性を伴う特定の呼吸器疾患のベクトルを生成するようにしてもよい。この代替または追加として、呼吸器疾患スコアは、既知の健康状態に対するユーザの現在の状態の差を示すものであってもよいし、本明細書に記載のようなユーザの基準または健康状態に対するユーザの現在の状態の比較に基づいていてもよい。 In some embodiments, the respiratory illness inference engine 278 may determine a respiratory illness score that corresponds to the detected quantitative change in the user's respiratory illness. Alternatively or in addition to this, the respiratory illness score or inference for the user's respiratory infection illness may be based on the detected value (i.e., a single measurement rather than a change) of one or more specific phonemic features or one or more It may be based on a combination of specific characteristic values, detected changes in characteristic values, and different rates of change. In one embodiment, the respiratory illness score measures the likelihood or probability that the user has (or does not have) a respiratory illness (e.g., with respect to any disease in general or a particular respiratory infection). can be shown. For example, a respiratory illness score may indicate that the user has a 60% chance of having a respiratory infection. In some embodiments, a respiratory illness score may include a composite score or a set of scores (eg, a set of probabilities that a user has a set of respiratory illnesses). For example, the respiratory disease inference engine 278 may determine whether a user has a specific respiratory disease with a corresponding probability of each disease being allergies (0.2), rhinovirus (0.3), COVID-19 (0.04), etc. Vectors of organic diseases may also be generated. Alternatively or additionally, the respiratory illness score may be indicative of a difference in the user's current condition relative to a known health condition, or may be indicative of a user's current condition relative to a user's baseline or health condition as described herein. may be based on a comparison of the current state of.

多くの場合、呼吸器疾患推論エンジン278は、ユーザが症状を感じないユーザの健康状態からの変化または差(または、呼吸器感染症の確率)を決定するようにしてもよい(または、呼吸器疾患スコアがこれを示していてもよい)。この機能は、主観的なデータに依拠する従来の技術に対する利点および改良である。一方、本明細書に提供される技術の実施形態では、主観的なデータに依拠するのではなく、ユーザが症状を感じる前に、呼吸器感染症の発症を検出するようにしてもよい。これらの実施形態は、従来手法よりも早期に呼吸器感染症を警告することによって、SARS-CoV-2(COVID-19)等の呼吸器系のパンデミックとの闘いに特に有用と考えられる。たとえば、感染症の可能性を示す呼吸器疾患スコア(または、呼吸器疾患推論エンジン278によるユーザの呼吸器疾患に関する判定)によって、ユーザが実行する前に、自己検疫、ソーシャルディスタンス、マスクの着用、または他の予防策がユーザに報知され得る。 In many cases, the respiratory disease inference engine 278 may determine the change or difference (or probability of respiratory infection) from the user's health status in which the user does not experience symptoms (or the probability of a respiratory infection). A disease score may indicate this). This feature is an advantage and improvement over conventional techniques that rely on subjective data. On the other hand, rather than relying on subjective data, embodiments of the techniques provided herein may detect the onset of a respiratory infection before a user feels any symptoms. These embodiments may be particularly useful in combating respiratory pandemics such as SARS-CoV-2 (COVID-19) by providing earlier warning of respiratory infections than conventional approaches. For example, a respiratory illness score indicating the likelihood of infection (or a determination by the respiratory illness inference engine 278 regarding a user's respiratory illness) may cause the user to self-quarantine, socially distance, wear a mask, or or other precautions may be notified to the user.

いくつかの実施形態において、ユーザが呼吸器感染症である確率を示し得る呼吸器疾患スコアまたはその確率に対応し得る呼吸器疾患スコアは、ユーザの健康状態に対する値として表されるようになっていてもよい。たとえば、呼吸器疾患スコアが100のうちの90である場合(100が健康状態を表す)は、ユーザの呼吸器疾患の検出変化がユーザの通常の状態または健康状態の90%であること(すなわち、10%の変化)を示し得る。本例においては、ユーザが90の呼吸器疾患スコアで健康に感じ得るものの、スコアは、ユーザが呼吸器感染症を発症していること(または、依然として回復中であること)を示し得る。同様に、呼吸器疾患スコアが20の場合は、ユーザが病中である可能性が高い(すなわち、ユーザが呼吸器感染症である可能性が高い)ことを示し、呼吸器疾患スコアが40の場合は、同じくユーザが病中である可能性が高いものの、呼吸器疾患スコアが20の場合ほどの疾病状態ではない(または、その可能性がない)ことを示し得る。たとえば、呼吸器疾患スコアが確率に対応する場合、呼吸器疾患スコアが20の場合は、呼吸器疾患スコアが40の場合よりもユーザが感染症である確率が高いことを示し得る。ただし、呼吸器疾患スコアがユーザの現在の状態と健康基準との間の差を反映する場合、呼吸器疾患スコアが40の場合は、呼吸器疾患スコアが20の場合よりも基準からの検出変化が小さく、ユーザが疾病状態ではない可能性を示し得る。場合により、ユーザの呼吸器疾患スコアは、数字の代替または追加として、色または記号で示されるようになっていてもよい。たとえば、緑色はユーザが健康であることを示し、黄色、橙色、および赤色は、ユーザの健康状態からの差が大きくなっていることを表していてもよく、ユーザが呼吸器感染症である可能性が高くなっていることを示し得る。同様に、呼吸器疾患スコアを表すのに顔文字(たとえば、笑顔としかめ面または蒼白顔)が利用されるようになっていてもよい。 In some embodiments, a respiratory illness score that may indicate or correspond to a probability that the user has a respiratory infection is expressed as a value for the health status of the user. You can. For example, if the respiratory disease score is 90 out of 100 (100 represents a healthy state), then the detected change in the user's respiratory disease is 90% of the user's normal or healthy state (i.e. , 10% change). In this example, although a user may feel healthy with a respiratory illness score of 90, the score may indicate that the user has developed a respiratory infection (or is still recovering). Similarly, a respiratory illness score of 20 indicates that the user is likely to be ill (i.e., the user is likely to have a respiratory infection); If the user has a respiratory disease score of 20, it may indicate that the user is likely to be sick, but not as sick (or not as likely) as a respiratory disease score of 20. For example, if a respiratory illness score corresponds to a probability, a respiratory illness score of 20 may indicate a higher probability that the user has an infection than a respiratory illness score of 40. However, if the respiratory illness score reflects the difference between the user's current condition and the health baseline, a respiratory illness score of 40 will result in a lower detected change from the baseline than a respiratory illness score of 20. may be small, indicating that the user may not be sick. In some cases, the user's respiratory disease score may be indicated by a color or symbol as an alternative to or addition to a number. For example, green color may indicate that the user is healthy, while yellow, orange, and red may represent a greater deviation from the user's health status and may indicate that the user has a respiratory infection. This may indicate that the quality of the product is increasing. Similarly, emoticons (eg, smiling and frowning or pale faces) may be utilized to represent respiratory disease scores.

本明細書の実施形態は、音素特性情報(音素特性の変化を含む)ならびに、いくつかの実施形態においては、コンテキスト情報(測定された生理学的データ等)および/もしくはユーザからの自己報告症状スコアにさらに基づいてユーザの呼吸器感染症の状態を特徴付けるのに使用され得ることが了解されるものとする。したがって、場合によっては、重度の呼吸器感染症および軽度の呼吸器感染症がいずれも、同じ音素特性(または、特性の変化)を表し得る。したがって、これらの場合は、ユーザの「病状が重い」または「病状が軽い」を示すのに異なる呼吸器疾患スコアは有用と考えられず、代わりに、ユーザが呼吸器感染症である(または、呼吸器感染症ではない)ことのみを示すようにしてもよいし(すなわち、2進指標)、ユーザが病中である確率を示していてもよいし、ユーザの現在の状態と健康状態との間の差を表していてもよい(呼吸器感染症の兆候を示し得る)。 Embodiments herein may include phoneme feature information (including changes in phoneme features) and, in some embodiments, contextual information (such as measured physiological data) and/or self-reported symptom scores from users. It shall be understood that it may be used to further characterize the user's respiratory infection status based on. Thus, in some cases, both severe and mild respiratory infections may represent the same phonemic characteristics (or changes in characteristics). Therefore, in these cases, different respiratory disease scores are not considered useful in indicating whether a user is "severely sick" or "less sick," but instead indicate whether the user has a respiratory infection (or It may indicate only that the user does not have a respiratory infection (i.e., a binary indicator), it may indicate the probability that the user is sick, or it may indicate the relationship between the user's current condition and health status. (could be indicative of a respiratory infection).

さらに、処方薬の服用等、ユーザの呼吸器感染症の処置(コンテキスト情報として受信され得る)と相関がある場合の呼吸器疾患スコアの変化をモニタリングすることによって、処置の効能を示すことができる。たとえば、呼吸器感染症と診断されたユーザは、臨床医によって抗生物質が処方され、図5Aに関連して記載の呼吸器感染症モニタリングアプリ5101等の呼吸器感染症モニタリングアプリをスマートフォン上で使用するように指示される。そして、本明細書に記載のように収集されたユーザ音声サンプルから、最初の呼吸器疾患スコア(または、第1の一組の呼吸器疾患スコア)が決定されるようになっていてもよい。1週間等の時間区分の後は、第2の呼吸器疾患スコアがユーザの呼吸器疾患の変化を示し得る。ユーザの疾患が改善していること(後述の通りに決定され得る)を示す変化は、抗生物質が効いていることを暗示し得る。ユーザの疾患が改善していないことすなわち同じ状態に留まっていることを示す変化は、抗生物質が効いていないことを暗示しており、この場合、ユーザの臨床医は、異なる処置を施したいと考える。このように、本明細書に記載の技術の実施形態では、ユーザの呼吸器疾患の変化に関する定量化可能な情報等の目的を決定可能であり、呼吸器感染症の処置のために処方された抗生物質は、より慎重かつ意図的に利用されることで効能が長続きし、抗菌剤の耐性を最小限に抑えることができる。 Additionally, monitoring changes in respiratory disease scores when correlated with a user's respiratory infection treatment (which may be received as contextual information), such as taking prescribed medications, can indicate the efficacy of the treatment. . For example, a user diagnosed with a respiratory infection may be prescribed antibiotics by a clinician and use a respiratory infection monitoring app on a smartphone, such as the respiratory infection monitoring app 5101 described in connection with FIG. 5A. be instructed to do so. A first respiratory illness score (or first set of respiratory illness scores) may then be determined from the user voice samples collected as described herein. After a time interval, such as one week, the second respiratory illness score may indicate a change in the user's respiratory illness. Changes that indicate that the user's disease is improving (which may be determined as described below) may imply that the antibiotic is working. Changes that indicate that the user's disease is not improving, or remaining the same, imply that the antibiotics are not working, and the user's clinician may wish to administer a different treatment. think. Thus, embodiments of the technology described herein can determine objectives such as quantifiable information regarding changes in a user's respiratory disease and whether the patient has been prescribed for the treatment of a respiratory infection. Antibiotics can be used more carefully and purposefully to extend their effectiveness and minimize antimicrobial resistance.

いくつかの実施形態において、呼吸器疾患推論エンジン278は、ユーザ疾患推論ロジック237を利用して、呼吸器疾患スコアの決定またはユーザの呼吸器疾患に関する推論および/もしくは予測を行うようにしてもよい。ユーザ疾患推論ロジック237は、音声関連データから呼吸器疾患の可能性を推論および/または予測するためのルール、条件、関連付け、機械学習モデル、または他の基準を含んでいてもよい。ユーザ疾患推論ロジック237は、使用メカニズムおよび意図される出力により異なる形態であってもよい。一実施形態において、ユーザ疾患推論ロジック237は、ユーザの現在(すなわち、最新)の呼吸器疾患を決定もしくは推論する1つもしくは複数の分類器モデルおよび/またはユーザの将来の呼吸器疾患の可能性を予想する1つもしくは複数の予測器モデルを含んでいてもよい。分類器モデルの例としては、決定木もしくはランダムフォレスト、ナイーブベイズ、ニューラルネットワーク、パターン認識モデル、他の機械学習モデル、他の統計的分類器、またはこれらの組み合わせ(たとえば、集合体)が挙げられるが、これらに限定されない。いくつかの実施形態において、ユーザ疾患推論ロジック237には、クラスタリングまたは教師なし分類技術を実行するためのロジックを含んでいてもよい。予測モデルの例としては、回帰技術(たとえば、線形回帰またはロジスティック回帰、最小二乗法、一般化線形モデル(GLM)、多変量適応回帰スプライン(MARS)、または他の回帰プロセス)、ニューラルネットワーク、決定木もしくはランダムフォレスト、または他の予測モデルもしくはモデルの組み合わせ(たとえば、集合体)が挙げられるが、これらに限定されない。 In some embodiments, respiratory disease inference engine 278 may utilize user disease inference logic 237 to determine a respiratory disease score or make inferences and/or predictions regarding a user's respiratory disease. . User disease inference logic 237 may include rules, conditions, associations, machine learning models, or other criteria for inferring and/or predicting the likelihood of respiratory disease from voice-related data. User disease inference logic 237 may take different forms depending on the mechanism of use and intended output. In one embodiment, user disease inference logic 237 includes one or more classifier models that determine or infer the user's current (i.e., most recent) respiratory disease and/or the likelihood of the user's future respiratory disease. may include one or more predictor models that predict . Examples of classifier models include decision trees or random forests, Naive Bayes, neural networks, pattern recognition models, other machine learning models, other statistical classifiers, or combinations thereof (e.g., ensembles). However, it is not limited to these. In some embodiments, user disease inference logic 237 may include logic to perform clustering or unsupervised classification techniques. Examples of predictive models include regression techniques (e.g., linear or logistic regression, least squares, generalized linear models (GLMs), multivariate adaptive regression splines (MARS), or other regression processes), neural networks, decisions Examples include, but are not limited to, trees or random forests, or other predictive models or combinations of models (eg, ensembles).

上述の通り、呼吸器疾患推論エンジン278のいくつかの実施形態では、ユーザが呼吸器感染症である確率または呼吸器感染症を発症する確率を決定するようにしてもよい。場合により、この確率は、ユーザの音響特性(特性において検出される変化を含む)、分類器もしくは予測モデルの出力、または満たされるルールもしくは条件に基づいていてもよい。たとえば、一実施形態によれば、ユーザ疾患推論ロジック237は、特定の閾値(たとえば、本明細書に記載の通り、疾患変化閾値)を満たす音素特性値の変化または1つもしくは複数の音素特性値に発生する検出変化の程度に基づいて呼吸器感染症の確率を決定するルールを含んでいてもよい。一実施形態において、ユーザ疾患推論ロジック237は、ユーザの現在の呼吸器疾患と基準との間の検出変化または差を解釈して、ユーザが呼吸器感染症である可能性を決定するルールを含んでいてもよい。別の実施形態においては、ユーザの呼吸器疾患に関する複数の最新の評価(すなわち、最新時間と早期時間との複数回の比較)が確率に寄与し得る。非限定的な一例として、ユーザが2日続きで呼吸器疾患の変化を示している場合は、1日だけ変化を示す場合よりも呼吸器感染症の確率が高くなり得る。一実施形態においては、特定の呼吸器感染症に関する既知の音素特性変化の一組の1つもしくは複数のパターンまたは特性変化に適用され、既知の呼吸器感染症に対応する一組の閾値、および比較に基づいて決定された感染症の可能性に対して、検出変化および/または変化率が比較されるようになっていてもよい。さらに、いくつかの実施形態において、ユーザ疾患推論ロジック237は、生理学的情報または呼吸器感染症疾患の地域的流行に関する情報等のコンテキスト情報を利用して、ユーザが呼吸器感染症である確率を決定するようにしてもよい。 As discussed above, some embodiments of the respiratory disease inference engine 278 may determine the probability that a user has or will develop a respiratory infection. In some cases, this probability may be based on acoustic characteristics of the user (including detected changes in characteristics), the output of a classifier or predictive model, or rules or conditions that are met. For example, according to one embodiment, user disease inference logic 237 determines whether a change in a phoneme feature value or one or more phoneme feature values meets a particular threshold (e.g., a disease change threshold, as described herein). may include rules for determining the probability of respiratory infection based on the degree of detected change occurring in the respiratory infection. In one embodiment, user illness inference logic 237 includes rules that interpret detected changes or differences between the user's current respiratory illness and a baseline to determine the likelihood that the user has a respiratory infection. It's okay to stay. In another embodiment, multiple recent assessments of the user's respiratory illness (ie, multiple comparisons of recent times to earlier times) may contribute to the probability. As a non-limiting example, if a user exhibits a change in respiratory illness for two days in a row, the probability of a respiratory infection may be higher than if the user exhibits a change for only one day. In one embodiment, a set of thresholds applied to one or more patterns or characteristic changes of a set of known phoneme characteristic changes for a particular respiratory infection, corresponding to the known respiratory infection; The detected change and/or rate of change may be compared against the probability of infection determined based on the comparison. Further, in some embodiments, the user disease inference logic 237 utilizes contextual information, such as physiological information or information regarding the regional prevalence of respiratory infectious diseases, to estimate the probability that the user has a respiratory infectious disease. It may be decided.

ユーザ疾患推論ロジック237は、音響特性情報に関して決定された変化(たとえば、特性集合値、特性ベクトル距離測定結果、および他のデータの変化)または音響特性情報に関して決定された変化率を1つまたは複数の閾値(本明細書においては、疾患変化閾値と称される場合もある)と比較するためのコンピュータ命令およびルールもしくは条件を含んでいてもよい。たとえば、最新の時間区分および早期の時間区分それぞれに対応する2つの特性ベクトルの距離測定結果が疾患変化閾値と比較されるようになっていてもよい。比較に基づいて、閾値が満たされる場合(たとえば、閾値を超える場合)に、ユーザの呼吸器疾患の変化が検出されたものと考えられるように、疾患変化閾値が検出器(たとえば、外れ値検出器)として利用されるようになっていてもよい。疾患変化閾値は、ユーザの疾患の有意な変化が検出され得る一方、些細ながらも変化である小さな変動がユーザの呼吸器疾患の変化として検出されることがない(または、変化として判定されることがない)ように決定されていてもよい。たとえば、複数日基準を利用するいくつかの実施形態では、本明細書に別途記載の通り、複数日基準の特性値の2つの標準偏差として決定された疾患変化閾値を採用するようにしてもよい。 User disease inference logic 237 includes one or more determined changes in the acoustic characteristic information (e.g., changes in characteristic set values, characteristic vector distance measurements, and other data) or rates of change in the acoustic characteristic information. may include computer instructions and rules or conditions for comparison to a threshold (sometimes referred to herein as a disease change threshold). For example, distance measurements of two characteristic vectors corresponding to a recent time interval and an earlier time interval, respectively, may be compared to a disease change threshold. Based on the comparison, the disease change threshold is determined by the detector (e.g., outlier detection It may also be used as a container. The disease change threshold is such that a significant change in the user's disease can be detected, while a small variation, which is a trivial change, will not be detected as a change (or determined as a change) in the user's respiratory disease. It may be determined that there is no such thing. For example, some embodiments utilizing a multi-day criterion may employ a disease change threshold determined as two standard deviations of the characteristic value of the multi-day criterion, as described elsewhere herein. .

いくつかの実施形態においては、疾患変化閾値がユーザの疾患の状態(たとえば、感染または非感染)に固有であり、特性ベクトル間の変化の大きさが疾患変化閾値を満たす場合は、ユーザの疾患が変化したものと判定され得る。また、閾値は、一般的に呼吸器疾患のトレンドのほか、呼吸器疾患の可能性の判定に用いられるようになっていてもよい。一実施形態において、比較(音素特性比較器274により実行され得る)が疾患変化閾値を満たす(たとえば、超える)場合は、ユーザの呼吸器疾患が(疾患変化閾値により規定のような)ある大きさで変化しているため、ユーザの疾患が改善または悪化しているもの(すなわち、トレンド)と判定され得る。このように、本実施形態において、疾患変化閾値を満たさない軽微な変化は、考慮され得ない。または、ユーザの疾患が実質的に変化していないことを示し得る。 In some embodiments, the disease change threshold is specific to the user's disease state (e.g., infected or uninfected), and if the magnitude of change between the characteristic vectors satisfies the disease change threshold, the user's disease may be determined to have changed. Further, the threshold value may be used not only to determine the trend of respiratory diseases in general but also to determine the possibility of respiratory diseases. In one embodiment, if the comparison (which may be performed by phoneme feature comparator 274) meets (e.g., exceeds) a disease change threshold, then the user's respiratory disease has a certain magnitude (as defined by the disease change threshold). Since the user's disease is changing, it can be determined that the user's disease is improving or worsening (i.e., a trend). Thus, in this embodiment, minor changes that do not meet the disease change threshold cannot be considered. Alternatively, it may indicate that the user's disease has not changed substantially.

いくつかの実施形態において、疾患変化閾値は、重み付け、音素特性の一部のみへの適用、および/または特性ベクトル(もしくは、音素特性集合)の各音素特性もしくは特性の部分集合の変化を特徴付ける一組の閾値の包含が可能である。たとえば、第1の音素特性の変化は小さくても有意となり得る一方、第2の音素特性の変化は小さければ有意となり得ず、あるいは、一般的に発生するものと考えられる。このため、第1の特性値は、わずかでも変化したことを把握しておくのが役立ち、また、第2の特性値は、大きく変化した場合に把握しておくのが役立つと考えられる。したがって、この第1の音素特性には、小さな変化であっても満たし得るように、より小さな第1の疾患変化閾値(または、重み付け閾値)が用いられるようになっていてもよく、また、第2の音素特性には、より大きな(第2の)疾患変化閾値(または、異なる重み付けの閾値)が用いられるようになっていてもよい。このような重み付けまたは変更がなされた疾患変化閾値の適用は、特定の音素特性がより影響を受けやすいと判定される(すなわち、この音素特性の変化は、ユーザの呼吸器疾患の変化をより表す)特定の呼吸器感染症の検出またはモニタリングに利用されるようになっていてもよい。 In some embodiments, disease change thresholds are weighted, applied to only a subset of phoneme features, and/or set to a value that characterizes changes in each phoneme feature or subset of features of a feature vector (or phoneme feature set). The inclusion of sets of threshold values is possible. For example, a change in the first phoneme characteristic can be significant even if it is small, whereas a change in the second phoneme characteristic cannot be significant if it is small, or it is thought that it generally occurs. For this reason, it is considered useful to know when the first characteristic value has changed even slightly, and it is useful to know when the second characteristic value has changed significantly. Therefore, a smaller first disease change threshold (or weighted threshold) may be used for this first phoneme characteristic so that even a small change can be satisfied. A larger (second) disease change threshold (or a differently weighted threshold) may be used for the second phoneme characteristic. Application of such weighted or modified disease change thresholds determines that a particular phoneme feature is more susceptible (i.e., a change in this phoneme feature is more representative of a change in the user's respiratory disease). ) may be adapted for use in the detection or monitoring of certain respiratory infections.

いくつかの実施形態において、疾患変化閾値は、ユーザの最新の音響特性値に対する比較に用いられる基準の標準偏差に基づく。たとえば、複数日基準等の基準は、たとえばユーザが健康(または、病気)になり始めた複数の時間区分の特性情報を含むように、(たとえば、音素特性比較ロジック235により)決定され得る。標準偏差は、基準に用いられる異なる時間区分(たとえば、日にち)からの特性の特性値に基づいて決定され得る。疾患変化閾値は、標準偏差に基づいて決定されるようになっていてもよい(たとえば、2つの標準偏差の閾値が利用される)。たとえば、最新の音素特性集合と健康基準(または、期間もしくは時点に対するユーザの音素特性値の類似する検出変化)との比較が基準の2つの標準偏差を満たす場合、ユーザは、呼吸器感染症等の疾患であるものと判定され得る。このように、上記比較はより堅牢である。非限定的な一例として、健康な場合に日常的に起こり得るユーザの音響特性の軽微な変化が疾患変化閾値に加味される。場合によっては、ユーザの現在の呼吸器疾患と基準との差の程度を決定または定量化するため、標準偏差に基づいて、複数の閾値が利用されるようになっていてもよい。たとえば、一実施形態において、健康基準に対する比較(または、期間に対するユーザの音素特性値の類似する検出変化)が基準の2つの標準偏差を満たす場合は、ユーザの呼吸器感染症の確率が低いものと判定され、比較が基準の3つの標準偏差を満たす場合は、ユーザの呼吸器感染症の確率が高いものと判定され得る。 In some embodiments, the disease change threshold is based on the standard deviation of the reference used for comparison against the user's most recent acoustic characteristic value. For example, a criterion, such as a multi-day criterion, may be determined (eg, by phoneme feature comparison logic 235) to include characteristic information for multiple time periods in which the user began to become healthy (or ill), for example. The standard deviation may be determined based on characteristic values of the characteristic from different time periods (eg, days) used as a reference. The disease change threshold may be determined based on standard deviation (eg, a threshold of two standard deviations is utilized). For example, if a comparison of the most recent phoneme feature set to a health standard (or similar detected change in the user's phoneme feature values over a period or point in time) satisfies two standard deviations of the standard, then the user It can be determined that the patient has a disease. In this way, the above comparison is more robust. As a non-limiting example, minor changes in the user's acoustic characteristics that may occur on a daily basis in a healthy case are factored into the disease change threshold. In some cases, multiple thresholds may be utilized based on standard deviations to determine or quantify the degree of difference between the user's current respiratory illness and a baseline. For example, in one embodiment, a user has a low probability of having a respiratory infection if a comparison to a health criterion (or a similar detected change in the user's phoneme feature value over time) meets two standard deviations of the criterion. If it is determined that the comparison satisfies three standard deviations of the standard, it may be determined that the user has a high probability of having a respiratory infection.

いくつかの実施形態において、ユーザ疾患推論ロジック237に従って決定された疾患変化閾値は、(たとえば、ユーザ、臨床医、またはユーザの介護者により)修正されるようになっていてもよいし、(たとえば、臨床医、介護者、またはアプリケーション開発者により)予め定められていてもよい。また、疾患変化閾値は、基準母集団データに基づいていてもよいし、特定のユーザに対して決定されるようになっていてもよい。たとえば、疾患変化閾値は、ユーザの特定の健康情報(たとえば、健康診断、薬剤、もしくは健康レコードデータ)および/または個人情報(たとえば、年齢、歌唱もしくは喫煙等のユーザの挙動もしくは行動)に基づいて設定されるようになっていてもよい。この追加または代替として、ユーザ(または、介護者)は、個人レコード240の設定249等の設定として疾患変化閾値を設定または調整するようにしてもよい。いくつかの態様において、疾患変化閾値は、モニタリングまたは検出されている特定の呼吸器感染症に基づいていてもよい。たとえば、ユーザ疾患推論ロジック237には、考え得る異なる呼吸器感染症または疾患をモニタリングするための異なる閾値(たとえば、一組の閾値)を利用するロジックを含んでいてもよい。したがって、ユーザの疾患が(たとえば、診断によって)把握されている場合または疑われる場合は、特定の閾値が利用されるようになっていてもよく、これは場合により、コンテキスト情報または自己報告症状情報により決定されるようになっていてもよい。いくつかの実施形態においては、2つ以上の疾患変化閾値が適用されるようになっていてもよい。 In some embodiments, the disease change threshold determined according to user disease inference logic 237 may be subject to modification (e.g., by the user, clinician, or caregiver of the user) and (e.g., , a clinician, a caregiver, or an application developer). Further, the disease change threshold may be based on reference population data or may be determined for a specific user. For example, the disease change threshold may be based on the user's specific health information (e.g., medical exam, medication, or health record data) and/or personal information (e.g., the user's behavior or behaviors such as age, singing, or smoking). It may be set. Additionally or alternatively, the user (or caregiver) may set or adjust the disease change threshold as a setting, such as settings 249 in the personal record 240. In some embodiments, the disease change threshold may be based on the particular respiratory infection being monitored or detected. For example, user disease inference logic 237 may include logic that utilizes different thresholds (eg, a set of thresholds) for monitoring different possible respiratory infections or diseases. Therefore, if a user's disease is known or suspected (e.g., through a diagnosis), certain thresholds may be utilized, which may be based on contextual information or self-reported symptom information. It may be determined by In some embodiments, more than one disease change threshold may be applied.

いくつかの実施形態において、ユーザ疾患推論ロジック237は、外れ値(または、例外)検出を実行するためのコンピュータ命令を含んでいてもよく、また、ユーザの呼吸器感染症の可能性を検出する外れ値検出器の形態であってもよい(または、外れ値検出モデルを利用するようにしてもよい)。たとえば、一実施形態において、ユーザ疾患推論ロジック237は、本明細書に別途記載の通り、基準特性集合(たとえば、複数日基準)の標準偏差を決定するとともに外れ値検出の閾値として利用する一組のルールを含んでいてもよい。他の実施形態において、ユーザ疾患推論ロジック237は、外れ値検出アルゴリズムを利用する1つまたは複数の機械学習モデルの形態であってもよい。たとえば、ユーザ疾患推論ロジック237は、1つまたは複数の確率モデル、線形回帰モデル、または近接性モデルを含んでいてもよい。いくつかの態様において、このようなモデルは、ユーザのデータに対するトレーニングによって、ユーザ固有の変動性を検出するようにしてもよい。他の実施形態においては、モデルのトレーニングによって、呼吸器疾患固有のコホートの基準情報を利用するようにしてもよい。たとえば、インフルエンザ、喘息、および慢性閉塞性肺疾患(COPD)等の特定の呼吸器疾患であることが知られている患者のデータによって、このような疾患を検出するためのモデルがトレーニングされる。このように、ユーザ疾患推論ロジック237は、モニタリング、判定、または予想される呼吸器疾患の種類に固有であってもよい。 In some embodiments, user disease inference logic 237 may include computer instructions for performing outlier (or exception) detection and detecting a possible respiratory infection in the user. It may take the form of an outlier detector (or it may utilize an outlier detection model). For example, in one embodiment, user disease inference logic 237 determines the standard deviation of a set of baseline characteristics (e.g., a multi-day basis) and utilizes a set of thresholds for outlier detection, as described elsewhere herein. may include rules for In other embodiments, user disease inference logic 237 may be in the form of one or more machine learning models that utilize outlier detection algorithms. For example, user disease inference logic 237 may include one or more probabilistic models, linear regression models, or proximity models. In some aspects, such models may be trained on user data to detect user-specific variability. In other embodiments, the model may be trained to utilize baseline information from respiratory disease-specific cohorts. For example, data from patients known to have certain respiratory diseases, such as influenza, asthma, and chronic obstructive pulmonary disease (COPD), trains models to detect such diseases. Thus, user disease inference logic 237 may be specific to the type of respiratory disease being monitored, determined, or anticipated.

いくつかの実施形態において、ユーザ疾患推論ロジック237を利用した呼吸器疾患推論エンジン278の出力は、予測または予想である。この予測は、音素特性または呼吸器疾患スコアにおいて検出された変化、変化率、および/または変化のパターンに基づいて決定されるようになっていてもよく、また、本明細書に記載のトレンド分析、回帰、または他の予測モデルを利用するようにしてもよい。いくつかの実施形態において、この予測には、対応する予測確率および/または当該予測の将来の時間区分を含んでいてもよい(たとえば、ユーザが次週までに呼吸器感染症を発症する可能性は70%である)。一実施形態においては、ユーザの呼吸器疾患の改善のトレンドを示すユーザの音素特性の検出変化率に基づいて、ユーザが再び健康になりそうなタイミングを予測する(たとえば、本実施形態を示す一例として、図4E参照)。場合によっては、ユーザのトレンドまたは見解(たとえば、ユーザが回復しているか、悪化しているか)の形態の予測が提供されるようになっていてもよいし、ユーザが発病または回復する確率/可能性として予測が提供されるようになっていてもよい。いくつかの実施形態においては、将来予想されるユーザの呼吸器疾患の可能性を決定するため、ユーザの音素特性または呼吸器疾患スコアの変化のパターンを比較することにより、基準母集団(たとえば、呼吸器疾患が類似するコホート等の一般大衆またはユーザに類似する母集団)のパターンを決定するようにしてもよい。いくつかの実施形態において、呼吸器疾患推論エンジン278またはユーザ疾患推論ロジック237は、ユーザの音素特性ベクトルの1つまたは複数のパターンを組み立てる機能を含んでいてもよい。これらのパターンは、自己報告入力または症状スコアと相関していてもよいし、合成症状スコア等、自己報告入力から生成された判定と相関していてもよい。そして、特定のユーザの将来の呼吸器疾患を予測するため、ユーザの音素特性パターンが解析されるようになっていてもよい。あるいは、他のユーザ(一般大衆を表す基準母集団、特定の呼吸器疾患の患者の母集団(たとえば、インフルエンザ、喘息、ライノウイルス、慢性閉塞性肺疾患(COPD)、COVID-19等のコホート)、またはユーザに類似する患者の母集団)からのユーザパターンが特定のユーザの将来の呼吸器疾患の予想に利用されるようになっていてもよい。呼吸器疾患の予測を示す例示な図が図4E(要素447)および図5C(要素5316)に提供される。 In some embodiments, the output of respiratory disease inference engine 278 utilizing user disease inference logic 237 is a prediction or prediction. This prediction may be determined based on detected changes, rates of change, and/or patterns of change in phonemic features or respiratory disease scores, and trend analysis as described herein. , regression, or other predictive models may be used. In some embodiments, the prediction may include a corresponding predicted probability and/or a future time interval for the prediction (e.g., the likelihood that the user will develop a respiratory infection by the next week is 70%). In one embodiment, the user predicts when the user is likely to become healthy again based on a detected rate of change in the user's phonemic characteristics that indicates a trend of improvement in the user's respiratory disease (e.g., in an example illustrating this embodiment). (see Figure 4E). In some cases, predictions may be provided in the form of trends or views of the user (e.g., is the user getting better or getting worse?), or the probability/likelihood that the user will get sick or recover. Predictions may be provided automatically. In some embodiments, a reference population (e.g., The general public or a population similar to the user, such as a cohort with similar respiratory diseases) may be determined. In some embodiments, respiratory disease inference engine 278 or user disease inference logic 237 may include functionality to assemble one or more patterns of user phoneme feature vectors. These patterns may be correlated with self-reported input or symptom scores, or with judgments generated from self-reported input, such as composite symptom scores. The user's phoneme characteristic patterns may then be analyzed to predict a particular user's future respiratory illness. or other users (reference populations representing the general public, populations of patients with specific respiratory diseases (e.g., cohorts for influenza, asthma, rhinovirus, chronic obstructive pulmonary disease (COPD), COVID-19, etc.) , or a population of patients similar to the user) may be used to predict future respiratory illness for a particular user. Exemplary diagrams illustrating prediction of respiratory disease are provided in FIG. 4E (element 447) and FIG. 5C (element 5316).

ユーザ疾患推論ロジック237は、いくつかの実施形態において、音素特性ベクトルのパターンもしくは変化率を考慮すること、および/または、ユーザが存在するエリアにおける感染症流行等の地理的特定情報を考慮することが可能である。たとえば、呼吸器疾患または症状の進展を表すような全部または特定の音素特性の変化の特定のパターン(または、変化率)が特定の呼吸器感染症を示し得る(たとえば、数日間の鼻づまりの後には通常、喉の痛みが生じ、その後には通常、喉頭炎が生じる)。 User disease inference logic 237, in some embodiments, considers patterns or rates of change in phoneme feature vectors and/or considers geographically specific information, such as infectious disease prevalence in the area where the user is located. is possible. For example, a particular pattern (or rate of change) of changes in all or specific phonemic features may be indicative of a particular respiratory infection (e.g., after several days of nasal congestion) that represents the development of a respiratory disease or condition. usually causes a sore throat, which is usually followed by laryngitis).

いくつかの実施形態において、ユーザ疾患推論ロジック237は、音素特性情報の複数の変化または変化率を決定および/または比較するためのコンピュータ命令を含んでいてもよい。たとえば、最新の音素特性ベクトルと第1の早期の音素特性ベクトルとの第1の比較(または、一組の比較)は、ユーザの呼吸器疾患が変化したことを示し得る。一実施形態において、当該変化がユーザの疾患の改善を示すか悪化を示すかについては、別の比較を実行することにより決定されるようになっていてもよい。たとえば、最新の音素特性ベクトルと健康基準特性ベクトルまたはユーザが健康であったことが把握されている期間または時点の第2の早期の音素特性ベクトルとの第2の比較が決定されるようになっていてもよい。さらには、第1の早期の音素特性ベクトルと基準すなわち第2の早期の音素特性ベクトルとの第3の比較が決定されるようになっていてもよい。第2の比較と第3の比較との間に検出される変化の比較(第4の比較)によって、ユーザの呼吸器疾患が改善しているか(たとえば、最新の音素特性ベクトルと健康基準との差が第1の早期の音素特性ベクトルと健康基準との差よりも小さいか)、悪化しているか(たとえば、最新の音素特性ベクトルと健康基準との差が第1の早期の音素特性ベクトルと健康基準との差よりも大きいか)を判定するようにしてもよい。さらに、ユーザの呼吸器疾患が悪化もしくは改善した程度、ユーザがどの程度回復に近づいているか(たとえば、音素特性値が健康基準もしくはその近くに戻っている場合)、またはユーザが回復状態になると予想し得るタイミング(たとえば、改善を示すトレンドにおけるユーザの状態の変化量または変化に基づく)を決定するため、変化の程度を示す閾値との追加の比較が利用されるようになっていてもよい。 In some embodiments, user disease inference logic 237 may include computer instructions for determining and/or comparing multiple changes or rates of change in phoneme feature information. For example, a first comparison (or set of comparisons) between the most recent phoneme feature vector and the first earlier phoneme feature vector may indicate that the user's respiratory illness has changed. In one embodiment, whether the change indicates improvement or worsening of the user's disease may be determined by performing another comparison. For example, a second comparison between the most recent phoneme feature vector and a health baseline feature vector or a second earlier phoneme feature vector for a period or point in time during which the user is known to have been healthy may be determined. You can leave it there. Furthermore, a third comparison between the first early phoneme feature vector and a reference or second early phoneme feature vector may be determined. A comparison of the changes detected between the second and third comparisons (fourth comparison) indicates whether the user's respiratory disease is improving (e.g., the comparison between the latest phoneme feature vector and the health standard). whether the difference is smaller than the difference between the first early phoneme feature vector and the health criterion) or worsening (e.g., the difference between the latest phoneme feature vector and the health criterion is less than the difference between the first early phoneme feature vector and the health criterion) It may be determined whether the difference is larger than the difference from the health standard. Additionally, the extent to which the user's respiratory illness has worsened or improved, how close the user is to recovery (e.g., if the phoneme feature values have returned to or near the healthy baseline), or the user's expectation that the user will be in recovery; Additional comparisons to thresholds indicative of the degree of change may be utilized to determine when a change may occur (e.g., based on the amount or change in the user's condition in a trend indicating improvement).

いくつかの実施形態において、ユーザ疾患推論ロジック237は、ユーザの自己報告および/またはコンテキストデータ(場合によっては、ユーザの睡眠情報(利用可能な場合)等の生理学的データ、最近のユーザの活動に関する情報、またはユーザの位置情報を含み得る)を取り入れる1つまたは複数の決定木(または、ランダムフォレスト等のモデル)を含んでいてもよい。たとえば、ユーザの音声関連データが声のかすれを示し、コンテキスト情報から、ユーザの前夜の位置がアリーナ会場であり、前夜の予定項目が「プレーオフトーナメント」というタイトルであったと判定された場合、ユーザ疾患推論ロジック237は、ユーザの音声データにおいて観察される変化が呼吸器感染症ではなくユーザがスポーツイベントに参加した結果の可能性が高いと判定し得る。 In some embodiments, user disease inference logic 237 includes user self-report and/or contextual data (in some cases, physiological data, such as user sleep information (if available), and related to recent user activity). information, or a user's location information). For example, if a user's voice-related data indicates hoarseness, and context information determines that the user's location the previous night was at an arena venue, and the previous night's agenda item was titled "Playoff Tournament," the user's disease Reasoning logic 237 may determine that the observed changes in the user's audio data are likely the result of the user participating in a sporting event rather than a respiratory infection.

いくつかの実施形態において、ユーザ疾患推論ロジック237は、検出された呼吸器関連病原体をユーザが伝播する蓋然性のリスクを決定するためのコンピュータ命令を含んでいてもよい。たとえば、呼吸器疾患推論エンジン278または呼吸器感染症のユーザの臨床医による診断により決定された呼吸器疾患または将来の疾患の可能性に適用されるルールまたは条件に基づいて、伝播リスクが決定されるようになっていてもよい。伝播リスクは、2値的(たとえば、ユーザが感染させる可能性がある/ない)、カテゴリ的(たとえば、伝播のリスクが低い、中間、もしくは高い)、または伝播の可能性を示し得る確率もしくは伝播リスクスコアとして決定されるようになっていてもよい。場合により、伝播リスクは、ユーザが罹患またはその可能性のある特定の呼吸器感染症(たとえば、インフルエンザ、ライノウイルス、COVID-19、特定種類の肺炎等)に基づいていてもよい。このため、ユーザの状態に基づいて固定または変更され得る設定時間にわたって、特定の疾患(たとえば、COVID-19)のユーザが感染させやすい状態であることをルールにより指定していてもよい。たとえば、このルールは、ユーザが呼吸器感染症ではなくなった可能性が旨の呼吸器疾患推論エンジン278による判定の後、24時間にわたってユーザが感染させやすい状態であることを指定していてもよい。さらに、伝播リスクは、呼吸器感染症を発症している(または、発症する可能性が高い)ユーザの全期間にわたり一定であってもよいし、ユーザの呼吸器感染症の状態または進展に基づいて変化するものであってもよい。たとえば、伝播リスクは、最新の時間区分(たとえば、過去1週間またはユーザの呼吸器感染症の可能性が呼吸器疾患推論エンジン278により最初に判定されて以降)におけるユーザの呼吸器疾患(すなわち、音声関連データ)の検出変化、トレンド、パターン、変化率、または解析に基づいて変化するものであってもよい。伝播リスクは、ユーザに提供されるようになっていてもよいし、(たとえば、呼吸器疾患推論エンジン278、システム200の別の構成要素、または臨床医による)ユーザへの推奨(他者との緊密な接触の回避またはマスクの着用等)の決定に利用されるようになっていてもよい。呼吸器疾患推論エンジン278によるユーザ疾患推論ロジック237の一実施形態に従って決定された伝播リスクの一例が図5Cの要素5314に示される。 In some embodiments, user disease inference logic 237 may include computer instructions for determining the risk of a user's likelihood of transmitting a detected respiratory-related pathogen. For example, transmission risk is determined based on rules or conditions applied to the respiratory illness or likelihood of future illness as determined by the respiratory illness inference engine 278 or the user's clinician diagnosis of a respiratory infection. It is also possible to make it look like this. Transmission risk can be binary (e.g., user is likely to transmit infection/not), categorical (e.g., low, medium, or high risk of transmission), or probability or transmission, which can indicate the likelihood of transmission. It may be determined as a risk score. In some cases, the risk of transmission may be based on a particular respiratory infection that the user has or is likely to contract (eg, influenza, rhinovirus, COVID-19, certain types of pneumonia, etc.). To this end, rules may specify that a user with a particular disease (eg, COVID-19) is susceptible to infection for a set period of time that may be fixed or variable based on the user's condition. For example, the rule may specify that the user remains susceptible to infection for 24 hours after the respiratory illness inference engine 278 determines that the user is no longer likely to have a respiratory infection. . Additionally, the risk of transmission may be constant over the entire period of a user developing (or likely to develop) a respiratory infection, or may be based on the status or evolution of the user's respiratory infection. It may also change depending on the situation. For example, the risk of transmission may be determined by the user's respiratory illness (i.e., over the most recent time period (e.g., in the past week or since the user's likelihood of having a respiratory infection was first determined by the respiratory illness inference engine 278). It may change based on a detected change, trend, pattern, rate of change, or analysis of audio-related data). Transmission risk may be provided to the user or recommended to the user (e.g., by respiratory disease inference engine 278, another component of system 200, or a clinician). Avoidance of close contact or wearing of masks, etc.) An example of a transmission risk determined according to one embodiment of user disease inference logic 237 by respiratory disease inference engine 278 is shown in element 5314 of FIG. 5C.

いくつかの実施形態において、ユーザ疾患推論ロジック237は、呼吸器疾患、予想、伝播リスク、または呼吸器疾患推論エンジン278による他の判定に対応する推奨の決定および/または提供を行うルール、条件、または命令を含んでいてもよい。この推奨は、ユーザと関連付けられた患者、介護者、または臨床医等のエンドユーザに(たとえば、意思決定支援推奨として)提供されるようになっていてもよい。たとえば、ユーザまたは介護者に対して決定された推奨には、伝播の最小化、呼吸器感染症の管理、または感染症の悪化の可能性の最小化を行う1つまたは複数の推奨される実践事項を含んでいてもよい。いくつかの実施形態において、ユーザ疾患推論ロジック237は、決定された呼吸器感染症または呼吸器疾患推論エンジン278による他の判定と関連付けられ得る健康情報のデータベースにアクセスして、この情報の少なくとも一部をユーザ、介護者、または臨床医に提供するためのコンピュータ命令を含んでいてもよい。この追加または代替として、これらの推奨は、健康情報データベース中の情報を利用した決定(または、このような情報からの選択もしくは組み立て)がなされるようになっていてもよい。 In some embodiments, user disease inference logic 237 includes rules, conditions, etc. that determine and/or provide recommendations corresponding to respiratory disease, prediction, transmission risk, or other determinations by respiratory disease inference engine 278. Or it may contain instructions. This recommendation may be provided (eg, as a decision support recommendation) to an end user, such as a patient, caregiver, or clinician associated with the user. For example, a recommendation determined for a user or caregiver may include one or more recommended practices that minimize transmission, control a respiratory infection, or minimize the likelihood of exacerbation of an infection. May include matters. In some embodiments, user disease inference logic 237 accesses a database of health information that may be associated with a determined respiratory infection or other determination by respiratory disease inference engine 278 to determine at least some of this information. may include computer instructions for providing the copy to a user, caregiver, or clinician. Additionally or alternatively, these recommendations may be determined using (or selected or assembled from) information in a health information database.

いくつかの実施形態においては、ユーザの現在情報および/もしくは履歴情報(たとえば、履歴音声関連データ、過去に判定された呼吸器疾患、ユーザの呼吸器疾患のトレンドもしくは変化等)ならびに/または症状、生理学的データ、もしくは地理的位置等のコンテキスト情報に基づいて、推奨がユーザに適合されるようになっていてもよい。たとえば、一実施形態おいて、ユーザに関する情報は、ユーザに適合される推奨の決定に用いられる健康情報のデータベースにおいて関連する情報を識別する選択またはフィルタリング基準として利用されるようになっていてもよい。 In some embodiments, the user's current and/or historical information (e.g., historical voice-related data, previously determined respiratory illnesses, trends or changes in the user's respiratory illness, etc.) and/or symptoms; Recommendations may be tailored to the user based on physiological data or contextual information such as geographic location. For example, in one embodiment, information about the user may be utilized as a selection or filtering criterion to identify relevant information in a database of health information used to determine recommendations that are matched to the user. .

推奨は、ユーザ、介護者、もしくは臨床医への提供、および/または結果/推論状態246等のユーザと関連付けられた患者レコード240への格納が行われるようになっていてもよい。健康情報データベースにアクセスするいくつかの実施形態において、このデータベースは、ストレージ250および/またはリモートサーバもしくはクラウド環境に格納されていてもよい。呼吸器疾患推論エンジン278によるユーザ疾患推論ロジック237の一実施形態に従って決定された推奨の一例が図5Cの要素5315に示される。 The recommendation may be provided to the user, caregiver, or clinician, and/or stored in the patient record 240 associated with the user, such as results/inference status 246. In some embodiments of accessing a health information database, the database may be stored in storage 250 and/or in a remote server or cloud environment. An example of a recommendation determined according to one embodiment of user disease inference logic 237 by respiratory disease inference engine 278 is shown in element 5315 of FIG. 5C.

また、図2に示されるように、例示的なシステム200は、呼吸器疾患追跡器270(または、呼吸器疾患推論エンジン278等の副構成要素のうちの1つ)による決定またはストレージ(たとえば、ユーザの患者レコード240の結果/推論状態246)からの取得がなされたユーザの呼吸器疾患または予測等、システム200の構成要素の出力判定を取り込むさまざまなコンピュータアプリケーションまたはサービスを含み得る意思決定支援ツール290を具備する。いくつかの実施形態によれば、意思決定支援ツール290は、この情報を利用することにより、治療および/または予防行動を可能にし得る。このように、意思決定支援ツール290は、モニタリングユーザおよび/またはモニタリングユーザの介護者により利用されるようになっていてもよい。意思決定支援ツール290は、クライアント機器上のスタンドアロンアプリケーション、ウェブアプリケーション、分散アプリケーションもしくはサービス、および/または既存のコンピュータアプリケーション上のサービスの形態であってもよい。いくつかの実施形態において、1つまたは複数の意思決定支援ツール290は、図5Aに関連して記載の呼吸器感染症モニタリングアプリ5101等の呼吸器感染症モニタリングまたは追跡アプリケーションの一部である。 Also, as shown in FIG. 2, the example system 200 includes determination or storage (e.g., decision support tools that may include various computer applications or services that capture output determinations of the components of system 200, such as the user's respiratory illness or predictions obtained from results/inference states 246) of the user's patient record 240; 290. According to some embodiments, decision support tool 290 may utilize this information to enable therapeutic and/or preventive actions. In this manner, decision support tool 290 may be adapted for use by a monitoring user and/or a caregiver of a monitoring user. Decision support tool 290 may take the form of a stand-alone application on a client device, a web application, a distributed application or service, and/or a service on an existing computer application. In some embodiments, one or more decision support tools 290 are part of a respiratory infection monitoring or tracking application, such as respiratory infection monitoring app 5101 described in connection with FIG. 5A.

例示的な意思決定支援ツールとして、疾病モニタ292が挙げられる。疾病モニタ292は、ユーザのスマートフォン(または、スマートスピーカ等のユーザ機器)上で動作するアプリを含んでいてもよい。疾病モニタ292のアプリは、ユーザの発話をモニタリングして、ライノウイルスまたはインフルエンザ等の呼吸器感染症をユーザが発病しているか、回復中であるかをユーザおよび/またはユーザのケア提供者に報知するようにしてもよい。いくつかの実施形態において、疾病モニタ292は、ユーザに耳を傾けて音声関連データまたは、いくつかの態様においては、他のデータを収集する許可を要求するようにしてもよい。疾病モニタ292は、ユーザが発病しているか、発病の可能性があるか、または回復しているかを示す通知またはアラートをユーザに対して生成するようにしてもよい。いくつかの実施形態において、疾病モニタ292は、呼吸器疾患の判定および/または予測に基づいて、処置推奨の開始および/またはスケジューリングを行うようにしてもよい。通知またはアラートには、呼吸器疾患の判定および/または予測に基づいて、処置等の介入行動のための推奨行動を含んでいてもよい。処置推奨には、非限定的な一例として、ユーザが取るべき推奨行動(たとえば、マスクの着用)、市販薬剤、臨床医への相談、ならびに/または呼吸器感染症の有無の確認、呼吸器感染症および/もしくは結果としての症状の処置が推奨される試験を含んでいてもよい。たとえば、疾病モニタ292は、ユーザがヘルスケア提供者の訪問をスケジューリングすることおよび/または呼吸器疾患の確認の試験を受けることを推奨していてもよい。いくつかの実施形態において、疾病モニタ292は、医師の予約および/または試験の予約のスケジューリングを開始または容易化し得る。この代替または追加として、疾病モニタ292は、市販薬剤等の処置を推奨または指示するようにしてもよい。 An exemplary decision support tool includes disease monitor 292. Disease monitor 292 may include an app that runs on a user's smartphone (or user equipment such as a smart speaker). The Disease Monitor 292 app monitors the user's speech to alert the user and/or the user's care provider whether the user has or is recovering from a respiratory infection, such as rhinovirus or influenza. You may also do so. In some embodiments, disease monitor 292 may listen to the user and request permission to collect audio-related data or, in some aspects, other data. The disease monitor 292 may generate notifications or alerts to the user indicating whether the user is sick, at risk of becoming sick, or is recovering. In some embodiments, disease monitor 292 may initiate and/or schedule treatment recommendations based on the determination and/or prediction of respiratory disease. The notification or alert may include recommended actions for interventional actions, such as treatment, based on the determination and/or prediction of the respiratory disease. Treatment recommendations may include, by way of non-limiting example, recommended actions for the user to take (e.g., wearing a mask), over-the-counter medications, consultation with a clinician, and/or checking for the presence of a respiratory infection. Treatment of the disease and/or resultant symptoms may include tests in which treatment is recommended. For example, disease monitor 292 may recommend that the user schedule a visit with a health care provider and/or undergo a test to confirm a respiratory illness. In some embodiments, disease monitor 292 may initiate or facilitate scheduling of doctor appointments and/or test appointments. Alternatively or additionally, disease monitor 292 may recommend or prescribe treatment, such as over-the-counter medications.

疾病モニタ292の実施形態では、最小限の距離の確保等の予防策を講じて感染症の拡散を防止することをユーザが自宅内の他者に報知することを推奨するようにしてもよい。いくつかの実施形態において、疾病モニタ292は、この通知を推奨するとともに、ユーザがこの通知を肯定的に承認した場合、感染ユーザの自宅内の他のユーザと関連付けられたユーザ機器への通知を開始するようにしてもよい。疾病モニタ292は、ユーザアカウント/機器248等、ユーザの患者レコード240に格納された情報によって、関連するユーザ機器を識別するようにしてもよい。いくつかの実施形態において、疾病モニタ292は、他の検知データ(たとえば、心拍数、体温、睡眠等の生理学的データ)、ユーザの地域における呼吸器感染症の流行に関する情報等の他のコンテキストデータ、またはユーザから入力されたデータ(自己報告ツール284を介して提供された症状情報等)を呼吸器疾患の判定および/または予測と相関させて推奨を行うようにしてもよい。 Embodiments of the disease monitor 292 may recommend that the user notify others in the home to take precautions, such as minimum distancing, to prevent the spread of infectious diseases. In some embodiments, disease monitor 292 recommends this notification and, if the user affirmatively approves this notification, sends the notification to user equipment associated with other users in the infected user's home. You may start it. Disease monitor 292 may identify associated user equipment, such as user account/equipment 248, through information stored in the user's patient record 240. In some embodiments, disease monitor 292 includes other sensed data (e.g., physiological data such as heart rate, body temperature, sleep, etc.), other contextual data such as information regarding the prevalence of respiratory infections in the user's region. , or user-input data (such as symptom information provided via self-reporting tool 284) may be correlated with the determination and/or prediction of respiratory disease to make recommendations.

一実施形態において、疾病モニタ292は、感染症接触トレースアプリケーションの一部であってもよいし、感染症接触トレースアプリケーションと連動するようになっていてもよい。このように、第1のユーザの考え得る呼吸器感染症の早期検出に関する情報が自動的に、第1のユーザが接触した他者に伝達されるようになっていてもよい。この追加または代替として、上記情報は、これら他者の呼吸器感染症モニタリングの開始に用いられるようになっていてもよい。たとえば、他者は、感染者との接触の可能性が通知され、疾病モニタ292または図5Aに関連して記載の呼吸器感染症モニタリングアプリ5101等の呼吸器感染症モニタリングアプリケーションのダウンロードおよび使用が促されるようになっていてもよい。このように、第1のユーザが体調を崩す前(すなわち、第1のユーザが症状を感じる前)であっても、他者への通知およびモニタリングの開始が可能となる。 In one embodiment, the disease monitor 292 may be part of or may be adapted to work in conjunction with an infectious disease contact tracing application. In this way, information regarding early detection of a possible respiratory infection of the first user may be automatically communicated to others with whom the first user has come into contact. Additionally or alternatively, the information may be used to initiate respiratory infection monitoring of these others. For example, another person may be notified of a possible exposure to an infected person and may download and use a respiratory infection monitoring application, such as disease monitor 292 or respiratory infection monitoring app 5101 described in connection with FIG. 5A. You may be prompted to do so. In this way, it is possible to notify others and start monitoring even before the first user becomes unwell (that is, before the first user feels symptoms).

図2に示されるように、別の例示的な意思決定支援ツール290は、処方モニタ294である。処方モニタ294は、ユーザが呼吸器感染症であるか否か等、ユーザの呼吸器疾患に関する判定および/または予測を利用して、処方が補充されるべきか否かを判定するようにしてもよい。処方モニタ294は、たとえばユーザの個人レコード240から、ユーザが検出呼吸器疾患または予想呼吸器疾患に関して現在の処方を有するか否かを判定するようにしてもよい。また、処方モニタ294は、薬剤の服用頻度、薬剤の最終充填日、および/または利用可能な補充数についての処方指示を決定するようにしてもよい。処方モニタ294は、ユーザが現時点で呼吸器感染症であるかの判定またはユーザが近い将来に呼吸器感染症となるか、症状を示すかの予測に基づいて、処方の補充が必要であるか否かを判定するようにしてもよい。 As shown in FIG. 2, another example decision support tool 290 is a prescription monitor 294. Prescription monitor 294 may utilize determinations and/or predictions regarding the user's respiratory illness, such as whether the user has a respiratory infection, to determine whether the prescription should be refilled. good. Prescription monitor 294 may determine, for example, from the user's personal record 240, whether the user has a current prescription for a detected or predicted respiratory condition. The prescription monitor 294 may also determine prescription instructions regarding the frequency of dosing of the medication, the date of the last fill of the medication, and/or the number of refills available. Prescription monitor 294 determines whether a prescription needs to be refilled based on a determination that the user currently has a respiratory infection or a prediction that the user will develop a respiratory infection or exhibit symptoms in the near future. It may be determined whether or not.

また、処方モニタ294のいくつかの実施形態では、検知データまたは自己報告ツール284を介したユーザの入力によって、ユーザが薬剤を服用しているか否かを判定するようにしてもよい。現在の処方が足りなくなるか、または、足りなくなるタイミングを判定するため、ユーザが処方された薬剤を服用しているか否かを示す情報が処方モニタ294により用いられる。処方モニタ294は、処方が補充されたことをユーザに示すアラートまたは通知を発行するようにしてもよい。一実施形態において、処方モニタ294は、ユーザが補充を要求する積極的な行動を取った後、処方の補充を推奨する通知を発行する。処方モニタ294は、薬局を通じて補充の注文を開始するようにしてもよく、薬局の情報は、ユーザの患者レコード240に格納されていてもよいし、補充時にユーザにより入力されるようになっていてもよい。処方モニタ294等の例示的な処方モニタリングサービスの態様については、図4Fに示される。 Additionally, some embodiments of prescription monitor 294 may determine whether a user is taking a medication through sensing data or user input via self-reporting tool 284. Information indicating whether the user is taking the prescribed medication is used by the prescription monitor 294 to determine if or when the current prescription will run out. Prescription monitor 294 may issue an alert or notification indicating to the user that the prescription has been refilled. In one embodiment, the prescription monitor 294 issues a notification recommending refilling the prescription after the user takes active action to request a refill. Prescription monitor 294 may initiate refill orders through the pharmacy, which pharmacy information may be stored in the user's patient record 240 or entered by the user at the time of refill. Good too. Aspects of an exemplary prescription monitoring service, such as prescription monitor 294, are shown in FIG. 4F.

図2に示されるように、別の例示的な意思決定支援ツール290は、薬剤効能追跡器296である。薬剤効能追跡器296は、ユーザの疾患が改善しているか悪化しているか等、ユーザの呼吸器疾患に関する判定および/または予測を利用して、ユーザにより服用されている薬剤の効果が有効であるか否かを判定するようにしてもよい。このため、薬剤効能追跡器296は、ユーザの患者レコード240から、ユーザが現在の処方を有するか否かを判定するようにしてもよい。薬剤効能追跡器296は、検知データまたは自己報告ツール284を介したユーザの入力によって、ユーザが実際に薬剤を服用しているか否かを判定するようにしてもよい。また、薬剤効能追跡器296は、処方指示を決定するようにしてもよく、また、ユーザが処方指示に従って薬剤を服用しているか否かを判定するようにしてもよい。 As shown in FIG. 2, another example decision support tool 290 is a drug efficacy tracker 296. Medication efficacy tracker 296 utilizes determinations and/or predictions regarding the user's respiratory illness, such as whether the user's illness is improving or worsening, to determine whether the medication being taken by the user is effective. It may be determined whether or not. To this end, drug efficacy tracker 296 may determine from the user's patient record 240 whether the user has a current prescription. Medication efficacy tracker 296 may determine whether the user is actually taking the medication through sensing data or user input via self-reporting tool 284 . The drug efficacy tracker 296 may also determine prescription instructions and determine whether the user is taking the medication according to the prescription instructions.

いくつかの実施形態において、薬剤効能追跡器296は、音声関連データの利用に基づいて呼吸器疾患に関する推論または予想を相関させることにより、ユーザが薬剤を服用しているか否かを判定し、さらに、薬剤が有効であるか否かを判定するようにしてもよい。たとえば、ユーザが処方の通りに薬剤を服用していながら、呼吸器疾患が悪化している場合または改善していない場合は、処方薬剤がこの時点では特定のユーザに有効ではないと判定され得る。このため、薬剤効能追跡器296は、ユーザが処方の変更を臨床医に相談することを推奨するようにしてもよいし、ユーザの医師または臨床医に対して電子通知を自動で伝達することにより、臨床医が既定の処置の修正を考慮できるようにしてもよい。 In some embodiments, drug efficacy tracker 296 determines whether the user is taking a drug by correlating inferences or predictions regarding respiratory illness based on the utilization of audio-related data; , it may be determined whether the drug is effective or not. For example, if a user is taking a medication as prescribed, but the respiratory illness is worsening or not improving, it may be determined that the prescribed medication is not effective for the particular user at this time. To this end, the drug efficacy tracker 296 may recommend that the user consult a clinician to change the prescription, or may automatically communicate an electronic notification to the user's physician or clinician. , may allow the clinician to consider modifications to the default treatment.

いくつかの実施形態において、薬剤効能追跡器296は、上記の追加または代替として、図1の臨床医ユーザ機器108等、モニタリングユーザの臨床医の機器上での動作または機器との連動を行う。たとえば、臨床医は、呼吸器感染症に対する抗生物質等の薬剤を病中の患者に処方するようにしてもよく、これと併せて、薬剤効能追跡アプリケーション(296等)を患者に指示することにより、本開示の実施形態に従って、患者の音声関連データをモニタリングするようにしてもよい。ユーザが悪化している旨の判定または改善していない旨の判定により、薬剤効能追跡器296は、患者の呼吸器疾患の推論または予想を臨床医に通知するようにしてもよい。場合により、薬剤効能追跡器296は、患者に対する既定の処置を変更する推奨をさらに行うようにしてもよい。 In some embodiments, drug efficacy tracker 296 operates on or interfaces with a monitoring user's clinician's equipment, such as clinician user equipment 108 of FIG. 1, in addition to or as an alternative to the above. For example, a clinician may prescribe a drug, such as an antibiotic for a respiratory infection, to a sick patient by instructing the patient to use a drug efficacy tracking application (e.g., 296). , patient audio-related data may be monitored in accordance with embodiments of the present disclosure. Determining that the user is getting worse or not improving may cause the drug efficacy tracker 296 to inform the clinician of an inference or prognosis of the patient's respiratory illness. In some cases, drug efficacy tracker 296 may further make recommendations to change the default treatment for the patient.

別の実施形態において、薬剤効能追跡器296は、薬剤の研究または試験の一部として利用されるようになっていてもよく、また、複数の参加者の呼吸器疾患の判定および/または予想を解析することにより、研究の薬剤が参加者のグループに有効であるか否かを判定するようにしてもよい。この追加または代替として、いくつかの実施形態においては、呼吸器関連の副作用(たとえば、咳、鼻づまり、鼻水)または呼吸器関連ではない副作用(たとえば、熱、吐き気、炎症、腫れ、痒み)等、薬剤の副作用があるかを判定するため、センサ(たとえば、センサ103)と併せて、薬剤効能追跡器296が研究または試験の一部として利用されるようになっていてもよい。 In another embodiment, the drug efficacy tracker 296 may be utilized as part of a drug study or trial and may be used to determine and/or predict respiratory disease in multiple participants. The analysis may determine whether a study drug is effective for a group of participants. Additionally or alternatively, in some embodiments, respiratory-related side effects (e.g., cough, stuffy nose, runny nose) or non-respiratory-related side effects (e.g., fever, nausea, inflammation, swelling, itching), etc. The drug efficacy tracker 296 may be utilized as part of a study or test in conjunction with a sensor (eg, sensor 103) to determine if there are side effects of the drug.

上述の意思決定支援ツール290のいくつかの実施形態には、ユーザの呼吸器疾患を処置する態様を含む。この処置は、呼吸器疾患の重症度を抑えることが目標とされていてもよい。呼吸器疾患を処置することには、新たな治療薬、新たな薬剤の投薬量もしくはユーザに服用されている既存の薬剤の新たな投薬量、および/または新たな薬剤の投薬方法もしくはユーザに服用されている既存の薬剤の新たな投薬方法を含み得る新たな処置手順の決定を含んでいてもよい。新たな処置手順の推奨は、ユーザまたはユーザの介護者に提供されるようになっていてもよい。いくつかの実施形態においては、ユーザ、ユーザの介護者、またはユーザの薬局に処方が送られるようになっていてもよい。場合により、処置には、変更を伴わない既存の処方の補充を含んでいてもよい。他の実施形態には、推奨処置手順に応じた推奨治療薬のユーザへの投薬および/または推奨治療薬の適用もしくは使用の追跡を含んでいてもよい。このように、本開示の実施形態は、呼吸器疾患を処置するための治療薬の使用または適用のより良好な制御、モニタリング、および/または管理を可能にするが、これは、ユーザの状態に有益であるのみならず、食品医薬品局および他の統治機関により設定された規制および推奨をヘルスケア提供者および製薬業者、ならびにサプライチェーン内の他者がより良好に順守することにも役立ち得る。 Some embodiments of the decision support tool 290 described above include aspects of treating a user's respiratory illness. The treatment may be aimed at reducing the severity of the respiratory disease. Treating respiratory diseases may include new therapeutic agents, new drug dosages or new dosages of existing drugs being taken by the user, and/or new methods of administering the drug or taking the user. may include determining new treatment procedures, which may include new dosing methods for existing drugs being used. Recommendations for new treatment procedures may be provided to the user or the user's caregiver. In some embodiments, the prescription may be sent to the user, the user's caregiver, or the user's pharmacy. In some cases, treatment may include refilling the existing prescription without modification. Other embodiments may include dosing the user with a recommended treatment in accordance with a recommended treatment procedure and/or tracking application or use of the recommended treatment. Thus, embodiments of the present disclosure allow for better control, monitoring, and/or management of the use or application of therapeutic agents to treat respiratory diseases, which may depend on the user's condition. Not only is it beneficial, it can also help healthcare providers and pharmaceutical manufacturers, as well as others in the supply chain, better comply with regulations and recommendations set by the Food and Drug Administration and other governing bodies.

例示的な態様において、処置には、
PLpro阻害剤(アピロモッド、EIDD-2801、リバビリン、バルガンシクロビル、β-チミジン、アスパルテーム、オクスプレノロール、ドキシサイクリン、アセトフェナジン、イオプロミド、リボフラビン、レプロテロール、2,2’-シクロチジン、クロラムフェニコル、クロルフェネシンカルバメート、レボドロプロピジン、セファマンドール、フロクスウリジン、チゲサイクリン、ペメトレキセド、L(+)-アスコルビン酸、グルタチオン、ヘスペレチン、アデメチオニン、マソプロコル、イソトレチノイン、ダントロレン、スルファサラジン抗菌、シリビニン、ニカルジピン、シルデナフィル、プラチコジン、クリシン、ネオヘスペリジン、バイカリン、スゲトリオール-3,9-ジアセテート、(-)-エピガロカテキンガレート、ファイタントリンD、2-(3,4-ジヒドロキシフェニル)-2-[[2-(3,4-ジヒドロキシフェニル)-3,4-ジヒドロ-5,7-ジヒドロキシ-2H-1-ベンゾピラン-3-イル]オキシ]-3,4-ジヒドロ-2H-1-ベンゾピラン-3,4,5,7-テトロール、2,2-ジ(3-インドリル)-3-インドロン、(S)-(1S,2R,4aS,5R,8aS)-1-ホルムアミド-1,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-2-アミノ-3-フェニルプロパノエート、ピセアタンノール、ロスマリン酸、および/またはマグノール)、
3CLpro阻害剤(リメサイクリン、クロルヘキシジン、アルフゾシン、シラスタチン、ファモチジン、アルミトリン、プロガビド、ネパフェナク、カルベジロール、アンプレナビル、チゲサイクリン、モンテルカスト、カルミン酸、ミモシン、フラビン、ルテイン、セフピラミド、フェネチシリン、カンドキサトリル、ニカルジピン、エストラジオールバレラート、ピオグリタゾン、コニバプタン、テルミサルタン、ドキシサイクリン、オキシテトラサイクリン、(1S,2R,4aS,5R,8aS)-l-ホルムアミド-l,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル5-((R)-1,2-ジチオラン-3-イル)ペンタノエート、ベトロナール、クリシン-7-Ο-β-グルクロニド、アンドログラフィシド、(1S,2R,4aS,5R,8aS)-l-ホルムアミド-l,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-2-ニトロベンゾエート、2β-ヒドロキシ-3,4-セコフリエデロラクトン-27-オイック酸(S)-(1S,2R,4aS,5R,8aS)-1-ホルムアミド-1,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-2-アミノ-3-フェニルプロパノエート、イソデコルチノール、セレビステロール、ヘスペリジン、ネオヘスペリジン、アンドログラパニン、2-((1R,5R,6R,8aS)-6-ヒドロキシ-5-(ヒドロキシメチル)-5,8a-ジメチル-2-メチレンデカヒドロナフタレン-1-イル)エチルベンゾエート、コスモシイン、クレイストカルトンA、2,2-ジ(3-インドリル)-3-インドロン、ビオロビン、グニジシン、フィラエンブリノール、テアフラビン3,3’-ジ-Ο-ガレート、ロスマリン酸、コウイチェンシドI、オレアノール酸、スティグマスト-5-エン-3-オール、デアセチルセンタピクリン、および/またはベルケモール)、
RdRp阻害剤(バルガンシクロビル、クロルヘキシジン、セフチブテン、フェノテロール、フルダラビン、イトラコナゾール、セフロキシム、アトバコン、ケノデオキシコール酸、クロモリン、臭化パンクロニウム、コルチゾン、チボロン、ノボビオシン、シリビニン、イダルビシンブロモクリプチン、ジフェノキシレート、ベンジルペニシロイルG、ダビガトランエテキシレート、ベトロナール、グニジシン、2β,30β-ジヒドロキシ-3,4-セコフリエデロラクトン-27-ラクトン、14-デオキシ-11,12-ジドヒドロアンドログラフォリド、グニジトリン、テアフラビン3,3’-ジ-Ο-ガレート、(R)-((1R,5aS.6R,9aS)-1,5a-ジメチル-7-メチレン-3-オキソ-6-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロ-1H-ベンゾ[c]アゼピン-1-イル)メチル2-アミノ-3-フェニルプロパノエート、2β-ヒドロキシ-3,4-セコフリエデロラクトン-27-オイック酸、2-(3,4-ジヒドロキシフェニル)-2-[[2-(3,4-ジヒドロキシフェニル)-3,4-ジヒドロ-5,7-ジヒドロキシ-2H-1-ベンゾピラン-3-イル]オキシ]-3,4-ジヒドロ-2H-1-ベンゾピラン-3,4,5,7-テトロン、フィラエンブリシンB、14-ヒドロキシシペロタンドン、アンドログラフィシド、2-((1R,5R,6R,8aS)-6-ヒドロキシ-5-(ヒドロキシメチル)-5,8a-ジメチル-2-メチレンジデカヒドロナフタレン-1-イル)エチルベンゾエート、アンドログラフォリド、スゲトリオール-3,9-ジアセテート、バイカリン、(1S,2R,4aS,5R,8aS)-1-ホルムアミド-1,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-5-((R)-1,2-ジチオラン-3-イル)ペンタノエート、l,7-ジヒドロキシ-3-メトキシキサントン、l,2,6-トリメトキシ-8-[(6-Ο-β-D-キシロピラノシル-β-D-グルコピラノシル)オキシ]-9H-キサンテン-9-オン、および/または1,8-ジヒドロキシ-6-メトキシ-2-[(6-Ο-β-D-キシロピラノシル-β-D-グルコピラノシル)オキシ]-9H-キサンテン-9-オン、8-(β-D-グルコピラノシロキシ)-l,3,5-トリヒドロキシ-9H-キサンテン-9-オン)、
といった治療薬のうちの1つまたは複数を含む。
In an exemplary embodiment, the treatment includes:
PLpro inhibitors (apiromod, EIDD-2801, ribavirin, valganciclovir, β-thymidine, aspartame, oxprenolol, doxycycline, acetophenazine, iopromide, riboflavin, leproterol, 2,2'-cyclotidine, chloramphenicol, chlor Phenesine carbamate, levodropropidine, cefamandole, floxuridine, tigecycline, pemetrexed, L(+)-ascorbic acid, glutathione, hesperetin, ademethionine, masoprocol, isotretinoin, dantrolene, sulfasalazine antibacterial, silibinin, nicardipine , sildenafil, platycodin, chrysin, neohesperidin, baicalin, sugetriol-3,9-diacetate, (-)-epigallocatechin gallate, phytantrin D, 2-(3,4-dihydroxyphenyl)-2-[ [2-(3,4-dihydroxyphenyl)-3,4-dihydro-5,7-dihydroxy-2H-1-benzopyran-3-yl]oxy]-3,4-dihydro-2H-1-benzopyran-3 , 4,5,7-tetrol, 2,2-di(3-indolyl)-3-indolone, (S)-(1S,2R,4aS,5R,8aS)-1-formamide-1,4a-dimethyl- 6-methylene-5-((E)-2-(2-oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl-2-amino-3-phenylpropanoate, piceatannol, rosmarinic acid, and/or magnol),
3CLpro inhibitors (rimesycline, chlorhexidine, alfuzosin, cilastatin, famotidine, almitrin, progabid, nepafenac, carvedilol, amprenavir, tigecycline, montelukast, carminic acid, mimosine, flavin, lutein, cefpiramide, pheneticillin, candoxatril, nicardipine, Estradiol valerate, pioglitazone, conivaptan, telmisartan, doxycycline, oxytetracycline, (1S,2R,4aS,5R,8aS)-l-formamide-l,4a-dimethyl-6-methylene-5-((E)-2- (2-oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl 5-((R)-1,2-dithiolan-3-yl)pentanoate, vetronal, chrysin-7- Ο-β-glucuronide, andrographiside, (1S,2R,4aS,5R,8aS)-l-formamide-l,4a-dimethyl-6-methylene-5-((E)-2-(2-oxo- 2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl-2-nitrobenzoate, 2β-hydroxy-3,4-secofriederolactone-27-oic acid (S)-(1S, 2R,4aS,5R,8aS)-1-formamido-1,4a-dimethyl-6-methylene-5-((E)-2-(2-oxo-2,5-dihydrofuran-3-yl)ethenyl) Decahydronaphthalen-2-yl-2-amino-3-phenylpropanoate, isodecortinol, cerebisterol, hesperidin, neohesperidin, andrograpanin, 2-((1R,5R,6R,8aS)-6 -Hydroxy-5-(hydroxymethyl)-5,8a-dimethyl-2-methylenedecahydronaphthalen-1-yl)ethylbenzoate, cosmosyin, cleistokalton A, 2,2-di(3-indolyl)-3- Indolone, violobin, gunizicin, filaembrinol, theaflavin 3,3'-di-Ο-gallate, rosmarinic acid, koichenside I, oleanolic acid, stigmast-5-en-3-ol, deacetylcentapicrin, and / or Berkemol),
RdRp inhibitors (valganciclovir, chlorhexidine, ceftibuten, fenoterol, fludarabine, itraconazole, cefuroxime, atovaquone, chenodeoxycholic acid, cromolyn, pancuronium bromide, cortisone, tibolone, novobiocin, silibinin, idarubicin bromocriptine, diphenoxylate, benzylpenicilloyl G) , dabigatran etexilate, vetronal, gunidicine, 2β,30β-dihydroxy-3,4-secofriederolactone-27-lactone, 14-deoxy-11,12-didohydroandrographolide, gnidithrin, theaflavin 3,3 '-di-Ο-gallate, (R)-((1R,5aS.6R,9aS)-1,5a-dimethyl-7-methylene-3-oxo-6-((E)-2-(2-oxo -2,5-dihydrofuran-3-yl)ethenyl)decahydro-1H-benzo[c]azepin-1-yl)methyl 2-amino-3-phenylpropanoate, 2β-hydroxy-3,4-secofurie Derolactone-27-oic acid, 2-(3,4-dihydroxyphenyl)-2-[[2-(3,4-dihydroxyphenyl)-3,4-dihydro-5,7-dihydroxy-2H-1- benzopyran-3-yl]oxy]-3,4-dihydro-2H-1-benzopyran-3,4,5,7-tetron, filaemblycin B, 14-hydroxycyperotandone, andrographiside, 2-( (1R,5R,6R,8aS)-6-hydroxy-5-(hydroxymethyl)-5,8a-dimethyl-2-methylenedidecahydronaphthalen-1-yl)ethylbenzoate, andrographolide, sugetriol- 3,9-diacetate, baicalin, (1S,2R,4aS,5R,8aS)-1-formamide-1,4a-dimethyl-6-methylene-5-((E)-2-(2-oxo-2 ,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl-5-((R)-1,2-dithiolan-3-yl)pentanoate, l,7-dihydroxy-3-methoxyxanthone, l,2,6-trimethoxy-8-[(6-Ο-β-D-xylopyranosyl-β-D-glucopyranosyl)oxy]-9H-xanthen-9-one, and/or 1,8-dihydroxy-6- Methoxy-2-[(6-Ο-β-D-xylopyranosyl-β-D-glucopyranosyl)oxy]-9H-xanthen-9-one, 8-(β-D-glucopyranosiloxy)-l,3, 5-trihydroxy-9H-xanthene-9-one),
including one or more of the following therapeutic agents:

例示的な態様において、処置には、COVID-19の原因となるSARS-CoV-2等のウイルス感染症を処置する1つまたは複数の治療薬を含む。このため、治療薬には、1つまたは複数のSARS-CoV-2阻害剤を含んでいてもよい。いくつかの実施形態において、処置には、1つまたは複数のSARS-CoV-2阻害剤と上掲の治療薬のうちの1つまたは複数との組み合わせを含む。 In an exemplary embodiment, treatment includes one or more therapeutic agents that treat viral infections such as SARS-CoV-2, which causes COVID-19. Therefore, therapeutic agents may include one or more SARS-CoV-2 inhibitors. In some embodiments, treatment includes a combination of one or more SARS-CoV-2 inhibitors with one or more of the therapeutic agents listed above.

いくつかの実施形態において、処置には、上記特定の治療薬のいずれかおよび
ジオスミン、ヘスペリジン、MK-3207、ベネトクラクス、ジヒドロエルゴクリスチン、ボラジン、R428、ジテルカリニウム、エトポシド、テニポシド、UK-432097、イリノテカン、ルマカフトール、ベルパタスビル、エルクサドリン、レジパスビル、ロピナビル/リトナビル+リバビリン、アルフェロン、プレドニゾン、
デキサメタゾン、アジスロマイシンおよびレムデシビルならびにボセプレビル、ウミフェノビルおよびファビピラビル、
Zhang,L.;Lin,D.;Sun,X.;Rox,K.;Hilgenfeld,R.;X-ray Structure of Main Protease of the Novel Coronavirus SARS-CoV-2 Enables Design of a-Ketoamide Inhibitors(新型コロナウイルスSARS-CoV-2のメインプロテアーゼのX線構造からα-ケトアミド阻害剤の設計が可能に);bioRxiv preprint doi:https://doi.org/10.1101/2020.02.17.952879に記載のようなα-ケトアミド化合物Hr、13a、および13b、
米国特許第9884876号明細書に記載のようなRIG1経路活性化因子、
Dai W,Zhang B,Jiang X-M,et al.Structure-based design of antiviral drug candidates targeting the SARS-CoV-2 main protease(SARS-CoV-2メインプロテアーゼを標的とした抗ウイルス薬候補の構造ベースの設計).Science.2020;368(6497):1331-1335に記載のようなプロテアーゼ阻害剤(DC402234として指定される化合物を含む)、ならびに/あるいは
レムデシビル、ガリデシビル、ファビラビル/アビファビル、モルヌピラビル(MK-4482/EIDD 2801)、AT-527、AT-301、BLD-2660、ファビピラビル、カモスタット、SLV213エムトリクタビン/テノフィビル、クレブジン、ダルセトラピブ、ボセプレビル、ABX464、(3S)-3-({N-[(4-メトキシ-1H-インドール-2-イル)カルボニル]-L-ロイシル}アミノ)-2-オキソ-4-[(3S)-2-オキソピロリジン-3-イル]ブチル二水素リン酸塩および/またはその薬学的に許容される塩、溶媒和物、もしくは水和物(PF-07304814)、(1R,2S,5S)-N-{(1S)-1-シアノ-2-[(3S)-2-オキソピロリジン-3-イル]エチル}-6,6-ジメチル-3-[(3-メチル-N-(トリフルオロアセチル)-L-バリル]-3-アザビシクロ[3.1.0]ヘキサン-2-カルボキサミドまたはその溶媒和物もしくは水和物(PF-07321332)、および/またはS-217622等の抗ウイルス剤、デキサメタゾンおよびヒドロコルチゾン等のグルココルチコイド、回復期血漿、ゲルソリン(Rhu-p65N)等の組み換えヒト血漿、レグダンビマブ(レッキロナ)、ラブリズマブ(ウルトミリス)等のモノクローナル抗体、VIR-7831/VIR-7832、BRII-196/BRII-198、COVI-AMG/COVI DROPS(STI-2020)、バムラニビマブ(LY-CoV555)、マブリリマブ、レロンリマブ(PROMO)、AZD7442、レンジルマブ、インフリキシマブ、アダリムマブ、JS 016、STI-1499(COVIGUARD)、ラナデルマブ(タクザイロ)、カナキヌマブ(イラリス)、ギムシルマブ、オチリマブ、カシリビマブ/イムデビマブ(REGN-Cov2)等の抗体カクテル、MK-7110(CD24Fc/SACCOVID)等の組み換え融合タンパク質、ヘパリンおよびアピキサバン等の抗凝固剤、トシリズマブ(アクテムラ)および/またはサリルマブ(ケブザラ)等のIL-6受容体作動薬、ジメチル酸アピリモド等のPIKfyve阻害剤、DNL758、DC402234等のRIPK1阻害剤、PB1046等のVIP受容体作動薬、ダパグリフォジン等のSGLT2阻害剤、アビベルチニブ等のTYK阻害剤、ATR-002、ベムセンチニブ、アカラブルチニブ、ロスマピモド、バリシチニブ、および/またはトファシチニブ等のキナーゼ阻害剤、ファモチジン等のH2阻害薬、ニクロサミド等の駆虫剤、ジミナゼン等のフリン阻害剤、
から選択される1つまたは複数の治療薬を含む。
In some embodiments, the treatment includes any of the above specific therapeutic agents and Diosmin, Hesperidin, MK-3207, Venetoclax, Dihydroergocristine, Borazine, R428, Diterqualinium, Etoposide, Teniposide, UK-432097, Irinotecan, lumacaftor, velpatasvir, eluxadrine, ledipasvir, lopinavir/ritonavir + ribavirin, alferon, prednisone,
dexamethasone, azithromycin and remdesivir and boceprevir, umifenovir and favipiravir,
Zhang, L. ;Lin,D. ; Sun, X. ; Rox, K. ;Hilgenfeld,R. ;X-ray Structure of Main Protease of the Novel Coronavirus SARS-CoV-2 Enables Design of a-Ketoamide Inhibitors It is possible to design α-ketoamide inhibitors from the X-ray structure of V-2 main protease. ); bioRxiv preprint doi: https://doi. α-ketoamide compounds Hr, 13a, and 13b as described in org/10.1101/2020.02.17.952879,
RIG1 pathway activators as described in U.S. Pat. No. 9,884,876;
Dai W, Zhang B, Jiang X-M, et al. Structure-based design of antiviral drug candidates targeting the SARS-CoV-2 main protease. Science. 2020;368(6497):1331-1335 (including compounds designated as DC402234), and/or remdesivir, galidesivir, favilavir/avifavir, molnupiravir (MK-4482/EIDD 2801), AT-527, AT-301, BLD-2660, Favipiravir, Camostat, SLV213 Emtricabine/Tenofivir, Clevudine, Dalcetrapib, Boceprevir, ABX464, (3S)-3-({N-[(4-methoxy-1H-indole-2) -yl)carbonyl]-L-leucyl}amino)-2-oxo-4-[(3S)-2-oxopyrrolidin-3-yl]butyl dihydrogen phosphate and/or a pharmaceutically acceptable salt thereof , solvate, or hydrate (PF-07304814), (1R,2S,5S)-N-{(1S)-1-cyano-2-[(3S)-2-oxopyrrolidin-3-yl] ethyl}-6,6-dimethyl-3-[(3-methyl-N-(trifluoroacetyl)-L-valyl]-3-azabicyclo[3.1.0]hexane-2-carboxamide or its solvate or hydrate (PF-07321332), and/or antiviral agents such as S-217622, glucocorticoids such as dexamethasone and hydrocortisone, convalescent plasma, recombinant human plasma such as Gelsolin (Rhu-p65N), regdanvimab (Requirona) , monoclonal antibodies such as ravlizumab (Ultomiris), VIR-7831/VIR-7832, BRII-196/BRII-198, COVI-AMG/COVI DROPS (STI-2020), bamlanivimab (LY-CoV555), mavrilimab, leronlimab (PROMO) ), AZD7442, lenzilumab, infliximab, adalimumab, JS 016, STI-1499 (COVIGUARD), lanadelumab (Taczylo), canakinumab (Ilaris), gimcilumab, otilimab, casirivimab/imdevimab (REGN-Cov2), etc. antibody cocktail, MK-7110 (CD24Fc/SACCOVID), anticoagulants such as heparin and apixaban, IL-6 receptor agonists such as tocilizumab (Actemra) and/or sarilumab (Kevzara), PIKfyve inhibitors such as apilimod dimethylate, RIPK1 inhibitors such as DNL758, DC402234, VIP receptor agonists such as PB1046, SGLT2 inhibitors such as dapaglifodin, TYK inhibitors such as abivertinib, ATR-002, bemcentinib, acalabrutinib, rosmapimod, baricitinib, and/or tofacitinib, etc. Kinase inhibitors, H2 inhibitors such as famotidine, anthelmintics such as niclosamide, furin inhibitors such as diminazene,
one or more therapeutic agents selected from:

たとえば、一実施形態において、処置は、(3S)-3-({N-[(4-メトキシ-1H-インドール-2-イル)カルボニル]-L-ロイシル}アミノ)-2-オキソ-4-[(3S)-2-オキソピロリジン-3-イル]ブチルジヒドロゲンホスフェート、およびその薬学的に許容される塩、溶媒和物、または水和物(PF-07304814)を含む群から選択される。別の実施形態において、処置には、(lR,2S,5S)-N-{(1S)-1-シアノ-2-[(3S)-2-オキソピロリジン-3-イル]エチル}-6,6-ジメチル-3-[3-メチル-N-(トリフルオロアセチル)-L-バリル]-3-アザビシクロ[3.1.0]ヘキサン-2-カルボキサミドまたはその溶媒和物もしくは水和物(PF-07321332)を含む。 For example, in one embodiment, the treatment comprises (3S)-3-({N-[(4-methoxy-1H-indol-2-yl)carbonyl]-L-leucyl}amino)-2-oxo-4- [(3S)-2-oxopyrrolidin-3-yl]butyl dihydrogen phosphate, and pharmaceutically acceptable salts, solvates, or hydrates thereof (PF-07304814). In another embodiment, the treatment includes (IR,2S,5S)-N-{(1S)-1-cyano-2-[(3S)-2-oxopyrrolidin-3-yl]ethyl}-6, 6-dimethyl-3-[3-methyl-N-(trifluoroacetyl)-L-valyl]-3-azabicyclo[3.1.0]hexane-2-carboxamide or its solvate or hydrate (PF -07321332).

図2およびシステム200に関して引き続き、システム200の提示コンポーネント220は一般的に、検出された呼吸器疾患情報、ユーザ音声データおよび/もしくは自己報告データを取得するためのユーザ指示および/もしくはフィードバック、ならびに関連情報の提供を担うものであってもよい。提示コンポーネント220は、ユーザ機器上、複数のユーザ機器上、またはクラウド環境において、1つまたは複数のアプリケーションまたはサービスを含んでいてもよい。たとえば、一実施形態において、提示コンポーネント220は、ユーザと関連付けられた複数のユーザ機器上での通知およびアラート等の情報の当該ユーザへの提供を管理するようにしてもよい。提示ロジック、コンテキスト、および/または他のユーザデータに基づいて、提示コンポーネント220は、コンテンツが提供されるユーザ機器のほか、提供の方法(たとえば、フォーマットおよびコンテンツ(ユーザ機器もしくはコンテキストによって決まり得る))、提供のタイミング、または情報の提供に関する他の態様等の提供のコンテキストを決定するようにしてもよい。 Continuing with FIG. 2 and system 200, presentation component 220 of system 200 generally provides user instructions and/or feedback for obtaining detected respiratory disease information, user voice data and/or self-report data, and related It may also be responsible for providing information. Presentation component 220 may include one or more applications or services on a user device, on multiple user devices, or in a cloud environment. For example, in one embodiment, presentation component 220 may manage the provision of information, such as notifications and alerts, to a user on multiple user devices associated with the user. Based on the presentation logic, context, and/or other user data, the presentation component 220 determines the user equipment on which the content is provided, as well as the method of presentation (e.g., format and content (which may be determined by the user equipment or context)). The context of the provision, such as the timing of the provision, or other aspects regarding the provision of the information, may be determined.

いくつかの実施形態において、提示コンポーネント220は、ユーザ音声モニタ260、ユーザ相互作用管理器280、呼吸器疾患追跡器270、および意思決定支援ツール290等のシステム200の他の構成要素の態様と関連付けられたユーザインターフェース機能またはこのような態様のユーザ(モニタリングされている患者であってもよいし、モニタリング患者の臨床医であってもよい)への提示の容易化に用いられるユーザインターフェース機能を生成するようにしてもよい。このような機能には、グラフィカルまたはオーディオインターフェース要素(アイコンもしくはインジケータ、グラフィックボタン、スライダ、メニュー、サウンド、オーディオプロンプト、アラート、アラーム、振動、ポップアップウィンドウ、通知バーもしくはステータスバー項目、アプリ内通知、またはユーザとのインターフェースのための他の類似機能等)、クエリ、およびプロンプトを含み得る。提示コンポーネント220のいくつかの実施形態では、スマートスピーカ上で作用する実施形態等、発話を生成してユーザに提示するための発話合成、テキスト-発話変換、または類似の機能を採用するようにしてもよい。提示コンポーネント220により生成され、ユーザ(すなわち、モニタリング患者または臨床医)に提供され得るグラフィカルユーザインターフェース(GUI)の例および例示的なオーディオユーザインターフェース要素の説明については、図5A~図5Eに関連して記載される。オーディオユーザインターフェース機能を利用する実施形態については、図4C~図4Fの実施形態に示される。提示コンポーネント220により提供されるオーディオユーザインターフェースのいくつかの実施形態には、スマートスピーカ上の音声ユーザインターフェース(VUI)等のVUIを含む。また、提示コンポーネント220により生成され、ユーザ(すなわち、モニタリング患者または臨床医)に提供され得るグラフィカルユーザインターフェース(GUI)の例および例示的なオーディオユーザインターフェース要素の説明は、図4Bのスマートウォッチ402a等のウェアラブルデバイスにも関連して図示および記載される。 In some embodiments, the presentation component 220 is associated with aspects of other components of the system 200, such as a user voice monitor 260, a user interaction manager 280, a respiratory disease tracker 270, and a decision support tool 290. generating user interface functions that are used to facilitate the presentation of such aspects to a user, who may be the patient being monitored or the clinician of the monitoring patient; You may also do so. Such functionality may include graphical or audio interface elements such as icons or indicators, graphic buttons, sliders, menus, sounds, audio prompts, alerts, alarms, vibrations, pop-up windows, notification bars or status bar items, in-app notifications, or (such as other similar functions for interfacing with the user), queries, and prompts. Some embodiments of presentation component 220 may employ speech synthesis, text-to-speech conversion, or similar functionality to generate and present utterances to a user, such as embodiments operating on a smart speaker. Good too. For an example of a graphical user interface (GUI) and a description of example audio user interface elements that may be generated by presentation component 220 and provided to a user (i.e., a monitoring patient or clinician), see FIGS. 5A-5E. It is described as follows. Embodiments that utilize audio user interface functionality are illustrated in the embodiments of FIGS. 4C-4F. Some embodiments of an audio user interface provided by presentation component 220 include a voice user interface (VUI), such as a VUI on a smart speaker. Also, an example of a graphical user interface (GUI) and a description of example audio user interface elements that may be generated by presentation component 220 and provided to a user (i.e., a monitoring patient or clinician), such as smart watch 402a of FIG. Also shown and described in connection with a wearable device.

例示的なシステム200のストレージ250は一般的に、データ、コンピュータ命令(たとえば、ソフトウェアプログラム命令、ルーチン、もしくはサービス)、ロジック、プロファイル、および/または本明細書に記載の実施形態において用いられるモデルを含む情報を格納していてもよい。一実施形態において、ストレージ250は、図1のデータストア150等のデータストア(または、コンピュータデータメモリ)を備えていてもよい。さらに、ストレージ250は、単一のデータストアコンポーネントとして示されるが、1つまたは複数のデータストアとして具現化されていてもよいし、クラウド環境において具現化されていてもよい。 Storage 250 of example system 200 generally stores data, computer instructions (e.g., software program instructions, routines, or services), logic, profiles, and/or models used in embodiments described herein. The information may be stored. In one embodiment, storage 250 may comprise a data store (or computer data memory), such as data store 150 of FIG. Additionally, although shown as a single data store component, storage 250 may be implemented as one or more data stores or in a cloud environment.

例示的なシステム200において示されるように、ストレージ250は、音声-音素抽出ロジック233、音素特性比較ロジック235、およびユーザ疾患推論ロジック237を含むが、これらはすべて上述されたものである。さらに、ストレージ250は、1つまたは複数の患者レコード(図2に示されるように、患者レコード240等)を含んでいてもよい。患者レコード240は、プロファイル/健康データ(EHR)241、音声サンプル242、音素特性ベクトル244、結果/推論状態246、ユーザアカウント/機器248、および設定249等、特定のモニタリング患者/ユーザと関連付けられた情報を含んでいてもよい。本明細書に記載の通り、患者レコード240に格納された情報は、データ収集コンポーネント210、ユーザ音声モニタ260、ユーザ相互作用管理器280、呼吸器疾患追跡器270、意思決定支援ツール290、または例示的なシステム200の他の構成要素に利用可能であってもよい。 As shown in example system 200, storage 250 includes speech-to-phoneme extraction logic 233, phoneme feature comparison logic 235, and user disease inference logic 237, all of which are described above. Additionally, storage 250 may include one or more patient records (such as patient record 240, as shown in FIG. 2). Patient records 240 are associated with a particular monitoring patient/user, such as profile/health data (EHR) 241, voice samples 242, phoneme feature vectors 244, results/inference states 246, user accounts/equipment 248, and settings 249. May contain information. As described herein, the information stored in the patient record 240 may be stored in the data collection component 210, the user voice monitor 260, the user interaction manager 280, the respiratory disease tracker 270, the decision support tool 290, or may be available to other components of the system 200.

プロファイル/健康データ(EHR)241は、モニタリング患者の健康に関する情報を提供するようにしてもよい。プロファイル/健康データ(EHR)241の実施形態には、患者のEHRの一部または全部を含んでいてもよいし、呼吸器疾患と関連する一部の健康データのみを含んでいてもよい。たとえば、プロファイル/健康データ(EHR)241は、インフルエンザ、ライノウイルス、COVID-19、慢性閉塞性肺疾患(COPD)、喘息、もしくは呼吸器系に影響を及ぼす疾患等、過去もしくは現在の診断状態、呼吸器疾患の処置もしくは呼吸器疾患の潜在的な症状と関連付けられた薬剤、体重、または年齢を示し得る。プロファイル/健康データ(EHR)241には、自己報告ツール284と併せて記載の自己報告症状等、ユーザの自己報告情報を含んでいてもよい。 Profile/Health Data (EHR) 241 may provide information regarding the health of the monitored patient. Embodiments of profile/health data (EHR) 241 may include some or all of a patient's EHR, or may include only some health data related to respiratory disease. For example, the profile/health data (EHR) 241 may include past or current diagnostic conditions, such as influenza, rhinovirus, COVID-19, chronic obstructive pulmonary disease (COPD), asthma, or diseases that affect the respiratory system; Medications, weight, or age associated with respiratory disease treatment or underlying symptoms of respiratory disease may be indicated. Profile/health data (EHR) 241 may include user self-reported information, such as self-reported symptoms described in conjunction with self-reporting tool 284.

音声サンプル242は、(図1に示される)センサ103等から受信されるデータ等、生のデータおよび/または処理済み音声関連データを含んでいてもよい。このセンサデータには、収集された音声記録またはサンプル等、呼吸器感染症追跡に用いられるデータを含んでいてもよい。場合により、音声サンプル242は、収集されたサンプルに対して音素ベクトル解析が実行されるまで、および/または、予め定められた期間が経過するまで、一時的に格納されるようになっていてもよい。 Audio samples 242 may include raw data and/or processed audio-related data, such as data received from sensor 103 (shown in FIG. 1). This sensor data may include data used for respiratory infection tracking, such as voice recordings or samples collected. In some cases, the audio samples 242 may be temporarily stored until phoneme vector analysis is performed on the collected samples and/or until a predetermined period of time has elapsed. good.

さらに、音素特性ベクトル244には、特定のユーザに対して決定された音素特性および/または音素特性ベクトルを含んでいてもよい。音素特性ベクトル244は、コンテキスト情報もしくは自己報告情報等の患者レコード240中の他の情報または合成症状スコア(プロファイル/健康データ(EHR)241の一部であってもよい)に対して相関されるようになっていてもよい。また、音素特性ベクトル244には、音素特性比較ロジック235と併せて記載のような特定のユーザの音素特性基準を定める情報を含んでいてもよい。 Furthermore, phoneme characteristic vector 244 may include phoneme characteristics and/or phoneme characteristic vectors determined for a particular user. The phoneme feature vector 244 is correlated to other information in the patient record 240 such as contextual or self-reported information or a composite symptom score (which may be part of the profile/health data (EHR) 241). It may be as follows. Further, the phoneme characteristic vector 244 may include information that defines a phoneme characteristic standard for a specific user as described in conjunction with the phoneme characteristic comparison logic 235.

結果/推論状態246には、ユーザの予想およびユーザの推論呼吸器状態を含んでいてもよい。結果/推論状態246は、呼吸器疾患推論エンジン278による出力であってもよいため、モニタリングユーザの現在の呼吸器疾患または将来の時間区分における呼吸器疾患のスコアおよび/または可能性を含んでいてもよい。結果/推論状態246は、上述の通り、意思決定支援ツール290により利用されるようになっていてもよい。 Results/inference states 246 may include the user's expectations and the user's inferred respiratory conditions. The results/inference state 246 may be an output by the respiratory disease inference engine 278 and thus include the monitoring user's score and/or likelihood of a respiratory disease at the current or future time interval. Good too. Results/inference state 246 may be utilized by decision support tool 290, as described above.

ユーザアカウント/機器248は一般的に、アクセス、使用、あるいはユーザとの関連付けがなされるユーザコンピュータ機器に関する情報を含んでいてもよい。このようなユーザ機器の例としては、図1のユーザ機器102a~102nが挙げられ、スマートスピーカ、携帯電話、タブレット、スマートウォッチ、または音声記録機能が組み込まれた他の機器もしくは上記のような機器に通信接続され得る他の機器を含み得る。 User account/equipment 248 may generally include information regarding user computer equipment that is accessed, used, or otherwise associated with the user. Examples of such user equipment include user equipment 102a-102n in FIG. may include other equipment that may be communicatively coupled to.

一実施形態において、ユーザアカウント/機器248は、ユーザと関連付けられたアカウント(たとえば、オンラインまたはクラウドベースのアカウント(たとえば、オンライン健康記録ポータル、ネットワーク/健康プロバイダ、ネットワークウェブサイト、意思決定支援アプリケーション、ソーシャルメディア、電子メール、電話、電子商取引ウェブサイト等))と関連する情報を含んでいてもよい。たとえば、ユーザアカウント/機器248は、意思決定支援ツール290等の意思決定支援アプリケーションに関するモニタリング患者のアカウント、(たとえば、電子予約に利用可能な)ケア提供者サイトのアカウント、および(たとえば、処置のオンライン注文に利用可能な)アマゾン(登録商標)もしくはドラッグストア等のオンライン電子商取引アカウントを含んでいてもよい。 In one embodiment, user accounts/devices 248 include accounts associated with the user (e.g., online or cloud-based accounts (e.g., online health record portals, networks/health providers, network websites, decision support applications, social It may also include information related to media, email, telephone, e-commerce websites, etc.). For example, user accounts/equipment 248 may include monitoring patient accounts for decision support applications such as decision support tools 290, care provider site accounts (e.g., available for electronic booking), and treatment online may include an online e-commerce account, such as Amazon or drugstore, that can be used to place orders.

また、ユーザアカウント/機器248は、ユーザのカレンダー、予約、アプリケーションデータ、他のユーザアカウント等を含んでいてもよい。ユーザアカウント/機器248のいくつかの実施形態では、1つまたは複数のデータベース、ナレッジグラフ、またはデータ構造に跨って情報を格納するようにしてもよい。上述の通り、ユーザアカウント/機器248に格納される情報は、データ収集コンポーネント210により決定されるようになっていてもよい。 User accounts/devices 248 may also include the user's calendar, reservations, application data, other user accounts, and the like. Some embodiments of user account/device 248 may store information across one or more databases, knowledge graphs, or data structures. As discussed above, the information stored in user account/device 248 may be determined by data collection component 210.

さらに、設定249は一般的に、音声データの収集、自己報告情報の収集、またはユーザの呼吸器疾患の推論および/もしくは予測を含めて、ユーザ音声データをモニタリングする1つまたは複数のステップとの関連付けあるいは意思決定支援ツール290等の1つまたは複数の意思決定支援アプリケーションとの関連付けがなされたユーザ設定または選好を含んでいてもよい。たとえば、一実施形態において、設定249には、ユーザが日常的に発話する際の音声情報を収集するための設定等、音声関連データを収集するための設定を含んでいてもよい。設定249には、生理学的データ(たとえば、ウェアラブルセンサデバイスを関連付ける情報)を取得するための設定を含めて、コンテキスト情報に対する設定または選好を含んでいてもよい。設定249には、本明細書に記載の通り、プライバシ設定をさらに含んでいてもよい。設定249のいくつかの実施形態では、特定の音素または音素特性を指定することにより、呼吸器疾患を検出またはモニタリングするようにしてもよく、さらに、検出または推論閾値(たとえば、疾患変化閾値)を指定するようにしてもよい。また、本明細書に記載の通り、設定249には、ユーザがそれぞれの呼吸器疾患の基準状態を設定するための設定を含んでいてもよい。非限定的な一例として、他の設定としては、ユーザが呼吸器疾患の判定または予測の通知を望むタイミングおよび様態を規定し得るユーザ通知許容閾値が挙げられる。いくつかの態様において、設定249は、通知、好ましい介護者、好ましい薬局等の店舗、および市販の薬剤等、適用に関するユーザの選好を含んでいてもよい。設定249には、処方薬剤等のユーザに対する処置の指示を含んでいてもよい。また、一実施形態において、設定249には、センサ(図1に記載のセンサ103等)の校正、初期化、および設定が格納されていてもよい。 Further, settings 249 generally include one or more steps of monitoring user voice data, including collecting voice data, collecting self-reported information, or inferring and/or predicting respiratory illness in the user. It may include user settings or preferences that are associated or associated with one or more decision support applications, such as decision support tool 290. For example, in one embodiment, settings 249 may include settings for collecting audio-related data, such as settings for collecting audio information as the user speaks on a daily basis. Settings 249 may include settings or preferences for contextual information, including settings for obtaining physiological data (eg, information associating a wearable sensor device). Settings 249 may further include privacy settings, as described herein. Some embodiments of settings 249 may specify specific phonemes or phoneme characteristics to detect or monitor respiratory disease, and further specify detection or inference thresholds (e.g., disease change thresholds). You may also specify it. Also, as described herein, settings 249 may include settings for a user to set a baseline condition for each respiratory disease. As a non-limiting example, other settings include user notification acceptance thresholds that may define when and how the user would like to be notified of a determination or prediction of a respiratory disease. In some aspects, settings 249 may include user preferences for applications, such as notifications, preferred caregivers, preferred stores such as pharmacies, and over-the-counter medications. Settings 249 may include treatment instructions for the user, such as prescription drugs. In one embodiment, settings 249 may also store calibration, initialization, and settings for a sensor (such as sensor 103 in FIG. 1).

ここで図3Aを参照して、システム200の構成要素のうちの少なくとも一部を組み込んだ例示的なプロセス3100の図解表現が示される。例示的なプロセス3100は、スマートモバイル機器および/またはスマートスピーカ等のユーザ機器上で動作し得る音声-症状アプリケーション3104を介して、1人または複数人のユーザ3102がデータを提供することを示している。音声-症状アプリケーション3104を介して提供されるデータには、図2のユーザ音声モニタ260に関して記載の通り、音素が抽出され得る音声記録(たとえば、図2の音声サンプル242)を含んでいてもよい。また、受信データには、ユーザ相互作用管理器280と併せて記載の通り、ユーザにより手動で入力され得る症状評価値を含む。 Referring now to FIG. 3A, a diagrammatic representation of an example process 3100 incorporating at least some of the components of system 200 is shown. The example process 3100 shows one or more users 3102 providing data via a voice-symptom application 3104 that may operate on user equipment such as a smart mobile device and/or a smart speaker. There is. The data provided via the voice-symptom application 3104 may include an audio recording (e.g., audio sample 242 of FIG. 2) from which phonemes may be extracted, as described with respect to the user audio monitor 260 of FIG. . The received data also includes symptom ratings that may be manually entered by the user, as described in conjunction with user interaction manager 280.

記録された音声サンプルおよび症状値の受信に基づいて、サーバ(たとえば、図1のサーバ106)上に存在するともにネットワーク(たとえば、図1のネットワーク110)を介してアクセス可能なコンピュータシステムは、ユーザとのやり取り、症状アルゴリズムの実行、音声特性の抽出、および音声アルゴリズムの適用を含む動作3106を実行するようにしてもよい。ユーザとのやり取りには、ユーザ相互作用管理器280と併せて記載の通り、使用可能なデータを収集するための催促およびフィードバックを含んでいてもよい。症状アルゴリズムには、自己報告データ評価器276と併せて記載の通り、ユーザの自己報告症状値に基づいて合成症状スコア(CSS)を生成することを含んでいてもよい。音声特性の抽出には、ユーザ音声モニタ260、より具体的には、音響特性抽出器2614と併せて記載の通り、音声サンプルにおいて検出された音素の音響特性値の抽出を含んでいてもよい。抽出された音響特性には、音素特性比較器274と併せて記載の通り、患者の異なる日にちの特性ベクトルの比較(すなわち、距離測定基準の演算)を含み得る音声アルゴリズムが適用されるようになっていてもよい。 Based on receiving the recorded voice samples and symptom values, a computer system residing on a server (e.g., server 106 of FIG. 1) and accessible via a network (e.g., network 110 of FIG. Operations 3106 may include interacting with a user, executing a symptom algorithm, extracting audio characteristics, and applying an audio algorithm. User interactions may include prompts and feedback to gather usable data, as described in conjunction with user interaction manager 280. The symptom algorithm may include generating a composite symptom score (CSS) based on the user's self-reported symptom values, as described in conjunction with self-report data evaluator 276. Extracting voice characteristics may include extracting acoustic characteristic values for phonemes detected in the voice sample, as described in conjunction with user voice monitor 260 and, more specifically, acoustic characteristic extractor 2614. The extracted acoustic features are then subjected to an audio algorithm, which may include comparing feature vectors from different days of the patient (i.e., computing a distance metric), as described in conjunction with the phoneme feature comparator 274. You can leave it there.

少なくとも一部の動作3106に基づいて、図1のユーザ機器102a等のユーザ機器により、1人または複数人のユーザ3102に対して、リマインダおよび通知が電子的に送られるようになっていてもよい。リマインダは、音声サンプルまたは自己報告症状評価等の付加的な情報が必要となり得ることをユーザに知らせることができる。ユーザ相互作用管理器280に関して記載の通り、通知によって、音声サンプルの提供時に、より長い継続時間、より大きな音量、またはより小さなバックグラウンドノイズが必要となるか否かを示すようなフィードバックがユーザに与えられ得る。また、通知は、音声サンプル、場合によっては、症状情報を提供するための既定の手順にユーザが従ったか、および、その程度を示し得る。たとえば、音声サンプルを提供するためにユーザが音声行使の50%を完了したことを通知により示すようにしてもよい。 Based on at least some of the operations 3106, reminders and notifications may be configured to be electronically sent by user equipment, such as user equipment 102a of FIG. 1, to one or more users 3102. . The reminder may inform the user that additional information may be required, such as an audio sample or self-reported symptom assessment. As described with respect to user interaction manager 280, the notification provides feedback to the user indicating whether a longer duration, louder volume, or less background noise is required when providing the audio sample. can be given. The notification may also indicate whether and to what extent the user followed predefined procedures for providing audio samples and, in some cases, symptom information. For example, the notification may indicate that the user has completed 50% of the voice exercise to provide a voice sample.

また、動作3106のうちの少なくとも一部に基づいて、収集された情報および/またはその解析結果が図1の臨床医ユーザ機器108等の臨床医と関連付けられた1つまたは複数のユーザ機器に送られるようになっていてもよい。また、(図1の)臨床医ユーザ機器108上での動作または臨床医ユーザ機器108との連動を行う意思決定支援アプリ105aまたは105b等のコンピュータソフトウェアアプリケーションによって、臨床医ダッシュボード3108が生成されるようになっていてもよい。臨床医ダッシュボード3108は、モニタリング対象の特定の患者または一組の患者(すなわち、モニタリングユーザ3102)に関する情報のアクセスおよび受信ならびに、いくつかの実施形態においては、患者との直接的または間接的な通信を可能にするグラフィカルユーザインターフェース(GUI)を含んでいてもよい。臨床医ダッシュボード3108は、複数のユーザに情報を提示するビュー(異なるユーザに関する情報を各行に含むチャート等)を含んでいてもよい。この追加または代替として、臨床医ダッシュボード3108は、モニタリング対象の単一のユーザに情報を提示するようにしてもよい。 Also, based at least in part on acts 3106, the collected information and/or analysis results thereof are transmitted to one or more user equipment associated with the clinician, such as clinician user equipment 108 of FIG. It may be possible to do so. Clinician dashboard 3108 is also generated by a computer software application, such as decision support app 105a or 105b, operating on or in conjunction with clinician user equipment 108 (of FIG. 1). It may be as follows. Clinician dashboard 3108 provides access and reception of information regarding a particular patient or set of patients being monitored (i.e., monitoring users 3102) and, in some embodiments, direct or indirect interactions with patients. It may include a graphical user interface (GUI) to enable communication. Clinician dashboard 3108 may include views that present information to multiple users (such as a chart with each row containing information about a different user). Additionally or alternatively, clinician dashboard 3108 may present information to a single monitored user.

一実施形態において、臨床医ダッシュボード3108は、音声-症状アプリケーション3104を介してユーザ3102のデータ収集をモニタリングするため、臨床医により利用されるようになっていてもよい。たとえば、臨床医ダッシュボード3108は、使用可能な音声サンプルおよび、いくつかの実施形態においては、症状重症度評価をユーザが提供済みであるか否かを示すようにしてもよい。臨床医ダッシュボード3108は、音声サンプルおよび/または他の情報を提供するための既定の手順をユーザが守っていない場合に、その旨を臨床医に通知するようにしてもよい。いくつかの実施形態において、臨床医ダッシュボード3108は、データを収集するための手順または改訂された手順に従わせるリマインダを臨床医がユーザに伝達可能となる(たとえば、電子メッセージを送信可能となる)機能を含んでいてもよい。 In one embodiment, clinician dashboard 3108 may be utilized by a clinician to monitor data collection of user 3102 via audio-symptom application 3104. For example, the clinician dashboard 3108 may indicate whether the user has provided available audio samples and, in some embodiments, a symptom severity rating. The clinician dashboard 3108 may notify the clinician if the user is not following predefined procedures for providing audio samples and/or other information. In some embodiments, clinician dashboard 3108 allows clinicians to communicate reminders to users to follow procedures or revised procedures for collecting data (e.g., sending electronic messages). ) functions may be included.

いくつかの実施形態において、動作3106には、収集された音声サンプルからユーザの呼吸器疾患を判定すること(たとえば、ユーザが病中であるか否かを判定すること)を含んでいてもよく、これは、図2と併せて記載の通り、一般的には呼吸器疾患追跡器270、より具体的には呼吸器疾患推論エンジン278の一実施形態により実行され得る。これらの実施形態においては、判定された呼吸器疾患を示す通知がユーザ3102に送られるようになっていてもよい。いくつかの実施形態において、ユーザ3102への通知は、意思決定支援ツール290と併せて記載の通り、行動の推奨を含んでいてもよい。さらに、ユーザの呼吸器疾患の判定にユーザの音声関連情報が利用される場合、臨床医ダッシュボード3108のいくつかの実施形態では、臨床医による利用によって、ユーザの呼吸器疾患を追跡するようにしてもよい。臨床医ダッシュボード3108のいくつかの実施形態では、ユーザの呼吸器疾患のステータス(たとえば、呼吸器疾患スコア、ユーザが呼吸器感染症であるか否か)および/またはユーザの疾患のトレンド(たとえば、ユーザの疾患が悪化しているか、改善しているか、もしくは変化していないか)を示すようにしてもよい。ユーザの疾患が特に悪いか(呼吸器疾患スコアが閾値スコアを下回る場合)、ユーザに新たな感染症が検出されたか、および/またはユーザの疾患が変化したかを示すため、アラートまたは通知が臨床医に提供されるようになっていてもよい。 In some embodiments, operation 3106 may include determining a respiratory illness of the user from the collected audio samples (e.g., determining whether the user is ill). , which may be performed by one embodiment of a respiratory disease tracker 270 in general, and a respiratory disease inference engine 278 more specifically, as described in conjunction with FIG. In these embodiments, a notification may be sent to user 3102 indicating the determined respiratory illness. In some embodiments, the notification to the user 3102 may include a recommendation for action, as described in conjunction with the decision support tool 290. Further, if the user's voice-related information is utilized to determine the user's respiratory illness, some embodiments of the clinician dashboard 3108 may be used by the clinician to track the user's respiratory illness. You can. In some embodiments of clinician dashboard 3108, the user's respiratory illness status (e.g., respiratory illness score, whether the user has a respiratory infection or not) and/or the user's illness trend (e.g., , whether the user's disease is worsening, improving, or unchanged. Alerts or notifications can be used to indicate whether the user's illness is particularly bad (if the respiratory illness score is below a threshold score), whether a new infection has been detected in the user, and/or whether the user's illness has changed. It may be provided to a doctor.

いくつかの実施形態において、臨床医ダッシュボード3108は、意思決定支援ツール290および薬剤効能追跡器296に関して記載の通り、臨床医が既定の処置の状態および効能(このような処置の副作用を含む)をモニタリングできるように、呼吸器感染症の薬剤が処方されたユーザおよび/または臨床医によって呼吸器疾患が診断されたユーザの厳密なモニタリングに利用されるようになっていてもよい。このため、臨床医ダッシュボード3108の実施形態では、処方薬剤もしくは既定の処置およびユーザが処方薬剤の服用もしくは既定の処置を実行しているか否かを識別するようにしてもよい。 In some embodiments, clinician dashboard 3108 allows clinicians to monitor the status and efficacy of predefined treatments (including side effects of such treatments), as described with respect to decision support tool 290 and drug efficacy tracker 296. may be utilized for close monitoring of users who have been prescribed a drug for a respiratory infection and/or who have been diagnosed with a respiratory disease by a clinician. Thus, embodiments of clinician dashboard 3108 may identify prescribed medications or predefined treatments and whether a user is taking a prescribed medication or performing a predefined treatment.

さらに、いくつかの実施形態において、臨床医ダッシュボード3108は、推奨もしくは所要の音声サンプル収集手順(たとえば、ユーザが音声サンプルを提供する頻度)、ユーザの既定の処置もしくは処方薬剤、およびユーザに対する付加的な推奨(たとえば、水分の摂取、休養、運動の回避、自己検疫)を臨床医が設定できるようにする機能を含んでいてもよい。また、モニタリング設定(たとえば、臨床医および、いくつかの実施形態においては、ユーザに対してアラートを生成する閾値)の設定または調整のため、臨床医ダッシュボード3108が臨床医により用いられるようになっていてもよい。また、いくつかの実施形態において、臨床医ダッシュボード3108は、音声-症状アプリケーション3104が適正に動作しているかの判定および音声-症状アプリケーション3104上での診断の実行を臨床医ができるようにする機能を含んでいてもよい。 Further, in some embodiments, the clinician dashboard 3108 includes information about recommended or required voice sample collection procedures (e.g., how often the user should provide voice samples), the user's default treatment or prescribed medications, and additional information for the user. may include functionality that allows clinicians to set clinical recommendations (e.g., fluid intake, rest, avoidance of exercise, self-quarantine). Clinician dashboard 3108 may also be used by clinicians to configure or adjust monitoring settings (e.g., thresholds that generate alerts for clinicians and, in some embodiments, users). You can leave it there. In some embodiments, the clinician dashboard 3108 also allows the clinician to determine whether the voice-symptom application 3104 is operating properly and to perform diagnostics on the voice-symptom application 3104. May contain functions.

図3Bは、呼吸器疾患をモニタリングするためのデータを収集する例示的なプロセス3500の図解表現を例示的に示している。この例示的なプロセス3500において、モニタリング患者は、音声サンプルおよび症状評価が提供される複数の収集チェックポイントを実行するようにしてもよい。収集チェックポイントには、患者が呼吸器感染症の症状を経験済みまたは、いくつかの実施形態においては、呼吸器感染症の診断を受ける1回の「病中」研究所訪問と、患者が呼吸器感染症から回復済みの1回の「健康」研究所訪問と、を含んでいてもよい。また、患者は、2回の研究所訪問間に自宅で、一日に2回の(または、一日に1回もしくは定期的な)収集チェックポイントを有するようにしてもよい。自宅チェックポイントは、少なくとも2週間の期間にわたって行われ、患者の回復期間が2週間よりも長い場合は、2週間より長くてもよい。各収集チェックポイントにおいて、患者は、音声サンプルおよび症状評価を提供するようにしてもよい。 FIG. 3B illustratively illustrates a diagrammatic representation of an example process 3500 for collecting data for monitoring respiratory disease. In this example process 3500, a monitoring patient may perform multiple collection checkpoints where audio samples and symptom assessments are provided. Collection checkpoints include one "in-sick" laboratory visit where the patient has experienced symptoms of a respiratory infection or, in some embodiments, a diagnosis of a respiratory infection; May include one "wellness" laboratory visit where the patient has recovered from an infectious disease. Patients may also have twice-daily (or once-daily or periodic) collection checkpoints at home between two laboratory visits. Home checkpoints are conducted over a period of at least two weeks, and may be longer than two weeks if the patient's recovery period is longer than two weeks. At each collection checkpoint, the patient may provide a voice sample and symptom assessment.

研究所訪問は、臨床医の診療所または研究を行っている研究所等、臨床医の訪問であってもよい。研究所訪問時には、ヘッドセットに結合されたスマートフォンおよびコンピュータを通じて、モニタリング患者の音声サンプルが同時に記録されるようになっていてもよい。ただし、プロセス3500の実施形態では、これらの方法のうちの1つだけを研究所訪問時の音声サンプルの収集に利用し得るとも考えられる。患者は、自宅収集用のスマートフォン、スマートウォッチ、および/またはスマートスピーカを利用して、音声サンプルの記録および症状評価の提供を行うようにしてもよい。 The laboratory visit may be a visit by the clinician, such as the clinician's office or a laboratory conducting research. During the laboratory visit, monitoring patient voice samples may be simultaneously recorded through the smartphone and computer coupled to the headset. However, it is also contemplated that embodiments of process 3500 may utilize only one of these methods for collecting audio samples during a laboratory visit. Patients may utilize smartphones, smart watches, and/or smart speakers for home collection to record voice samples and provide symptom assessments.

研究所訪問および自宅訪問の両者の音声サンプルについて、患者は、鼻音および基本母音の両者それぞれの5~10秒間にわたる持続的な発声の記録を促される場合もある。一実施形態においては、4つの母音および3つの鼻音が記録される。国際音標文字(IPA)を用いた4つの母音は、 For voice samples from both laboratory and home visits, patients may be asked to record sustained vocalizations of 5 to 10 seconds each, both nasal and fundamental vowels. In one embodiment, four vowels and three nasals are recorded. The four vowels using the International Phonetic Alphabet (IPA) are:

であってもよく、患者は、より言い慣れた出だし The patient may have a more familiar beginning.

での発音を促される場合もある。3つの鼻音は、 In some cases, you may be asked to pronounce the words. The three nasal sounds are

であってもよい。また、個人は、計画された発話および無計画の発話の記録を求められる場合もある。音声記録システムは、無損失圧縮を使用するとともに、ビット深度が16であってもよい。いくつかの実施形態において、音声データは、44.1キロヘルツ(kHz)でサンプリングされるようになっていてもよい。別の実施形態において、音声データは、48kHzでサンプリングされるようになっていてもよい。 It may be. Individuals may also be asked to record planned and unplanned utterances. The audio recording system may use lossless compression and have a bit depth of 16. In some embodiments, audio data may be sampled at 44.1 kilohertz (kHz). In another embodiment, the audio data may be sampled at 48kHz.

自宅回復期間において、患者は、毎朝および毎晩、音声サンプルの提供および症状の報告を求められる場合もある。自宅期間中の症状評価のため、患者は、朝に19個の症状、夜に16個の症状について、気道疾患と関連する知覚症状の重症度(0~5)の評価を求められる場合もある。一実施形態においては、4つの睡眠に関する質問が朝のリストにだけ含まれ、一日の終わりの疲労感の質問が夜にだけ行われる。症状の質問の例示的なリストは、自己報告ツール284と併せて提供されるようになっていてもよい。これらの症状のうちの少なくとも一部のスコアを合算することにより、合成症状スコア(CSS)が決定されるようになっていてもよい。一実施形態において、CSSは、7つの症状(後鼻漏、鼻閉、鼻水、粘液の多い鼻汁、咳、喉の痛み、鼻をかむ必要性)の合計である。 During the home recovery period, patients may be asked to provide voice samples and report symptoms every morning and night. For symptom assessment during the home period, patients may be asked to rate the severity (0-5) of perceived symptoms associated with airway disease for 19 symptoms in the morning and 16 symptoms in the evening. . In one embodiment, the four sleep questions are only included in the morning list, and the end-of-day fatigue question is asked only in the evening. An exemplary list of symptom questions may be provided in conjunction with self-report tool 284. A composite symptom score (CSS) may be determined by summing the scores of at least some of these symptoms. In one embodiment, CSS is the sum of seven symptoms (postnasal drip, nasal congestion, runny nose, mucus nasal discharge, cough, sore throat, need to blow the nose).

図4A~図4Fはそれぞれ、本開示の実施形態を利用した患者(すなわち、ユーザ410)例示的なシナリオを例示的に示している。ユーザ410は、図2の提示コンポーネント220に関して記載の通り、ユーザ機器(たとえば、ユーザコンピュータ機器102a~102nのいずれか)上で動作するコンピュータソフトウェアアプリケーション(たとえば、図1の意思決定支援アプリケーション105a)の1つまたは複数のユーザインターフェース(たとえば、グラフィカルユーザインターフェースおよび/または音声ユーザインターフェース)と相互作用するようにしてもよい。各シナリオは、時系列(左から右へ)の順序付けが意図される一連のシーン(ボックス)により表される。異なるシーン(ボックス)が必ずしも異なる離散的な相互作用ではないものの、ユーザ410とユーザインターフェースコンポーネントとの間の1つの相互作用の一部と考えられる。 4A-4F each illustratively illustrate example patient (ie, user 410) scenarios utilizing embodiments of the present disclosure. User 410 may run a computer software application (e.g., decision support application 105a of FIG. 1) running on user equipment (e.g., any of user computing equipment 102a-102n), as described with respect to presentation component 220 of FIG. It may interact with one or more user interfaces (eg, a graphical user interface and/or an audio user interface). Each scenario is represented by a series of scenes (boxes) that are intended to be ordered chronologically (from left to right). Although different scenes (boxes) are not necessarily different discrete interactions, they are considered part of one interaction between the user 410 and the user interface component.

図4A、図4B、および図4Cは、図3Aの音声-症状アプリケーション3104および/または後述のような図5A~図5Eの呼吸器感染症モニタリングアプリ5101の一実施形態等、1つまたは複数のユーザ機器上で動作するアプリまたはプログラムとの相互作用によりユーザ410から収集されているユーザの音声情報等のデータを示す。図4A~図4Cに示される実施形態は、ユーザ相互作用管理器280、データ収集コンポーネント210、および提示コンポーネント220等、システム200の1つまたは複数の構成要素により実行されるようになっていてもよい。 4A, 4B, and 4C may include one or more audio-symptom application 3104 of FIG. 3A and/or one embodiment of respiratory infection monitoring app 5101 of FIGS. 5A-5E, as described below. It shows data, such as user voice information, being collected from the user 410 through interaction with an app or program running on the user device. The embodiments shown in FIGS. 4A-4C may be performed by one or more components of system 200, such as user interaction manager 280, data collection component 210, and presentation component 220. good.

たとえば図4Aを参照するに、シーン401において、スマートフォン402c(図1のユーザ機器102cの一実施形態であってもよい)を使用するユーザ410には、持続的な発声を提供する指示405が与えられる。指示405の内容は、「音声状態評価を始めましょう。今から、『ウーン』という音を5秒間言い続けてください。」である。これらの指示405は、図2のユーザ指示生成器282の一実施形態により提供されるようになっていてもよい。指示405は、スマートフォン402cの表示画面上のグラフィカルユーザインターフェースを介して、テキストとして表示されるようになっていてもよい。また、この追加または代替として、指示405は、スマートフォン402c上の音声ユーザインターフェースを利用する可聴指示として提供されるようになっていてもよい。シーン402には、スマートフォン402cに対して「ウーン・・・」という言葉を発することにより音声サンプル407を提供するユーザ410が示されており、スマートフォン402cのマイク(図示せず)がこの音声サンプル407を拾って記録することができる。 For example, referring to FIG. 4A, in scene 401, a user 410 using a smartphone 402c (which may be an embodiment of user equipment 102c of FIG. 1) is provided with instructions 405 to provide a sustained vocalization. It will be done. The content of the instruction 405 is ``Let's start evaluating the voice state. From now on, please continue to say the sound ``Oooh'' for 5 seconds.'' These instructions 405 may be provided by one embodiment of the user instruction generator 282 of FIG. 2. The instructions 405 may be displayed as text via a graphical user interface on the display screen of the smartphone 402c. Additionally or alternatively, the instructions 405 may be provided as audible instructions utilizing a voice user interface on the smartphone 402c. Scene 402 shows a user 410 providing a voice sample 407 by saying the words "Oooh..." to a smartphone 402c, and the microphone (not shown) of the smartphone 402c captures this voice sample 407. can be picked up and recorded.

図4Bは同様に、シーン411において、指示415がユーザ410に与えられることを示している。指示415は、ユーザ指示生成器282の一実施形態により生成されるようになっていてもよく、また、スマートウォッチ402a(図1のユーザ機器102aの例示的な一実施形態であってもよい)を介して与えられる。このため、指示415は、スマートウォッチ402a上のグラフィカルユーザインターフェースを介して、テキストとして表示されるようになっていてもよい。この追加または代替として、指示415は、音声ユーザインターフェースを介して、可聴指示として提供されるようになっていてもよい。シーン412において、ユーザ410は、スマートウォッチ402aに対する発話により音声サンプル417(「アーア・・・」)を生成することによって、指示415に応答する。 FIG. 4B similarly shows that in scene 411 instructions 415 are provided to user 410. Instructions 415 may be generated by an embodiment of user instruction generator 282, which may also be generated by smartwatch 402a (which may be an exemplary embodiment of user equipment 102a of FIG. 1). given through. As such, instructions 415 may be displayed as text via a graphical user interface on smartwatch 402a. Additionally or alternatively, instructions 415 may be provided as audible instructions via an audio user interface. In scene 412, user 410 responds to instruction 415 by producing an audio sample 417 ("Aaaa...") by speaking to smartwatch 402a.

図4Cは、スマートスピーカ402b(図1のユーザ機器102bの一実施形態であってもよい)からの一連の指示(催促と称される場合もある)によって音声サンプルを提供するようにユーザ410がガイドされていることを示している。これらの指示は、スマートスピーカ402bから音声ユーザインターフェースを介して出力されるようになっていてもよく、ユーザ410からの応答は、スマートスピーカ402b上のマイク(図示せず)またはスマートスピーカ402bに通信結合された別の機器により拾われる可聴応答であってもよい。 FIG. 4C shows that user 410 is prompted to provide audio samples through a series of instructions (sometimes referred to as prompts) from smart speaker 402b (which may be one embodiment of user equipment 102b of FIG. 1). It shows that you are being guided. These instructions may be output from smart speaker 402b via an audio user interface, and responses from user 410 may be communicated to a microphone (not shown) on smart speaker 402b or to smart speaker 402b. It may also be an audible response picked up by another device to which it is coupled.

また、本開示のいくつかの実施形態によれば、図4Cは、スマートスピーカ402b上での動作またはスマートスピーカ402bとの連動を行うアプリケーションまたはプログラムにより開始される音声記録セッションを示している。たとえば、シーン421において、スマートスピーカ402bは、音声記録セッションを開始する意図424を声に出して述べる。意図424の内容は、「音声状態評価を始めましょう。今よろしいですか?」であり、これに対してユーザ410は、可聴応答425「はい」を与える。 Also, according to some embodiments of the present disclosure, FIG. 4C illustrates an audio recording session initiated by an application or program operating on or in conjunction with smart speaker 402b. For example, in scene 421, smart speaker 402b states aloud an intention 424 to start an audio recording session. The content of the intention 424 is "Let's begin the audio state evaluation. Are you sure now?" to which the user 410 gives an audible response 425 of "yes."

シーン422において、スマートスピーカ402bは、ユーザ410に音声サンプルを提供させる可聴指示426を与える。ユーザ410は、通常の肯定(「OK」)および指示された音(「アーア・・・」)を含む可聴応答427を提供する。ユーザが応答したものと判定された場合は、別の音声サンプルを得るため、次の一組の指示が与えられるものとする。ユーザ410の応答を判定することおよびユーザ410に提供する適当なフィードバックまたは次のステップは、ユーザ入力応答生成器286の一実施形態により実行されるようになっていてもよい。シーン423においては、次の音声サンプルのための指示428がスマートスピーカ402bから発せられ、これに対してユーザ410は、可聴音声サンプル429「ウーン」で応じる。スマートスピーカ402bとユーザ410との間のこのような指示の往復は、必要とされる音声サンプルのすべてが収集されるまで続くものであってもよい。 In scene 422, smart speaker 402b provides an audible instruction 426 that causes user 410 to provide an audio sample. User 410 provides an audible response 427 that includes a normal affirmation ("OK") and a directed sound ("aaaa..."). If it is determined that the user has responded, the next set of instructions shall be given to obtain another voice sample. Determining the user's 410 response and providing appropriate feedback or next steps to the user 410 may be performed by one embodiment of the user input response generator 286. In scene 423, an instruction 428 for the next audio sample is emitted from smart speaker 402b, to which user 410 responds with an audible audio sample 429, "Oooh!" This back and forth instruction between smart speaker 402b and user 410 may continue until all of the required audio samples have been collected.

本明細書に記載の通り、ユーザから収集された音声情報を利用して、ユーザの呼吸器疾患がモニタリングまたは追跡されるようになっていてもよい。このため、図4D、図4E、および図4Fは、ユーザの呼吸器疾患の追跡の種々態様がユーザに通知されるシナリオを示している。図4D~図4Fの推論および予測に利用されるオーディオデータは、図4A~図4Cに示されるようなさまざまな機器上でさまざまな方法により収集されるようになっていてもよい。いくつかの実施形態において、図4D~図4Fのシナリオの基礎となる推論および予測の決定は、図2の呼吸器疾患推論エンジン278により行われるようになっていてもよく、このような決定の通知および別途情報のリクエストは、ユーザ相互作用管理器280および/または意思決定支援ツール290(疾病モニタ292等)の実施形態により提供されるようになっていてもよい。 As described herein, audio information collected from a user may be utilized to monitor or track a user's respiratory illness. To this end, FIGS. 4D, 4E, and 4F illustrate scenarios in which the user is informed of various aspects of tracking his or her respiratory illness. The audio data utilized in the inferences and predictions of FIGS. 4D-4F may be collected in a variety of ways on various devices such as those shown in FIGS. 4A-4C. In some embodiments, the inference and prediction decisions underlying the scenarios of FIGS. 4D-4F may be made by the respiratory disease inference engine 278 of FIG. Notifications and requests for additional information may be provided by embodiments of user interaction manager 280 and/or decision support tool 290 (such as disease monitor 292).

図4Dは、呼吸器疾患の判定がユーザ410に通知されることを示している。シーン431において、スマートスピーカ402bは、最新の音声データに基づいて、ユーザ410が発病している可能性があるものと判定されることを示す可聴メッセージ433を提供する。このようにユーザが病中である可能性の判定は、呼吸器疾患追跡器270の実施形態に従ってなされるようになっていてもよい。可聴メッセージ433が呼吸器疾患と合致する症状の確認をさらに要求する(たとえば、「鼻づまり、疲労、または・・・を感じますか?」)が、これは、自己報告ツール284および/またはユーザ入力応答生成器286の実施形態に従ってなされるようになっていてもよい。ユーザ410は、可聴応答435「少し」を与えるようにしてもよい。図4Dのシーン432においては、鼻づまりを感じる旨のユーザ410の応答435に対して、追加のメッセージ437がスマートスピーカ402bにより提供される。追加メッセージ437では、ユーザ410に対して鼻づまりの評価を求めることにより、ユーザからの症状フィードバックを要求する。この図4Dのシナリオは、鼻づまりおよび/またはその他任意の症状を評価する応答をユーザが与える場合に続くものであってもよい。 FIG. 4D shows that the user 410 is notified of a determination of respiratory disease. In scene 431, smart speaker 402b provides an audible message 433 indicating that user 410 is determined to be potentially ill based on the latest audio data. This determination of the possibility that the user is sick may be made according to an embodiment of the respiratory disease tracker 270. Audible message 433 further requests confirmation of symptoms consistent with respiratory illness (e.g., "Do you feel stuffy, tired, or...?"), which may The input response generator 286 may be configured to do so in accordance with an embodiment of the input response generator 286. User 410 may provide an audible response 435 of "a little." In scene 432 of FIG. 4D, in response to user 410's response 435 that he feels stuffy, an additional message 437 is provided by smart speaker 402b. Additional message 437 requests symptom feedback from user 410 by asking user 410 to rate nasal congestion. This scenario of FIG. 4D may follow if the user provides a response assessing nasal congestion and/or any other symptoms.

図4Eは、ユーザ410の音声データによってユーザ410の呼吸器疾患のモニタリングが継続され得る場合のユーザ410とスマートスピーカ402bとの間の別の相互作用を示している。シーン441に示される可聴メッセージ443において、スマートスピーカ402bは、過去に検出された呼吸器疾患(すなわち、風邪)が追跡されていることをユーザ410に知らせるとともに、より新しいデータに基づいてなされた更新された呼吸器疾患の判定をユーザ410に通知する。具体的に、メッセージ443の内容は、「・・・咳の頻度は低下しているようですし、音声解析は改善を示しています。お元気になりましたか?」である。ユーザ410はその後、元気であることを示す可聴応答445を与える。シーン442において、スマートスピーカ402bは、ユーザ410の将来の呼吸器疾患の予測をユーザ410に通知するオーディオメッセージ447を提供する。具体的に、メッセージ447は、ユーザ410がその呼吸器疾患に関して、3日以内に元の状態に戻ると予想される旨をユーザ410に通知する。また、メッセージ447は、引き続き安静にして、医師の指示に従う推奨を与える。図4Eにおいて、ユーザ410の音声が改善している旨の判定およびユーザが3日以内に回復し得る旨の判定は、図2と併せて記載の通り、呼吸器疾患推論エンジン278の実施形態によりなされるようになっていてもよい。 FIG. 4E illustrates another interaction between the user 410 and the smart speaker 402b where the user's 410 voice data may continue to monitor the user's 410 respiratory illness. In an audible message 443 shown in scene 441, smart speaker 402b notifies user 410 that a previously detected respiratory illness (i.e., a cold) is being tracked, as well as updates made based on more recent data. The user 410 is notified of the determined respiratory disease. Specifically, the content of the message 443 is "...the frequency of coughing seems to be decreasing, and voice analysis shows improvement. How are you doing?" User 410 then provides an audible response 445 indicating that he is fine. In scene 442, smart speaker 402b provides an audio message 447 informing user 410 of a prediction of user's 410 future respiratory illness. Specifically, message 447 notifies user 410 that user 410 is expected to recover with respect to his respiratory illness within three days. Message 447 also provides a recommendation to continue to rest and follow doctor's instructions. In FIG. 4E, the determination that user 410's voice is improving and that the user is likely to recover within three days is determined by an embodiment of respiratory disease inference engine 278, as described in conjunction with FIG. It may be possible to do so.

図4Fは、(たとえば、「疾病モニタリングモード中です。・・・」という内容のシーン451中のメッセージ455により示されるように)ユーザ410の呼吸器疾患が引き続きモニタリングされているシナリオを示している。シーン451において、スマートスピーカ402bは、疾病モニタリングモード中であり、過去数日間に収集された音声サンプルの解析に基づいて、ユーザ410が良くなっているようには見えないことを示す可聴メッセージ455を出力する。また、メッセージ455において、スマートスピーカ402bは、ユーザ410が抗生薬を服用しているか否かを尋ねる。ユーザ410が薬剤を処方されたかの判定は、処方モニタ294の一実施形態によりなされるようになっていてもよい。ユーザ410は薬剤を服用していることを示す応答457(「はい」)を与える。シーン452において、スマートスピーカ402bは、ユーザ410が薬剤を服用していることを裏付けるユーザ410の応答457に基づいて、クラウド458により示されるように、ネットワークを介して1つまたは複数の他のコンピュータシステムまたは機器に伝達する。一実施形態において、スマートスピーカ402bは、ユーザ410が依然として病中であることから、ユーザ410の処方を補充する旨をユーザ410のケア提供者に直接または間接的に伝達していてもよい。その結果、シーン453において、スマートスピーカ402bは、ユーザのケア提供者に連絡を取り、抗生薬処方の補充が発注されたことをユーザ410に知らせる可聴メッセージ459を出力する。 FIG. 4F illustrates a scenario in which user 410's respiratory illness continues to be monitored (e.g., as indicated by message 455 in scene 451 that reads "In disease monitoring mode..."). . In scene 451, smart speaker 402b is in disease monitoring mode and produces an audible message 455 indicating that user 410 does not appear to be getting better based on an analysis of audio samples collected over the past few days. Output. Also, in message 455, smart speaker 402b asks if user 410 is taking antibiotics. Determining whether user 410 has been prescribed a medication may be made by one embodiment of prescription monitor 294. User 410 provides a response 457 ("yes") indicating that he is taking medication. In scene 452, smart speaker 402b communicates with one or more other computers over the network, as illustrated by cloud 458, based on user 410's response 457 confirming that user 410 is taking medication. Communicate to a system or device. In one embodiment, smart speaker 402b may directly or indirectly communicate to user 410's care provider that user 410's prescription will be refilled since user 410 remains ill. As a result, in scene 453, smart speaker 402b outputs an audible message 459 informing user 410 that the user's care provider has been contacted and a refill of the antibiotic prescription has been ordered.

図5A~図5Eは、コンピュータ機器からの例示的な種々スクリーンショットを示したものであって、コンピュータソフトウェアアプリケーション(またはアプリ)の例示的なグラフィカルユーザインターフェース(GUI)の態様を示している。特に、図5A~図5Eのスクリーンショットに示されるGUI(図5AのGUI5100等)の例示的な実施形態は、コンピュータソフトウェアアプリケーション5101に関するものであり、これらの例においては、「呼吸器感染症モニタリングアプリ」と称される。図5A~図5Eに示される例示的なアプリは、呼吸器感染症をモニタリングするものとして記載されるが、本開示は概して、呼吸器疾患および呼吸器疾患の変化をモニタリングするアプリケーションにも同様に当てはまると考えられる。 5A-5E illustrate various example screenshots from computer equipment that illustrate aspects of an example graphical user interface (GUI) of a computer software application (or app). In particular, the exemplary embodiments of GUIs (such as GUI 5100 of FIG. 5A) shown in the screenshots of FIGS. It's called an app. Although the example apps shown in FIGS. 5A-5E are described as monitoring respiratory infections, the present disclosure generally applies to applications that monitor respiratory diseases and changes in respiratory diseases as well. This is considered to be the case.

例示的な呼吸器感染症モニタリングアプリ5101は、図2に関連して記載の通り、ユーザ音声モニタ260、ユーザ相互作用管理器280、および/または他の構成要素もしくは副構成要素の一実施態様を含んでいてもよい。この追加または代替として、呼吸器感染症モニタリングアプリ5101のいくつかの態様には、図1および図2に関連してそれぞれ記載の通り、意思決定支援アプリ105aもしくは105bの一実施態様および/または1つもしくは複数の意思決定支援ツール290の一実施態様を含んでいてもよい。例示的な呼吸器感染症モニタリングアプリ5101は、図1に関連して記載の通り、ユーザ機器102a~102nのいずれかとして具現化され得るユーザコンピュータ機器(または、ユーザ機器)5102a上で動作していてもよい(またGUIがユーザコンピュータ機器5102a上に表示されていてもよい)。図5A~図5Eのスクリーンショットに示される例示的なGUIのGUI要素(図5Aのハンバーガーメニューアイコン5107等)の一部は、GUI要素へのタッチまたはクリック等によって、ユーザにより選択可能であってもよい。ユーザコンピュータ機器5102aのいくつかの実施形態には、たとえばスタイラスまたはマウスとの連動によってユーザのGUIとの相互作用を容易化するタッチスクリーンまたはディスプレイを含んでいてもよい。 The example respiratory infection monitoring app 5101 includes one implementation of a user voice monitor 260, a user interaction manager 280, and/or other components or subcomponents as described in connection with FIG. May contain. Additionally or alternatively, some aspects of the respiratory infection monitoring app 5101 may include one implementation of the decision support app 105a or 105b and/or one of the decision support apps 105a or 105b, as described in connection with FIGS. 1 and 2, respectively. One implementation of one or more decision support tools 290 may be included. Exemplary respiratory infection monitoring app 5101 is running on user computer equipment (or user equipment) 5102a, which may be embodied as any of user equipment 102a-102n, as described in connection with FIG. (and the GUI may be displayed on user computer equipment 5102a). Some of the GUI elements of the example GUI shown in the screenshots of FIGS. 5A-5E (such as hamburger menu icon 5107 in FIG. 5A) are selectable by the user, such as by touching or clicking on the GUI elements. Good too. Some embodiments of user computing equipment 5102a may include a touch screen or display that facilitates user interaction with the GUI, such as in conjunction with a stylus or mouse.

いくつかの態様において、呼吸器疾患(たとえば、インフルエンザ、ライノウイルス、COVID-19、喘息等)と診断された患者に対して既定または推奨される標準的なケアには、(本明細書に記載の通り)モバイル機器、または他のユーザ機器102a~102n等のユーザ/患者自身のコンピュータ機器上で動作し得る呼吸器感染症モニタリングアプリ5101の一実施形態の利用を含んでいてもよく、ユーザ/患者のヘルスケア提供者または薬局を通じてユーザ/患者に提供され得るとも考えられる。特に、呼吸器疾患をモニタリングおよび追跡する従来のソリューションは、数ある欠点の中でもとりわけ、主観的である(すなわち、症状の自己追跡である)、早期検出が不可能または現実的ではない、という問題がある。ただし、本明細書に記載の技術の実施形態であれば、ユーザの呼吸器疾患データをモニタリング、検出、および追跡するための客観的かつ非侵襲的で、より高精度な手段を提供可能である。結果として、これらの実施形態によれば、呼吸器疾患に対する特定の薬剤が処方された患者に対して技術を確実に使用可能となる。このように、医師またはヘルスケア提供者は、ユーザが薬を服用し、コンピュータ意思決定支援アプリ(たとえば、呼吸器感染症モニタリングアプリ5101)を使用して、とりわけ既定の処置のより正確な効能を追跡および判定できるような指示を発行可能である。同様に、医師またはヘルスケア提供者は、コンピュータ意思決定支援アプリにより提供される解析、推奨、または出力の考慮に基づいて薬剤が処方され得るように、薬剤の服用に先立って、患者がコンピュータ意思決定支援アプリを使用することによりユーザの呼吸器疾患をモニタリングまたは追跡することを含む(または、標準ケアにより指定し得る)指示を発行可能である。たとえば、医師が特定の抗生物質を処方するようにしてもよく、コンピュータ意思決定支援アプリは、ユーザが呼吸器疾患である可能性が高く、回復しているようには見えないものと判定するようにしてもよい。さらに、特定の薬剤を投与または処方された患者の標準ケアの一部としてのコンピュータ意思決定支援アプリ(たとえば、呼吸器感染症モニタリングアプリ5101)の使用は、処方薬剤の効能(副作用を含む)のより深い理解、特定の処方薬剤の投薬量の修正もしくは変更、またはユーザ/患者の疾患が改善していて必要がなくなったことによる使用中断の指示をヘルスケア提供者ができるようにすることで患者の効果的な処置を補助する。 In some embodiments, the default or recommended standard of care for patients diagnosed with a respiratory disease (e.g., influenza, rhinovirus, COVID-19, asthma, etc.) includes (as described herein) may include the use of an embodiment of a respiratory infection monitoring app 5101 that may run on the user's/patient's own computing device, such as a mobile device or other user equipment 102a-102n) It is also contemplated that it may be provided to the user/patient through the patient's healthcare provider or pharmacy. In particular, traditional solutions for monitoring and tracking respiratory diseases are subjective (i.e., self-tracking of symptoms), and early detection is not possible or practical, among other drawbacks. There is. However, embodiments of the technology described herein can provide an objective, non-invasive, and more accurate means of monitoring, detecting, and tracking a user's respiratory disease data. . As a result, these embodiments ensure that the technology can be used for patients prescribed specific medications for respiratory conditions. In this way, a physician or health care provider can help users take medications and use a computer decision support app (e.g., respiratory infection monitoring app 5101) to, among other things, more accurately determine the efficacy of a given treatment. Instructions can be issued that can be tracked and determined. Similarly, a physician or healthcare provider may require that a patient make a computer decision prior to taking a drug so that the drug can be prescribed based on consideration of the analysis, recommendations, or output provided by the computer decision support app. Instructions can be issued (or may be specified by standard of care) including monitoring or tracking the user's respiratory illness by using the decision support app. For example, a doctor may prescribe a particular antibiotic, and a computer decision support app may determine that the user likely has a respiratory illness and does not appear to be recovering. You may also do so. Additionally, the use of computer decision support apps (e.g., respiratory infection monitoring apps 5101) as part of the standard of care for patients administered or prescribed certain medications may be helpful in determining the effectiveness (including side effects) of prescribed medications. By enabling healthcare providers to better understand, modify or change the dosage of certain prescribed medications, or instruct patients to discontinue use because the user's/patient's disease has improved and is no longer needed. aids in the effective treatment of

図5Aを参照して、ユーザの呼吸器疾患のモニタリングおよび意思決定支援に使用し得る例示的な呼吸器感染症モニタリングアプリ5101の態様を示す例示的なGUI5100が示される。たとえば、数ある目的の中でもとりわけ、ユーザの呼吸器疾患データの取得の容易化および/または呼吸器疾患に関する情報の決定、閲覧、追跡、補完、もしくは報告に対して、呼吸器感染症モニタリングアプリ5101の一実施形態が用いられるようになっていてもよい。GUI5100に示される例示的な呼吸器感染症モニタリングアプリ5101は、GUI5100の最上部付近に配置され、ハンバーガーメニューアイコン5107、ディスクリプタ5103、供給アイコン5104、聴診器アイコン5106、およびサイクルアイコン5108を含むヘッダ領域5109を含んでいてもよい。ハンバーガーメニューアイコン5107の選択は、呼吸器感染症モニタリングアプリ5101の他のサービス、機構、または機能のメニューへのアクセスをユーザに提供し得るとともに、ヘルプ、アプリバージョン情報、およびセキュアなユーザアカウント・サインイン/サインオフ機能へのアクセスをさらに含み得る。ディスクリプタ5103は、この例示的なGUI5100において、現在の日付を示し得る。この日付は、音声アナライザ5120および図5Bに関連して記載の通り、ユーザが音声データ収集プロセスを開始した場合に、ユーザにより取得される任意の音声関連データと関連付けられる日付である。場合により、ディスクリプタ5103は、履歴データ、呼吸器感染症モニタリングアプリ5101のモードまたは機能、ユーザへの通知にユーザがアクセスしている場合等、過去の日付を示していてもよいし、空白であってもよい。 Referring to FIG. 5A, an example GUI 5100 is shown that illustrates aspects of an example respiratory infection monitoring app 5101 that may be used for respiratory disease monitoring and decision support of a user. For example, the respiratory infection monitoring app 5101 may be used to facilitate the acquisition of respiratory disease data for users and/or to determine, view, track, complete, or report information regarding respiratory diseases, among other purposes. An embodiment of may be used. The example respiratory infection monitoring app 5101 shown in the GUI 5100 includes a header area located near the top of the GUI 5100 that includes a hamburger menu icon 5107, a descriptor 5103, a supply icon 5104, a stethoscope icon 5106, and a cycle icon 5108. 5109 may be included. Selection of the hamburger menu icon 5107 may provide the user with access to a menu of other services, features, or features of the respiratory infection monitoring app 5101, as well as help, app version information, and secure user account signature. It may further include access to in/sign-off functionality. Descriptor 5103 may indicate the current date in this example GUI 5100. This date is the date that is associated with any audio-related data obtained by the user when the user initiates the audio data collection process, as described in connection with audio analyzer 5120 and FIG. 5B. In some cases, the descriptor 5103 may indicate a past date, or may be blank, such as when the user is accessing historical data, modes or features of the respiratory infection monitoring app 5101, user notifications, etc. You can.

共有アイコン5104は、電子通信を介して、さまざまなデータ、解析もしくは診断、レポート、ユーザ提供アノテーション、または観察結果(たとえば、メモ)を共有するために選択されるようになっていてもよい。たとえば、共有アイコン5104は、最新の音素特性データ、呼吸器疾患の変化、推論もしくは予測、または他のデータから成るレポートのユーザによる介護者への電子メール、アップロード、または送信を容易化し得る。いくつかの実施形態において、共有アイコン5104は、呼吸器感染症モニタリングアプリ5101を介した取り込み、決定、表示、またはアクセスがなされたさまざまなデータの態様のソーシャルメディア上での共有または他の類似ユーザとの共有を容易化し得る。一実施形態において、共有アイコン5104は、ユーザの呼吸器疾患データおよび、場合によっては、関連データ(たとえば、位置、履歴データ、または他の情報)の政府機関または保健局との共有によって、呼吸器感染症の流行のモニタリングを容易化し得る。この共有情報は、ユーザのプライバシを保護するために非特定化され、通信に先立って暗号化されるようになっていてもよい。 Share icon 5104 may be selected to share various data, analyzes or diagnostics, reports, user-provided annotations, or observations (eg, notes) via electronic communication. For example, the share icon 5104 may facilitate a user emailing, uploading, or sending a report consisting of the latest phonemic feature data, respiratory disease changes, inferences or predictions, or other data to a caregiver. In some embodiments, the share icon 5104 indicates the sharing on social media or other similar users of various data aspects captured, determined, displayed, or accessed via the respiratory infection monitoring app 5101. It can be easily shared with other users. In one embodiment, the share icon 5104 provides information about respiratory disease by sharing the user's respiratory disease data and, in some cases, related data (e.g., location, historical data, or other information) with a government agency or health department. It can facilitate monitoring of infectious disease outbreaks. This shared information may be de-identified and encrypted prior to communication to protect user privacy.

聴診器アイコン5106の選択により、ユーザのヘルスケア提供者とのさまざまな伝達または連絡選択肢をユーザに提供可能である。たとえば、聴診器アイコン5106の選択によって、遠隔予約(または、面会予約の要求)、ユーザのヘルスケア提供者によるアクセスのためのユーザの医療レコード(たとえば、図2のプロファイル/健康データ(EHR)241)へのデータの共有もしくはアップロード、または付加的なサービスのためのヘルスケア提供者のオンラインポータルへのアクセスを容易化する機能を開始するようにしてもよい。いくつかの実施形態においては、聴診器アイコン5106の選択によって、ユーザが現在視聴しているデータ等の特定のデータをユーザのヘルスケア提供者に伝達する機能を開始するようにしてもよいし、ユーザのヘルスケア提供者に対してユーザのデータを見るように要求してもよい。最後に、サイクルアイコン5108の選択によって、利用可能なデータに関してビューが最新となるように、呼吸器感染症モニタリングアプリ5101を介して表示されるビューおよび/またはデータのリフレッシュまたは更新を行わせるようにしてもよい。いくつかの実施形態においては、サイクルアイコン5108の選択によって、センサ(もしくは、図1のセンサ103等のセンサからのデータ収集と関連付けられたコンピュータアプリケーション)および/またはユーザと関連付けられたクラウドデータストア(たとえば、オンラインデータアカウント)から引き出されたデータをリフレッシュするようにしてもよい。 Selection of the stethoscope icon 5106 may provide the user with various communication or contact options with the user's health care provider. For example, selection of the stethoscope icon 5106 may result in a remote appointment (or request for an appointment), a user's medical record (e.g., Profile/Health Data (EHR) 241 of FIG. ) or facilitate access to a healthcare provider's online portal for additional services. In some embodiments, selection of the stethoscope icon 5106 may initiate a feature that communicates certain data to the user's health care provider, such as what the user is currently viewing; A user's health care provider may be requested to view the user's data. Finally, selection of the cycle icon 5108 causes the view and/or data displayed through the respiratory infection monitoring app 5101 to be refreshed or updated so that the view is current with respect to available data. You can. In some embodiments, selection of cycle icon 5108 causes a sensor (or a computer application associated with collecting data from a sensor, such as sensor 103 of FIG. 1) and/or a cloud data store ( For example, data retrieved from an online data account may be refreshed.

また、例示的なGUI5100は、この呼吸器感染症モニタリングアプリ5101の例示的な実施形態により提供される付加的な種々機能に対応するさまざまなユーザ選択可能アイコン5111,5112,5113,5114、および5115を含むアイコンメニュー5110を含んでいてもよい。特に、これらのアイコンを選択することにより、呼吸器感染症モニタリングアプリ5101を介して提供されるさまざまなサービスまたはツールへとユーザをナビゲート可能である。非限定的な一例としては、ホームアイコン5111の選択により、図5A~図5Eに関連して記載の例示的なGUIのうちの1つ、呼吸器感染症モニタリングアプリ5101により提供される1つもしくは複数の一般に利用されるサービスもしくはツールを含み得るウェルカム画面(図5EのGUI5510等)、ユーザのアカウント情報、またはその他任意のビュー(図示されず)を含み得るホーム画面にユーザをナビゲート可能である。 The example GUI 5100 also includes various user-selectable icons 5111, 5112, 5113, 5114, and 5115 corresponding to additional various features provided by the example embodiment of the respiratory infection monitoring app 5101. It may also include an icon menu 5110 that includes. In particular, selecting these icons can navigate the user to various services or tools provided via the respiratory infection monitoring app 5101. As a non-limiting example, selection of the home icon 5111 may cause one of the exemplary GUIs described in connection with FIGS. 5A-5E, one provided by the respiratory infection monitoring app 5101, or The user can be navigated to a home screen that can include a welcome screen (such as GUI 5510 of FIG. 5E) that can include multiple commonly used services or tools, the user's account information, or any other views (not shown). .

いくつかの実施形態においては、例示的なGUI5100において選択されているものとして示される「音声記録」アイコン5112の選択により、ユーザからの音声サンプルの取得を容易化するアプリケーション機能を含む音声アナライザ5120等の音声データ取得モードへとユーザをナビゲート可能である。音声アナライザ5120の実施形態は、図2に記載のように、ユーザ音声モニタ260(または、その副構成要素のうちの1つもしくは複数)を含むシステム200の1つまたは複数の構成要素および、場合によっては、同じく図2に記載のように、ユーザ相互作用管理器280(または、その副構成要素のうちの1つもしくは複数)により実行されるようになっていてもよい。たとえば、ユーザ音声サンプルデータを取得するための音声アナライザ5120の機能は、音声サンプル収集器2604に関連して記載の通りに実行されるようになっていてもよい。 In some embodiments, an audio analyzer 5120 or the like includes application functionality that facilitates obtaining audio samples from a user by selecting an "audio recording" icon 5112 shown as selected in the example GUI 5100. can navigate the user to the audio data acquisition mode. Embodiments of audio analyzer 5120 may be used with one or more components of system 200, including user audio monitor 260 (or one or more of its subcomponents), as described in FIG. In some cases, it may be performed by user interaction manager 280 (or one or more of its subcomponents), also as shown in FIG. For example, the functionality of audio analyzer 5120 to obtain user audio sample data may be performed as described in conjunction with audio sample collector 2604.

いくつかの実施形態において、音声アナライザ5120は、図5AのGUI要素5105に示されるとともに図5Bに関連して別途記載のような音声データ収集プロセスにユーザをガイドする指示を与えるようにしてもよい。特に、GUI要素5105は、設定の継続時間にわたって音を繰り返すことをユーザに促す繰り返し音行使の態様を示す。ここで、たとえば、ユーザは、「ウーン」という音を5秒間発することを要求される。いくつかの実施形態においては、ユーザ相互作用管理器280またはユーザ指示生成器282等の副構成要素のうちの1つもしくは複数に従って、音声アナライザ5120により提供される指示が決定または生成されるようになっていてもよい。 In some embodiments, the audio analyzer 5120 may provide instructions to guide the user through the audio data collection process as shown in GUI element 5105 of FIG. 5A and described elsewhere in connection with FIG. 5B. . In particular, GUI element 5105 illustrates a repeat sound exercise that prompts the user to repeat the sound for a set duration. Here, for example, the user is required to make a "woom" sound for 5 seconds. In some embodiments, instructions provided by speech analyzer 5120 are determined or generated in accordance with one or more of the subcomponents, such as user interaction manager 280 or user instruction generator 282. It may be.

ディスクリプタ5103は、現在の日付を示しており、これは、収集された音声サンプルと関連付けられることになる。音声サンプルの記録の開始または終了のタイミングのユーザへの指示を容易化するため、タイマー(GUI要素5122)が設けられていてもよい。また、音声サンプル記録に関するフィードバックをユーザに与えるため、視覚的な音声サンプル記録インジケータ(GUI要素5123)が表示されていてもよい。一実施形態において、GUI要素5122および5123の動作は、図2に関連して記載のユーザ入力応答生成器286により実行されるようになっていてもよい。他の視覚的なインジケータ(図示せず)としては、バックグラウンドノイズレベル、マイクレベル、音量、進展インジケータ、またはユーザ入力応答生成器286に関連して記載の他のインジケータが挙げられるが、これらに限定されない。 Descriptor 5103 indicates the current date, which will be associated with the collected audio sample. A timer (GUI element 5122) may be provided to facilitate instructing the user when to start or end recording audio samples. A visual audio sample recording indicator (GUI element 5123) may also be displayed to provide feedback to the user regarding the audio sample recording. In one embodiment, the operations of GUI elements 5122 and 5123 may be performed by user input response generator 286, described in connection with FIG. 2. Other visual indicators (not shown) include background noise level, microphone level, volume, progress indicators, or other indicators described in connection with user input response generator 286, including but not limited to: Not limited.

いくつかの実施形態において(図示せず)、音声アナライザ5120は、ある時間区分内(たとえば、一日または半日)の音声関連データの取得に関するユーザの進展を表示していてもよい。たとえば、日常的な相互作用または文章の音読によって音声関連データが取得された場合、音声アナライザ5120は、完了までの割合、ダイヤル、もしくは摺動式の進展バー等のユーザの進展の指標またはユーザの発話の取得に成功した音素もしくは未だ取得されていない音素の指標を示していてもよい。音声アナライザ5120により実行される例示的な音声データ収集プロセスの別のGUIおよび詳細については、図5Bに関連して記載される。 In some embodiments (not shown), audio analyzer 5120 may display a user's progress in acquiring audio-related data within a certain time period (eg, a day or half a day). For example, if voice-related data is obtained through daily interactions or reading aloud a text, the voice analyzer 5120 may include indicators of the user's progress, such as percentage complete, dials, or sliding progress bars, or the user's It may also indicate an index of phonemes that have been successfully acquired for utterances or phonemes that have not yet been acquired. Another GUI and details of an exemplary audio data collection process performed by audio analyzer 5120 are described in connection with FIG. 5B.

図5Aを再び参照するに、GUI5100およびアイコンメニュー5110に関して引き続き、見解アイコン5113の選択では、ユーザの呼吸器疾患に関するツールおよび情報をユーザに提供するGUIおよび機能へとユーザをナビゲート可能である。これには、たとえばユーザの現在の呼吸器疾患、トレンド、予想、または推奨に関する情報を含んでいてもよい。見解アイコン5113と関連付けられた機能の別途詳細については、図5Cに関連して記載される。また、ログアイコン5114(図5A)の選択により、図5Dおよび図5Eに関連して記載のような呼吸器疾患の追跡またはモニタリングを容易化する機能を含むログツールへとユーザをナビゲート可能である。一実施形態において、ログツールまたはログアイコン5114と関連付けられた機能には、ユーザの生理学的データ、症状データ、または他のコンテキスト情報を受信して表示するGUIおよびツールまたはサービスを含んでいてもよい。たとえば、ログツールの一実施形態には、図5Dおよび図5Eに関連して記載のようなユーザ症状を記録する自己報告ツールを含む。 Referring again to FIG. 5A, continuing with GUI 5100 and icon menu 5110, selection of view icon 5113 can navigate the user to GUIs and features that provide the user with tools and information regarding the user's respiratory disease. This may include, for example, information regarding the user's current respiratory illness, trends, forecasts, or recommendations. Additional details of the functionality associated with view icon 5113 are described in connection with FIG. 5C. Additionally, selection of log icon 5114 (FIG. 5A) can navigate the user to logging tools that include features to facilitate tracking or monitoring of respiratory diseases, such as those described in connection with FIGS. 5D and 5E. be. In one embodiment, the functionality associated with the logging tool or log icon 5114 may include a GUI and tools or services that receive and display a user's physiological data, symptom data, or other contextual information. . For example, one embodiment of a logging tool includes a self-reporting tool that records user symptoms such as those described in connection with FIGS. 5D and 5E.

いくつかの実施形態においては、設定アイコン5115の選択によって、さまざまなユーザ選好、設定、または呼吸器感染症モニタリングアプリ5101の設定、音声関連データの態様(たとえば、感度閾値、音素特性比較設定、音素特性に関する設定、または音声関連データの取得もしくは解析に関する他の設定)、ユーザアカウント、ユーザのケア提供者に関する情報、介護者、保険、診断または状態、ユーザケア/処置、あるいは他の設定の指定を可能にし得るユーザ設定モードへとユーザをナビゲート可能である。いくつかの実施形態においては、設定の少なくとも一部がユーザのヘルスケア提供者または臨床医により構成されるようになっていてもよい。設定アイコン5115を介してアクセス可能ないくつかの設定には、図2の設定249に関連して記載の設定を含んでいてもよい。 In some embodiments, selection of the settings icon 5115 configures various user preferences, settings, or settings of the respiratory infection monitoring app 5101, aspects of audio-related data (e.g., sensitivity thresholds, phoneme feature comparison settings, phoneme or other settings related to the acquisition or analysis of voice-related data), user account, information about the user's caregivers, caregivers, insurance, diagnosis or condition, user care/treatment, or specifying other settings. The user can be navigated to a user settings mode that may be enabled. In some embodiments, at least some of the settings may be configured by the user's healthcare provider or clinician. Some of the settings accessible via settings icon 5115 may include the settings described in connection with settings 249 in FIG.

ここで図5Bを参照して、さまざまな発声の音声サンプルを提供するようにユーザがガイドされる音声関連データの取得のための例示的なプロセスの態様を示す例示的なGUI5210,5220,5230、および5240のシーケンス5200が提供される。シーケンス5200のGUIに示されるプロセスは、ユーザコンピュータ機器5102a上で動作し、GUI5210,5220,5230、および5240を表示可能な呼吸器感染症モニタリングアプリ5101により提供されるようになっていてもよい。一実施形態において、GUI5210,5220,5230、および5240に示される機能は、図5Aに記載の音声アナライザ5120等、呼吸器感染症モニタリングアプリ5101の音声データ取得モードにより提供され、GUI5100の音声記録アイコン5112の選択によりアクセスまたは開始され得る(図5A)。ユーザをガイドするためにGUI5210,5220,5230、および5240に示される指示(たとえば、指示5213)は、ユーザ相互作用管理器280またはユーザ指示生成器282等の副構成要素のうちの1つもしくは複数に従って決定または生成されるようになっていてもよい。 5B, example GUIs 5210, 5220, 5230 illustrating aspects of an example process for the acquisition of speech-related data in which a user is guided to provide audio samples of various utterances; A sequence 5200 of and 5240 is provided. The process depicted in the GUI of sequence 5200 may be provided by a respiratory infection monitoring app 5101 running on user computer equipment 5102a and capable of displaying GUIs 5210, 5220, 5230, and 5240. In one embodiment, the functionality shown in GUIs 5210, 5220, 5230, and 5240 is provided by an audio data acquisition mode of respiratory infection monitoring app 5101, such as audio analyzer 5120 shown in FIG. 5112 (FIG. 5A). The instructions shown in GUIs 5210, 5220, 5230, and 5240 to guide the user (e.g., instructions 5213) may be provided by one or more of the subcomponents, such as user interaction manager 280 or user instruction generator 282. may be determined or generated according to the

GUI5210に示されるように、繰り返し音行使の一部としての連続音の発声をユーザにガイドする指示5213が示される。繰り返し音行使には、ユーザにより実行される1つまたは複数の発声タスクを含んでいてもよい。本例において、ユーザは、開始ボタン5215を選択することにより行使(または、行使内のタスク)を開始するようにしてもよい。また、GUI5210は、進展インジケータ5214を示しており、これは、このセッションまたは時間区分に関する音声サンプルデータの提供までのユーザの進展(たとえば、60%完了)を示すスライドバーである。 As shown in GUI 5210, instructions 5213 are shown to guide the user in producing continuous sounds as part of a repeated sound exercise. A repetitive sound exercise may include one or more vocal tasks performed by a user. In this example, a user may initiate an exercise (or task within an exercise) by selecting a start button 5215. GUI 5210 also shows a progress indicator 5214, which is a sliding bar that indicates the user's progress toward providing audio sample data for this session or time segment (eg, 60% complete).

GUI5220,5230、および5240は引き続き、繰り返し音行使の一部としての連続音の発声をユーザにガイドする態様を示している。シーケンス5200に示されるように、例示的なGUI5220,5230、および5240は、ユーザのガイドまたはユーザへのフィードバックの提供を容易化するさまざまな視覚的インジケータを含む。たとえば、GUI5220は、カウントダウンタイマーおよびバックグラウンドノイズ確認のインジケータを示すGUI要素5222を含む。GUI要素5222のカウントダウンタイマーは、ユーザが発声を開始するまでの時間を示す。GUI5230は、タイマーの別の例、この場合は、ユーザが「アー」音の発声を持続させた継続時間を示すGUI要素5232を含む。同様に、GUI5240は、タイマーの一例、この場合は、ユーザが「ウーン」音を5秒間発声したことを示すGUI要素5242を含む。また、GUI5240は、「ウーン」音の音声サンプル記録に関するフィードバックをユーザに与えるGUI要素5243を含む。上述の通り、進展インジケータ5214、GUI要素5222のカウントダウンタイマーおよびバックグラウンドインジケータ、GUI要素5232および5242のタイマー、またはGUI要素5243の音声サンプル記録インジケータ等の視覚的インジケータと関連付けられた機能は、ユーザ入力応答生成器286により提供されるようになっていてもよい。提供可能な視覚的インジケータおよびユーザフィードバック動作の別の例については、ユーザ入力応答生成器286に関連して記載される。 GUIs 5220, 5230, and 5240 continue to illustrate how to guide the user in producing continuous sounds as part of a repeated sound exercise. As shown in sequence 5200, example GUIs 5220, 5230, and 5240 include various visual indicators that facilitate guiding the user or providing feedback to the user. For example, GUI 5220 includes GUI element 5222 that shows a countdown timer and background noise confirmation indicator. A countdown timer in GUI element 5222 indicates the amount of time until the user begins speaking. GUI 5230 includes another example of a timer, in this case a GUI element 5232 that indicates the duration that the user continues to utter the "aah" sound. Similarly, GUI 5240 includes an example timer, in this case a GUI element 5242 that indicates that the user has uttered a "woom" sound for 5 seconds. GUI 5240 also includes a GUI element 5243 that provides feedback to the user regarding the audio sample recording of the "ooh" sound. As discussed above, functionality associated with visual indicators, such as the progress indicator 5214, the countdown timer and background indicator in GUI element 5222, the timer in GUI elements 5232 and 5242, or the audio sample recording indicator in GUI element 5243, may be triggered by user input. may be provided by response generator 286. Another example of visual indicators and user feedback actions that can be provided is described in connection with user input response generator 286.

シーケンス5200に関して引き続き、GUI5240は、音声サンプルデータを取得する繰り返し音行使の最終段階または音声サンプルデータを取得するプロセスの複数段階のうちの1つの最後を表し得る。たとえば、後で実行される付加的な発声タスクまたは行使が存在していてもよい。音声サンプルを提供したユーザは、完了ボタン5245を選択することにより行使(または、行使内のタスク)を終了するようにしてもよい。あるいは、ユーザは、タスクをやり直して別の音声サンプルを提供したい場合、GUI要素5244を選択してタスクを再び開始するようにしてもよい。いくつかの実施形態においては、サンプル記録検査器2608およびユーザ入力応答生成器286に関連して記載の通り、音声サンプルに欠陥があるものと判定された場合等に、タスクをやり直す指標または指示がユーザに与えられる場合がある。 Continuing with sequence 5200, GUI 5240 may represent the final stage of a repeated sound exercise to obtain audio sample data or the last of one of multiple stages of a process to obtain audio sample data. For example, there may be additional vocal tasks or exercises that are performed later. The user who provided the audio sample may end the exercise (or task within the exercise) by selecting a finish button 5245. Alternatively, if the user wishes to redo the task and provide another audio sample, the user may select GUI element 5244 to begin the task again. In some embodiments, as described in connection with the sample recording examiner 2608 and the user input response generator 286, an indicator or instruction to retry the task may be provided, such as if the audio sample is determined to be defective. It may be given to the user.

音声関連データを収集するシーケンス5200に示される例示的なプロセスには、繰り返し音行使の一部として、ユーザに指示を促すことを含む。ただし、呼吸器感染症モニタリングアプリ5101の他の実施形態では、本明細書に記載の通り、日常的な相互作用から音声関連データを取得するようにしてもよい。さらに、いくつかの実施形態においては、図5Bの例のように、日常的な相互作用および繰り返し音行使の組み合わせから音声関連データが収集されるようになっていてもよい。たとえば、日常的な相互作用によって、所与の時間区分(たとえば、一日または半日)にわたる十分な使用可能音声関連データまたは特定種類の使用可能音声関連データが得られていない場合は、繰り返し音行使または類似の相互作用によって付加的な音声関連データを提供する旨が(たとえば、呼吸器感染症モニタリングアプリ5101を介して)ユーザに通知されるようになっていてもよい。いくつかの実施形態において、ユーザは、設定アイコン5115を介して、または、図2の設定249に関連して記載の通り、音声関連データを取得可能な方法の選択肢を設定するようにしてもよい。 An example process illustrated in sequence 5200 for collecting audio-related data includes prompting the user for instructions as part of a repeated sound exercise. However, other embodiments of the respiratory infection monitoring app 5101 may obtain audio-related data from everyday interactions, as described herein. Additionally, in some embodiments, voice-related data may be collected from a combination of daily interactions and repeated sound exercises, such as the example of FIG. 5B. For example, if routine interactions do not result in sufficient usable voice-related data over a given time interval (e.g., a day or half a day) or a particular type of usable voice-related data, repeat sound The user may be notified (eg, via the respiratory infection monitoring app 5101) of providing additional voice-related data by or similar interaction. In some embodiments, the user may configure options for how audio-related data can be obtained via settings icon 5115 or as described in connection with settings 249 of FIG. .

ここで図5Cを参照して、GUI5300を含む呼吸器感染症モニタリングアプリ5101の別の態様が示される。GUI5300は、ユーザの呼吸器疾患の見解(たとえば、見解5301)を表示するさまざまなユーザインターフェース(UI)要素を含み、GUI5300に示される機能は、GUI5100の見解アイコン5113を選択することによりアクセスまたは開始されるようになっていてもよい(図5A)。例示的なGUI5300には、呼吸器感染症モニタリングアプリ5101の見解機能にユーザがアクセスしている現在の日付を示すディスクリプタ5303(たとえば、今日は5月4日)と、ユーザが呼吸器感染症モニタリングアプリ5101の見解動作モードにいる(または、見解機能にアクセスしている)ことを示すユーザの見解5301と、をさらに含む。図5Cに示されるように、アイコンメニュー5110は、見解アイコン5113が選択されたことを示しており、これによって、ユーザの見解5301を示すGUI5300をユーザに提示可能である。見解5301には、ユーザの呼吸器疾患判定および/もしくは予想ならびに関連情報を含んでいてもよい。たとえば、見解5301には、呼吸器疾患スコア5312、関連する推奨5315を含み得る伝播リスク5314、ならびにトレンドディスクリプタ5316およびGUI要素5318等のトレンド情報を含んでいてもよい。 Referring now to FIG. 5C, another aspect of a respiratory infection monitoring app 5101 that includes a GUI 5300 is shown. GUI 5300 includes various user interface (UI) elements that display a user's respiratory disease perspective (e.g., perspective 5301), and the functionality shown in GUI 5300 is accessed or initiated by selecting a perspective icon 5113 in GUI 5100. (FIG. 5A). The example GUI 5300 includes a descriptor 5303 that indicates the current date on which the user is accessing the views feature of the respiratory infection monitoring app 5101 (e.g., today is May 4th) and a and a user view 5301 indicating that the user is in a view operating mode (or accessing view functionality) of the app 5101. As shown in FIG. 5C, the icon menu 5110 indicates that the view icon 5113 has been selected, allowing the user to be presented with a GUI 5300 showing the user's view 5301. The opinion 5301 may include the user's respiratory disease determination and/or prediction and related information. For example, the view 5301 may include a respiratory disease score 5312, a transmission risk 5314 that may include associated recommendations 5315, and trend information such as a trend descriptor 5316 and GUI element 5318.

本明細書に記載の通り、呼吸器疾患スコア5312は、ユーザの呼吸器疾患を定量化または特徴付けるものであってもよく、ユーザの現在の呼吸器疾患、ユーザの呼吸器疾患の変化、またはユーザの将来の呼吸器疾患の可能性を表し得る。本明細書に別途記載の通り、呼吸器疾患スコア5312は、図5Bに示される例示的なプロセスまたは図2のユーザ音声モニタ260に関連して記載の例示的なプロセスを通じて取得された音声関連データ等のユーザの音声関連データに基づいていてもよい。場合により、呼吸器疾患スコア5312はさらに、ユーザ観察結果(たとえば、自己報告症状スコア)、健康もしくは生理学的データ(たとえば、ウェアラブルセンサもしくはユーザの健康レコードにより提供されるデータ)、天候、場所、地域感染情報(たとえば、ユーザの地理的場所における現在の感染率)、または他のコンテキスト等のコンテキスト情報に基づいていてもよい。呼吸器疾患スコア5321を決定する別途詳細については、図2の呼吸器疾患推論エンジン278および図6Bの方法6200に関連して提供される。 As described herein, the respiratory illness score 5312 may quantify or characterize the user's respiratory illness, including the user's current respiratory illness, a change in the user's respiratory illness, or the user's respiratory illness. can represent the possibility of future respiratory disease. As described elsewhere herein, the respiratory disease score 5312 is based on voice-related data obtained through the example process shown in FIG. 5B or described in connection with the user voice monitor 260 of FIG. It may be based on the user's voice-related data such as. In some cases, the respiratory illness score 5312 further includes user observations (e.g., self-reported symptom scores), health or physiological data (e.g., data provided by wearable sensors or the user's health record), weather, location, region. It may be based on contextual information, such as infection information (eg, current infection rate in the user's geographic location), or other context. Additional details for determining respiratory disease score 5321 are provided in connection with respiratory disease inference engine 278 of FIG. 2 and method 6200 of FIG. 6B.

GUI5300の伝播リスク5314は、検出された呼吸器関連病原体をユーザが伝播するリスクを示し得る。伝播リスク5314は、図2の呼吸器疾患推論エンジン278およびユーザ疾患推論ロジック237に関して記載の通りに決定されるようになっていてもよい。伝播リスクは、例示的なGUI5300において中~高リスクを示す「中高」等の定量的またはカテゴリ的なインジケータであってもよい。伝播リスク5314と併せて、見解5301は、マスクの着用、ソーシャルディスタンスの確保、自己検疫(自宅待機)、またはヘルスケア提供者への相談等、伝播リスクを抑えるために推奨される実践事項を含み得る推奨5315を提供するようにしてもよい。 Transmission risk 5314 of GUI 5300 may indicate the risk of the user transmitting the detected respiratory-related pathogen. Transmission risk 5314 may be determined as described with respect to respiratory disease inference engine 278 and user disease inference logic 237 of FIG. Transmission risk may be a quantitative or categorical indicator, such as "medium-high" indicating medium to high risk in the example GUI 5300. In conjunction with Transmission Risk 5314, Opinion 5301 includes recommended practices to reduce transmission risk, such as wearing masks, social distancing, self-quarantining, or consulting a health care provider. Recommendations 5315 to obtain may be provided.

これらの推奨5315には、予め定められた推奨を含んでいてもよく、いくつかの実施形態においては、特定の検出呼吸器疾患および/または一組のルールに応じた伝播リスク5314に基づいて決定されるようになっていてもよい。いくつかの実施形態において、推奨5315は、履歴音声関連情報等のユーザの履歴情報および/または地理的場所等のコンテキスト情報に基づいて、ユーザに適合されていてもよい。推奨5315を決定する別途詳細については、図2の呼吸器疾患推論エンジン278およびユーザ疾患推論ロジック237に関して記載される。 These recommendations 5315 may include predetermined recommendations, which in some embodiments are determined based on the particular detected respiratory disease and/or transmission risk 5314 according to a set of rules. It may be possible to do so. In some embodiments, recommendations 5315 may be tailored to the user based on the user's historical information, such as historical audio-related information, and/or contextual information, such as geographic location. Additional details of determining recommendations 5315 are described with respect to respiratory disease inference engine 278 and user disease inference logic 237 of FIG.

見解5301は、トレンドディスクリプタ5316等のトレンド情報および、いくつかの実施形態においては、ユーザの呼吸器疾患の経時的なトレンドまたは変化を視覚化するGUI要素5318を提供するようにしてもよい。トレンドディスクリプタ5316は、ユーザの呼吸器疾患について過去に検出された変化または現在検出されている変化を示していてもよい。ここでは、ユーザの呼吸器疾患が悪化していることをトレンドディスクリプタ5316が示している。さらに、GUI要素5318は、ユーザのデータのグラフもしくはチャート、または過去14日間に音声サンプルから検出された音素特性の変化等、ユーザの呼吸器疾患の変化を示す他の視覚的指標を含んでいてもよい。他の実施形態において、見解5301は、この追加または代替として、ユーザの将来の呼吸器疾患の蓋然的なトレンドの予想を提供する。たとえば、いくつかの実施形態において、GUI要素5318は、将来の日付を示すとともに、呼吸器疾患推論エンジン278に関して記載の通り、ユーザの呼吸器疾患の将来的な変化を予測するようにしてもよい。一実施形態において、見解5301は、ユーザが呼吸器感染症から回復する可能性が高いタイミングを示す予想を提供する(たとえば、「3日以内に正常な状態になります」)。見解5301により提供され得る別の例示的な予想には、呼吸器感染症の可能性の最初の検出に際して、将来のある時間区分にユーザが発病すると予想され得る旨を示す予想等の早期警告予想を含む(たとえば、「呼吸器感染症を発症しているように見えるため、週明けには体調を崩しているかもしれません」)。 Views 5301 may provide trend information such as trend descriptors 5316 and, in some embodiments, GUI elements 5318 that visualize trends or changes in a user's respiratory disease over time. Trend descriptor 5316 may indicate previously detected or currently detected changes in the user's respiratory disease. Here, trend descriptor 5316 indicates that the user's respiratory disease is worsening. Additionally, GUI element 5318 may include a graph or chart of the user's data or other visual indicators of changes in the user's respiratory illness, such as changes in phoneme characteristics detected from the audio sample over the past 14 days. Good too. In other embodiments, the view 5301 additionally or alternatively provides a prediction of the user's likely future respiratory disease trends. For example, in some embodiments, GUI element 5318 may indicate a future date and predict future changes in the user's respiratory illness, as described with respect to respiratory illness inference engine 278. . In one embodiment, the opinion 5301 provides a prediction indicating when the user is likely to recover from a respiratory infection (eg, "will be normal within 3 days"). Another example forecast that may be provided by opinion 5301 is an early warning forecast, such as a forecast that indicates that a user may be expected to become ill at some time in the future upon initial detection of a possible respiratory infection. (e.g., ``You appear to have a respiratory infection and may feel unwell by the end of the week.'')

場合により、呼吸器感染症モニタリングアプリ5101は、予想または見解5301により提供される他の情報に関する電子通知をユーザ(または、介護者もしくは臨床医)に対して生成または提供するようにしてもよい。見解5301により提供される情報(トレンドディスクリプタ5316および/またはGUI要素5318の生成に利用されるトレンドまたは予想情報を含み得る)は、図2の呼吸器疾患追跡器270またはその副構成要素のうちの1つもしくは複数(呼吸器疾患推論エンジン278等)の一実施形態により決定されるようになっていてもよい。呼吸器疾患情報、伝播リスク5314、推奨5315、予想、またはトレンド情報5316を決定する別途詳細については、図2の呼吸器疾患追跡器270に関連して記載される。 In some cases, the respiratory infection monitoring app 5101 may generate or provide electronic notifications to the user (or caregiver or clinician) regarding the forecast or other information provided by the opinion 5301. The information provided by view 5301 (which may include trend or forecast information utilized in generating trend descriptor 5316 and/or GUI element 5318) may be used in respiratory disease tracker 270 of FIG. 2 or any of its subcomponents. may be determined by one or more embodiments (such as respiratory disease inference engine 278). Additional details for determining respiratory disease information, transmission risk 5314, recommendations 5315, forecasts, or trend information 5316 are described in connection with respiratory disease tracker 270 of FIG.

ここで図5Dを参照して、GUI5400を含む呼吸器感染症モニタリングアプリ5101の別の態様が示される。GUI5400は、呼吸器疾患関連情報(呼吸器症状等)の表示または受け付けを行うUI要素を含み、ログアイコン5114により示されるログ機能に対応する。特に、GUI5400は、現在のユーザデータまたは履歴ユーザデータの記録、表示および、いくつかの態様においては、アノテーションのためのログツール5401の一例を示している。ログツール5401は、アイコンメニュー5110のログアイコン5114を選択することによりアクセスされ得る。いくつかの実施形態において、ログツール5401(または、後述の自己報告ツール5415)は、ユーザが呼吸器感染症またはその可能性がある旨の判定により、ユーザに提示されるようになっていてもよい(または、ユーザがログツール5401にアクセスする旨の通知を受け取るようにしてもよい)。例示的なGUI5400は、ログツール5401により表示された情報が5月4日(月)の日付のものであることを示すディスクリプタ5403をさらに含む。ログツール5401のいくつかの実施形態においては、たとえば日付矢印5403aを選択することにより、または、履歴タブ5440を選択した後、カレンダービュー(図示せず)から特定のカレンダー日付を選択することにより、ユーザが過去の日付にナビゲートされて履歴データにアクセス可能となる。 Referring now to FIG. 5D, another aspect of a respiratory infection monitoring app 5101 that includes a GUI 5400 is shown. The GUI 5400 includes UI elements that display or accept respiratory disease-related information (respiratory symptoms, etc.), and corresponds to a log function indicated by a log icon 5114. In particular, GUI 5400 illustrates an example of a logging tool 5401 for recording, displaying, and, in some aspects, annotating current or historical user data. Log tool 5401 may be accessed by selecting log icon 5114 in icon menu 5110. In some embodiments, the logging tool 5401 (or the self-reporting tool 5415 described below) may be presented to the user due to a determination that the user has or may have a respiratory infection. (or the user may receive a notification that the log tool 5401 is accessed). The example GUI 5400 further includes a descriptor 5403 indicating that the information displayed by the log tool 5401 is for the date of Monday, May 4th. In some embodiments of log tool 5401, for example, by selecting date arrow 5403a or by selecting a particular calendar date from a calendar view (not shown) after selecting history tab 5440, Users can navigate to past dates and access historical data.

この呼吸器感染症モニタリングアプリ5101の例示的なGUI5400に示されるように、ログツール5401は、5つの選択可能なタブ(症状の追加5410、メモ5420、レポート5430、履歴5440、および処置5450)を含む。これらのタブは、ログツール5401により提供される付加的な機能に対応していてもよい。たとえば、GUI5400に示されるように、症状の追加5410のタブが選択されると、さまざまなUIコンポーネントがユーザに提示されて、それぞれの呼吸器疾患と関連し得る症状を自己報告可能となる。特に、症状の追加5410に対応する機能は、ユーザが各症状について感じている重症度に関するユーザ入力を受け付けるための症状リストおよびユーザ選択可能なスライダを含む自己報告ツール5415を含む。たとえば、GUI5400に示される自己報告ツール5415は、中度の息切れおよび鼻づまりならびに重度の咳をユーザが感じていることを示す。いくつかの実施形態において、ユーザは、自己報告ツール5415を利用して、この症状データを毎日または一日に複数回(たとえば、毎朝および毎晩等)入力するようにしてもよい。場合によっては、ユーザから音声関連データを収集する時間区分またはその近傍で症状データが入力されるようになっていてもよい。 As shown in the example GUI 5400 of this respiratory infection monitoring app 5101, the logging tool 5401 has five selectable tabs: Add Symptom 5410, Notes 5420, Report 5430, History 5440, and Action 5450. include. These tabs may correspond to additional functionality provided by logging tool 5401. For example, as shown in GUI 5400, when the Add Symptoms 5410 tab is selected, various UI components are presented to the user to enable them to self-report symptoms that may be associated with their respective respiratory illnesses. In particular, the functionality corresponding to adding symptoms 5410 includes a self-reporting tool 5415 that includes a symptom list and user-selectable sliders to accept user input regarding the severity the user feels about each symptom. For example, self-report tool 5415 shown in GUI 5400 indicates that the user is experiencing moderate shortness of breath and nasal congestion and severe cough. In some embodiments, a user may utilize a self-reporting tool 5415 to enter this symptom data daily or multiple times per day (eg, every morning and night, etc.). In some cases, symptom data may be input at or near the time period during which voice-related data is collected from the user.

また、いくつかの実施形態において、症状の追加5410(または、ログツール5401)は、ウェアラブルスマートデバイスまたは類似のセンサ等の別のコンピュータ機器からユーザがデータを入力するための選択可能な選択肢5412を含んでいてもよい。たとえば、ユーザは、ログツール5401により受信され得るように、フィットネストラッカーからのデータの入力を選択するようにしてもよい。いくつかの実施形態においては、スマートデバイスまたはデバイスと関連付けられたデータベース(たとえば、オンラインアカウント)から、データが直接および/または自動的に受信されるようになっていてもよい。場合によっては、データを入力するため、機器をそれぞれの呼吸器感染症モニタリングアプリ5101(または、呼吸器感染症モニタリングアプリ5101と関連付けられたユーザアカウント)とリンクまたは関連付けることをユーザが求められる場合がある。いくつかの実施形態において、ユーザは、アプリケーション設定において(たとえば、図5Aに記載のような設定アイコン5115の選択により)、別の機器からデータを入力するためのさまざまなパラメータを設定するようにしてもよい。たとえば、ユーザは、データが入力される場合に、入力されるデータ(たとえば、スマートウォッチにより取得されたユーザの睡眠データ)を指定するようにしてもよいし、許可設定、アカウントリンク、または他の設定を行うようにしてもよい。 In some embodiments, the add symptom 5410 (or logging tool 5401) also provides a selectable option 5412 for the user to enter data from another computing device, such as a wearable smart device or similar sensor. May contain. For example, a user may select to input data from a fitness tracker so that it can be received by logging tool 5401. In some embodiments, data may be received directly and/or automatically from a smart device or a database (eg, an online account) associated with the device. In some cases, the user may be required to link or associate a device with the respective respiratory infection monitoring app 5101 (or a user account associated with the respiratory infection monitoring app 5101) to enter data. be. In some embodiments, the user may configure various parameters for inputting data from another device in the application settings (e.g., by selecting the settings icon 5115 as shown in FIG. 5A). Good too. For example, when data is entered, the user may specify the data to be entered (e.g., the user's sleep data captured by a smartwatch), or may specify permission settings, account linking, or other You may also make settings.

非限定的な一例として、このようなデータを入力して選択可能な選択肢5412を利用することは、自己報告ツール5415と併せて利用されるようになっていてもよいし、自己報告ツール5415と併せずに利用されるようになっていてもよい。たとえば、リンク済みスマートデバイスからインポートされたデータは、ユーザがリンク済みスマートデバイスに入力した情報に基づいて、症状の初期重症度評価を提供し得るが、ユーザは、自己報告ツール5415を利用して、これらの初期評価を調整するようにしてもよい。また、症状の追加5410には、ユーザが最後に症状を記録したタイミング(前日等)から症状が変化していないことを示す別の選択可能な選択肢5418を含んでいてもよい。GUI5400の症状の追加5410と関連付けられた機能およびUI要素は、図2と併せて記載のユーザ相互作用管理器280またはその1つもしくは複数の副構成要素(自己報告ツール284等)の一実施形態を利用することにより生成されるようになっていてもよい。 As a non-limiting example, entering such data and utilizing selectable options 5412 may be utilized in conjunction with self-reporting tool 5415 or They may also be used without being combined. For example, data imported from a linked smart device may provide an initial severity assessment of symptoms based on information entered by the user into the linked smart device, but the user may utilize self-reporting tools 5415 to , these initial evaluations may be adjusted. Add symptom 5410 may also include another selectable option 5418 indicating that the symptom has not changed since the user last recorded the symptom (such as the previous day). The functionality and UI elements associated with adding symptoms 5410 of GUI 5400 are one embodiment of user interaction manager 280 or one or more subcomponents thereof (such as self-reporting tool 284) described in conjunction with FIG. It may be generated by using .

図5Dに示されるGUI5400と併せて、メモ5420のタブは、当該特定日(ここでは、5月4日)のユーザまたは介護者からの観察データを受け付けまたは表示する呼吸器感染症モニタリングアプリ5101の機能(または、より具体的に、ログツール5401と関連付けられたログ機能)をユーザにナビゲート可能である。観察データの例としては、ユーザの呼吸器疾患(症状等)を文書化したメモ5420またはユーザの呼吸器疾患に関連するメモ5420が挙げられる。いくつかの実施形態において、メモ5420には、ユーザからテキスト(または、オーディオもしくはビデオ記録)を受け付けるUIを含む。いくつかの態様において、メモ5420のUI機能には、潜在的または既知の呼吸器疾患、症状、または副作用の影響を受けるユーザの身体のエリアを示す入力をユーザから受け付けるように構成された人体を示すGUI要素を含んでいてもよい。いくつかの実施形態において、ユーザは、たとえば当該ユーザの地理的場所、天候、および当該日に行った任意の身体的活動等のコンテキスト情報を入力するようにしてもよい。 In conjunction with the GUI 5400 shown in FIG. 5D, the memo 5420 tab is used by a respiratory infection monitoring app 5101 that accepts or displays observation data from the user or caregiver on the particular day (in this case, May 4). The functionality (or, more specifically, the logging functionality associated with logging tool 5401) is navigable to the user. Examples of observational data include notes 5420 documenting the user's respiratory illness (symptoms, etc.) or notes 5420 related to the user's respiratory illness. In some embodiments, the memo 5420 includes a UI that accepts text (or audio or video recordings) from the user. In some aspects, the UI functionality of the note 5420 includes a human body configured to accept input from a user indicating an area of the user's body that is affected by a potential or known respiratory disease, symptom, or side effect. It may also include GUI elements shown. In some embodiments, a user may enter contextual information such as, for example, the user's geographic location, weather, and any physical activity performed that day.

レポート5430のタブは、本明細書に記載の実施形態により検出された呼吸器疾患関連データのさまざまなレポートを表示および生成するためのGUIにユーザをナビゲート可能である。たとえば、レポート5430は、ユーザの呼吸器疾患またはユーザの呼吸器疾患の予測に関する履歴またはトレンド情報を含んでいてもよい。別の例において、レポート5430には、より大きな母集団の呼吸器関連情報のレポートを含んでいてもよい。たとえば、レポート5430は、同一または同様の呼吸器疾患が検出された呼吸器感染症モニタリングアプリ5101の多くの他ユーザを示していてもよい。いくつかの実施形態において、レポート5430により提供される機能には、(たとえば、図5Aの共有アイコン5104または聴診器アイコン5106を介して)介護者もしくは臨床医に伝達される呼吸器疾患関連データまたは介護者もしくは臨床医と共有される呼吸器疾患関連データのフォーマット化または作成のための動作を含んでいてもよい。 The Reports 5430 tabs can navigate the user to a GUI for viewing and generating various reports of respiratory disease related data detected by embodiments described herein. For example, the report 5430 may include historical or trend information regarding the user's respiratory illness or the prediction of the user's respiratory illness. In another example, report 5430 may include a report of respiratory related information for a larger population. For example, report 5430 may indicate many other users of respiratory infection monitoring app 5101 where the same or similar respiratory illness was detected. In some embodiments, the functionality provided by report 5430 includes respiratory disease-related data communicated to a caregiver or clinician (e.g., via share icon 5104 or stethoscope icon 5106 in FIG. 5A) or Operations may include formatting or creating respiratory disease-related data to be shared with a caregiver or clinician.

履歴5440のタブは、呼吸器疾患モニタリングに関連するユーザの履歴データを表示するGUIにユーザをナビゲート可能である。たとえば、履歴5440の選択によって、カレンダービューを伴うGUIを表示可能である。カレンダービューは、異なる日付に検出および解釈されたユーザの呼吸器疾患関連のデータのアクセスまたは表示を容易化し得る。たとえば、表示されたカレンダー内の特定の過去の日付を選択することにより、ユーザには、当該日付のデータのサマリーが提示され得る。履歴5440のタブを選択した際に表示されるカレンダービューGUIのいくつかの実施形態において、カレンダーの各日付には、当該日付と関連付けられた検出または予想呼吸器疾患情報を示すインジケータまたは情報が表示されるようになっていてもよい。 The history 5440 tab allows the user to navigate to a GUI that displays the user's historical data related to respiratory disease monitoring. For example, selection of history 5440 can display a GUI with a calendar view. A calendar view may facilitate access or display of a user's respiratory disease-related data detected and interpreted on different dates. For example, by selecting a particular past date in a displayed calendar, the user may be presented with a summary of data for that date. In some embodiments of the calendar view GUI that is displayed when the history 5440 tab is selected, each date in the calendar displays an indicator or information that indicates detected or predicted respiratory disease information associated with that date. It may be possible to do so.

GUI5400上の処置5450を示すタブの選択により、ユーザが当該日付に処置を受けたかおよび/または副作用があったか等の詳細をユーザが指定する機能を含む呼吸器感染症モニタリングアプリ5101内のGUIにユーザをナビゲート可能である。たとえば、ユーザは、特定の日付に処方された抗生物質を服用したか、または、呼吸器系の処置を受けたかを指定するようにしてもよい。また、いくつかの実施形態において、いわゆるモノのインターネット(IoT)機能を含み得るスマートピルボックスまたはスマートコンテナは、ユーザがコンテナ内に格納された薬にアクセスしたことを自動的に検出し、ユーザが当該日付に処置を受けたことを示す指標を呼吸器感染症モニタリングアプリ5101に伝達し得るとも考えられる。いくつかの実施形態において、処置5450のタブには、たとえばユーザ(または、ユーザの介護者もしくは臨床医)が当該日付に受けた処置(たとえば、処方薬剤の服用、市販薬剤の服用、大量の清澄液の摂取、静養等)の種類を示すチェックボックスで選択することによって、ユーザがそれぞれの処置を指定できるUIを含んでいてもよい。 Selection of the tab showing treatment 5450 on GUI 5400 directs the user to a GUI within respiratory infection monitoring app 5101 that includes the ability for the user to specify details such as whether the user received treatment and/or had side effects on that date. It is possible to navigate. For example, a user may specify whether they took a prescribed antibiotic or received a respiratory procedure on a particular date. Additionally, in some embodiments, a smart pillbox or smart container, which may include so-called Internet of Things (IoT) functionality, automatically detects when a user has accessed medication stored within the container, and when the user It is also conceivable that an indicator indicating that the patient received treatment on the date may be transmitted to the respiratory infection monitoring application 5101. In some embodiments, the Treatments 5450 tab may include, for example, treatments that the user (or the user's caregiver or clinician) underwent on that date (e.g., taking a prescription drug, taking an over-the-counter drug, taking a large amount of The user may include a UI that allows the user to specify each treatment by selecting a check box indicating the type of treatment (intake of fluids, rest, etc.).

図5Eを参照して、ユーザが開始する症状レポートの例示的なプロセスの態様を示す例示的なGUI5510,5520、および5530から成るシーケンス5500が提供される。GUI5510,5520、および5530は、図2に関連して記載の自己報告ツール284の一実施形態に従って生成されるようになっていてもよい。場合により、ユーザがユーザコンピュータ機器5102a上で呼吸器感染症モニタリングアプリ5101を立ち上げた場合は、ウェルカム/ログイン画面としてGUI5510が提供されるようになっていてもよい。本明細書に記載の通り、呼吸器感染症モニタリングアプリ5101は、特定のユーザと関連付けられる一方、ユーザアカウントにより指定されるようになっていてもよい。図示のように、GUI5510は、ユーザ固有の情報にアクセスし得るとともに、ユーザ入力がユーザとの関連で適正に格納され得るように、ユーザを識別するユーザ認証情報(すなわち、電子メールアドレスおよびパスワード等のユーザ識別子)をユーザが入力するためのUI要素を含む。GUI5510を介してユーザがログインすると、症状の報告をユーザに促す最初の指示を含むGUI5520が提供されるようになっていてもよい。GUI5520は、ユーザ症状情報の入力を容易化するUI要素を含むGUI5530を提示させ得る選択可能な「症状レポート」ボタンを含んでいてもよい。GUI5530の例示的な実施形態において、ユーザは、GUI5530内に表示された各症状について、スライダを適当な重症度レベルまで移動させることにより、症状の重症度を評価するようにしてもよい。症状情報のユーザ入力の別途詳細については、図5DのGUI5400に関して記載される。 Referring to FIG. 5E, a sequence 5500 of an example GUI 5510, 5520, and 5530 is provided that illustrates aspects of an example process for user-initiated symptom reporting. GUIs 5510, 5520, and 5530 may be generated according to one embodiment of self-reporting tool 284 described in connection with FIG. 2. In some cases, when a user launches respiratory infection monitoring app 5101 on user computer equipment 5102a, GUI 5510 may be provided as a welcome/login screen. As described herein, the respiratory infection monitoring app 5101 may be associated with a particular user and specified by a user account. As illustrated, the GUI 5510 includes user credentials (i.e., email address and password, etc.) that identify the user so that user-specific information can be accessed and user input can be properly stored in association with the user. includes a UI element for the user to input the user identifier (user identifier). When a user logs in via GUI 5510, a GUI 5520 may be provided that includes initial instructions prompting the user to report symptoms. GUI 5520 may include a selectable "Symptom Report" button that may cause GUI 5530 to be presented that includes UI elements that facilitate input of user symptom information. In an exemplary embodiment of GUI 5530, a user may rate the severity of each symptom displayed within GUI 5530 by moving a slider to the appropriate severity level. Additional details of user input of symptom information are described with respect to GUI 5400 of FIG. 5D.

図6Aおよび図6Bは、ユーザの呼吸器疾患のモニタリングに利用される例示的な方法のフロー図である。たとえば、図6Aは、本開示の一実施形態に係る、音素特性を取得する例示的な方法6100を示したフロー図である。図6Bは、本開示の一実施形態に係る、音素特性に基づいてユーザの呼吸器疾患をモニタリングする例示的な方法6200を示したフロー図である。方法6100および6200の各ブロックまたはステップは、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを用いて実行され得るコンピュータプロセスを含む。たとえば、メモリに格納された命令を実行するプロセッサにより、さまざまな機能が実行されるようになっていてもよい。また、これらの方法は、コンピュータ記憶媒体に格納されたコンピュータ使用可能命令として具現化されていてもよい。これらの方法は、数例を挙げるなら、スタンドアロンのアプリケーション、サービスもしくはホスティングサービス(スタンドアロンもしくは別のホスティングサービスとの組み合わせ)、または別の製品へのプラグインによって提供され得る。したがって、方法6100および6200は、クラウド環境等にけるスマートフォン等のユーザ機器、サーバ、または分散コンピュータプラットフォーム等、1つまたは複数のコンピュータ機器により実行されるようになっていてもよい。音素特性抽出の実施態様を網羅するコンピュータプログラムルーチンの例示的な態様については、図15A~図15Mにおいて例示的に示される。 6A and 6B are flow diagrams of exemplary methods utilized to monitor respiratory disease in a user. For example, FIG. 6A is a flow diagram illustrating an example method 6100 for obtaining phoneme characteristics, according to one embodiment of the present disclosure. FIG. 6B is a flow diagram illustrating an example method 6200 for monitoring respiratory disease in a user based on phoneme characteristics, according to an embodiment of the present disclosure. Each block or step of methods 6100 and 6200 includes a computer process that may be performed using any combination of hardware, firmware, and/or software. For example, various functions may be performed by a processor that executes instructions stored in memory. Additionally, these methods may be embodied as computer-usable instructions stored on a computer storage medium. These methods may be provided by a standalone application, service or hosting service (standalone or in combination with another hosting service), or a plug-in to another product, to name a few. Accordingly, methods 6100 and 6200 may be adapted to be performed by one or more computing devices, such as user equipment such as a smartphone, a server, or a distributed computing platform, such as in a cloud environment. Exemplary aspects of computer program routines covering implementations of phoneme feature extraction are illustrated in FIGS. 15A-15M.

図6Aの方法6100を参照して、この方法6100は、本開示の一実施形態に従って音素特性を検出するステップを含み、方法6100の実施形態は、図2に関連して記載のユーザ音声モニタ260等、システム200の1つまたは複数の構成要素の実施形態により実行されるようになっていてもよい。ステップ6110においては、オーディオデータが受信される。いくつかの実施形態において、ステップ6110は、図2に関連して記載の音声サンプル収集器2604の一実施形態により実行される。ステップ6110の別の実施形態については、音声サンプル収集器2604およびユーザ音声モニタ260に関連して記載される。 Referring to the method 6100 of FIG. 6A, the method 6100 includes detecting phoneme characteristics according to one embodiment of the present disclosure, and an embodiment of the method 6100 includes the step of detecting a phoneme characteristic of the user speech monitor 260 described in connection with FIG. etc., may be configured to be performed by embodiments of one or more components of system 200. At step 6110, audio data is received. In some embodiments, step 6110 is performed by one embodiment of the audio sample collector 2604 described in connection with FIG. 2. Another embodiment of step 6110 is described in connection with audio sample collector 2604 and user audio monitor 260.

ステップ6110において受信されるオーディオデータは、ユーザが発した個々の音素または計画された発話もしくは無計画の発話等の音素の組み合わせの記録(たとえば、オーディオサンプル、音声サンプル)を含み得る。このように、オーディオデータは、ユーザに関する音声情報を含む。オーディオデータは、マイク等のセンサ(図1のセンサ103の一実施形態等)を有する図1のユーザ機器102a~102n等のユーザ機器とのユーザの日常的な相互作用または日々の相互作用において収集されるようになっていてもよい。 The audio data received in step 6110 may include records (eg, audio samples, speech samples) of individual phonemes or combinations of phonemes, such as planned or unplanned utterances, uttered by the user. Thus, the audio data includes audio information regarding the user. Audio data is collected during a user's daily interactions or daily interactions with user equipment, such as user equipment 102a-102n of FIG. 1, having a sensor such as a microphone (such as one embodiment of sensor 103 of FIG. 1). It may be possible to do so.

方法6100のいくつかの実施形態には、ステップ6110におけるオーディオデータの受信前に実行される動作を含む。たとえば、センサ(たとえば、マイク)の音響パラメータ(信号強度、指向性、感度、周波数、および信号対雑音比(SNR)等)の決定および/または修正等、使用可能なオーディオデータを取得するための適正な設定または最適化された設定を決定する動作が実行されるようになっていてもよい。これらの動作は、図2の録音最適化器2602と関連していてもよい。同様に、これらの動作には、図2のバックグラウンドノイズ解析器2603に関連して記載のようなバックグラウンドノイズの識別および、いくつかの態様においては、除去または低減を含んでいてもよい。これらのステップは、ノイズ強度レベルを最大閾値と比較することと、予め定められた周波数内の発話を確認することと、断続的なスパイクまたは類似の音響アーチファクトを確認することと、を含んでいてもよい。 Some embodiments of method 6100 include operations performed prior to receiving the audio data in step 6110. For example, determining and/or modifying the acoustic parameters (signal strength, directivity, sensitivity, frequency, and signal-to-noise ratio (SNR), etc.) of a sensor (e.g., microphone) to obtain usable audio data. An operation may be performed to determine proper or optimized settings. These operations may be associated with recording optimizer 2602 of FIG. Similarly, these operations may include identifying and, in some aspects, removing or reducing background noise as described in connection with background noise analyzer 2603 of FIG. These steps include comparing the noise intensity level to a maximum threshold, checking for speech within a predetermined frequency, and checking for intermittent spikes or similar acoustic artifacts. Good too.

いくつかの実施形態においては、オーディオデータの受信を容易化するユーザ指示が提供されるようになっていてもよい。たとえば、ユーザは、発話関連タスクに従うことでオーディオデータの提供へとガイドされるようになっていてもよい。また、ユーザ指示には、より大きな声での発話またはより長い継続時間にわたる発声音素の維持のユーザへの指示等、最も新しく提供されたサンプルに基づくフィードバックを含んでいてもよい。オーディオデータの受信を容易化するユーザとの相互作用は概して、図2に関連して記載のユーザ相互作用管理器280またはその副構成要素であるユーザ指示生成器282の実施形態により実行されるようになっていてもよい。 In some embodiments, user instructions may be provided to facilitate receiving audio data. For example, a user may be guided to providing audio data by following speech-related tasks. The user instructions may also include feedback based on the most recently provided sample, such as instructing the user to speak louder or maintain vocal phonemes for longer durations. User interaction to facilitate the reception of audio data is generally performed by an embodiment of user interaction manager 280 or a subcomponent thereof, user instruction generator 282, described in connection with FIG. It may be .

ステップ6120においては、時間区分に対応する日時値が決定される。日時値は、ユーザの発声からオーディオデータが受信または記録された時間であってもよい。いくつかの実施形態において、ステップ6120は、図2に関連して記載の音声サンプル収集器2604の一実施形態により実行される。 In step 6120, a date and time value corresponding to the time segment is determined. The date and time value may be the time the audio data was received or recorded from the user's utterance. In some embodiments, step 6120 is performed by one embodiment of the audio sample collector 2604 described in connection with FIG. 2.

ステップ6130においては、オーディオデータの少なくとも一部の処理によって、音素を決定する。ステップ6130のいくつかの実施形態は、図2に関連して記載の音素分割器2610の一実施形態により実行されるようになっていてもよい。オーディオデータの一部から音素を決定することは、オーディオデータの当該部分に対する自動発話認識(ASR)の実行によって音素を検出することと、検出された音素をオーディオデータの当該部分と関連付けることと、を含んでいてもよい。ASRは、オーディオデータの一部からテキスト(たとえば、単語)を決定するようにしてもよく、音素は、認識されたテキストに基づいて決定されるようになっていてもよい。あるいは、音素を決定することは、オーディオデータの一部に対応する音素の指標を受信することと、音素をオーディオデータの当該部分と関連付けることと、を含んでいてもよい。このプロセスは、オーディオデータがユーザに与えられた発話関連タスクに基づく持続的な音素の発声のものである場合に特に有用と考えられる。たとえば、ユーザは、「アーア」と5秒間発話し、「イーイ」と5秒間発話し、「ンーン」と5秒間発話し、最後に「ウーン」と5秒間発話する旨を指示されるようになっていてもよく、これらの指示は、オーディオデータについて予想される音素の順序(すなわち、 In step 6130, phonemes are determined by processing at least a portion of the audio data. Some embodiments of step 6130 may be adapted to be performed by one embodiment of phoneme segmenter 2610 described in connection with FIG. 2. Determining a phoneme from a portion of the audio data includes detecting the phoneme by performing automatic speech recognition (ASR) on the portion of the audio data, and associating the detected phoneme with the portion of the audio data; May contain. ASR may determine text (eg, words) from a portion of the audio data, and phonemes may be determined based on the recognized text. Alternatively, determining the phoneme may include receiving an indication of a phoneme corresponding to the portion of the audio data and associating the phoneme with the portion of the audio data. This process may be particularly useful when the audio data is of sustained phoneme utterances based on a speech-related task given to the user. For example, users are now instructed to say "aah" for 5 seconds, "yee" for 5 seconds, "mm" for 5 seconds, and finally "umm" for 5 seconds. These instructions may be based on the expected phoneme order for the audio data (i.e.

)を示し得る。
オーディオデータを処理して音素を決定することは、特定の音素を検出して分離することを含んでいてもよい。一実施形態においては、
) can be shown.
Processing audio data to determine phonemes may include detecting and isolating particular phonemes. In one embodiment,

に対応する音素が検出される。別の実施形態においては、 The phoneme corresponding to is detected. In another embodiment,

のみが検出される。あるいは、オーディオデータを処理することは、提示される音素を検出することと、検出されたすべての音素を分離することと、を含んでいてもよい。音素は、図2の音素分割器2610と併せて別途記載の通り、強度閾値を適用してユーザの音声からバックグラウンドノイズを分離することにより検出されるようになっていてもよい。 only detected. Alternatively, processing the audio data may include detecting the presented phonemes and separating all detected phonemes. Phonemes may be detected by applying an intensity threshold to separate background noise from the user's speech, as described elsewhere in conjunction with phoneme segmenter 2610 of FIG. 2.

ステップ6130においてオーディオデータを処理するいくつかの態様には、図2の信号作成プロセッサ2606の一実施形態により実行され得る付加的な処理ステップを含んでいてもよい。たとえば、バックグラウンドノイズを表すオーディオデータの周波数の除去または減衰のため、高域通過または帯域通過フィルタリング等の周波数フィルタリングが適用されるようになっていてもよい。一実施形態においては、たとえば1.5~6.4キロヘルツ(kHz)の帯域通過フィルタが適用される。また、ステップ6130は、オーディオ正規化の実行によって、目標とする信号振幅レベル、帯域フィルタおよび/もしくは増幅器の適用によるSNRの改善、または他の信号調節もしくは前処理を実現することを含んでいてもよい。 Some aspects of processing the audio data in step 6130 may include additional processing steps that may be performed by one embodiment of signal creation processor 2606 of FIG. For example, frequency filtering, such as high-pass or band-pass filtering, may be applied to remove or attenuate frequencies of the audio data representing background noise. In one embodiment, a bandpass filter of, for example, 1.5 to 6.4 kilohertz (kHz) is applied. Step 6130 may also include performing audio normalization to achieve a targeted signal amplitude level, applying a bandpass filter and/or amplifier to improve SNR, or other signal conditioning or preprocessing. good.

ステップ6140においては、決定された音素に基づいて、音素特性集合が決定される。ステップ6140のいくつかの実施形態は、図2と併せて記載の音響特性抽出器2614の実施形態により実行される。音素特性集合は、オーディオデータの処理された部分を特徴付ける少なくとも1つの音響特性を含む。特性集合は、パワーおよびパワー変動性、ピッチおよびピッチ変動性、スペクトル構造、ならびに/またはフォルマントの尺度を含んでいてもよく、これらについては、音響特性抽出器2614に関連して別途記載される。いくつかの実施形態においては、オーディオデータにおいて検出された異なる音素に対して、異なる特性集合(すなわち、音響特性の異なる組み合わせ)が決定される。たとえば、例示的な一実施形態においては、音素 In step 6140, a set of phoneme characteristics is determined based on the determined phonemes. Some embodiments of step 6140 are performed by the embodiment of acoustic feature extractor 2614 described in conjunction with FIG. The phoneme feature set includes at least one acoustic feature that characterizes the processed portion of the audio data. The feature set may include measures of power and power variability, pitch and pitch variability, spectral structure, and/or formants, as described elsewhere in connection with acoustic feature extractor 2614. In some embodiments, different sets of characteristics (i.e., different combinations of acoustic characteristics) are determined for different phonemes detected in the audio data. For example, in one exemplary embodiment, the phoneme

に対して12個の特性が決定され、音素 Twelve characteristics were determined for the phoneme

に対して12個の特性が決定され、音素 Twelve characteristics were determined for the phoneme

に対して8つの特性が決定される。検出された Eight characteristics are determined for . was detected

音素の特性集合は、フォルマント1(Fl)の帯域幅の標準偏差、ピッチの四分位範囲、1.6~3.2キロヘルツ(kHz)の周波数に対して決定されたスペクトルエントロピー、ジッター、メル周波数ケプストラム係数MFCC9およびMFCC12の標準偏差、メル周波数ケプストラム係数MFCC6の平均、ならびに3.2~6.4kHzの周波数に対して決定されたスペクトルコントラストを含んでいてもよい。検出された The phoneme property set includes the standard deviation of formant 1 (Fl) bandwidth, pitch interquartile range, spectral entropy, jitter, and mel determined for frequencies from 1.6 to 3.2 kilohertz (kHz). It may include the standard deviation of the frequency cepstral coefficients MFCC9 and MFCC12, the average of the mel frequency cepstral coefficient MFCC6, and the spectral contrast determined for frequencies from 3.2 to 6.4 kHz. was detected

音素の特性集合は、調和性、F1帯域幅の標準偏差、ピッチの四分位範囲、1.5~2.5kHzおよび1.6~3.2kHzの周波数に対して決定されたスペクトルエントロピー、1.5~2.5kHzの周波数に対して決定されたスペクトル平坦性、メル周波数ケプストラム係数MFCC1、MFCC2、MFCC3、およびMFCC11の標準偏差、メル周波数ケプストラム係数MFCC8の平均、ならびに1.6~3.2kHzの周波数に対して決定されたスペクトルコントラストを含んでいてもよい。検出された The phoneme property set includes harmonicity, standard deviation of F1 bandwidth, interquartile range of pitch, spectral entropy determined for frequencies 1.5-2.5 kHz and 1.6-3.2 kHz, 1 Spectral flatness determined for frequencies from .5 to 2.5 kHz, standard deviation of Mel frequency cepstral coefficients MFCC1, MFCC2, MFCC3, and MFCC11, mean of Mel frequency cepstral coefficient MFCC8, and 1.6 to 3.2 kHz. may include a spectral contrast determined for the frequency of . was detected

Hzおよび1.6~3.2kHzの周波数に対して決定されたスペクトルエントロピー、1.5~2.5kHzの周波数に対して決定されたスペクトル平坦性、メル周波数ケプストラム係数MFCC2およびMFCC10の標準偏差、メル周波数ケプストラム係数MFCC8の平均、シマー、3.2~6.4kHzの周波数に対して決定されたスペクトルコントラスト、ならびに200ヘルツ(Hz)1/3オクターブバンドの標準偏差を含んでいてもよい。また、いくつかの実施形態においては、特性集合における1つまたは複数の特性の値が変換されるようになっていてもよい。例示的な一実施形態においては、ピッチの四分位範囲、MFCCの標準偏差、スペクトルコントラスト、ジッター、および200Hz1/3オクターブバンド内の標準偏差にログ変換が適用される。 Hz and spectral entropy determined for frequencies from 1.6 to 3.2 kHz, spectral flatness determined for frequencies from 1.5 to 2.5 kHz, standard deviation of mel frequency cepstral coefficients MFCC2 and MFCC10, It may include the average of the mel frequency cepstral coefficients MFCC8, the shimmer, the spectral contrast determined for frequencies from 3.2 to 6.4 kHz, and the standard deviation of the 200 hertz (Hz) 1/3 octave band. Also, in some embodiments, the values of one or more properties in the property set may be transformed. In one exemplary embodiment, a log transform is applied to the interquartile range of pitch, standard deviation of MFCC, spectral contrast, jitter, and standard deviation within the 200 Hz 1/3 octave band.

ステップ6155においては、オーディオデータを追加処理するか否かが判定される。いくつかの実施形態において、ステップ6155は、ユーザ音声モニタ260の一実施形態により実行される。上述の通り、受信オーディオデータは、複数の持続的な音素または発話(計画または無計画)の記録であってもよいため、複数の音素を有し得る。このように、異なる音素の検出のため、オーディオデータの異なる部分が処理されるようになっていてもよい。たとえば、第1の音素を決定するために第1の部分が処理され、第2の音素を決定するために第2の部分が処理され、第3の音素を検出するために第3の部分が処理されるようになっていてもよく、第1、第2、および第3の音素はそれぞれ、 In step 6155, it is determined whether the audio data is to be additionally processed. In some embodiments, step 6155 is performed by one embodiment of user audio monitor 260. As mentioned above, the received audio data may have multiple phonemes, as it may be a recording of multiple sustained phonemes or utterances (planned or unplanned). In this way, different parts of the audio data may be processed for the detection of different phonemes. For example, a first part is processed to determine a first phoneme, a second part is processed to determine a second phoneme, and a third part is processed to detect a third phoneme. The first, second, and third phonemes may each be processed such that the first, second, and third phonemes are

に対応していてもよい。いくつかの態様においては、第4の音素を検出するために第4の部分が処理され、第4の音素は It may correspond to In some aspects, the fourth portion is processed to detect a fourth phoneme, and the fourth phoneme is

であってもよい。これらの音素は、これら3つの音素を発声するユーザによって、1回の録音で記録されるようになっていてもよい。このため、ステップ6155の追加オーディオデータには、一部が処理済みの同じ音声サンプルの追加部分を含んでいてもよい。この追加または代替として、ステップ6155は、同じセッションにおいて記録された(すなわち、同じタイムフレームにおいて取得された)付加的な音声サンプルから、オーディオデータを追加処理するか否かを判定することを含んでいてもよい。たとえば、3つの音素は、同じセッションから別々に記録されるようになっていてもよい。 It may be. These phonemes may be recorded in one recording by a user who utters these three phonemes. Thus, the additional audio data of step 6155 may include additional portions of the same partially processed audio sample. Additionally or alternatively, step 6155 includes determining whether to additionally process the audio data from additional audio samples recorded in the same session (i.e., acquired in the same time frame). You can stay there. For example, three phonemes may be recorded separately from the same session.

ステップ6155において、オーディオデータを追加処理する場合は、このオーディオデータの追加部分に対してステップ6130および6140が実行されるようになっていてもよい。図6Aは、オーディオデータの最初の部分が処理され、検出音素に対して特性集合が決定された後にステップ6155が生じることを示している。ただし、方法6100の実施形態には、任意の特性集合が抽出される前に、ステップ6155における追加音素の検出のため、オーディオデータを追加処理するか否かを判定することを含んでいてもよい。 If the audio data is additionally processed in step 6155, steps 6130 and 6140 may be performed on the additional portion of the audio data. FIG. 6A shows that step 6155 occurs after the first portion of the audio data has been processed and a feature set has been determined for the detected phonemes. However, embodiments of method 6100 may include determining whether to additionally process the audio data for detection of additional phonemes in step 6155 before any feature sets are extracted. .

オーディオデータを追加で処理することも特性集合を決定することもなければ、方法6100は、ステップ6160に進んで、ユーザと関連付けられたレコードに、オーディオデータから抽出された音素特性集合が格納される。格納される音素特性集合には、日時値の指標を含む。いくつかの実施形態において、ステップ6160は、ユーザ音声モニタ260、より詳細には、音響特性抽出器2614の一実施形態により実行される。音素特性集合は、患者レコード240等、ユーザの患者レコードに格納されるようになっていてもよい。より詳細に、音素特性集合は、ベクトルとして格納されるようになっていてもよく、また、図2の音素特性ベクトル244として格納されるようになっていてもよい。 Without further processing the audio data or determining a feature set, the method 6100 proceeds to step 6160 where the phoneme feature set extracted from the audio data is stored in a record associated with the user. . The stored phoneme characteristic set includes an index of date and time value. In some embodiments, step 6160 is performed by one embodiment of user audio monitor 260 and, more particularly, acoustic feature extractor 2614. The phoneme feature set may be stored in a user's patient record, such as patient record 240. More specifically, the phoneme feature set may be stored as a vector, or may be stored as the phoneme feature vector 244 in FIG. 2.

方法6100のいくつかの実施形態には、ユーザの経時的な呼吸器疾患をモニタリングするとともに、いくつかの態様においては、ユーザの呼吸器疾患の変化を検出する付加的な動作を含む。たとえば、ステップ6110~6160は、第1の時間区分の第1のオーディオデータサンプル記録に対して実行され、第2の後続時間区分の第2のオーディオデータサンプル記録に対して繰り返されるようになっていてもよい。このため、第1の時間区分に対して第1の音素特性集合が決定および格納され、第2の時間区分に対して第2の音素特性集合が決定および格納されるようになっていてもよい。そして、方法6100は、第1および第2の音素特性集合を利用して、ユーザの経時的な呼吸器疾患をモニタリングする動作を含んでいてもよい。たとえば、変化を検出するため、第1および第2の音素特性集合が比較されるようになっていてもよい。この比較動作は、音素特性比較器274の一実施形態により実行されるようになっていてもよく、第1および第2の時間区分の特性集合ベクトル間の特性距離測定結果(たとえば、ユークリッド距離)を決定することを含んでいてもよい。特性距離測定結果(たとえば、測定結果の大きさおよび/または正負のいずれか)に基づいて、第2および第1の時間区分間でユーザの呼吸器疾患が変化したか否かが判定されるようになっていてもよい。 Some embodiments of method 6100 include additional acts of monitoring the user's respiratory illness over time and, in some aspects, detecting changes in the user's respiratory illness. For example, steps 6110-6160 are performed for a first audio data sample recording of a first time segment and repeated for a second audio data sample recording of a second subsequent time segment. You can. For this reason, a first set of phoneme characteristics may be determined and stored for the first time segment, and a second set of phoneme characteristics may be determined and stored for the second time segment. . The method 6100 may then include an act of monitoring the user's respiratory illness over time using the first and second sets of phoneme characteristics. For example, the first and second phoneme feature sets may be compared to detect a change. This comparison operation may be performed by one embodiment of the phoneme feature comparator 274 and includes a feature distance measurement (e.g., Euclidean distance) between the feature set vectors of the first and second time intervals. may include determining. Based on the characteristic distance measurement result (e.g., the magnitude and/or whether the measurement result is positive or negative), it is determined whether the user's respiratory disease has changed between the second and first time intervals. It may be .

いくつかの実施形態において、方法6100は、時間区分(たとえば、第1の時間区分および/または第2の時間区分)と関連付けられたコンテキスト情報を受信することと、関連する時間区分に対して決定された特性集合と関連したレコードにコンテキスト情報を格納することと、をさらに含む。これらの動作は、図2のコンテキスト情報決定器2616の一実施形態により実行されるようになっていてもよい。コンテキスト情報は、ユーザの生理学的データを含んでいてもよく、これは、自己報告、1つもしくは複数の生理学的センサからの受信、および/またはユーザの電子健康レコード(たとえば、図2のプロファイル/健康データ(EHR)241)からの決定がなされたものであってもよい。この追加または代替として、コンテキスト情報には、関連する時間区分におけるユーザの場所情報または第1の時間区分と関連付けられた他のコンテキスト情報を含んでいてもよい。ステップ6140の実施形態には、関連する時間区分のコンテキストデータに基づいてさらに決定された音素特性集合を決定することを含んでいてもよい。 In some embodiments, method 6100 includes receiving context information associated with a time segment (e.g., a first time segment and/or a second time segment) and determining for the associated time segment. storing context information in a record associated with the set of characteristics identified. These operations may be performed by one embodiment of the context information determiner 2616 of FIG. Contextual information may include the user's physiological data, which may be self-reported, received from one or more physiological sensors, and/or the user's electronic health record (e.g., profile/ The determination may be made from health data (EHR) 241). Additionally or alternatively, the context information may include location information of the user in the relevant time segment or other context information associated with the first time segment. Embodiments of step 6140 may include determining a further determined set of phoneme characteristics based on the context data of the associated time segment.

図6Bを参照して、方法6200は、本開示の一実施形態に係る、音素特性に基づいてユーザの呼吸器疾患をモニタリングするステップを含む。方法6200は、図2に関連して記載の呼吸器疾患追跡器270等、システム200の1つまたは複数の構成要素の実施形態により実行されるようになっていてもよい。ステップ6210は、異なる時間のユーザの音声情報を表す音素特性ベクトル(音素特性集合と称される場合もある)を受信することを含む。このため、第1の音素特性ベクトル(すなわち、第1の音素特性集合)が第1の日時値と関連付けられ、第2の音素特性ベクトル(すなわち、第2の音素特性集合)が第1の日時値の後に発生する第2の日時値と関連付けられる。たとえば、第1の音素特性ベクトルは、オーディオデータの取り込みの約24時間以内(たとえば、18~36時間)である第1の区分(第1の日時値に対応する)において取り込まれたオーディオデータに基づいていてもよく、第2の区分(第2の日時値に対応する)における第2の音素特性ベクトルの決定に利用される。第1および第2の日時値間の時間は、これより短くてもよいし(たとえば、8~12時間)、これより長くてもよい(たとえば、3日、5日、1週間、2週間)と考えられる。ステップ6210は概して、呼吸器疾患追跡器270、より具体的には、特性ベクトル時系列組立器272または音素特性比較器274により実行されるようになっていてもよい。 Referring to FIG. 6B, a method 6200 includes monitoring a user's respiratory illness based on phoneme characteristics, according to an embodiment of the present disclosure. Method 6200 may be adapted to be performed by an embodiment of one or more components of system 200, such as respiratory disease tracker 270 described in connection with FIG. Step 6210 includes receiving phoneme feature vectors (sometimes referred to as phoneme feature sets) representing the user's speech information at different times. Thus, a first phoneme feature vector (i.e., a first set of phoneme features) is associated with a first date and time value, and a second phoneme feature vector (i.e., a second set of phoneme features) is associated with a first date and time value. associated with a second datetime value that occurs after the value. For example, the first phoneme feature vector may correspond to audio data captured in a first interval (corresponding to a first date/time value) that is within approximately 24 hours (e.g., 18 to 36 hours) of the capture of the audio data. and is used to determine the second phoneme characteristic vector in the second division (corresponding to the second date and time value). The time between the first and second datetime values can be shorter (e.g., 8-12 hours) or longer (e.g., 3 days, 5 days, 1 week, 2 weeks). it is conceivable that. Step 6210 may generally be performed by respiratory disease tracker 270 and, more specifically, by feature vector time series assembler 272 or phoneme feature comparator 274.

第1および第2の音素特性ベクトルの決定は、図6Aの方法6100の一実施形態に従って実行されるようになっていてもよい。いくつかの実施形態において、第1および/または第2の音素特性集合の決定は、音声情報を含むオーディオ情報を処理して第1および/または第2の音素集合を決定し、集合内の各音素について、音素を特徴付ける一組の特性を抽出することによりなされるようになっていてもよい。いくつかの実施形態において、第1および第2の特性集合は、音素 Determining the first and second phoneme feature vectors may be performed according to one embodiment of method 6100 of FIG. 6A. In some embodiments, determining the first and/or second sets of phoneme characteristics includes processing audio information including phonetic information to determine the first and/or second sets of phonemes, and determining each set of phonemes in the set. This may be done by extracting, for a phoneme, a set of characteristics that characterize the phoneme. In some embodiments, the first and second feature sets are phonemes.

を特徴付ける音響特性値を含む。例示的な一実施形態において、第1および第2の特性ベクトルはそれぞれ、音素 Contains acoustic characteristic values characterizing the In an exemplary embodiment, the first and second feature vectors each represent a phoneme.

に対して8つ、音素 8 phonemes for

に対して12個、音素 12 phonemes for

に対して12個の特性を含む。音素 Contains 12 characteristics for . phoneme

の特性は、フォルマント1(Fl)の帯域幅の標準偏差、ピッチの四分位範囲、1.6~3.2キロヘルツ(kHz)の周波数に対して決定されたスペクトルエントロピー、ジッター、メル周波数ケプストラム係数MFCC9およびMFCC12の標準偏差、メル周波数ケプストラム係数MFCC6の平均、ならびに3.2~6.4kHzの周波数に対して決定されたスペクトルコントラストを含んでいてもよい。音素 The characteristics are the standard deviation of formant 1 (Fl) bandwidth, pitch interquartile range, spectral entropy, jitter, and mel frequency cepstrum determined for frequencies from 1.6 to 3.2 kilohertz (kHz). It may include the standard deviation of the coefficients MFCC9 and MFCC12, the average of the Mel frequency cepstral coefficient MFCC6, and the spectral contrast determined for frequencies from 3.2 to 6.4 kHz. phoneme

の特性は、調和性、F1帯域幅の標準偏差、ピッチの四分位範囲、1.5~2.5kHzおよび1.6~3.2kHzの周波数に対して決定されたスペクトルエントロピー、1.5~2.5kHzの周波数に対して決定されたスペクトル平坦性、メル周波数ケプストラム係数MFCC1、MFCC2、MFCC3、およびMFCC11の標準偏差、メル周波数ケプストラム係数MFCC8の平均、ならびに1.6~3.2kHzの周波数に対して決定されたスペクトルコントラストを含んでいてもよい。音素 The properties of are harmonicity, standard deviation of F1 bandwidth, interquartile range of pitch, spectral entropy determined for frequencies 1.5-2.5 kHz and 1.6-3.2 kHz, 1.5 Spectral flatness determined for frequencies ~2.5 kHz, standard deviations of Mel frequency cepstral coefficients MFCC1, MFCC2, MFCC3, and MFCC11, mean of Mel frequency cepstral coefficients MFCC8, and frequencies from 1.6 to 3.2 kHz may include a spectral contrast determined for. phoneme

の特性は、調和性、F1帯域幅の標準偏差、ピッチの四分位範囲、1.5~2.5kHzおよび1.6~3.2kHzの周波数に対して決定されたスペクトルエントロピー、1.5~2.5kHzの周波数に対して決定されたスペクトル平坦性、メル周波数ケプストラム係数MFCC2およびMFCC10の標準偏差、メル周波数ケプストラム係数MFCC8の平均、シマー、3.2~6.4kHzの周波数に対して決定されたスペクトルコントラスト、ならびに200ヘルツ(Hz)1/3オクターブバンドの標準偏差を含んでいてもよい。いくつかの実施形態においては、 The properties of are harmonicity, standard deviation of F1 bandwidth, interquartile range of pitch, spectral entropy determined for frequencies 1.5-2.5 kHz and 1.6-3.2 kHz, 1.5 Spectral flatness determined for frequencies ~2.5 kHz, standard deviation of Mel frequency cepstral coefficients MFCC2 and MFCC10, mean of Mel frequency cepstral coefficients MFCC8, shimmer, determined for frequencies 3.2 to 6.4 kHz and the standard deviation of the 200 hertz (Hz) 1/3 octave band. In some embodiments,

音素を特徴付けるため、これらの特性のうちの1つまたは複数が抽出される。
いくつかの実施形態において、第1の時間区分に対して決定された第1の音素特性ベクトルは、第2の日時値の前に取り込まれた複数のオーディオサンプルからの複数の音素特性集合に基づく。第1の特性ベクトルは、複数の音素特性ベクトルの組み合わせ(平均等)を表し得る。これら複数のオーディオサンプルは、第1の特性ベクトルが健康基準を表し得るように、患者が健康であること(すなわち、呼吸器感染症ではないこと)が把握されている場合または推定される場合に取得されたものであってもよい。あるいは、第1の音素特性ベクトルの決定に利用されるオーディオサンプルは、患者が病中であること(すなわち、呼吸器感染症であること)が把握されている場合または推定される場合に取得されたものであってもよく、第1の音素特性ベクトルが疾病基準を表し得る。
One or more of these properties are extracted to characterize the phoneme.
In some embodiments, the first phoneme feature vector determined for the first time interval is based on a plurality of phoneme feature sets from the plurality of audio samples captured before the second date and time value. . The first feature vector may represent a combination (such as an average) of multiple phoneme feature vectors. These multiple audio samples are used when it is known or estimated that the patient is healthy (i.e., not suffering from a respiratory infection), such that the first characteristic vector may represent a health criterion. It may be one that has been acquired. Alternatively, the audio samples used to determine the first phoneme feature vector are obtained when it is known or estimated that the patient is ill (i.e., has a respiratory infection). The first phoneme feature vector may represent a disease criterion.

ステップ6220は、第1および第2の音素特性ベクトルの比較を実行して音素特性集合距離を決定することを含む。いくつかの実施形態において、ステップ6220は、図2の音素特性比較器274の一実施形態により実行されるようになっていてもよい。いくつかの実施形態において、この比較には、第1および第2の音素特性集合間のユークリッド距離を決定することを含む。特性ベクトルにより表される各特性が他方の特性ベクトル内の対応する特性と比較されるようになっていてもよい。たとえば、第1の音素特性ベクトルの第1の特性(たとえば、音素 Step 6220 includes performing a comparison of the first and second phoneme feature vectors to determine a phoneme feature set distance. In some embodiments, step 6220 may be performed by one embodiment of phoneme feature comparator 274 of FIG. In some embodiments, this comparison includes determining a Euclidean distance between the first and second sets of phoneme features. Each characteristic represented by a characteristic vector may be compared with a corresponding characteristic in the other characteristic vector. For example, the first characteristic of the first phoneme characteristic vector (e.g., the phoneme

のジッター)が第2の音素特性ベクトルの対応する特性(たとえば、音素 jitter) of the second phoneme feature vector (e.g., the jitter of the phoneme

のジッター)と比較されるようになっていてもよい。
ステップ6230においては、第1および第2の音素特性ベクトル間の音素特性集合距離に基づいて、ユーザの呼吸器疾患が変化したものと判定される。いくつかの実施形態において、ステップ6230は、図2に関連して記載の呼吸器疾患推論エンジン278の一実施形態により実行される。ユーザの呼吸器疾患が変化したものと判定することは、介護者もしくは臨床医による事前の決定またはユーザの生理学的データ(たとえば、自己報告)、ユーザ設定、もしくはユーザの呼吸器疾患履歴情報に基づく決定が可能な閾値距離(たとえば、疾患変化閾値)を音素特性集合距離が満たす旨の判定であってもよい。あるいは、疾患変化閾値は、モニタリング患者の基準母集団に基づいて予め設定されていてもよい。
jitter).
In step 6230, it is determined that the user's respiratory disease has changed based on the phoneme feature set distance between the first and second phoneme feature vectors. In some embodiments, step 6230 is performed by one embodiment of the respiratory disease inference engine 278 described in connection with FIG. 2. Determining that a user's respiratory illness has changed may be based on a prior decision by a caregiver or clinician or the user's physiological data (e.g., self-reported), user settings, or historical information about the user's respiratory illness. It may be determined that the phoneme characteristic set distance satisfies a determinable threshold distance (for example, a disease change threshold). Alternatively, the disease change threshold may be preset based on a reference population of monitoring patients.

いくつかの実施形態において、ユーザの呼吸器疾患が変化したものと判定することは、ユーザの呼吸器疾患が改善しているか、悪化しているか、または変化していないか(たとえば、改善も悪化もしていないか)の判定を含んでいてもよい。これには、決定された音素特性集合距離の疾患変化基準(基準母集団に関する情報から決定された一般基準であってもよいし、過去のユーザデータに基づいてユーザごとに決定されたものであってもよい)との比較を含んでいてもよい。たとえば、ユーザが呼吸器感染症ではないと判定された時間に取り込まれたオーディオデータから、健康基準を表す第3の音素特性ベクトルが決定されるようになっていてもよく、第2(すなわち、最新)および第3(すなわち、基準)音素特性ベクトル間の第2の比較を実行することにより、第2の音素特性集合距離が決定される。また、第1(すなわち、早期)および第3(すなわち、基準)音素特性ベクトル間の第3の比較を実行することにより、第3の音素特性集合距離が決定されるようになっていてもよい。(健康基準と第1の音素特性ベクトルとの間の変化を表す)第3の音素特性集合距離は、(第1の音素特性ベクトルの後に取り込まれたデータによる健康基準と第2の音素特性ベクトルとの間の変化を表す)第2の音素特性集合距離と比較される。第2の音素特性集合距離が第3の特性集合距離よりも短い場合(最も新しく取得されたデータからのベクトルが健康基準に近い場合)は、ユーザの呼吸器疾患が改善しているものと判定され得る。第2の音素特性集合距離が第3の特性集合距離よりも長い場合(最も新しく取得されたデータからのベクトルが健康基準から遠い場合)は、ユーザの呼吸器疾患が悪化しているものと判定され得る。第2の音素特性集合距離が第3の特性集合距離に等しい場合は、ユーザの呼吸器疾患が変化していない(すなわち、少なくとも全般的には改善も悪化もしていない)ものと判定され得る。 In some embodiments, determining that the user's respiratory illness has changed may include determining whether the user's respiratory illness is improving, worsening, or unchanged (e.g., improving or worsening). It may also include a determination as to whether the This includes disease change criteria for the determined phoneme feature set distance (which may be a general standard determined from information about the reference population or determined for each user based on past user data). may also include comparisons with For example, a third phoneme feature vector representative of a health criterion may be determined from audio data captured at a time when the user is determined not to have a respiratory infection, and a second (i.e. A second phoneme feature set distance is determined by performing a second comparison between the most recent) and third (i.e., reference) phoneme feature vectors. A third phoneme feature set distance may also be determined by performing a third comparison between the first (i.e., early) and third (i.e., reference) phoneme feature vectors. . The third phoneme feature set distance (representing the change between the health criterion and the first phoneme feature vector) is the distance between the health criterion and the second phoneme feature vector (representing the change between the health criterion and the second phoneme feature vector according to data captured after the first phoneme feature vector). is compared with the second phoneme feature set distance (representing the change between . If the second phoneme feature set distance is shorter than the third feature set distance (the vector from the most recently acquired data is close to the health standard), it is determined that the user's respiratory disease is improving. can be done. If the second phoneme feature set distance is longer than the third feature set distance (the vector from the most recently acquired data is far from the health standard), it is determined that the user's respiratory disease is worsening. can be done. If the second phoneme feature set distance is equal to the third feature set distance, it may be determined that the user's respiratory disease has not changed (i.e., is not improving or worsening, at least generally).

ステップ6240においては、決定されたユーザの呼吸器疾患の変化に基づいて動作が開始される。例示的な行動としては、呼吸器疾患および/または疾患の症状を処置する行動および推奨が挙げられる。ステップ6240は、図2の意思決定支援ツール290(疾病モニタ292、処方モニタ294、および/もしくは薬剤効能追跡器296を含む)ならびに/または提示コンポーネント220の実施形態により実行されるようになっていてもよい。 At step 6240, actions are initiated based on the determined change in the user's respiratory illness. Exemplary actions include actions and recommendations to treat respiratory diseases and/or symptoms of diseases. Step 6240 is adapted to be performed by an embodiment of decision support tool 290 (including disease monitor 292, prescription monitor 294, and/or drug efficacy tracker 296) and/or presentation component 220 of FIG. Good too.

上記動作には、図1のユーザ機器102a~102n等のユーザ機器を介してユーザに、または、図1の臨床医ユーザ機器108等の臨床医ユーザ機器を介して臨床医に、アラートまたは通知を送ることあるいは電子的に伝達することを含んでいてもよい。通知では、ユーザの呼吸器疾患の変化の有無および、いくつかの実施形態においては、変化が改善であるか否かを示すようにしてもよい。通知またはアラートには、ユーザの呼吸器疾患の変化および/または呼吸器疾患の現在の状態を定量化もしくは特徴付ける呼吸器疾患スコアを含んでいてもよい。 The above operations may include sending an alert or notification to a user via user equipment, such as user equipment 102a-102n of FIG. 1, or to a clinician via clinician user equipment, such as clinician user equipment 108 of FIG. This may include sending or transmitting electronically. The notification may indicate whether there is a change in the user's respiratory condition and, in some embodiments, whether the change is an improvement. The notification or alert may include a respiratory illness score that quantifies or characterizes the change in the user's respiratory illness and/or the current state of the respiratory illness.

いくつかの実施形態において、動作には、呼吸器疾患情報を処理してさらに意思決定することを含んでいてもよく、これは、ユーザの呼吸器疾患に基づく処置および支援の推奨を含んでいてもよい。このような推奨としては、ヘルスケア提供者への相談、既存の処方もしくは市販薬剤の継続(処方の補充等)の継続、現在の処置の投薬量もしくは薬剤の修正、および/または呼吸器疾患のモニタリングの継続の推奨が挙げられる。呼吸器疾患の検出変化(または、無変化)に応答して、推奨されるこれら行動のうちの1つまたは複数が実行されるようになっていてもよい。たとえば、決定された変化(または、無変化)に基づいて、本開示の実施形態により、ユーザのヘルスケア提供者の予約および/または処方の補充がなされるようになっていてもよい。 In some embodiments, the operations may include processing the respiratory disease information to further make decisions, including recommending treatment and support based on the user's respiratory disease. Good too. Such recommendations may include consultation with a health care provider, continuation of existing prescriptions or over-the-counter medications (e.g., prescription refills), modification of current treatment dosages or medications, and/or treatment of respiratory conditions. Continuing monitoring is recommended. One or more of these recommended actions may be implemented in response to a detected change (or no change) in respiratory disease. For example, based on the determined change (or no change), embodiments of the present disclosure may cause the user's healthcare provider appointment and/or prescription refill.

図7~図14は、実際に実行された本開示の例示的な実施形態の種々態様を示している。たとえば、図7~図14は、音響特性の解析、音響特性とユーザの呼吸器疾患(症状を含む)との相関、および自己報告情報の態様を示している。これらの図面に反映された情報は、複数のユーザの(たとえば、診療所/研究所および/または自宅における)多くの収集チェックポイントに対して収集されたものと考えられる。情報を収集する例示的なプロセスについては、図3Bと併せて記載される。 7-14 illustrate various aspects of exemplary embodiments of the present disclosure as actually implemented. For example, FIGS. 7-14 illustrate analysis of acoustic properties, correlations between acoustic properties and user respiratory disease (including symptoms), and aspects of self-reported information. The information reflected in these drawings may have been collected for many collection checkpoints (eg, at the clinic/laboratory and/or home) of multiple users. An example process for collecting information is described in conjunction with FIG. 3B.

一実施形態において、図7は、例示的な音響特性の経時的な代表的変化を示している。本実施形態においては、2つの収集チェックポイント(訪問1および訪問2)において取得された音声サンプルから、音響特性が抽出されている。訪問1は、ユーザが病中時の収集チェックポイントを表し、訪問2は、ユーザが健康時(すなわち、病気から回復した後)の収集チェックポイントを表し得る。図7に示されるように、7つの音素に関して特性が測定されており、グラフ710,720、および730は、2つの訪問間の各音素の音響特性の変化を示している。グラフ710は、ジッターの変化(ピッチ変動性の尺度)を示し、グラフ720は、シマーの変化(振幅の尺度)を示し、グラフ730は、スペクトルコントラストの変化を示している。グラフ710および720は、すべての音素について、回復中(すなわち、訪問1および訪問2間)にジッターおよびシマーが低下するため、呼吸器疾患からの回復後は、患者の音声がより安定し得ることを示している。グラフ730は、鼻音( In one embodiment, FIG. 7 shows representative changes in exemplary acoustic properties over time. In this embodiment, acoustic characteristics are extracted from audio samples acquired at two collection checkpoints (Visit 1 and Visit 2). Visit 1 may represent a collection checkpoint when the user is ill, and visit 2 may represent a collection checkpoint when the user is well (ie, after recovering from illness). As shown in FIG. 7, properties have been measured for seven phonemes, and graphs 710, 720, and 730 show the change in the acoustic properties of each phoneme between two visits. Graph 710 shows the change in jitter (a measure of pitch variability), graph 720 shows the change in shimmer (a measure of amplitude), and graph 730 shows the change in spectral contrast. Graphs 710 and 720 demonstrate that a patient's speech may be more stable after recovery from a respiratory illness, as jitter and shimmer decrease during recovery (i.e., between Visits 1 and 2) for all phonemes. It shows. The graph 730 shows the nasal sound (

)の場合に、高周波でのスペクトルコントラストが増大することを示しており、これは、回復時に鼻づまりが少なくなると鼻腔共鳴がより顕著になることと一致する。
図8は、呼吸器感染症の症状の減衰定数のグラフ表現を示している。ヒストグラム810は、すべての症状の減衰定数を示し、ヒストグラム820は、鼻づまりの症状の減衰定数を示し、ヒストグラム830は、鼻づまり以外の症状の減衰定数を示している。鼻づまりの症状の例としては、鼻をかむ必要性、鼻閉、後鼻漏が挙げられる。一方、鼻づまり以外の症状としては、鼻水、喉の痛み、および粘液の多い鼻汁が挙げられる。ヒストグラム810,820、および830に利用される指数減衰モデルは、スコア≒ae-b(日数-1)+εであり、これは次いで、モニタリングユーザのグループに対する毎日の症状表現型(すなわち、鼻づまり、鼻づまり以外、または全症状)にフィッティングされる。ヒストグラム810,820、および830の正の値は症状の軽減に対応し、ゼロ値は無変化に対応し、負の値は症状の悪化に対応する。ヒストグラム810,820、および830は、自己報告症状の回復プロファイルが可変であることを示している。回復プロフィルの2つの例が図10と併せて記載される。
) show increased spectral contrast at high frequencies, consistent with nasal resonance becoming more pronounced with less nasal congestion during recovery.
FIG. 8 shows a graphical representation of the decay constant of respiratory infection symptoms. Histogram 810 shows the attenuation constants for all symptoms, histogram 820 shows the attenuation constants for nasal congestion symptoms, and histogram 830 shows the attenuation constants for symptoms other than nasal congestion. Examples of nasal congestion symptoms include the need to blow the nose, nasal congestion, and postnasal drip. On the other hand, symptoms other than nasal congestion include runny nose, sore throat, and mucus-rich nasal discharge. The exponential decay model utilized for histograms 810, 820, and 830 is the score ≈ ae − b (days − 1) + ε, which in turn translates into daily symptom phenotypes (i.e., nasal congestion, Fitted for symptoms other than nasal congestion or all symptoms). Positive values in histograms 810, 820, and 830 correspond to a reduction in symptoms, zero values correspond to no change, and negative values correspond to worsening of symptoms. Histograms 810, 820, and 830 show that the recovery profile of self-reported symptoms is variable. Two examples of recovery profiles are described in conjunction with FIG.

図9は、音響特性と自己報告の呼吸器感染症の症状との相関を示している。グラフ900は、すべての症状の評価の合計(たとえば、合成症状スコア)、鼻づまり関連のすべての症状の評価の合計、および鼻づまり以外に関連するすべての症状の評価の合計について演算された別個の減衰定数に基づく。スペアマンの相関係数が演算され、有意トレンド(p<0.1)のすべての相関値が症状グループの関数としてグラフ900に示される。グラフ900においては、相関の絶対値がプロットされている。 Figure 9 shows the correlation between acoustic properties and self-reported respiratory infection symptoms. Graph 900 shows separate scores computed for the sum of all symptom ratings (e.g., composite symptom score), the sum of all nasal congestion-related symptom ratings, and the sum of all non-nasal congestion-related symptom ratings. Based on the damping constant of Spearman's correlation coefficients are calculated and all correlation values with a significant trend (p<0.1) are shown in graph 900 as a function of symptom group. In graph 900, the absolute value of the correlation is plotted.

ほとんどの音響特性について、相関の方向は、症状グループ間で同じである。ただし、フォルマント1の帯域幅変動性(bw1sdF)は、鼻づまり以外の症状とは正の相関がある一方、鼻づまり症状とは負の相関がある(したがって、すべての症状の合計とは相関がない)。グラフ900は、鼻づまり以外の表現型と比較して、鼻づまり表現型と関連付けられた高周波スペクトル構造の変化と自己報告症状の変化との間に強い相関があることを示している。 For most acoustic characteristics, the direction of correlation is the same across symptom groups. However, while formant 1 bandwidth variability (bw1sdF) is positively correlated with symptoms other than nasal congestion, it is negatively correlated with nasal congestion symptoms (therefore, it is not correlated with the sum of all symptoms). do not have). Graph 900 shows that there is a strong correlation between changes in high frequency spectral structure associated with the nasal congestion phenotype and changes in self-reported symptoms compared to non-nasal congestion phenotypes.

図10は、2人の患者の自己報告症状スコアの経時的な変化を示している。グラフ1010は、1人の患者(被験体26)の変化を示しており、回復時の合成症状スコア(CSS)の減衰は緩慢である。これに対して、グラフ1020は、別の患者(被験体14)の回復時のCSSの減衰が相対的に急速であることを示している。 Figure 10 shows the change in self-reported symptom scores for two patients over time. Graph 1010 shows the changes for one patient (Subject 26), with a slow decay of composite symptom score (CSS) upon recovery. In contrast, graph 1020 shows a relatively rapid decay of CSS during recovery for another patient (subject 14).

図11Aおよび図11Bは、異なる音響特性に対して演算された距離測定基準と自己報告症状スコアとの順位相関のグラフ表現を示している。図11Aのグラフ1100は、第1の一組の音響特性に対する順位相関を表す一方、図11Bのグラフ1150は、第2の一組の音響特性に対する順位相関を表す。グラフ1100および1150は、特性ベクトルの距離測定基準と7つの音素( FIGS. 11A and 11B show graphical representations of rank correlations between distance metrics and self-reported symptom scores computed for different acoustic characteristics. Graph 1100 of FIG. 11A represents a rank correlation for a first set of acoustic characteristics, while graph 1150 of FIG. 11B represents a rank correlation for a second set of acoustic characteristics. Graphs 1100 and 1150 show the feature vector distance metric and the seven phonemes (

)の考え得るすべての組み合わせに関するモニタリング患者のグループ全体での自己報告症状スコア(たとえば、CSS)との間のスペアマンの順位相関の分布を示している。音素の組み合わせは、四分位変動係数(IQR/中央値)に基づいて昇順にソートされている。 ) shows the distribution of Spearman's rank correlations between self-reported symptom scores (e.g., CSS) across groups of monitoring patients for all possible combinations of. The phoneme combinations are sorted in ascending order based on the interquartile coefficient of variation (IQR/median).

これらグラフ1100および1150の音響特性は、本開示の実施形態に従って異なる日に収集された音声サンプルから抽出されたものであってもよい。患者が病中である日に各患者から1つの音声サンプルが収集され、患者が元気である(すなわち、病中ではない)後日に各患者から別の音声サンプルが収集されたものであってもよい。この距離法の演算は、音素特性比較器274と併せて記載のように行われるようになっていてもよい。距離測定基準は、自己報告データ評価器2746と併せて記載のように決定され得る患者の自己報告症状のスコアに対して相関される(たとえば、スピアマンのr)。グラフ1100および1150は、音素 The acoustic characteristics of these graphs 1100 and 1150 may be extracted from audio samples collected on different days according to embodiments of the present disclosure. Even if one voice sample was collected from each patient on a day when the patient was sick, and another voice sample was collected from each patient on a later day when the patient was well (i.e., not sick). good. This distance method calculation may be performed in conjunction with the phoneme characteristic comparator 274 as described. The distance metric is correlated to the patient's self-report symptom score (eg, Spearman's r), which may be determined as described in conjunction with the self-report data evaluator 2746. Graphs 1100 and 1150 represent phonemes

を含む部分集合が四分位変動係数の最も低い値となり、呼吸器疾患の検出との関連性を示している。本開示の一実施形態においては、グラフ1100および1150に示される結果に基づいて、3つの音素それぞれの音響特性の部分集合を識別するため、スパースPCAを用いてさらなる絞り込みが実行されるようになっていてもよく、患者の呼吸器疾患に関する推論および/または予測を行うため、合計32個の特性( The subset containing , had the lowest interquartile coefficient of variation, indicating its association with respiratory disease detection. In one embodiment of the present disclosure, based on the results shown in graphs 1100 and 1150, further refinement is performed using sparse PCA to identify a subset of the acoustic properties of each of the three phonemes. A total of 32 characteristics (

に対して12個、 12 pieces for

に対して12個、および 12 pieces for, and

に対して8つの特性)の部分集合が選択されるようになっていてもよい。
図12Aは、異なる患者に対する距離測定基準と自己報告症状スコアとの順位相関値を示したグラフ1200である。順位相関値の演算に利用される距離測定基準は、3つの音素(たとえば、
A subset of 8 characteristics) may be selected.
FIG. 12A is a graph 1200 showing rank correlation values between distance metrics and self-reported symptom scores for different patients. The distance metric used to calculate the rank correlation value is the distance metric used to calculate the rank correlation value.

)に由来する32個の音素特性に基づいていてもよい。グラフ12200においては、症状の変化が大きい順に左から右へと患者がソートされている(これは、グラフ1200のバーにより示される順位相関の程度と必ずしも一致しない場合がある)。(*)は、示された順位相関が統計的に有意(たとえば、p<0.05)と判断されたことを示している。グラフ1200は、回復がより急速な(すなわち、bの値が大きな)患者ほど相関が一般的に高くなることを示している。b値が中央値よりも高い患者の平均順位相関は0.7(±0.13)であるのに対し、b値が中央値よりも低い患者は0.46(±0.33)である。演算された距離測定基準と自己報告の合成症状スコア(CSS)との相関の中央値は、0.63である。 ) may be based on 32 phoneme characteristics derived from . In graph 12200, patients are sorted from left to right in descending order of change in symptoms (this may not necessarily match the degree of rank correlation indicated by the bars in graph 1200). (*) indicates that the indicated rank correlation was determined to be statistically significant (eg, p<0.05). Graph 1200 shows that correlations are generally higher for patients with more rapid recovery (ie, larger values of b). The mean rank correlation for patients with b-values higher than the median is 0.7 (±0.13), compared to 0.46 (±0.33) for patients with b-values lower than the median. . The median correlation between the computed distance metric and self-reported composite symptom score (CSS) is 0.63.

図12Bは、本開示の一実施形態に係る、統計的に有意な相関を示すための病中訪問と健康訪問との間の変化に関するペアT検定(p値)の結果を示している。表1210には、p<0.05の場合の値のみが含まれる。表1210は、すべての調査対象患者および高回復グループ(減衰定数bで測定)の患者のみについての結果を示している。表910においては、標準偏差が「sd」により示され、対数変換が「LG」により示される。 FIG. 12B shows the results of a paired T-test (p-value) for changes between sick and well visits to indicate a statistically significant correlation, according to an embodiment of the present disclosure. Table 1210 only includes values when p<0.05. Table 1210 shows the results for all studied patients and only for patients in the high recovery group (measured by the decay constant b). In table 910, standard deviation is indicated by "sd" and logarithmic transformation is indicated by "LG".

図13は、いくつかの実施形態に係る、被験体17,20、および28として識別される3人の例示的な患者について、音響特性および自己報告症状の経時的な相対的変化のグラフ表現を示している。グラフ1310,1320、および1330はそれぞれ、各患者の自己報告の合成症状スコア(CSS)(縦棒で示される)および音素特性ベクトルから演算された距離測定基準(破線で示される)の経時的な変化を示している。グラフ1310は、被験体17が時間の経過とともに症状の有意かつ比較的単調な軽減を示し、それが距離測定基準にも反映されていることを示している。グラフ1320は、被験体28の症状の軽減が被験体17よりも緩やかで、単調ではなく、被験体28の回復が7~12日目頃に安定した後、13日目に症状がわずかに軽減していることを示している。また、グラフ1320は、距離測定基準との一致が中程度であることを示しており、病気から回復への移行を観察可能である。グラフ1310および1320とは対照的に、グラフ1330は、被験体20の自己報告症状が当初は軽度(1日目のCSS=5)であり、鼻づまり以外の症状(咳および喉の痛み)が経時的に悪化することを示している。結果として、グラフ1330では、グラフ1310および1320よりも距離測定基準との一致が少ない。 FIG. 13 depicts a graphical representation of relative changes in acoustic characteristics and self-reported symptoms over time for three exemplary patients, identified as Subjects 17, 20, and 28, according to some embodiments. It shows. Graphs 1310, 1320, and 1330 depict, respectively, each patient's self-reported composite symptom score (CSS) (indicated by vertical bars) and distance metrics computed from phoneme feature vectors (indicated by dashed lines) over time. It shows change. Graph 1310 shows that subject 17 exhibits a significant and relatively monotonic reduction in symptoms over time, which is also reflected in the distance metric. Graph 1320 shows that Subject 28's symptom reduction was more gradual and less monotonous than Subject 17, with Subject 28's recovery stabilizing around days 7 to 12, and then symptoms slightly decreasing on day 13. It shows that you are doing it. Graph 1320 also shows moderate agreement with the distance metric, allowing the transition from illness to recovery to be observed. In contrast to graphs 1310 and 1320, graph 1330 shows that subject 20's self-reported symptoms were initially mild (CSS=5 on day 1) and that symptoms other than nasal congestion (cough and sore throat) were It shows that it gets worse over time. As a result, graph 1330 has fewer matches with the distance metric than graphs 1310 and 1320.

図13のグラフ1340は、被験体17,20、および28を含むモニタリング患者のグループに対して演算された距離測定基準の経時的なボックスプロットを含む。グラフ1340は、患者が回復(または、「健康」)状態に近づくと距離が短くなる傾向を示しており、これは、14日前後と考えられる。 Graph 1340 of FIG. 13 includes a box plot of distance metrics computed over time for a group of monitoring patients including subjects 17, 20, and 28. Graph 1340 shows a tendency for the distance to decrease as the patient approaches a recovered (or "healthy") state, which may be around 14 days.

図14は、呼吸器感染症検出器の性能の例示的な表現を示している。具体的には、図14は、自己報告症状スコア(たとえば、CSS)により測定される呼吸器疾患の変化を検出するための本開示の一実施形態の能力の定量化を示している。グラフ1410は、自己報告症状スコアの変化に対する距離測定基準の変化をプロットしたものであり、ある日の自己報告症状の差が大きくなると、音素特性ベクトル間の距離も長くなることが分かる。グラフ1420は、本開示の実施形態に係る、音素特性(および、音素特性ベクトル間で演算された距離)を利用して、自己報告症状スコアの異なる大きさの変化を検出するための受信者動作特性(ROC)曲線および関連する曲線下面積(AUC)値を示している。図示のように、7ポイントの変化(0~35の合成症状スコア範囲の20%に相当)に対して、AUC値は0.89である。 FIG. 14 shows an exemplary representation of the performance of a respiratory infection detector. Specifically, FIG. 14 illustrates quantification of the ability of one embodiment of the present disclosure to detect changes in respiratory disease as measured by self-reported symptom scores (eg, CSS). Graph 1410 plots the change in the distance metric against the change in self-reported symptom scores and shows that the greater the difference in self-reported symptoms on a given day, the greater the distance between the phoneme feature vectors. Graph 1420 illustrates receiver behavior for detecting different magnitude changes in self-reported symptom scores using phoneme features (and distances computed between phoneme feature vectors), according to embodiments of the present disclosure. Figure 2 shows characteristic (ROC) curves and associated area under the curve (AUC) values. As shown, for a 7 point change (corresponding to 20% of the composite symptom score range of 0-35), the AUC value is 0.89.

図15A~図15Mは、本明細書に記載の通り、音声データから音素特性を抽出して呼吸器疾患を追跡するためのコンピュータプログラムルーチンの例示的な実施形態を示している。このため、図15A~図15Mのコンピュータプログラムルーチンは、ユーザ音声モニタ260またはその副構成要素のうちの1つもしくは複数により利用されるようになっていてもよい。また、図15A~図15Mのコンピュータプログラムルーチンは、図6Aおよび図6Bそれぞれの方法6100および6200の1つまたは複数の態様の実行に利用されるようになっていてもよい。 15A-15M illustrate an exemplary embodiment of a computer program routine for extracting phonemic features from audio data to track respiratory disease, as described herein. To this end, the computer program routines of FIGS. 15A-15M may be adapted for use by user audio monitor 260 or one or more of its subcomponents. The computer program routines of FIGS. 15A-15M may also be adapted to perform one or more aspects of methods 6100 and 6200 of FIGS. 6A and 6B, respectively.

以上から、ユーザの呼吸器疾患のモニタリングのためのシステムおよび方法を対象とする技術の種々態様が提供される。本明細書に記載の実施形態のさまざまな特徴、副組み合わせ、および改良が有用であって、他の特徴または副組み合わせを参照することなく、他の実施形態に採用され得ることが了解される。さらに、例示的な方法またはプロセスに示されるステップの順序および順番は、本開示の範囲を何ら限定するものではなく、実際のところ、これらのステップは、本明細書の実施形態の範囲内において多様な異なる順番で現れ得る。このような変形例および組み合わせについても、本開示の実施形態の範囲内に含まれるものと考えられる。 From the above, various aspects of the technology are provided that are directed to systems and methods for monitoring respiratory disease in a user. It is understood that various features, subcombinations, and improvements of the embodiments described herein are useful and may be adopted in other embodiments without reference to other features or subcombinations. Furthermore, the sequence and order of steps depicted in the example method or process is in no way intended to limit the scope of the present disclosure; in fact, these steps may be varied within the scope of the embodiments herein. may appear in different orders. Such modifications and combinations are also considered to be within the scope of the embodiments of the present disclosure.

以上、種々実施態様を説明したが、以下では、本開示の実施形態の実現に適した例示的なコンピュータ環境が記載される。図16を参照して、例示的なコンピュータ機器が提供されるが、一般的には、コンピュータ機器1700と称される。コンピュータ機器1700は、好適なコンピュータ環境の一例であり、本開示の実施形態の使用または機能の範囲に関する如何なる制限の示唆も意図されない。また、コンピュータ機器1700は、図示の構成要素のいずれか1つまたは組み合わせに関する依存性または要件を有するものとも解釈されるべきではない。 Having described various implementations above, exemplary computer environments suitable for implementing embodiments of the present disclosure are described below. Referring to FIG. 16, an exemplary computer device is provided, generally referred to as computer device 1700. Computer equipment 1700 is one example of a suitable computing environment and is not intended to suggest any limitation as to the scope of use or functionality of embodiments of the present disclosure. Nor should computing device 1700 be construed as having any dependency or requirement regarding any one or combination of illustrated components.

本開示の実施形態は、個人用デジタル補助装置、スマートフォン、タブレットPC、またはスマートウォッチ等の他の手持ち式もしくはウェアラブルデバイス等のコンピュータまたは他の機械により実行されるプログラムモジュール等のコンピュータコードまたは機械使用可能命令(コンピュータ使用可能命令またはコンピュータ実行可能命令を含む)の一般的な背景で説明され得る。一般的に、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造等を含むプログラムモジュールは、特定のタスクまたは特定の抽象データ型を実行するコードを表す。本開示の実施形態は、手持ち式の機器、家電製品、汎用コンピュータ、または専用コンピュータ機器を含む多様なシステム構成にて実現され得る。また、本開示の実施形態は、通信ネットワークを通じてリンクされたリモート処理機器によりタスクが実行される分散コンピュータ環境において実現され得る。分散コンピュータ環境においては、メモリ記憶装置を含むローカルおよびリモートの両コンピュータ記憶媒体にプログラムモジュールが配置され得る。 Embodiments of the present disclosure describe computer code or machine usage, such as program modules executed by a computer or other machine, such as a personal digital assistant, a smartphone, a tablet PC, or other handheld or wearable device, such as a smart watch. may be described in the general context of computer-enabled instructions (including computer-usable or computer-executable instructions). Generally, program modules, including routines, programs, objects, components, data structures, etc., represent code that performs particular tasks or performs particular abstract data types. Embodiments of the present disclosure may be implemented in a variety of system configurations, including hand-held devices, consumer electronics, general purpose computers, or special purpose computing equipment. Embodiments of the present disclosure may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote computer storage media including memory storage devices.

図16を参照して、コンピュータ機器1700は、メモリ1712、1つまたは複数のプロセッサ1714、1つまたは複数の提示コンポーネント1716、1つまたは複数の入出力(I/O)ポート1718、1つまたは複数のI/Oコンポーネント1720、および例示的な電源1722を含むさまざまな機器を直接または間接的に結合するバス1710を具備する。コンピュータ機器1700のいくつかの実施形態では、1つまたは複数の無線機1724をさらに具備していてもよい。バス1710は、1つまたは複数のバス(アドレスバス、データバス、またはこれらの組み合わせ)を表す。明瞭化のため、図16のさまざまなブロックは、線で示されるが、実際には、これらのブロックが論理的な構成要素を表しており、必ずしも実際の構成要素を表しているわけではない。たとえば、I/Oコンポーネントとなる表示装置等の提示コンポーネントも考えられる。また、プロセッサは、メモリを有していてもよい。図16は、本開示の1つまたは複数の実施形態に関連して使用し得る例示的なコンピュータ機器の例示に過ぎない。「ワークステーション」、「サーバ」、「ラップトップ」、または「手持ち式機器」といったカテゴリ間の区別はない。図16の範囲内では、「コンピュータ機器」の参照によってすべてが考慮されるためである。 Referring to FIG. 16, computing equipment 1700 includes memory 1712, one or more processors 1714, one or more presentation components 1716, one or more input/output (I/O) ports 1718, one or more A bus 1710 is provided that directly or indirectly couples various equipment, including a plurality of I/O components 1720 and an exemplary power supply 1722. Some embodiments of computing equipment 1700 may further include one or more radios 1724. Bus 1710 represents one or more buses (address bus, data bus, or a combination thereof). For clarity, the various blocks in FIG. 16 are shown as lines; in fact, these blocks represent logical components and not necessarily actual components. For example, a presentation component such as a display device that serves as an I/O component may also be considered. Additionally, the processor may include memory. FIG. 16 is merely an illustration of example computer equipment that may be used in connection with one or more embodiments of the present disclosure. There is no distinction between categories such as "workstation," "server," "laptop," or "handheld device." This is because, within the scope of FIG. 16, everything is considered by reference to "computer equipment".

コンピュータ機器1700は通常、多様なコンピュータ可読媒体を含む。コンピュータ可読媒体としては、コンピュータ機器1700によるアクセスが可能な任意の可用媒体が可能であって、揮発性および不揮発性ならびにリムーバブルおよび非リムーバブルの両媒体を含む。非限定的な一例として、コンピュータ可読媒体には、コンピュータ記憶媒体および通信媒体を含み得る。コンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータ等の情報を格納するための任意の方法または技術で実装された揮発性および不揮発性ならびにリムーバブルおよび非リムーバブルの両媒体を含む。コンピュータ記憶媒体としては、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、電気的消去・プログラム可能リードオンリーメモリ(EEPROM)、フラッシュメモリ等のメモリ技術、コンパクトディスクリードオンリーメモリ(CD-ROM)、デジタル多用途ディスク(DVD)等の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ等の磁気記憶装置、またはその他任意の媒体が挙げられるが、これらに限定されず、所望の情報の格納のための使用およびコンピュータ機器1700によるアクセスが可能である。コンピュータ記憶媒体は、それ自体が信号を含むわけではない。通信媒体は通常、搬送波等の変調データ信号または他の伝送機構においてコンピュータ可読命令、データ構造、プログラムモジュール、または他のデータを具現化するもので、如何なる情報配信媒体をも含む。用語「変調データ信号(modulated data signal)」は、その特性のうちの1つまたは複数が信号中の情報を符号化するように設定または変更された信号を意味する。非限定的な一例として、通信媒体には、有線ネットワークまたは直接有線接続等の有線媒体と、音響、無線(RF)、赤外線、および他の無線媒体等の無線媒体と、を含む。これらの如何なる組み合わせについても、コンピュータ可読媒体の範囲に含まれるものとする。 Computer equipment 1700 typically includes a variety of computer readable media. Computer readable media can be any available media that can be accessed by computing device 1700 and includes both volatile and nonvolatile media, removable and non-removable media. As one non-limiting example, computer-readable media may include computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storing information such as computer-readable instructions, data structures, program modules, or other data. including. Computer storage media include memory technologies such as random access memory (RAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), flash memory, and compact disk read-only memory (CD-ROM). , optical disk storage such as a digital versatile disk (DVD), magnetic storage devices such as magnetic cassettes, magnetic tapes, magnetic disk storage, or any other medium for storing desired information. and can be accessed by computer equipment 1700. Computer storage media do not themselves contain signals. Communication media typically embodies computer-readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave or other transmission mechanism and includes any information delivery media. The term "modulated data signal" means a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal. As one non-limiting example, communication media includes wired media, such as a wired network or direct wired connection, and wireless media, such as acoustic, radio frequency (RF), infrared, and other wireless media. Any combinations of these should also be included within the scope of computer-readable media.

メモリ1712は、揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含む。メモリは、リムーバブルであってもよいし、非リムーバブルであってもよいし、これらの組み合わせであってもよい。例示的なハードウェア機器としては、たとえば固体メモリ、ハードドライブ、および光ディスクドライブが挙げられる。コンピュータ機器1700は、メモリ1712またはI/Oコンポーネント1720等のさまざまな機器からデータを読み込む1つまたは複数のプロセッサ1714を具備する。提示コンポーネント1716は、データ指標をユーザまたは他の機器に提示する。例示的な提示コンポーネント1716としては、表示装置、スピーカ、印刷コンポーネント、振動コンポーネント等が挙げられる。 Memory 1712 includes computer storage media in the form of volatile and/or non-volatile memory. The memory may be removable, non-removable, or a combination thereof. Exemplary hardware devices include, for example, solid state memory, hard drives, and optical disk drives. Computing device 1700 includes one or more processors 1714 that read data from various devices, such as memory 1712 or I/O components 1720. Presentation component 1716 presents the data indicators to a user or other device. Exemplary presentation components 1716 include displays, speakers, printing components, vibration components, and the like.

I/Oポート1718は、I/Oコンポーネント1720を含む他の機器に対するコンピュータ機器1700の論理的な結合を可能にするが、その一部は組み込まれていてもよい。例示的なコンポーネントとしては、マイク、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナ、プリンタ、または無線機器が挙げられる。I/Oコンポーネント1720は、ユーザにより生成されたエアジェスチャ、音声、または他の生理学的入力を処理する自然なユーザインタフェース(NUI)を提供し得る。場合によっては、入力が適当なネットワーク要素に送信されて、別途処理されるようになっていてもよい。NUIは、発話認識、タッチおよびスタイラス認識、顔認識、生体認証、ジェスチャ認識(画面上および画面隣接の両者)、エアジェスチャ、ヘッドおよびアイトラッキング、ならびにコンピュータ機器1700上のディスプレイと関連付けられたタッチ認識の任意の組み合わせを実装し得る。コンピュータ機器1700には、ジェスチャ検出および認識のため、立体視カメラシステム、赤外線カメラシステム、RGBカメラシステム、およびこれらの組み合わせ等のデプスカメラが備わっていてもよい。また、コンピュータ機器1700には、運動の検出を可能にする加速度計またはジャイロスコープが備わっていてもよい。加速度計またはジャイロスコープの出力がコンピュータ機器1700のディスプレイに提供されて、没入型拡張現実または仮想現実をレンダリングするようになっていてもよい。 I/O ports 1718 enable logical coupling of computing equipment 1700 to other equipment, including I/O components 1720, some of which may be embedded. Exemplary components include a microphone, joystick, game pad, satellite dish, scanner, printer, or wireless device. I/O component 1720 may provide a natural user interface (NUI) to process air gestures, speech, or other physiological input generated by a user. In some cases, the input may be sent to an appropriate network element for further processing. The NUI includes speech recognition, touch and stylus recognition, facial recognition, biometrics, gesture recognition (both on-screen and screen-adjacent), air gestures, head and eye tracking, and touch recognition associated with the display on computing device 1700. may be implemented in any combination. Computing device 1700 may be equipped with a depth camera, such as a stereoscopic camera system, an infrared camera system, an RGB camera system, and combinations thereof, for gesture detection and recognition. Computing equipment 1700 may also be equipped with an accelerometer or gyroscope to enable detection of motion. Accelerometer or gyroscope output may be provided to a display of computing device 1700 to render immersive augmented reality or virtual reality.

コンピュータ機器1700のいくつかの実施形態には、1つまたは複数の無線機1724(または、類似の無線通信コンポーネント)を含んでいてもよい。無線機1724は、無線通信の送受信を行う。コンピュータ機器1700は、さまざまな無線ネットワークを介して通信および媒体を受信するように構成された無線端末であってもよい。コンピュータ機器1700は、符号分割多重アクセス(「CDMA」)、モバイル用グローバルシステム(「GSM」)、時分割多重アクセス(「TDMA」)、または他の無線手段等の無線プロトコルを介して通信することにより、他の機器と通信可能である。無線通信は、短距離接続、長距離接続、またはこれらの組み合わせであってもよい。本明細書において、「短」および「長」の接続の種類は、2つの機器間の空間的な関係を表さない。代わりに、これらの接続の種類は一般的に、短距離および長距離を異なるカテゴリまたは接続の種類(すなわち、一次接続および二次接続)として表す。短距離接続の一例としては、802.11プロトコルを使用した無線ローカルエリアネットワーク(WLAN)接続等、無線通信ネットワークへのアクセスを提供する機器(たとえば、モバイルホットスポット)へのWi-Fi(登録商標)接続、短距離接続の別の例である別のコンピュータ機器へのBluetooth接続、または近距離通信が挙げられるが、これらに限定されない。長距離接続には、一例としてCDMA、汎用パケット無線システム(GPRS)、GSM、TDMA、および802.16プロトコルのうちの1つまたは複数を用いた接続を含むが、これらに限定されない。 Some embodiments of computing equipment 1700 may include one or more radios 1724 (or similar wireless communication components). The wireless device 1724 transmits and receives wireless communications. Computing device 1700 may be a wireless terminal configured to receive communications and media over various wireless networks. Computing device 1700 may communicate via wireless protocols such as code division multiple access (“CDMA”), Global System for Mobile (“GSM”), time division multiple access (“TDMA”), or other wireless means. This allows communication with other devices. Wireless communications may be short-range connections, long-range connections, or a combination thereof. As used herein, the "short" and "long" connection types do not represent a spatial relationship between two devices. Instead, these connection types generally represent short-range and long-range as different categories or connection types (i.e., primary and secondary connections). An example of a short-range connection is a Wi-Fi connection to a device that provides access to a wireless communication network (e.g., a mobile hotspot), such as a wireless local area network (WLAN) connection using the 802.11 protocol. ) connection, another example of a short-range connection includes, but is not limited to, a Bluetooth connection to another computer device, or near-field communication. Long-range connections include, by way of example and without limitation, connections using one or more of CDMA, General Packet Radio System (GPRS), GSM, TDMA, and 802.16 protocols.

以下の特許請求の範囲から逸脱することなく、図示のさまざまな構成要素および図示されない構成要素の多くの異なる構成が可能である。本開示の実施形態は、限定的ではなく例示的なものとなるように記載されている。本開示の読者には、本開示を読んだ後、本開示を読んだことで代替実施形態が明らかとなるであろう。以下の特許請求の範囲から逸脱することなく、前述の内容を実現する代替手段を完成させることができる。特定の特徴および副組み合わせが有用であって、他の特徴および副組み合わせを参照することなく採用可能であり、特許請求の範囲内において想到される。 Many different configurations of the various illustrated and non-illustrated components are possible without departing from the scope of the following claims. Embodiments of the present disclosure are described to be illustrative rather than restrictive. Alternate embodiments will be apparent to a reader of this disclosure after reading this disclosure. Alternative means of implementing the foregoing may be accomplished without departing from the scope of the following claims. Certain features and subcombinations are useful and can be employed without reference to other features and subcombinations and are contemplated within the scope of the claims.

Claims (47)

ヒト被験体の呼吸器疾患をモニタリングするコンピュータ化システムであって、1つまたは複数のプロセッサと、前記1つまたは複数のプロセッサにより実行された場合に、前記ヒト被験体の音声情報を含む第1のオーディオデータを受信することと、第1の音素を含む前記第1のオーディオデータの第1の部分を特徴付ける少なくとも1つの音響特性を含む第1の音素特性集合を決定することと、第2のオーディオデータから決定された第2の音素特性集合に対して前記第1の音素特性集合を比較することにより、前記呼吸器疾患をモニタリングすることと、を含む動作を実行するコンピュータ実行可能命令が格納されたコンピュータメモリと、を備えた、コンピュータ化システム。 1. A computerized system for monitoring respiratory disease in a human subject, comprising: one or more processors; receiving audio data of a first phoneme; determining a first set of phoneme characteristics including at least one acoustic characteristic characterizing a first portion of the first audio data including a first phoneme; Computer-executable instructions are stored for performing operations comprising: monitoring the respiratory disease by comparing the first set of phoneme characteristics to a second set of phoneme characteristics determined from audio data. A computerized system comprising computer memory and. オーディオ情報を取り込むように構成された音響センサをさらに備えた、請求項1に記載のコンピュータ化システム。 The computerized system of claim 1, further comprising an acoustic sensor configured to capture audio information. 前記音響センサが、スマートスピーカに組み込まれた、請求項2に記載のコンピュータ化システム。 3. The computerized system of claim 2, wherein the acoustic sensor is integrated into a smart speaker. 前記第1の音素特性集合が、

を含む少なくとも1つの音素を特徴付ける音響特性を含む、請求項1に記載のコンピュータ化システム。
The first phoneme feature set is

2. The computerized system of claim 1, comprising an acoustic characteristic characterizing at least one phoneme comprising: .
前記第1の音素特性集合が、前記第1のオーディオデータの前記第1の部分と関連付けられた第1の音素、前記第1のオーディオデータの第2の部分と関連付けられた第2の音素、および前記第1のオーディオデータの第3の部分と関連付けられた第3の音素を特徴付ける音響特性を含み、前記第1の音素が

を含み、前記第2の音素が

を含み、前記第3の音素が

を含む、請求項1に記載のコンピュータ化システム。
the first phoneme feature set includes a first phoneme associated with the first portion of the first audio data; a second phoneme associated with the second portion of the first audio data; and an acoustic characteristic characterizing a third phoneme associated with a third portion of the first audio data, wherein the first phoneme is

and the second phoneme is

and the third phoneme is

2. The computerized system of claim 1, comprising:
前記

音素の前記音響特性が、フォルマント1(Fl)の帯域幅の標準偏差、ピッチの四分位範囲、1.6~3.2キロヘルツ(kHz)の周波数に対して決定されたスペクトルエントロピー、ジッター、メル周波数ケプストラム係数MFCC9およびMFCC12の標準偏差、メル周波数ケプストラム係数MFCC6の平均、ならびに3.2~6.4kHzの周波数に対して決定されたスペクトルコントラストのうちの少なくとも1つを含み、前記

音素の前記音響特性が、調和性、F1帯域幅の標準偏差、ピッチの四分位範囲、1.5~2.5kHzおよび1.6~3.2kHzの周波数に対して決定されたスペクトルエントロピー、1.5~2.5kHzの周波数に対して決定されたスペクトル平坦性、メル周波数ケプストラム係数MFCC1、MFCC2、MFCC3、およびMFCC11の標準偏差、メル周波数ケプストラム係数MFCC8の平均、ならびに1.6~3.2kHzの周波数に対して決定されたスペクトルコントラストのうちの少なくとも1つを含み、前記

音素の前記音響特性が、調和性、F1帯域幅の標準偏差、ピッチの四分位範囲、1.5~2.5kHzおよび1.6~3.2kHzの周波数に対して決定されたスペクトルエントロピー、1.5~2.5kHzの周波数に対して決定されたスペクトル平坦性、メル周波数ケプストラム係数MFCC2およびMFCC10の標準偏差、メル周波数ケプストラム係数MFCC8の平均、シマー、3.2~6.4kHzの周波数に対して決定されたスペクトルコントラスト、ならびに200ヘルツ(Hz)1/3オクターブバンドの標準偏差のうちの少なくとも1つを含む、請求項5に記載のコンピュータ化システム。
Said

The acoustic properties of the phoneme include the standard deviation of the bandwidth of formant 1 (Fl), the interquartile range of pitch, the spectral entropy determined for frequencies from 1.6 to 3.2 kilohertz (kHz), jitter, at least one of the standard deviations of the Mel frequency cepstral coefficients MFCC9 and MFCC12, the average of the Mel frequency cepstral coefficients MFCC6, and the spectral contrast determined for frequencies from 3.2 to 6.4 kHz;

The acoustic properties of the phonemes are harmonicity, standard deviation of F1 bandwidth, interquartile range of pitch, spectral entropy determined for frequencies 1.5-2.5 kHz and 1.6-3.2 kHz; Spectral flatness determined for frequencies from 1.5 to 2.5 kHz, standard deviations of Mel frequency cepstral coefficients MFCC1, MFCC2, MFCC3, and MFCC11, average of Mel frequency cepstral coefficients MFCC8, and 1.6 to 3. at least one of the spectral contrasts determined for a frequency of 2 kHz;

The acoustic properties of the phonemes are harmonicity, standard deviation of F1 bandwidth, interquartile range of pitch, spectral entropy determined for frequencies 1.5-2.5 kHz and 1.6-3.2 kHz; Spectral flatness determined for frequencies from 1.5 to 2.5 kHz, standard deviation of Mel frequency cepstral coefficients MFCC2 and MFCC10, mean of Mel frequency cepstral coefficients MFCC8, shimmer, for frequencies from 3.2 to 6.4 kHz 6. The computerized system of claim 5, comprising at least one of a spectral contrast determined for a 200 hertz (Hz) 1/3 octave band standard deviation.
前記動作が、前記第1のオーディオデータの前記第1の部分に対して自動発話認識を実行することにより第1の音素を決定することと、前記第1のオーディオデータの前記第1の部分を前記第1の音素と関連付けることと、をさらに含む、請求項1に記載のコンピュータ化システム。 The operations include determining a first phoneme by performing automatic speech recognition on the first portion of the first audio data; 2. The computerized system of claim 1, further comprising: associating with the first phoneme. 自動発話認識を実行することが、前記第1のオーディオデータの前記第1の部分に対応するテキストを決定することと、前記テキストに基づいて前記第1の音素を決定することと、を含む、請求項7に記載のコンピュータ化システム。 performing automatic speech recognition includes determining text corresponding to the first portion of the first audio data; and determining the first phoneme based on the text. 8. Computerized system according to claim 7. 前記第1のオーディオデータが、第1の日時値に対応する第1の時間区分と関連付けられ、前記第2のオーディオデータが、第2の日時値に対応する第2の時間区分と関連付けられ、前記ヒト被験体の前記呼吸器疾患をモニタリングすることが、前記第1の音素特性集合および前記第2の音素特性集合における特性の少なくとも一部の特性距離測定結果を決定することと、前記特性距離測定結果に基づいて、前記ヒト被験体の前記呼吸器疾患が前記第2の日時値と前記第1の日時値との間で変化したものと判定することと、を含む、請求項1に記載のコンピュータ化システム。 the first audio data is associated with a first time segment that corresponds to a first date and time value; the second audio data is associated with a second time segment that corresponds to a second date and time value; Monitoring the respiratory disease in the human subject comprises determining a characteristic distance measurement of at least some of the characteristics in the first phoneme feature set and the second phoneme feature set; and determining that the respiratory disease of the human subject has changed between the second date and time value and the first date and time value based on the measurement result. computerized system. 前記第2の日時値が、前記第1の日時値の18~36時間後に発生する、請求項9に記載のコンピュータ化システム。 10. The computerized system of claim 9, wherein the second date and time value occurs 18 to 36 hours after the first date and time value. 前記動作が、前記第1のオーディオデータと関連付けられた第1の時間区分と関連付けられた前記ヒト被験体の第1の生理学的データを受信することと、前記生理学的データを記録に格納することと、をさらに含む、請求項1に記載のコンピュータ化システム。 The operations include receiving first physiological data of the human subject associated with a first time segment associated with the first audio data, and storing the physiological data in a recording. The computerized system of claim 1, further comprising: 前記第1のオーディオデータが、第1の時間区分と関連付けられ、前記動作が、第1の時間区分と関連付けられ、前記ヒト被験体に関する生理学的データ、前記第1の時間区分における前記ヒト被験体の場所に関する情報、または前記第1の時間区分と関連付けられたコンテキスト情報のうちの少なくとも1つを含む前記ヒト被験体の第1のコンテキストデータを決定することをさらに含み、前記第1の音素特性集合が、前記第1のコンテキストデータに基づいてさらに決定される、請求項1に記載のコンピュータ化システム。 the first audio data is associated with a first time segment, the motion is associated with a first time segment, physiological data regarding the human subject, the human subject in the first time segment; further comprising determining first contextual data of the human subject, the first contextual data comprising at least one of information regarding a location of the human subject, or contextual information associated with the first time segment; The computerized system of claim 1, wherein a set is further determined based on the first context data. 前記第1の音素特性集合が、前記第2のオーディオデータと関連付けられた第2の時間区分の前に発生する第1の日時値とそれぞれ関連付けられた複数の他の音素特性集合から決定される、請求項1に記載のコンピュータ化システム。 the first set of phoneme characteristics is determined from a plurality of other sets of phoneme characteristics each associated with a first datetime value occurring before a second time interval associated with the second audio data; , the computerized system of claim 1. 前記第2の音素特性集合に対して前記第1の音素特性集合を比較することが、前記第1の音素特性集合の少なくとも一部と前記第2の音素特性集合の少なくとも一部との間のユークリッド距離またはレーベンシュタイン距離を決定することを含む、請求項1に記載のコンピュータ化システム。 Comparing the first set of phoneme characteristics to the second set of phoneme characteristics includes determining the difference between at least a portion of the first set of phoneme characteristics and at least a portion of the second set of phoneme characteristics. 2. The computerized system of claim 1, comprising determining a Euclidean distance or a Levenshtein distance. 前記第2の音素特性集合に対して前記第1の音素特性集合を比較することが、前記第1の音素特性集合の少なくとも第1の特性と前記第2の音素特性集合の対応する第2の特性との比較を実行することを含む、請求項1に記載のコンピュータ化システム。 Comparing the first set of phoneme characteristics to the second set of phoneme characteristics includes at least a first characteristic of the first set of phoneme characteristics and a corresponding second set of phoneme characteristics of the second set of phoneme characteristics. 2. The computerized system of claim 1, comprising performing a comparison with a characteristic. 前記ヒト被験体の前記呼吸器疾患をモニタリングすることが、前記第1の音素特性集合および前記第2の音素特性集合の比較を実行することにより第1の特性集合距離を決定することと、前記第1の特性集合距離を閾値距離と比較することにより、前記ヒト被験体の前記呼吸器疾患が変化したものと判定することと、を含む、請求項1に記載のコンピュータ化システム。 monitoring the respiratory disease in the human subject comprises determining a first feature set distance by performing a comparison of the first phoneme feature set and the second phoneme feature set; and determining that the respiratory disease of the human subject has changed by comparing a first characteristic set distance to a threshold distance. 前記閾値距離が、臨床医により予め定められるか、または、ユーザの生理学的データ、ユーザ設定、もしくはユーザの呼吸器疾患履歴情報のうちの1つもしくは複数に基づいて自動的に決定される、請求項16に記載のコンピュータ化システム。 Claim wherein the threshold distance is predetermined by a clinician or automatically determined based on one or more of a user's physiological data, user settings, or user's respiratory disease history information. 17. Computerized system according to paragraph 16. 前記動作が、前記ヒト被験体が前記呼吸器疾患ではないと判定された時点の基準を表す第3の音素特性集合を受信することをさらに含み、前記ヒト被験体の前記呼吸器疾患をモニタリングすることが、前記第1の音素特性集合および前記第2の音素特性集合の比較を実行することにより第1の特性集合距離を決定することと、前記第2の音素特性集合と前記第3の音素特性集合との第2の比較を実行することにより第2の特性集合距離を決定することと、前記第1の音素特性集合と前記第3の音素特性集合との第3の比較を実行することにより第3の特性集合距離を決定することと、前記第2の特性集合距離および前記第3の特性集合距離の第4の比較を実行することと、前記第4の比較に基づいて、前記第2の特性集合距離が前記第3の特性集合距離よりも短い場合に、前記ヒト被験体の呼吸器疾患が改善している旨の指標を提供すること、前記第2の特性集合距離が前記第3の特性集合距離よりも長い場合に、前記ヒト被験体の呼吸器疾患が悪化している旨の指標を提供すること、または前記第2の特性集合距離が前記第3の特性集合距離に等しい場合に、前記ヒト被験体の呼吸器疾患が変化していない旨の指標を提供することのうちの1つを実行することと、を含む、請求項16に記載のコンピュータ化システム。 The operations further include receiving a third set of phoneme characteristics representative of criteria at which the human subject is determined to be free of the respiratory disease, and monitoring the human subject for the respiratory disease. determining a first feature set distance by performing a comparison between the first phoneme feature set and the second phoneme feature set; determining a second feature set distance by performing a second comparison with a feature set; and performing a third comparison between the first phoneme feature set and the third phoneme feature set. determining a third characteristic set distance by; performing a fourth comparison of the second characteristic set distance and the third characteristic set distance; and based on the fourth comparison, determining the third characteristic set distance. providing an indicator that the respiratory disease of the human subject is improving when the characteristic aggregation distance of the second characteristic aggregation distance is shorter than the third characteristic aggregation distance; providing an indication that the human subject's respiratory disease is worsening if the second trait aggregation distance is greater than the third trait aggregation distance; 17. The computerized system of claim 16, comprising: providing an indication that the human subject's respiratory disease is unchanged when the human subject's respiratory disease is unchanged. 前記基準を表す前記第3の音素特性集合が、一組の音素特性値の平均に基づいて決定された特性値を有する音素特性を含み、前記一組の音素特性値がそれぞれ、前記ヒト被験体が前記呼吸器疾患ではないと判定された時間における異なる時間区分から決定される、請求項2に記載のコンピュータ化システム。 The third phoneme feature set representing the reference includes phoneme features having feature values determined based on an average of a set of phoneme feature values, and each of the set of phoneme feature values is unique to the human subject. 3. The computerized system of claim 2, wherein: is determined from different time segments during the time when the respiratory disease is determined to be absent. 前記動作が、前記第1の音素特性集合を前記第2の音素特性集合と比較することにより決定された前記呼吸器疾患の変化に基づいて動作を開始することをさらに含む、請求項1に記載のコンピュータ化システム。 2. The action further comprises initiating action based on a change in the respiratory disease determined by comparing the first set of phoneme characteristics to the second set of phoneme characteristics. computerized system. 前記ヒト被験体の前記呼吸器疾患の変化に基づいて動作を開始することが、前記ヒト被験体と関連付けられたユーザ機器または前記ヒト被験体の臨床医の少なくとも一方に通知を発行することと、前記ヒト被験体と前記ヒト被験体の前記臨床医との間の予約を取ることと、前記呼吸器疾患の処置を修正する推奨を与えることと、処方薬の補充を要求することと、を含む、請求項20に記載のコンピュータ化システム。 initiating an action based on a change in the respiratory disease of the human subject, issuing a notification to at least one of a user equipment associated with the human subject or a clinician of the human subject; making an appointment between the human subject and the human subject's clinician; providing recommendations to modify treatment for the respiratory illness; and requesting refills of prescription drugs. 21. The computerized system of claim 20. 前記ヒト被験体と関連付けられたユーザ機器をさらに備え、前記ヒト被験体の前記呼吸器疾患をモニタリングすることが、少なくとも前記第1の音素特性集合の前記第2の音素特性集合との比較に基づいて呼吸器疾患スコアを決定することを含み、前記動作が、前記呼吸器疾患スコアを前記ユーザ機器のユーザインターフェースに表示させることをさらに含む、請求項1に記載のコンピュータ化システム。 further comprising a user equipment associated with the human subject, wherein monitoring the respiratory disease in the human subject is based on a comparison of at least the first set of phonemic characteristics with the second set of phonemic characteristics. 2. The computerized system of claim 1, further comprising: determining a respiratory illness score using a computer, said act further comprising causing said respiratory illness score to be displayed on a user interface of said user equipment. 前記ヒト被験体と関連付けられたユーザ機器をさらに備え、前記ヒト被験体の前記呼吸器疾患をモニタリングすることが、少なくとも前記第1の音素特性集合の前記第2の音素特性集合との比較に基づいて、前記呼吸器疾患と関連付けられた病原体を前記ヒト被験体が伝播するリスクを示す伝播リスクレベルを決定することを含み、前記動作が、前記伝播リスクレベルを前記ユーザ機器のユーザインターフェースに表示させることをさらに含む、請求項1に記載のコンピュータ化システム。 further comprising a user equipment associated with the human subject, wherein monitoring the respiratory disease in the human subject is based on a comparison of at least the first set of phonemic characteristics with the second set of phonemic characteristics. determining a transmission risk level indicative of a risk of the human subject transmitting a pathogen associated with the respiratory disease, the act causing the transmission risk level to be displayed on a user interface of the user equipment. The computerized system of claim 1, further comprising: 前記ヒト被験体と関連付けられたユーザ機器をさらに備え、前記ヒト被験体の前記呼吸器疾患をモニタリングすることが、少なくとも前記第1の音素特性集合の前記第2の音素特性集合との比較に基づいて、前記ヒト被験体の前記呼吸器疾患のトレンドを決定することを含み、前記動作が、前記ヒト被験体の前記呼吸器疾患の前記トレンドを前記ユーザ機器のユーザインターフェースに表示させることをさらに含む、請求項1に記載のコンピュータ化システム。 further comprising a user equipment associated with the human subject, wherein monitoring the respiratory disease in the human subject is based on a comparison of at least the first set of phonemic characteristics with the second set of phonemic characteristics. determining the trend of the respiratory disease in the human subject, the act further comprising causing the trend of the respiratory disease in the human subject to be displayed on a user interface of the user equipment. , the computerized system of claim 1. 前記第1のオーディオデータの前記第1の部分が、基本母音音素の持続的な発声を含み、前記第1の音素特性集合が、最大発声時間に基づく、請求項1に記載のコンピュータ化システム。 2. The computerized system of claim 1, wherein the first portion of the first audio data includes sustained utterances of elementary vowel phonemes, and wherein the first set of phoneme characteristics is based on maximum utterance times. 前記第1のオーディオデータが、複数の音素を含む発話文章の記録を含み、前記第1の音素特性集合が、発話速度、平均休止長、休止数、およびグローバル信号対雑音比のうちの1つまたは複数を含む、請求項1に記載のコンピュータ化システム。 The first audio data includes a recording of a spoken sentence including a plurality of phonemes, and the first set of phoneme characteristics is one of speech rate, average pause length, number of pauses, and global signal-to-noise ratio. 2. The computerized system of claim 1, comprising: or more than one. 音響センサ機器を利用して呼吸器疾患を処置する方法であって、第1の時間区分と関連付けられ、ヒト被験体の音声情報を含む第1のオーディオデータを受信するステップと、第1の音素を含む前記第1のオーディオデータの第1の部分を特徴付ける少なくとも1つの音響特性を含む第1の音素特性集合を決定するステップと、第2の時間区分と関連付けられた第2のオーディオデータから決定された第2の音素特性集合に対する前記第1の音素特性集合の比較を実行するステップと、少なくとも前記比較に基づいて、前記ヒト被験体に対する処置手順を開始することにより、前記呼吸器疾患を処置するステップと、を含む、方法。 A method of treating a respiratory disease utilizing an acoustic sensor device, the method comprising: receiving first audio data associated with a first time segment and including speech information of a human subject; and a first phoneme. determining a first set of phoneme characteristics comprising at least one acoustic characteristic characterizing a first portion of the first audio data comprising: and determining from the second audio data associated with a second time segment treating the respiratory disease by performing a comparison of the first set of phoneme characteristics to a second set of phoneme characteristics determined by the human subject; and initiating a treatment procedure for the human subject based at least on the comparison. A method, including steps for doing so. 前記処置手順を開始するステップが、治療薬、投薬量、および前記治療薬の投薬方法のうちの少なくとも1つを決定することを含む、請求項27に記載の方法。 28. The method of claim 27, wherein initiating the treatment procedure includes determining at least one of a therapeutic agent, a dosage, and a method of administering the therapeutic agent. 前記治療薬が、PLpro阻害剤(アピロモッド、EIDD-2801、リバビリン、バルガンシクロビル、β-チミジン、アスパルテーム、オクスプレノロール、ドキシサイクリン、アセトフェナジン、イオプロミド、リボフラビン、レプロテロール、2,2’-シクロチジン、クロラムフェニコル、クロルフェネシンカルバメート、レボドロプロピジン、セファマンドール、フロクスウリジン、チゲサイクリン、ペメトレキセド、L(+)-アスコルビン酸、グルタチオン、ヘスペレチン、アデメチオニン、マソプロコル、イソトレチノイン、ダントロレン、スルファサラジン抗菌、シリビニン、ニカルジピン、シルデナフィル、プラチコジン、クリシン、ネオヘスペリジン、バイカリン、スゲトリオール-3,9-ジアセテート、(-)-エピガロカテキンガレート、ファイタントリンD、2-(3,4-ジヒドロキシフェニル)-2-[[2-(3,4-ジヒドロキシフェニル)-3,4-ジヒドロ-5,7-ジヒドロキシ-2H-1-ベンゾピラン-3-イル]オキシ]-3,4-ジヒドロ-2H-1-ベンゾピラン-3,4,5,7-テトロール、2,2-ジ(3-インドリル)-3-インドロン、(S)-(1S,2R,4aS,5R,8aS)-1-ホルムアミド-1,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-2-アミノ-3-フェニルプロパノエート、ピセアタンノール、ロスマリン酸およびマグノール)、3CLpro阻害剤(リメサイクリン、クロルヘキシジン、アルフゾシン、シラスタチン、ファモチジン、アルミトリン、プロガビド、ネパフェナク、カルベジロール、アンプレナビル、チゲサイクリン、モンテルカスト、カルミン酸、ミモシン、フラビン、ルテイン、セフピラミド、フェネチシリン、カンドキサトリル、ニカルジピン、エストラジオールバレラート、ピオグリタゾン、コニバプタン、テルミサルタン、ドキシサイクリン、オキシテトラサイクリン、(1S,2R,4aS,5R,8aS)-l-ホルムアミド-l,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル5-((R)-1,2-ジチオラン-3-イル)ペンタノエート、ベトロナール、クリシン-7-Ο-β-グルクロニド、アンドログラフィシド、(1S,2R,4aS,5R,8aS)-l-ホルムアミド-l,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-2-ニトロベンゾエート、2β-ヒドロキシ-3,4-セコフリエデロラクトン-27-オイック酸(S)-(1S,2R,4aS,5R,8aS)-1-ホルムアミド-1,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-2-アミノ-3-フェニルプロパノエート、イソデコルチノール、セレビステロール、ヘスペリジン、ネオヘスペリジン、アンドログラパニン、2-((1R,5R,6R,8aS)-6-ヒドロキシ-5-(ヒドロキシメチル)-5,8a-ジメチル-2-メチレンデカヒドロナフタレン-1-イル)エチルベンゾエート、コスモシイン、クレイストカルトンA、2,2-ジ(3-インドリル)-3-インドロン、ビオロビン、グニジシン、フィラエンブリノール、テアフラビン3,3’-ジ-Ο-ガレート、ロスマリン酸、コウイチェンシドI、オレアノール酸、スティグマスト-5-エン-3-オール、デアセチルセンタピクリン、およびベルケモール)、RdRp阻害剤(バルガンシクロビル、クロルヘキシジン、セフチブテン、フェノテロール、フルダラビン、イトラコナゾール、セフロキシム、アトバコン、ケノデオキシコール酸、クロモリン、臭化パンクロニウム、コルチゾン、チボロン、ノボビオシン、シリビニン、イダルビシンブロモクリプチン、ジフェノキシレート、ベンジルペニシロイルG、ダビガトランエテキシレート、ベトロナール、グニジシン、2β,30β-ジヒドロキシ-3,4-セコフリエデロラクトン-27-ラクトン、14-デオキシ-11,12-ジドヒドロアンドログラフォリド、グニジトリン、テアフラビン3,3’-ジ-Ο-ガレート、(R)-((1R,5aS,6R,9aS)-1,5a-ジメチル-7-メチレン-3-オキソ-6-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロ-1H-ベンゾ[c]アゼピン-1-イル)メチル2-アミノ-3-フェニルプロパノエート、2β-ヒドロキシ-3,4-セコフリエデロラクトン-27-オイック酸、2-(3,4-ジヒドロキシフェニル)-2-[[2-(3,4-ジヒドロキシフェニル)-3,4-ジヒドロ-5,7-ジヒドロキシ-2H-1-ベンゾピラン-3-イル]オキシ]-3,4-ジヒドロ-2H-1-ベンゾピラン-3,4,5,7-テトロン、フィラエンブリシンB、14-ヒドロキシシペロタンドン、アンドログラフィシド、2-((1R,5R,6R,8aS)-6-ヒドロキシ-5-(ヒドロキシメチル)-5,8a-ジメチル-2-メチレンジデカヒドロナフタレン-1-イル)エチルベンゾエート、アンドログラフォリド、スゲトリオール-3,9-ジアセテート、バイカリン、(1S,2R,4aS,5R,8aS)-1-ホルムアミド-1,4a-ジメチル-6-メチレン-5-((E)-2-(2-オキソ-2,5-ジヒドロフラン-3-イル)エテニル)デカヒドロナフタレン-2-イル-5-((R)-1,2-ジチオラン-3-イル)ペンタノエート、l,7-ジヒドロキシ-3-メトキシキサントン、l,2,6-トリメトキシ-8-[(6-Ο-β-D-キシロピラノシル-β-D-グルコピラノシル)オキシ]-9H-キサンテン-9-オン、および/または1,8-ジヒドロキシ-6-メトキシ-2-[(6-Ο-β-D-キシロピラノシル-β-D-グルコピラノシル)オキシ]-9H-キサンテン-9-オン、8-(β-D-グルコピラノシロキシ)-l,3,5-トリヒドロキシ-9H-キサンテン-9-オン)、ジオスミン、ヘスペリジン、MK-3207、ベネトクラックス、ジヒドロエルゴクリスチン、ボラジン、R428、ジテルカリニウム、エトポシド、テニポシド、UK-432097、イリノテカン、ルマカフトール、ベルパタスビル、エルクサドリン、レジパスビル、ロピナビル/リトナビルとリバビリンとの組み合わせ、アルフェロン、およびプレドニゾン、デキサメタゾン、アジスロマイシン、レムデシビル、ボセプレビル、ウミフェノビル、およびファビピラビル、α-ケトアミド化合物、RIG1経路活性化因子、プロテアーゼ阻害剤、レムデシビル、ガリデシビル、ファビラビル/アビファビル、モルヌピラビル(MK-4482/EIDD 2801)、AT-527、AT-301、BLD-2660、ファビピラビル、カモスタ、SLV213エムトリシタビン/テノフィビル、クレブジン、ダルセトラピブ、ボセプレビル、ABX464、(3S)-3-({N-[(4-メトキシ-1H-インドール-2-イル)カルボニル]-L-ロイシル}アミノ)-2-オキソ-4-[(3S)-2-オキソピロリジン-3-イル]ブチル二水素リン酸塩、およびその薬学的に許容される塩、溶媒和物、または水和物(PF-07304814)、(1R,2S,5S)-N-{(1S)-1-シアノ-2-[(3S)-2-オキソピロリジン-3-イル]エチル}-6,6-ジメチル-3-[(3-メチル-N-(トリフルオロアセチル)-L-バリル]-3-アザビシクロ[3.1.0]ヘキサン-2-カルボキシアミドまたはその溶媒和物もしくは水和物(PF-07321332)、S-217622、グルココルチコイド、回復期血漿、組み換えヒト血漿、モノクローナル抗体、ラブリズマブ、VIR-7831/VIR-7832、BRII-196/BRII-198、COVI-AMG/COVI DROPS(STI-2020)、バムラニビマブ(LY-CoV555)、マブリリマブ、レロンリマブ(PRO140)、AZD7442、レンジルマブ、インフリキシマブ、アダリムマブ、JS 016、STI-1499(COVIGUARD)、ラナデルマブ(タクザイロ)、カナキヌマブ(イラリス)、ギムシルマブ、オチリマブ、抗体カクテル、組み換え融合タンパク質、抗凝固剤、IL-6受容体作動薬、PIKfyve阻害剤、RIPK1阻害剤、VIP受容体作動薬、SGLT2阻害剤、TYK阻害剤、キナーゼ阻害剤、ベムセンチニブ、アカラブルチニブ、ロスマピモド、バリシチニブ、トファシチニブ、H2阻害薬、駆虫剤、およびフリン阻害剤から成る群から選択される、請求項28に記載の方法。 The therapeutic agent may include PLpro inhibitors (apiromod, EIDD-2801, ribavirin, valganciclovir, β-thymidine, aspartame, oxprenolol, doxycycline, acetophenazine, iopromide, riboflavin, leproterol, 2,2'-cyclotidine, Ramfenicol, chlorphenesin carbamate, levodropropizine, cefamandole, floxuridine, tigecycline, pemetrexed, L(+)-ascorbic acid, glutathione, hesperetin, ademethionine, masoprocol, isotretinoin, dantrolene, sulfasalazine Antibacterial, silibinin, nicardipine, sildenafil, platycodin, chrysin, neohesperidin, baicalin, sugetriol-3,9-diacetate, (-)-epigallocatechin gallate, phytantrin D, 2-(3,4-dihydroxyphenyl) )-2-[[2-(3,4-dihydroxyphenyl)-3,4-dihydro-5,7-dihydroxy-2H-1-benzopyran-3-yl]oxy]-3,4-dihydro-2H- 1-benzopyran-3,4,5,7-tetrol, 2,2-di(3-indolyl)-3-indolone, (S)-(1S,2R,4aS,5R,8aS)-1-formamide-1 ,4a-dimethyl-6-methylene-5-((E)-2-(2-oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl-2-amino-3- phenylpropanoate, piceatannol, rosmarinic acid and magnol), 3CLpro inhibitors (rimesycline, chlorhexidine, alfuzosin, cilastatin, famotidine, almitrin, progavid, nepafenac, carvedilol, amprenavir, tigecycline, montelukast, carminic acid) , mimosine, flavin, lutein, cefpiramide, pheneticillin, candoxatril, nicardipine, estradiol valerate, pioglitazone, conivaptan, telmisartan, doxycycline, oxytetracycline, (1S,2R,4aS,5R,8aS)-l-formamide-l,4a- Dimethyl-6-methylene-5-((E)-2-(2-oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl 5-((R)-1,2 -dithioran-3-yl)pentanoate, vetronal, chrysin-7-Ο-β-glucuronide, andrographiside, (1S,2R,4aS,5R,8aS)-l-formamide-l,4a-dimethyl-6-methylene -5-((E)-2-(2-oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl-2-nitrobenzoate, 2β-hydroxy-3,4-seco Friederolactone-27-oic acid (S)-(1S,2R,4aS,5R,8aS)-1-formamide-1,4a-dimethyl-6-methylene-5-((E)-2-(2- Oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl-2-amino-3-phenylpropanoate, isodecortinol, cerebisterol, hesperidin, neohesperidin, andrograpanin , 2-((1R,5R,6R,8aS)-6-hydroxy-5-(hydroxymethyl)-5,8a-dimethyl-2-methylenedecahydronaphthalen-1-yl)ethylbenzoate, cosmosyin, cleistocaltone A, 2,2-di(3-indolyl)-3-indolone, violobin, gunizicin, filaembrinol, theaflavin 3,3'-di-Ο-gallate, rosmarinic acid, kouichenside I, oleanolic acid, stigmast RdRp inhibitors (valganciclovir, chlorhexidine, ceftibuten, fenoterol, fludarabine, itraconazole, cefuroxime, atovaquone, chenodeoxycholic acid, cromolyn, pancuronium bromide, cortisone, Tibolone, novobiocin, silibinin, idarubicin bromocriptine, diphenoxylate, benzylpenicilloyl G, dabigatran etexilate, vetronal, gunizicin, 2β,30β-dihydroxy-3,4-secofriederolactone-27-lactone, 14-deoxy -11,12-didohydroandrographolide, gnidithrin, theaflavin 3,3'-di-Ο-gallate, (R)-((1R,5aS,6R,9aS)-1,5a-dimethyl-7-methylene -3-oxo-6-((E)-2-(2-oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydro-1H-benzo[c]azepin-1-yl)methyl 2-amino -3-phenylpropanoate, 2β-hydroxy-3,4-secofriederolactone-27-oic acid, 2-(3,4-dihydroxyphenyl)-2-[[2-(3,4-dihydroxyphenyl) )-3,4-dihydro-5,7-dihydroxy-2H-1-benzopyran-3-yl]oxy]-3,4-dihydro-2H-1-benzopyran-3,4,5,7-tetron, fila Embricin B, 14-hydroxycyperotandone, andrographiside, 2-((1R,5R,6R,8aS)-6-hydroxy-5-(hydroxymethyl)-5,8a-dimethyl-2-methylenedideca Hydronaphthalen-1-yl)ethylbenzoate, andrographolide, Sugetriol-3,9-diacetate, Baicalin, (1S,2R,4aS,5R,8aS)-1-formamide-1,4a-dimethyl-6 -methylene-5-((E)-2-(2-oxo-2,5-dihydrofuran-3-yl)ethenyl)decahydronaphthalen-2-yl-5-((R)-1,2-dithiolane -3-yl)pentanoate, l,7-dihydroxy-3-methoxyxanthone, l,2,6-trimethoxy-8-[(6-Ο-β-D-xylopyranosyl-β-D-glucopyranosyl)oxy]-9H -xanthene-9-one, and/or 1,8-dihydroxy-6-methoxy-2-[(6-Ο-β-D-xylopyranosyl-β-D-glucopyranosyl)oxy]-9H-xanthen-9-one , 8-(β-D-glucopyranosiloxy)-l,3,5-trihydroxy-9H-xanthen-9-one), diosmin, hesperidin, MK-3207, venetoclax, dihydroergocristine, borazine, R428 , diterqualinium, etoposide, teniposide, UK-432097, irinotecan, lumacaftor, velpatasvir, eluxadrine, ledipasvir, lopinavir/ritonavir in combination with ribavirin, alferon, and prednisone, dexamethasone, azithromycin, remdesivir, boceprevir, umifenovir, and favipiravir, alpha - Ketoamide compounds, RIG1 pathway activators, protease inhibitors, remdesivir, galidesivir, favilavir/avifavir, molnupiravir (MK-4482/EIDD 2801), AT-527, AT-301, BLD-2660, favipiravir, camosta, SLV213 emtricitabine /tenofivir, clevudine, dalcetrapib, boceprevir, ABX464, (3S)-3-({N-[(4-methoxy-1H-indol-2-yl)carbonyl]-L-leucyl}amino)-2-oxo-4 -[(3S)-2-oxopyrrolidin-3-yl]butyl dihydrogen phosphate, and its pharmaceutically acceptable salts, solvates, or hydrates (PF-07304814), (1R,2S ,5S)-N-{(1S)-1-cyano-2-[(3S)-2-oxopyrrolidin-3-yl]ethyl}-6,6-dimethyl-3-[(3-methyl-N- (Trifluoroacetyl)-L-valyl]-3-azabicyclo[3.1.0]hexane-2-carboxamide or its solvate or hydrate (PF-07321332), S-217622, glucocorticoid, recovery Phase plasma, recombinant human plasma, monoclonal antibody, lavulizumab, VIR-7831/VIR-7832, BRII-196/BRII-198, COVI-AMG/COVI DROPS (STI-2020), bamlanivimab (LY-CoV555), mavrilimab, leronlimab (PRO140), AZD7442, lenzilumab, infliximab, adalimumab, JS 016, STI-1499 (COVIGUARD), lanadelumab (Taczylo), canakinumab (Ilaris), gimcilumab, otilimab, antibody cocktail, recombinant fusion protein, anticoagulant, IL-6 Receptor agonists, PIKfyve inhibitors, RIPK1 inhibitors, VIP receptor agonists, SGLT2 inhibitors, TYK inhibitors, kinase inhibitors, bemcentinib, acalabrutinib, rosmapimod, baricitinib, tofacitinib, H2 inhibitors, anthelmintics, and furinib 29. The method of claim 28, wherein the method is selected from the group consisting of inhibitors. 前記治療薬が、(3S)-3-({N-[(4-メトキシ-1H-インドール-2-イル)カルボニル]-L-ロイシル}アミノ)-2-オキソ-4-[(3S)-2-オキソピロリジン-3-イル]ブチル二水素リン酸塩、またはその薬学的に許容される塩、溶媒和物、もしくは水和物(PF-07304814)である、請求項28に記載の方法。 The therapeutic agent is (3S)-3-({N-[(4-methoxy-1H-indol-2-yl)carbonyl]-L-leucyl}amino)-2-oxo-4-[(3S)- 29. The method of claim 28, which is 2-oxopyrrolidin-3-yl]butyl dihydrogen phosphate, or a pharmaceutically acceptable salt, solvate, or hydrate thereof (PF-07304814). 前記治療薬が、(1R,2S,5S)-N-{(1S)-1-シアノ-2-[(3S)-2-オキソピロリジン-3-イル]エチル}-6,6-ジメチル-3-[(3-メチル-N-(トリフルオロアセチル)-L-バリル]-3-アザビシクロ[3.1.0]ヘキサン-2-カルボキシアミドまたはその溶媒和物もしくは水和物(PF-07321332)である、請求項38に記載の方法。 The therapeutic agent is (1R,2S,5S)-N-{(1S)-1-cyano-2-[(3S)-2-oxopyrrolidin-3-yl]ethyl}-6,6-dimethyl-3 -[(3-Methyl-N-(trifluoroacetyl)-L-valyl]-3-azabicyclo[3.1.0]hexane-2-carboxamide or its solvate or hydrate (PF-07321332) 39. The method of claim 38. 前記処置手順の管理を開始することが、ユーザ機器上の表示用に提供されるグラフィカルユーザインターフェース要素を生成することを含み、前記グラフィカルユーザインターフェース要素が、少なくとも前記第1の音素特性集合の前記第2の音素特性集合との比較に基づく前記処置手順の推奨を示す、請求項27に記載の方法。 Initiating management of the treatment procedure includes generating a graphical user interface element provided for display on user equipment, the graphical user interface element including at least the first set of phoneme characteristics. 28. The method of claim 27, wherein the recommendation of the treatment procedure is based on a comparison with a set of phoneme characteristics of two phoneme characteristics. 前記ユーザ機器が、前記音響センサ機器とは別個である、請求項32に記載の方法。 33. The method of claim 32, wherein the user equipment is separate from the acoustic sensor equipment. 前記推奨に基づいて、前記処置手順を前記ヒト被験体に適用するステップをさらに含む、請求項32に記載の方法。 33. The method of claim 32, further comprising applying the treatment procedure to the human subject based on the recommendation. 前記呼吸器疾患が、コロナウイルス感染症2019(COVID-19)を含む、請求項27に記載の方法。 28. The method of claim 27, wherein the respiratory disease comprises coronavirus disease 2019 (COVID-19). ヒト被験体の呼吸器疾患を処置する治療薬の効能を追跡するコンピュータ化方法であって、前記ヒト被験体の音声情報をそれぞれ表す第1の音素特性集合および第2の音素特性集合を受信するステップであり、前記第2の音素特性集合が、前記第1の音素特性集合と関連付けられた第1の日時値の後に発生する第2の日時値と関連付けられ、前記治療薬が前記ヒト被験体に投与されている期間が、少なくとも前記第2の日時値を含む、ステップと、前記第1の音素特性集合および前記第2の音素特性集合の第1の比較を実行することにより第1の特性集合距離を決定するステップと、前記第1の特性集合距離に基づいて、前記ヒト被験体の前記呼吸器疾患に変化があるかを判定するステップと、を含む、コンピュータ化方法。 A computerized method for tracking the efficacy of a therapeutic agent for treating a respiratory disease in a human subject, the method comprising: receiving a first set of phoneme features and a second set of phoneme features, each representing speech information of the human subject; the second set of phoneme characteristics is associated with a second date and time value that occurs after the first date and time value associated with the first set of phoneme characteristics, and the therapeutic agent is administered to the human subject. the first characteristic by performing a first comparison of the first set of phoneme characteristics and the second set of phoneme characteristics; A computerized method comprising: determining an aggregation distance; and determining whether there is a change in the respiratory disease of the human subject based on the first characteristic aggregation distance. 前記呼吸器疾患が、呼吸器感染症であり、前記治療薬が、抗菌薬である、請求項36に記載のコンピュータ化方法。 37. The computerized method of claim 36, wherein the respiratory disease is a respiratory infection and the therapeutic agent is an antimicrobial agent. 前記治療薬が、抗生薬である、請求項37に記載のコンピュータ化方法。 38. The computerized method of claim 37, wherein the therapeutic agent is an antibiotic. 少なくとも前記ヒト被験体の前記呼吸器疾患に変化があるかを判定するステップに基づいて、前記抗生薬の効能の変化を決定するステップをさらに含む、請求項37に記載のコンピュータ化方法。 38. The computerized method of claim 37, further comprising determining a change in efficacy of the antibiotic based on determining whether there is a change in the respiratory disease of at least the human subject. 前記ヒト被験体の前記呼吸器疾患に変化があるかを判定するステップが、前記呼吸器疾患が改善したか、悪化したか、変化していないかを判定することを含む、請求項36に記載のコンピュータ化方法。 37. The step of determining whether there is a change in the respiratory disease of the human subject comprises determining whether the respiratory disease has improved, worsened, or remained unchanged. computerized method. 前記ヒト被験体の前記呼吸器疾患に変化があるかを判定するステップに基づいて、前記ヒト被験体を処置する動作を開始するステップをさらに含む、請求項36に記載のコンピュータ化方法。 37. The computerized method of claim 36, further comprising initiating an action to treat the human subject based on determining whether there is a change in the respiratory disease of the human subject. 前記ヒト被験体を処置する前記動作が、前記呼吸器疾患が悪化した旨の判定により開始される、請求項41に記載のコンピュータ化方法。 42. The computerized method of claim 41, wherein the act of treating the human subject is initiated by a determination that the respiratory disease has worsened. 前記ヒト被験体を処置する前記動作が、前記呼吸器疾患が悪化した旨または変化していない旨の判定により開始される、請求項41に記載のコンピュータ化方法。 42. The computerized method of claim 41, wherein the act of treating the human subject is initiated by a determination that the respiratory disease has worsened or remains unchanged. 前記ヒト被験体を処置する前記動作が、前記ヒト被験体の処置手順を変更することを含む、請求項41に記載のコンピュータ化方法。 42. The computerized method of claim 41, wherein the act of treating the human subject comprises modifying a treatment procedure for the human subject. 前記ヒト被験体の前記処置手順を変更することが、前記治療薬または前記治療薬の投薬量のうちの1つまたは複数を調整する推奨を開始することを含む、請求項44に記載のコンピュータ化方法。 45. The computerized method of claim 44, wherein altering the treatment procedure of the human subject comprises initiating a recommendation to adjust one or more of the therapeutic agent or dosage of the therapeutic agent. Method. 前記ヒト被験体の前記処置手順を変更することが、前記ヒト被験体の前記処置手順の修正を要求するメッセージを前記ヒト被験体のケア提供者に送ることを含む、請求項44に記載のコンピュータ化方法。 45. The computer of claim 44, wherein modifying the treatment procedure for the human subject includes sending a message to the human subject's care provider requesting a modification to the treatment procedure for the human subject. method. 前記ヒト被験体を処置する前記動作が、前記ヒト被験体の電子健康レコード(EHR)から決定された薬局に対して前記治療薬の補充リクエストを電子的に開始することを含む、請求項41に記載のコンピュータ化方法。 42. The act of treating the human subject comprises electronically initiating a refill request for the therapeutic agent to a pharmacy determined from the human subject's electronic health record (EHR). The computerized method described.
JP2023513686A 2020-08-28 2021-08-30 Computerized decision support tools and medical devices for respiratory disease monitoring and care Pending JP2023539874A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063071718P 2020-08-28 2020-08-28
US63/071,718 2020-08-28
US202163238103P 2021-08-27 2021-08-27
US63/238,103 2021-08-27
PCT/US2021/048242 WO2022047311A1 (en) 2020-08-28 2021-08-30 Computerized decision support tool and medical device for respiratory condition monitoring and care

Publications (1)

Publication Number Publication Date
JP2023539874A true JP2023539874A (en) 2023-09-20

Family

ID=80354129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023513686A Pending JP2023539874A (en) 2020-08-28 2021-08-30 Computerized decision support tools and medical devices for respiratory disease monitoring and care

Country Status (10)

Country Link
US (1) US20230329630A1 (en)
EP (1) EP4203775A4 (en)
JP (1) JP2023539874A (en)
KR (1) KR20230079055A (en)
AU (1) AU2021333916A1 (en)
BR (1) BR112023003624A2 (en)
CA (1) CA3190906A1 (en)
IL (1) IL300993A (en)
MX (1) MX2023002470A (en)
WO (1) WO2022047311A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230072242A1 (en) * 2021-09-07 2023-03-09 Canary Speech, LLC Paired neural networks for diagnosing health conditions via speech
US20230214850A1 (en) * 2022-01-04 2023-07-06 Nice Ltd. System and method for real-time fraud detection in voice biometric systems using phonemes in fraudster voice prints
KR102516391B1 (en) * 2022-09-02 2023-04-03 주식회사 액션파워 Method for detecting speech segment from audio considering length of speech segment
EP4350701A1 (en) * 2022-10-07 2024-04-10 SIVA Health AG Classifying individuals suffering from chronic cough
EP4360548A1 (en) * 2022-10-27 2024-05-01 New Senses Uzay Teknoloji Ve Saglik Ararstirmalari A.S. Diagnosis of some diseases with sound frequencies

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6599694B2 (en) * 2000-12-18 2003-07-29 Cytokinetics, Inc. Method of characterizing potential therapeutics by determining cell-cell interactions
SG186409A1 (en) * 2010-07-08 2013-02-28 Pfizer Piperidinyl pyrimidine amides as kv7 potassium channel openers
US9579056B2 (en) * 2012-10-16 2017-02-28 University Of Florida Research Foundation, Incorporated Screening for neurological disease using speech articulation characteristics
US20160004831A1 (en) * 2014-07-07 2016-01-07 Zoll Medical Corporation Medical device with natural language processor

Also Published As

Publication number Publication date
WO2022047311A1 (en) 2022-03-03
CA3190906A1 (en) 2022-03-03
EP4203775A1 (en) 2023-07-05
MX2023002470A (en) 2023-07-20
EP4203775A4 (en) 2024-07-31
US20230329630A1 (en) 2023-10-19
BR112023003624A2 (en) 2023-03-28
IL300993A (en) 2023-04-01
KR20230079055A (en) 2023-06-05
AU2021333916A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
US20230329630A1 (en) Computerized decision support tool and medical device for respiratory condition monitoring and care
US10010288B2 (en) Screening for neurological disease using speech articulation characteristics
US20200388287A1 (en) Intelligent health monitoring
US20200380957A1 (en) Systems and Methods for Machine Learning of Voice Attributes
US8784311B2 (en) Systems and methods of screening for medical states using speech and other vocal behaviors
US9070357B1 (en) Using speech analysis to assess a speaker&#39;s physiological health
Crawley et al. Assessment of clinical and social characteristics that distinguish presbylaryngis from pathologic presbyphonia in elderly individuals
US20180296092A1 (en) System and method for monitoring and determining a medical condition of a user
Sánchez Morillo et al. Computer-aided diagnosis of pneumonia in patients with chronic obstructive pulmonary disease
JP2021529382A (en) Systems and methods for mental health assessment
Taylor et al. Objective assessment of patient inhaler user technique using an audio-based classification approach
US20210298711A1 (en) Audio biomarker for virtual lung function assessment and auscultation
Deshpande et al. Audio, speech, language, & signal processing for covid-19: A comprehensive overview
Chatterjee et al. Assessing severity of pulmonary obstruction from respiration phase-based wheeze-sensing using mobile sensors
Rahman et al. Towards reliable data collection and annotation to extract pulmonary digital biomarkers using mobile sensors
Cho et al. Evaluating prediction models of sleep apnea from smartphone-recorded sleep breathing sounds
Wisler et al. Speech-based estimation of bulbar regression in amyotrophic lateral sclerosis
US20230045078A1 (en) Systems and methods for audio processing and analysis of multi-dimensional statistical signature using machine learing algorithms
TW202343476A (en) Computerized decision support tool and medical device for respiratory condition monitoring and care
CN116600698A (en) Computerized decision support tool and medical device for respiratory condition monitoring and care
KR20230047104A (en) Digital Devices and Applications for the Treatment of Social Communication Disorders
US20200129115A1 (en) Improved diagnostic instrument and methods
Nathan et al. Assessing Severity of Pulmonary Obstruction from Respiration Phase-Based Wheeze Sensing Using Mobile Sensors
Aljbawi et al. Developing a multi-variate prediction model for the detection of COVID-19 from Crowd-sourced Respiratory Voice Data
Niermeyer et al. Predicting Airflow from Measures Sensitive to Mid-cord Glottal Gap During the COVID-19 Pandemic

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230419

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240312