JP2024511698A - 個人化されたマスク形状を持続的に調整するためのシステムおよび方法 - Google Patents

個人化されたマスク形状を持続的に調整するためのシステムおよび方法 Download PDF

Info

Publication number
JP2024511698A
JP2024511698A JP2023547888A JP2023547888A JP2024511698A JP 2024511698 A JP2024511698 A JP 2024511698A JP 2023547888 A JP2023547888 A JP 2023547888A JP 2023547888 A JP2023547888 A JP 2023547888A JP 2024511698 A JP2024511698 A JP 2024511698A
Authority
JP
Japan
Prior art keywords
user
data
sensor
interface
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023547888A
Other languages
English (en)
Inventor
ピーク、グレゴリー、ロバート
リウ、ネイサン、ザーシー
ソウザ、サケーナ デ
ホッグ、マイケル、クリストファー
ショルディス、レドモンド
Original Assignee
レズメド インコーポレイテッド
レズメド ピーティーワイ リミテッド
レズメド センサー テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レズメド インコーポレイテッド, レズメド ピーティーワイ リミテッド, レズメド センサー テクノロジーズ リミテッド filed Critical レズメド インコーポレイテッド
Publication of JP2024511698A publication Critical patent/JP2024511698A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/021Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes operated by electrical means
    • A61M16/022Control means therefor
    • A61M16/024Control means therefor including calculation means, e.g. using a processor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • A61M16/0605Means for improving the adaptation of the mask to the patient
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/0057Pumps therefor
    • A61M16/0066Blowers or centrifugal pumps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/0057Pumps therefor
    • A61M16/0075Bellows-type
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • A61M16/0605Means for improving the adaptation of the mask to the patient
    • A61M16/0616Means for improving the adaptation of the mask to the patient with face sealing means comprising a flap or membrane projecting inwards, such that sealing increases with increasing inhalation gas pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • A61M16/0666Nasal cannulas or tubing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • A61M16/0683Holding devices therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/08Bellows; Connecting tubes ; Water traps; Patient circuits
    • A61M16/0816Joints or connectors
    • A61M16/0833T- or Y-type connectors, e.g. Y-piece
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/08Bellows; Connecting tubes ; Water traps; Patient circuits
    • A61M16/0875Connecting tubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/10Preparation of respiratory gases or vapours
    • A61M16/105Filters
    • A61M16/1055Filters bacterial
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/10Preparation of respiratory gases or vapours
    • A61M16/105Filters
    • A61M16/106Filters in a path
    • A61M16/107Filters in a path in the inspiratory path
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/10Preparation of respiratory gases or vapours
    • A61M16/1075Preparation of respiratory gases or vapours by influencing the temperature
    • A61M16/109Preparation of respiratory gases or vapours by influencing the temperature the humidifying liquid or the beneficial agent
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/10Preparation of respiratory gases or vapours
    • A61M16/1075Preparation of respiratory gases or vapours by influencing the temperature
    • A61M16/1095Preparation of respiratory gases or vapours by influencing the temperature in the connecting tubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/10Preparation of respiratory gases or vapours
    • A61M16/14Preparation of respiratory gases or vapours by mixing different fluids, one of them being in a liquid phase
    • A61M16/16Devices to humidify the respiration air
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/10Preparation of respiratory gases or vapours
    • A61M16/14Preparation of respiratory gases or vapours by mixing different fluids, one of them being in a liquid phase
    • A61M16/16Devices to humidify the respiration air
    • A61M16/161Devices to humidify the respiration air with means for measuring the humidity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/20Valves specially adapted to medical respiratory devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/0003Accessories therefor, e.g. sensors, vibrators, negative pressure
    • A61M2016/0027Accessories therefor, e.g. sensors, vibrators, negative pressure pressure meter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/0003Accessories therefor, e.g. sensors, vibrators, negative pressure
    • A61M2016/003Accessories therefor, e.g. sensors, vibrators, negative pressure with a flowmeter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • A61M2016/0661Respiratory or anaesthetic masks with customised shape
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/10Preparation of respiratory gases or vapours
    • A61M16/1005Preparation of respiratory gases or vapours with O2 features or with parameter measurement
    • A61M2016/102Measuring a parameter of the content of the delivered gas
    • A61M2016/1025Measuring a parameter of the content of the delivered gas the O2 concentration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2202/00Special media to be introduced, removed or treated
    • A61M2202/02Gases
    • A61M2202/0225Carbon oxides, e.g. Carbon dioxide
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/02General characteristics of the apparatus characterised by a particular materials
    • A61M2205/0244Micromachined materials, e.g. made from silicon wafers, microelectromechanical systems [MEMS] or comprising nanotechnology
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/02General characteristics of the apparatus characterised by a particular materials
    • A61M2205/0272Electro-active or magneto-active materials
    • A61M2205/0294Piezoelectric materials
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/15Detection of leaks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3306Optical measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3317Electromagnetic, inductive or dielectric measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/332Force measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3331Pressure; Flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3331Pressure; Flow
    • A61M2205/3334Measuring or controlling the flow rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3365Rotational speed
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3368Temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3375Acoustical, e.g. ultrasonic, measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3546Range
    • A61M2205/3553Range remote, e.g. between patient's home and doctor's office
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3576Communication with non implanted data transmission devices, e.g. using external transmitter or receiver
    • A61M2205/3584Communication with non implanted data transmission devices, e.g. using external transmitter or receiver using modem, internet or bluetooth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3576Communication with non implanted data transmission devices, e.g. using external transmitter or receiver
    • A61M2205/3592Communication with non implanted data transmission devices, e.g. using external transmitter or receiver using telemetric means, e.g. radio or optical transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/42Reducing noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • A61M2205/505Touch-screens; Virtual keyboard or keypads; Virtual buttons; Soft keys; Mouse touches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/52General characteristics of the apparatus with microprocessors or computers with memories providing a history of measured variating parameters of apparatus or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/58Means for facilitating use, e.g. by people with impaired vision
    • A61M2205/581Means for facilitating use, e.g. by people with impaired vision by audible feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/58Means for facilitating use, e.g. by people with impaired vision
    • A61M2205/583Means for facilitating use, e.g. by people with impaired vision by visual feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/60General characteristics of the apparatus with identification means
    • A61M2205/6063Optical identification systems
    • A61M2205/6072Bar codes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/60General characteristics of the apparatus with identification means
    • A61M2205/609Biometric patient identification means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/70General characteristics of the apparatus with testing or calibration facilities
    • A61M2205/702General characteristics of the apparatus with testing or calibration facilities automatically during use
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/82Internal energy supply devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2209/00Ancillary equipment
    • A61M2209/08Supports for equipment
    • A61M2209/088Supports for equipment on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/04Heartbeat characteristics, e.g. ECG, blood pressure modulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/04Heartbeat characteristics, e.g. ECG, blood pressure modulation
    • A61M2230/06Heartbeat rate only
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/08Other bio-electrical signals
    • A61M2230/10Electroencephalographic signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/20Blood composition characteristics
    • A61M2230/205Blood composition characteristics partial oxygen pressure (P-O2)
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/30Blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/40Respiratory characteristics
    • A61M2230/42Rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/40Respiratory characteristics
    • A61M2230/43Composition of exhalation
    • A61M2230/437Composition of exhalation the anaesthetic agent concentration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/50Temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/60Muscle strain, i.e. measured on the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/65Impedance, e.g. conductivity, capacity

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hematology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Anesthesiology (AREA)
  • Pulmonology (AREA)
  • Veterinary Medicine (AREA)
  • Emergency Medicine (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

呼吸療法のためにインターフェースをユーザーの顔に適合させるためのシステムおよび方法。ユーザーの顔画像を記憶する。顔画像に基づいて顔特徴を決定する。データベースは、顔特徴および複数の対応するインターフェースに基づく顔輪郭を記憶する。データベースは、複数の対応するインターフェースを有する呼吸療法デバイスの動作データを記憶する。データベースには選択エンジンが結合されている。選択エンジンは、記憶された動作データおよび顔特徴に基づく望ましい結果に基づいて、複数の対応するインターフェースの中からユーザー用のインターフェースを選択するために動作する。収集されたデータは、選択されたインターフェースがユーザーの顔に適切に適合しているか否かを判定するためにも使用され得る。

Description

[関連出願の相互参照]
本開示は、2021年2月26日に出願された米国仮特許出願第63/154,223号および2021年3月31日に出願された米国仮特許出願第63/168,635号の優先権および利益を主張している。これらの出願の内容は、引用により全体として本明細書に組み込まれている。
本開示は、概して、呼吸療法デバイス用のインターフェースに関し、より具体的には、個々のユーザーデータに基づいてマスクをより適切に選択するためのシステムに関する。
さまざまな呼吸器疾患が存在する。特定の疾患は、特定の発症、例えば、無呼吸、呼吸低下、および過呼吸によって特徴付けられ得る。閉塞性睡眠時無呼吸(OSA)は、睡眠呼吸障害(SDB)の1つの形態であり、睡眠時の上通気道の閉鎖または閉塞などの発症によって特徴付けられる。これは、上気道が異常に狭いことと、睡眠中の舌、軟口蓋、中咽頭後壁の領域の正常な筋緊張の低下が組み合わさって起こる。このような状況により、影響を受けた患者は、通常30~120秒、いくつかの場合毎晩200~300回の呼吸停止を余儀なくされる。日中の過度の眠気を引き起こすことが多く、心血管疾患や脳損傷を引き起こす可能性がある。この症候群は、特に中年の太りすぎの男性によく見られる障害であるが、罹患している本人は問題に気づいていない場合もある。
その他の睡眠関連疾患には、チェーンストークス呼吸(CSR)、肥満過換気症候群(OHS)、慢性閉塞性肺疾患(COPD)などが含まれる。COPDは、特定の共通する特性を有する下気道疾患のグループのうちのいずれも包含する。これらの症状には、空気の流れに対する抵抗の増加、呼吸のための呼気相の延長、肺の正常な弾力性の喪失などがある。COPDの例としては、肺気腫や慢性気管支炎がある。COPDは、慢性喫煙(主なリスク要因)、職業上の暴露、大気汚染、遺伝的要因によって引き起こされる。
持続的気道陽圧換気(CPAP)療法は閉塞性睡眠時無呼吸症候群(OSA)の治療に使用されている。軟口蓋および舌を押して後口咽頭壁へ前進または後退させることにより、持続的気道陽圧療法の適用が空気スプリントとして機能し、これにより上気道の閉鎖を防止し得る。
非侵襲的換気(NIV)は、換気補助を上気道を通じて患者へ提供して、呼吸機能の一部または全体を行うことにより患者の深呼吸の補助および/または身体中の適切な酸素レベルの維持を提供する。換気補助は、ユーザーインターフェースを介して提供される。NIVは、CSR、OHS、COPD、および胸壁障害などの治療に用いられている。いくつかの形態では、これらの療法の快適さと有効性が改善される可能性がある。侵襲的換気(IV)は、もはや有効な呼吸ができなくなった患者に換気補助を提供し、気管切開チューブを使用して提供する場合がある。
治療システム(本明細書では呼吸療法システムとしても称する)は、呼吸圧療法デバイス(RPTデバイス)、空気回路、加湿器、ユーザーインターフェース、およびデータ管理を含むことができる。患者またはユーザーインターフェースは、例えば空気の流れを気道の入口に供給することによって、呼吸デバイスをその装着者にインターフェースするために使用され得る。空気の流れは、マスクを介して患者の鼻および/または口に、チューブを介して患者の口に、または気管切開チューブを介して患者の気管に供給され得る。適用される療法に応じて、ユーザーインターフェースは、例えば、治療を可能にするために、周囲圧力と十分に変化する圧力、例えば、周囲圧力に対して約10cmHOの陽圧でのガスの送達を容易にするために、例えば、患者の顔の領域とシールを形成することができる。酸素の送達のような他の形態の療法の場合、ユーザーインターフェースは、約10cmHOの陽圧で気道へのガス供給の送達を容易にするのに十分なシールを含んでいないことがある。このような療法による呼吸器疾患の治療は任意であってもよく、したがって、患者は、このような療法を提供するために使用されるデバイスが不快であり、使用が困難であり、高価であり、および/または見栄えが悪いと感じた場合、療法に従わないことを選択する可能性がある。
ユーザーインターフェースの設計には多くの課題がある。顔は、複雑な三次元形状を有する。鼻のサイズや形は個人差が大きくある。頭部には骨、軟骨および軟組織が含まれているので、顔の異なる領域で機械的力に対する反応が異なる。顎または下顎骨は、頭蓋骨の他の骨に対して動くことがある。呼吸療法中に頭部全体が動くことがある。
これらの課題の結果、一部のマスクは、特に長時間装着した場合やユーザーがシステムに不慣れな場合に、目障りであること、美的に望ましくないこと、高価であること、不適切であること、使いにくいこと、および不快ことのうちの1つまたは複数の課題を抱えている。例えば、飛行士専用に設計されたマスク、個人用防護具の一部として設計されたマスク(例えば、フィルターマスク)、スキューバマスク、または麻酔薬を投与するためのマスクは、それらの本来の用途に対して許容可能であるが、それにもかかわらず、このようなマスクは、長時間(例えば、数時間)装着した場合に、着用者にとって望ましくない不快感を与える可能性がある。この不快感は、ユーザーの療法へのコンプライアンスの低下につながる可能性がある。これは、マスクを睡眠時に着用する必要がある場合、特に当てはまる。
CPAP療法は、ユーザーが療法を遵守している限り、特定の呼吸器疾患の治療に非常に有効である。ユーザーインターフェースを得ると、ユーザーが陽圧療法を行うことを可能にする。ユーザーは、ユーザーの顔の解剖学的構造の測定値に基づいて推奨されるユーザーインターフェースのサイズを決定するために、ユーザーの第1ユーザーインターフェースまたは旧インターフェースに代わる新しいユーザーインターフェースを求めることが一般的であり、この測定値は、一般的に、耐久医療機器の提供者によって行われる。マスクが不快であったり、使いにくかったりした場合、ユーザーが療法を遵守しない可能性がある。定期的にマスクを洗浄することが推奨されることが多いため、マスクの洗浄が困難な場合(例えば、組み立てや分解が困難な場合)には、マスクを洗浄しないことがあり、これはユーザーのコンプライアンスに影響を及ぼす可能性がある。空気圧療法を効果的に行うためには、マスク装着時の快適さをユーザーに提供するだけでなく、顔とマスクの間に空気漏れを最小限に抑えるためのしっかりとしたシールを形成しなければならない。
上述したように、ユーザーインターフェースは、鼻マスク、フルフェースマスク/口鼻マスク(FFM)、または鼻枕マスクなどの様々な形態でユーザーに提供することができる。このようなユーザーインターフェースは、例えば陽圧療法機能を提供する快適なインターフェースを有することを容易にするために、特定のユーザーの解剖学的特徴に適合するように様々なサイズで製造される。このユーザーインターフェースのサイズは、特定のユーザーの特定の顔解剖学的構造に対応するようにカスタマイズすることができ、または、予め定義された空間境界または範囲内に収まる解剖学的構造を有する個人の集団に適合するように設計することができる。しかし、いくつかの場合、マスクにはさまざまな標準サイズがあり、その中から適切なサイズを選択しなければならない場合もある。
この点に関して、ユーザー用のユーザーインターフェースのサイズを決定することは、通常、耐久医療機器(DME)の提供者または医師のような訓練を受けた個人によって行われる。典型的には、陽圧療法を開始または継続するためにユーザーインターフェースを必要とするユーザーは、収容施設で訓練された個人を訪問し、そこで一連の測定を行い、標準サイズから適切なユーザーインターフェースサイズを決定するよう努力する。適切なサイズは、陽圧療法を可能にするのに十分な快適さとシールを提供する、ユーザーインターフェースのシール形成構造などの特定の特徴のサイズの特定の組み合わせを表すことを意図している。このようにサイズを決定するのは、作業が大変であるだけでなく、不便である。忙しいスケジュールから時間を割かなければならないことや、場合によってはかなりの距離を移動しなければならないという不便さは、多くのユーザーが新しいユーザーインターフェースや代替ユーザーインターフェースを利用する上での障壁となり、最終的には、治療を受ける上での障壁となる。この不便さにより、ユーザーは所望のユーザーインターフェースを受け取ることができず、陽圧療法を行うこともできない。それにもかかわらず、最適なサイズを選択することは、治療の質とコンプライアンスにとって重要である。
選択された顔寸法データに基づいてユーザーインターフェースを正確に個別に適合することを可能にするシステムが必要である。呼吸療法デバイスを使用する他の同様のユーザーに関するデータを組み合わせて、呼吸療法の使用における快適さを提供するインターフェースをさらに選択するシステムが必要である。インターフェースとユーザーの顔との間の漏れを最小に抑えるインターフェースを選択する必要もある。
開示されたシステムは、個々のユーザーの療法に対するコンプライアンスを改善するために、呼吸療法デバイスと共に使用されるマスクのサイズを決定するための適応可能なシステムを提供する。このシステムは、プライマリユーザーからの顔データと、より大規模なユーザー集団からの呼吸療法デバイスの使用状況やその他のデータを収集し、プライマリユーザーに最適なマスクの選択を支援する。
開示された例は、ユーザーの顔に適した呼吸療法用のインターフェースを選択するシステムである。システムは、ユーザーの顔画像を記憶する記憶デバイスを含む。顔輪郭エンジンは、顔画像に基づいて顔特徴を決定するように動作可能である。1つまたは複数のデータベースは、ユーザー集団からの複数の顔特徴および複数の対応するインターフェースを記憶する。1つまたは複数のデータベースは、複数の対応するインターフェースを有するユーザー集団によって使用される呼吸療法デバイスの動作データを記憶する。選択エンジンはデータベースに結合されている。選択エンジンは、記憶された動作データおよび決定された顔特徴からの望ましい結果に基づいて、複数の対応するインターフェースの中からユーザー用のインターフェースを選択するように動作する。
別の開示された例は、ユーザーの顔に適した呼吸療法用のインターフェースを選択する方法である。ユーザーの顔画像は記憶デバイスに記憶される。顔寸法は、ランドマークに基づいて決定される。複数の顔特徴がユーザー集団から記憶され、患者集団が使用する複数の対応するインターフェースが1つまたは複数のデータベースに記憶される。複数の対応するインターフェースを有するユーザー集団によって使用される呼吸療法デバイスの動作データが、1つまたは複数のデータベースに記憶される。記憶された動作データおよび判定された顔特徴から望ましい結果に基づいて、複数の対応するインターフェースの中からユーザーのインターフェースを選択する。
いくつかの実施形態によれば、例示的な方法は、ユーザーの顔へのインターフェースの現在の適合度に関連するセンサデータを受信するステップを含む。このインターフェースは、呼吸デバイスに結合することができる。センサデータは、呼吸デバイスとは別のモバイルデバイスの1つまたは複数のセンサーによって収集される。この方法は、センサデータを使用して顔マッピングを生成するステップをさらに含む。顔マッピングは、ユーザーの顔の1つまたは複数の特徴を示す。この方法は、センサデータおよび顔マッピングを使用して、現在の適合度に関連する特性を識別するステップをさらに含む。この特性は、現在の適合度の質を示す。この特性は、顔マッピング上の特徴的な位置に関連している。この方法は、識別された特性および特徴的な位置に基づいて出力フィードバックを生成するステップをさらに含む。出力フィードバックを生成して、現在の適合度を評価または改善する。
いくつかの実施形態によれば、例示的なシステムは、電子インターフェース、メモリ、および制御システムを含む。電子インターフェースは、インターフェースの現在の適合度に関連するデータを受信するように構成されている。メモリは、機械可読命令を記憶する。制御システムは、機械可読指令を実行して、受信データを使用して顔マッピングを生成し、受信データおよび顔マッピングに基づいて現在の適合度に関連する特性を識別するように構成された1つまたは複数のプロセッサを含む。制御システムはさらに、識別された特性に基づいて出力フィードバックを生成するように構成されている。出力フィードバックを生成して、現在の適合度を評価または改善する。
以上の概要は、本開示の各実施形態または各態様を表すことを意図していない。むしろ、前述の概要は、本明細書に記載される新規な態様および特徴のいくつかの例を提供するに過ぎない。本開示の上述の特徴および利点は、添付の図面および特許請求の範囲と組み合わされた場合、本発明の代表的な実施形態および実施形態を実施するための以下の詳細な説明から明らかになるであろうし、本開示の他の特徴および利点も明らかになるであろう。
添付の図面を参照すると、本開示は、以下の例示的な実施形態の説明によってよりよく理解される。
例示的な呼吸圧療法デバイスからPAP治療を受けるためにフルフェースマスクの形態のユーザーインターフェースを装着したユーザーを含むシステムを示す。 本技術の一形態による、ヘッドギアを有する鼻マスクの形態のユーザーインターフェースを示す。 いくつかの表面解剖学的特徴を有する顔の正面図である。 いくつかの表面解剖学的特徴が識別された頭部の側面図である。 いくつかの特徴が識別された鼻の基本図である。 本技術の一形態による、<2>呼吸圧療法デバイスを示す。 本技術の一形態による、呼吸圧療法デバイスの空気圧経路の概略図である。 本技術の一形態による、呼吸圧療法デバイスの電気部品の概略図である。 本技術の一形態による、呼吸圧療法システムの主要なデータ処理部品の概略図である。 図2のユーザーインターフェースに空気を供給するホース内に音響センサーの配置を示すブロック図である。 顔データを取り込むために使用されるコンピューティングデバイスの部品の図である。 コンピューティングデバイスを含む患者インターフェースを自動的に選択するための例示的なシステムの図である。 マスクのサイジングのための顔寸法を識別するための異なるランドマーク点を示す例示的な顔スキャンである。 第1顔測定値を識別するための異なるランドマーク点を示す、図8Aの顔スキャンの図である。 第2顔測定値を識別するための異なるランドマーク点を示す、図8Aの顔スキャンの図である。 第3顔測定値を識別するための異なるランドマーク点を示す、図8Aの顔スキャンの図である。 ユーザーデータベースから収集されたビッグデータを考慮したユーザー入力のスキャンおよび分析に基づいてユーザーのためのマスクを選択するプロセスを示す流れ図である。 プライマリユーザーに関するデータに基づいて相関パラメータを調整するための、マスクの初期選択からのフォローアップ評価のプロセスの流れ図である。 ユーザーインターフェースの現在の適合度に関連するセンサデータを収集するためにユーザーがユーザーデバイスを制御する斜視図である。 ユーザーインターフェースの現在の適合度に関連する熱特性を識別するためのユーザーデバイスのユーザービューである。 ユーザーインターフェースの現在の適合度に関連する輪郭ベースの特性を識別するためのユーザーデバイスのユーザービューである。 ユーザーインターフェース遷移イベント間のユーザーインターフェースの適合度を評価するためのプロセスを説明するフローチャートである。 ユーザーインターフェースの適合度を評価するためのプロセスを説明するフローチャートである。
本開示は、様々な修正および代替形態の影響を受けやすい。いくつかの代表的な実施形態が、図面では例示として示されており、本明細書にて詳細に説明される。しかしながら、本発明は、開示された特定の形態に限定されることを意図していないことが理解されるべきである。むしろ、本開示は、添付の特許請求の範囲にて定義される本発明の趣旨および範囲に含まれる全ての修正形態、均等物、および代替形態を包含するものである。
本発明は、多くの異なる形で具現化できる。代表的な実施形態が図面に示され、本明細書にて詳細に説明される。本開示は、本開示の原理の一例または例示であり、本開示の広範な態様を、示される実施形態に限定することを意図するものではない。その限りにおいて、例えば、「要約書」、「発明の概要」、および「発明の詳細な説明」にて開示されているが、「特許請求の範囲」では明示的に述べられていない要素および限定事項は、単独でまたは集合的に、含意により、推論により、またはそれ以外の方法で、「特許請求の範囲」に組み込まれるべきではない。「発明を実施するための形態」の目的のために、特段の断りがない限り、単数形は複数形を含み、複数形は単数形を含み、用語「含む」は、「含むが限定されない」を意味する。さらに、「約(about)」、「ほぼ(almost)」、「実質的に(substantially)」、「およそ(approximately)」などの近似の単語は、本明細書では、「で(at)」、「近く(near)」、または「ほぼ(nearly at)」、「3~5%以内」、「許容可能な製造公差内」、またはそれらの論理的な組み合わせを意味するために使用することができる。
本発明は、呼吸療法デバイスを使用してユーザーに最適なインターフェースを選択するためのシステムおよび方法に関する。システムは、モバイルデバイス上の顔スキャンアプリケーションからユーザーの個々の顔特徴データを収集し、スキャンされた画像から顔の3Dモデルを生成する。このシステムは、スキャンされた画像上のキーランドマークを正確に特定して、さまざまな顔寸法を決定する。システムは、複数のユーザーからのデータを収集し、ユーザーデータおよびさまざまなマスクを使用する呼吸療法デバイスからの動作データに基づいて、さまざまなマスクと呼吸治療との成功した相関を学習する。このシステムは、顔寸法データと複数のユーザーから収集されたデータとを使用して、インターフェースおよび呼吸療法デバイスを使用した複数のユーザーから収集された過去のデータとの一致の成功と比較して、ユーザーに適したマスクのサイズおよびタイプを選択する。このデータは、療法のコンプライアンス/アドヒアランスを改善するためにユーザーに提供することができる新たな知見をさらに学習するためにも使用することができる。したがって、この方法は、適切な顔スキャン方法をランドマーク識別、マスク選択、療法モニタリング、およびフィードバックと組み合わせて、効果的なユーザーインターフェースの選択を提供する。
本開示の特定の態様および特徴は、ユーザーインターフェース(例えば、フィルターマスクまたは呼吸療法デバイスのユーザーインターフェース)の適合度を評価および改善することに関する。ユーザーデバイス(例えば、携帯型ユーザーデバイス、例えば、携帯電話、モバイルコンピューティングデバイスまたはモバイルデバイスとも呼ばれる)の1つまたは複数のセンサーからのセンサデータは、ユーザーが、ウェアラブルユーザーインタフェース(例えば、呼吸デバイスとともに使用されるユーザーインターフェース)がユーザーの顔に適切に適合することを確保するのを支援するために利用され得る。センサーは、i)ユーザーインターフェースが着用される前、ii)ユーザーインターフェースが装着されている間、および/またはiii)ユーザーインターフェースが取り外された後、ユーザーの顔に関するデータを収集することができる。顔マッピングを生成してユーザーの顔の1つまたは複数の特徴を識別することができる。次いで、センサデータおよび顔マッピングを利用して、ユーザーインターフェースの適合度に関連する特性を識別することができ、これらの特性は、適合度を評価および/または改善するための出力フィードバックを生成するために使用することができる。
開示された例示的なシステムの他の実施形態では、インターフェースはマスクである。別の実施形態では、呼吸療法デバイスは、気道陽圧(PAP)または非侵襲的換気(NIV)のうちの1つまたは複数を提供するように構成される。別の実施形態では、少なくとも1つの呼吸療法デバイスは、少なくとも1つの呼吸療法デバイスの動作中にオーディオデータを収集するためのオーディオセンサを含む。別の実施形態では、選択エンジンは、オーディオデータを分析して、オーディオデータを既知のインターフェースの音響シグネチャと一致させることに基づいて、少なくとも1つの呼吸療法デバイスの対応するインターフェースのタイプを決定するためにするように動作可能である。別の実施形態では、選択エンジンは、1つまたは複数のデータベースに記憶されたユーザー集団の人口統計データと比較されたユーザーの人口統計データに基づいてインターフェースを選択する。別の実施形態では、動作データは、流速、モータ速度、および治療圧力のうちの1つを含む。別の実施形態では、顔画像は、カメラを含むモバイルデバイスからのスキャンに基づいて決定される。別の実施形態では、モバイルデバイスは深度センサーを含む。このカメラは3Dカメラである。顔特徴は、顔画像から導出されるメッシュ面から導出される3次元特徴である。他の実施形態では、顔画像はランドマークを含む2次元画像であり、顔特徴はランドマークから導出される3次元特徴である。他の実施形態では、顔画像は、複数の2次元顔画像のうちの1つである。顔特徴は、顔画像と一致するように適合された3D変形可能モデルから導出される3次元特徴である。別の実施形態では、顔画像は、少なくとも1つの顔寸法に関するランドマークを含む。別の実施形態では、顔寸法は、顔の高さ、鼻の幅、および鼻の深さを含む。別の実施形態では、望ましい結果は、漏れを防止するためのインターフェースと顔面との間のシールである。別の実施形態では、望ましい結果は、療法に対するユーザーのコンプライアンスである。別の実施形態では、システムは、ユーザーから入力された主観的なデータを収集するように動作可能なモバイルコンピューティングデバイスを含み、インターフェースの選択は、主観的なデータに少なくとも部分的に基づいている。別の実施形態では、システムは、望ましい結果を達成するインターフェースに相関する動作データのタイプを決定するように動作可能な機械学習モジュールを含む。別の実施形態では、選択されたインターフェースは、複数のタイプのインターフェースのうちの1つと、複数のサイズのインターフェースのうちの1つとを含む。別の実施形態では、選択エンジンは、選択されたインターフェースの動作に基づいて、および望ましくない結果に基づいてユーザーからフィードバックを受け取り、望ましい結果に基づいて別のインターフェースを選択する。別の実施形態では、望ましくない結果は、療法に対するユーザーのコンプライアンスが低いこと、漏れが多いこと、主観的結果データが満足できないことのうちの1つである。
適切なフィッティングインターフェースを提供する上述の開示された方法の他の実施形態では、インターフェースはマスクである。別の実施形態では、呼吸療法デバイスは、気道陽圧(PAP)または非侵襲的換気(NIV)のうちの1つまたは複数を提供するように構成される。別の実施形態では、少なくとも1つの呼吸療法デバイスは、少なくとも1つの呼吸療法デバイスの動作中にオーディオデータを収集するためのオーディオセンサを含む。別の実施形態では、選択は、オーディオデータを分析して、オーディオデータを既知のインターフェースの音響シグネチャと一致させることに基づいて、少なくとも1つの呼吸療法デバイスの対応するインターフェースのタイプを決定することを含む。別の実施形態では、選択は、ユーザーの人口統計データを、1つまたは複数のデータベースに記憶されたユーザー集団の人口統計データと比較することを含む。別の実施形態では、動作データは、流速、モータ速度、および治療圧力のうちの1つを含む。別の実施形態では、顔画像は、カメラを含むモバイルデバイスからのスキャンに基づいて決定される。別の実施形態では、モバイルデバイスは、深さセンサーを含む。カメラは3Dカメラであり、顔特徴は顔画像から導出されるメッシュ面から導出される3次元特徴である。他の実施形態では、顔画像はランドマークを含む2次元画像であり、顔特徴はランドマークから導出される3次元特徴である。他の実施形態では、顔画像は、複数の2次元顔画像のうちの1つである。顔特徴は、顔画像と一致するように適合された3D変形可能モデルから導出される3次元特徴である。別の実施形態では、顔画像は、少なくとも1つの顔寸法に関するランドマークを含む。別の実施形態では、顔寸法は、顔の高さ、鼻の幅、および鼻の深さを含む。別の実施形態では、望ましい結果は、漏れを防止するためのインターフェースと顔面との間のシールである。別の実施形態では、望ましい結果は、療法に対するユーザーのコンプライアンスである。別の実施形態では、この方法は、少なくとも1つのモバイルコンピューティングデバイスによってユーザーから入力された主観的なデータを収集することを含み、インターフェースの選択は、主観的なデータに少なくとも部分的に基づいている。別の実施形態では、この方法は、機械学習モジュールによって望ましい結果を達成するインターフェースに相関する動作データのタイプを決定することを含む。別の実施形態では、選択されたインターフェースは、複数のタイプのインターフェースのうちの1つと、複数のサイズのインターフェースのうちの1つとを含む。別の実施形態では、この方法は、選択されたインターフェースの動作に基づいてユーザーからフィードバックを受信することと、望ましくない結果に基づいて、望ましい結果に基づく別のインターフェースを選択することとを含む。別の実施形態では、望ましくない結果は、療法に対するユーザーのコンプライアンスが低いこと、漏れが多いこと、または主観的結果データが満足できないことのうちの1つである。
上記で開示されたインターフェース上のカスタム適合度をユーザーに提供する方法の他の実施形態では、インターフェースは呼吸デバイスに流体的に結合されてもよい。別の実施形態では、出力フィードバックを生成することは、実行された場合に現在の適合度を改善するために特性に影響を与える提案されたアクションを決定することを含む。モバイルデバイスの電子インターフェースを使用して、提案されたアクションを提示することも可能である。別の実施形態では、センサデータは、i)受動熱センサー、ii)能動熱センサー、またはiii)iおよびiiの両方からの赤外線データを含む。別の実施形態では、この方法は、ユーザーの顔上の選択されたインターフェースの現在の適合度に関連するセンサデータを受信することをさらに含む。センサデータは、モバイルデバイスの1つまたは複数のセンサーによって収集される。この方法は、センサデータを使用して顔マッピングを生成することをさらに含む。顔マッピングは、ユーザーの顔の1つまたは複数の特徴を示す。この方法は、センサデータおよび顔マッピングを使用して、現在の適合度に関連する特性を識別することをさらに含む。この特性は、現在の適合度の品質を示し、この特性は、顔マッピング上の特徴的な位置に関連している。この方法は、識別された特性および特徴的な位置に基づいて前記出力フィードバックを生成することをさらに含む。別の実施形態では、センサデータは、モバイルデバイスの1つまたは複数のセンサーとユーザーの顔との間の1つまたは複数の距離を示す距離データを含む。別の実施形態では、1つまたは複数のセンサーは、i)近接センサー、ii)赤外線ベースのドットマトリクスセンサ、iii)LiDARセンサー、iv)MEMSマイクロミラープロジェクタベースのセンサー、またはv)i~ivの任意の組み合わせを含む。別の実施形態では、センサデータは、i)ユーザーがインターフェースを着用する前に、ii)ユーザーが現在の適合度でインターフェースを装着している間に、iii)ユーザーがインターフェースを取り外した後に、またはiii)i、ii、およびiiiの任意の組み合わせで収集される。別の実施形態では、この方法は、初期センサデータを受信することをさらに含む。初期センサデータは、インターフェースが着用される前のユーザーの顔に関連している。特性を識別することは、初期センサデータをセンサデータと比較することを含む。別の実施形態では、この特性は、i)ユーザーの顔の局所的な温度、ii)ユーザーの顔の局所的な温度変化、iii)ユーザーの顔の局所的な色、iv)ユーザーの顔の局所的な色変化、v)ユーザーの顔の局所的な輪郭、vi)ユーザーの顔の局所的な輪郭変化、vii)インターフェースの局所的な輪郭、viii)インターフェースの局所的な変化、ix)インターフェースの局所的な温度、またはx)i~ixの任意の組み合わせを含む。別の実施形態では、この特性は、i)ユーザーの顔の1つまたは複数の特徴に対するインターフェースの垂直位置、ii)ユーザーの顔の1つまたは複数の特徴に対するインターフェースの水平位置、iii)ユーザーの顔の1つまたは複数の特徴に対するインターフェースの回転方向、iv)ユーザーの顔の1つまたは複数の特徴に対するインターフェースの識別特徴間の距離、またはv)i~ivの任意の組み合わせを含む。別の実施形態では、1つまたは複数のセンサーは、1つまたは複数の方向センサーを含み、センサデータは、1つまたは複数の方向センサーからの方向センサデータを含む。センサデータを受信することは、1つまたは複数の方向センサーがユーザーの顔に向けられるようにモバイルデバイスが方向付けられているときに、モバイルデバイスを使用してユーザーの顔をスキャンすることと、顔スキャンの進行状況を追跡することと、を含む。顔スキャンの進行状況を示す不可視刺激を生成する。別の実施形態では、この方法は、モバイルデバイスの動きに関連するモーションデータを受信することと、ユーザーの顔に対するモバイルデバイスの動きを考慮するために、モーションデータをセンサデータに適用することと、をさらに含む。別の実施形態では、この方法は、センサデータを使用してインターフェースマッピングを生成することをさらに含む。インターフェースマッピングは、顔マッピングに対するインターフェースの1つまたは複数の特徴の相対位置を示す。特性を識別することは、インターフェースマッピングを使用することを含む。別の実施形態では、1つまたは複数のセンサーはカメラを含み、センサデータはカメラデータを含む。この方法は、カメラが校正面に向けられているときに、カメラによって収集されたセンサー校正データを受信することと、センサー校正データに基づいてセンサデータのカメラデータを校正することと、をさらに含む。別の実施形態では、この方法は、センサデータおよび顔マッピングを使用して、将来起こり得るインターフェースの故障に関連する追加の特性を識別することをさらに含む。この方法は、識別された追加の特性に基づいて出力フィードバックを生成することをさらに含む。出力フィードバックは、将来起こり得る故障が発生する可能性を低減するか、または将来起こり得る故障の発生を遅延させるために使用され得る。別の実施形態では、この方法は、センサデータを受信する前に、ユーザーの顔上のインターフェースの1つまたは複数の履歴適合度に関連する履歴センサデータにアクセスすることをさらに含む。特性を識別することは、履歴センサデータを使用することをさらに含む。別の実施形態では、この方法は、センサデータおよび顔マッピングを使用して現在の適合度スコアを生成することをさらに含む。出力フィードバックは、後続の適合度スコアを改善するために生成される。別の実施形態では、センサデータを受信することは、1つまたは複数のオーディオセンサからオーディオデータを受信することを含む。特性を識別することは、オーディオデータを使用して非意図的な漏れを識別することを含む。別の実施形態では、1つまたは複数のセンサーは、カメラ、オーディオセンサ、および熱センサーを含む。センサデータは、カメラデータ、オーディオデータおよび熱データを含む。特性を識別することは、カメラデータ、オーディオデータおよび熱データのうちの少なくとも1つを使用して潜在的な特性を識別することと、カメラデータ、オーディオデータ、および熱データのうちの少なくとも1つの他のデータを使用して潜在的な特性を確認することと、を含む。別の実施形態では、この方法は、ユーザーによって実施されるべきアクションを示すユーザー指令を提示することをさらに含む。この方法は、ユーザーがアクションを実行したことを示す完了信号を受信することをさらに含む。センサデータの第1部分は完了信号を受信する前に収集され、センサデータの第2部分は完了信号を受信した後に収集される。特性を識別することは、センサデータの第1部分をセンサデータの第2部分と比較することを含む。別の実施形態では、顔マッピングを生成することは、受信したセンサデータを使用して第1個人および第2個人を識別することと、受信したセンサデータを使用して、前記第1個人を前記インターフェースに関連するものとして識別することと、第1個人の顔マッピングを生成することと、を含む。別の実施形態では、センサデータを受信することは、受信したセンサデータから調整データを決定することを含む。調整データは、i)モバイルデバイスの動き、ii)モバイルデバイス固有の騒音、iii)ユーザーの呼吸騒音、iv)ユーザーの発話騒音、v)周囲の照明の変化、vi)ユーザーの顔に投影される一時的な影、vii)検出されたユーザーの顔に投影される一時的な色光、またはviii)i~viiの任意の組み合わせに関連している。センサデータを受信することは、調整データに基づいて、受信したセンサデータの少なくとも一部に調整を適用することも含む。別の実施形態では、センサデータを受信することは、可視光スペクトルで動作する1つまたは複数のセンサーのカメラに関連する画像データを受信することと、可視光スペクトル外で動作する画像センサーまたは測距センサーである1つまたは複数のセンサーのうちの追加のセンサーに関連する不安定なデータを受信することと、画像データの安定化に関連する画像安定化情報を決定することと、画像データの安定化に関連する画像安定化情報を使用して不安定なデータを安定化することと、を含む。別の実施形態では、出力フィードバックを使用して、現在の適合度を改善することができる。別の実施形態では、この方法は、センサデータを使用して現在の適合度に基づいて初期スコアを生成することをさらに含む。この方法は、ユーザーの顔へのインターフェースの後続の適合度に関連する後続のセンサデータを受信することをさらに含む。後続の適合度は、出力フィードバックの実施後の現在の適合度に基づいている。この方法は、後続のセンサデータを使用して後続の適合度に基づいて後続スコアを生成することと、初期スコアを超える品質の改善を示す後続のスコアを評価することと、を含む。別の実施形態では、現在の適合度に関連する特性を識別することは、受信したセンサデータに基づいてユーザーの呼吸パターンを決定することと、受信したセンサデータおよび顔マッピングに基づいて、ユーザーの顔に関連する熱パターンを決定することと、呼吸パターンおよび熱パターンを使用して、漏れ特性を決定することと、を含む。漏れ特性は、意図的な換気口漏れと非意図的なシール漏れのバランスを示す。別の実施形態では、1つまたは複数のセンサーは、i)受動熱センサー、ii)能動熱センサー、iii)カメラ、iv)加速度計、v)ジャイロスコープ、vi)電子コンパス、vii)磁力計、viii)圧力センサー、ix)マイクロホン、x)温度センサー、xi)近接センサー、xii)赤外線ベースのドットマトリクスセンサ、xiii)LiDARセンサー、xiv)MEMSマイクロミラープロジェクタベースのセンサー、xv)無線周波数ベースの測距センサー、およびxvi)無線ネットワークインターフェースからなる群から選択される少なくとも2つのセンサーを含む。別の実施形態では、この方法は、呼吸デバイスの1つまたは複数の追加センサーから追加センサデータを受信することを含む。特性を識別することは、追加のセンサデータを使用することを含む。別の実施形態では、この方法は、呼吸デバイスによって受信されると、呼吸デバイスが定義されたパラメータのセットを使用して動作するようにさせる制御信号を送信することをさらに含む。センサデータの第1部分は、呼吸デバイスが定義されたパラメータセットを使用して動作している間に収集され、センサデータの第2部分は、呼吸デバイスが定義されたパラメータセットを使用して動作していない間に収集される。特性を識別することは、センサデータの第1部分をセンサデータの第2部分と比較することを含む。
図1は、気道陽圧(PAP)デバイス、特に呼吸圧療法(RPT)デバイス40などの呼吸療法デバイスから陽圧空気の供給を受ける、フルカバー(FFM)の形態のユーザーインターフェース100を装着したユーザー10を含むシステムを示している。RPTデバイス40からの空気は、加湿器60で加湿され、空気回路50を通ってユーザー10に送られる。
この例では、本明細書に記載の呼吸療法デバイスは、気道陽圧換気(PAP)、非侵襲的換気(NIV)、または侵襲的換気のうちの1つまたは複数を提供するように構成された任意の呼吸療法デバイスを含むことができる。この例では、PAPデバイスは、持続気道陽圧(CPAP)デバイス、自動気道陽圧デバイス(APAP)、バイレベルまたは可変気道陽圧デバイス(BPAPまたはVPAP)、またはそれらの任意の組み合わせであってもよい。CPAPデバイスは、所定の空気圧(例えば、睡眠医によって決定される)をユーザーに供給する。APAPデバイスは、例えば、ユーザーに関連する呼吸データに基づいて、ユーザーに供給される空気圧を自動的に変更する。BPAPまたはVPAPデバイスは、第1所定圧力(例えば、吸気気道陽圧またはIPAP)と、第1所定圧力よりも低い第2所定圧力(例えば、呼気気道陽圧またはEPAP)とを送達するように構成される。
図2は、シール形成構造160と、プレナムチャンバー120と、位置付けおよび安定化構造130と、換気口140と、額支持部150と、図1の空気回路50に接続するための一形態の接続ポート170と、を含む、本技術の一態様によるユーザーインターフェース100を示す。いくつかの形態では、機能的態様は、1つまたは複数の物理部品によって提供され得る。いくつかの形態では、1つの物理部品は、1つまたは複数の機能的態様を提供することができる。使用時に、シール形成構造160は、ユーザーの気道の入口を取り囲むように配置され、空気を陽圧で気道に供給することを容易にする。
本技術の一形態では、シール形成構造160は、シール形成面を提供し、さらに緩衝機能を提供することができる。本技術に係るシール形成構造160は、シリコーン樹脂のような軟質で可撓性のある弾性材料で構成することができる。一形態では、非侵襲的ユーザーインターフェース100のシール形成部分は、ユーザーの対応する鼻孔とシールを形成するように構成され、配置された1対の鼻パフまたは鼻枕を含む。
本技術による鼻枕は、少なくとも一部がユーザーの鼻の下側にシールを形成する円錐台と、茎と、円錐台の下側にあり、円錐台を茎に接続する可撓性領域とを含む。更に、本技術の鼻枕が接続される構造は、柄の基部に隣接する可撓性領域を含む。可撓性領域は共に作用して、円錐台と鼻枕が接続される構造との相対移動(変位および角度の両方)に適応する自在継手構造を促進することができる。例えば、円錐台を、柄が接続される構造に向かって軸方向に変位させることができる。
一形態では、非侵襲的ユーザーインターフェース100は、使用時にユーザーの顔の上唇領域(すなわち、上唇)にシールを形成するシール形成部分を含む。一形態では、非侵襲的ユーザーインターフェース100は、使用時にユーザーの顔の顎領域にシールを形成するシール形成部分を含む。
好ましくは、プレナムチャンバー120は、使用時にシールが形成される領域内の普通の人の顔の表面輪郭と相補的に形成された周囲を有する。使用時において、プレナムチャンバー120の周縁部は、顔の隣接する表面に近接して位置決めされる。顔との実際の接触は、シール形成構造160によって提供される。シール形成構造160は、使用時にプレナムチャンバー120の周囲全体に延在してもよい。
好ましくは、本技術のユーザーインターフェース100のシール形成構造160は、使用中に位置付けおよび安定化構造130によってシール位置に保持され得る。
一形態では、ユーザーインターフェース100は、呼気二酸化炭素の排出を可能にするように構築および配置された換気口140を含む。本技術の一形態による換気口140は、複数の孔、例えば、約20~約80個の孔、または約40~約60個の孔、または約45~約55個の孔を含む。
図3Aは、内角、鼻翼、鼻唇溝、上唇および下唇、上唇および下唇、および頬骨を含む人間の顔の前面図を示す。口の幅や頭を左右に分ける矢状面、方向インジケータも表示されている。方向インジケータは、半径方向の内向き/外向きおよび上向き/下向きの方向を示す。図3Bは、眉間、鼻翼、鼻筋、前鼻、鼻下、上唇および下唇、上口唇、鼻翼頂点、および上下耳鼻骨を含む人間の顔の側面図を示す。上下方向および前後方向を示す方向インジケータも表示されている。図3Cは、鼻唇溝、下唇、上朱肉、鼻孔、鼻下、鼻柱、前鼻孔、鼻孔の長軸および矢状面を含むいくつかの特徴が確認された鼻の底面図を示す。
以下は、図3A~3Cに示される顔特徴をより詳細に説明する。
小鼻:各鼻孔の外側の壁または「翼」(複数:小鼻(alar))。
鼻翼点:鼻翼の最も外側の点。
鼻翼曲率(または鼻翼頂上)点:各鼻翼の屈曲基線の最後の点で、鼻翼が頬と結合して形成される折り目にある。
耳介:耳の外部から見える部分全体。
鼻柱:鼻孔を隔てる皮膚帯で、前鼻孔から上唇まで伸びている。
鼻柱角:鼻孔の開口部の中点を通る線と、鼻下と交わるフランクフルトの水平線に垂直な線との間の角度。
眉間:軟組織上に位置し、額の正中矢状面の最突点。
鼻孔(Nostrils):鼻腔への入口を形成するほぼ長円体の孔。鼻孔(nares)の単数形は鼻孔(naris(nostril))である。鼻孔は鼻中隔で隔てられている。
鼻唇溝または鼻唇ひだ:鼻の両側から口角まで伸び、頬と上唇を隔てる皮膚のひだまたは溝。
鼻唇角:鼻柱と上唇の間の角度で、鼻下点と交わる。
上耳底:顔面の皮膚に対する耳介の取り付け最上点。
上耳底顔面の皮膚に対する耳介の取り付け最上点。
鼻尖点:鼻の最も突き出た点または先端で、頭部の残りの部分の側面ビューで識別され得る。
人中:鼻中隔の下縁から上唇領域の唇の上部までの正中線の溝。
ポゴニオン:軟組織に位置し、顎の最前中点。
堤(鼻):鼻堤は鼻の中央線の突起で、セリオンから鼻尖点まで延びている。
矢状面:体を右半分と左半分に分ける、前部(前部)から後部(後部)に通る垂直面。
セリオン:軟部組織上に位置する、前鼻縫合の領域を覆う最も凹んだ点。
鼻中隔軟骨(鼻):鼻中隔軟骨は鼻中隔の一部を形成し、鼻腔の前部を隔てる。
副鼻翼:鼻翼底の下縁にあるポイントで、ここで鼻翼底が上唇の皮膚と接合する。
鼻下点:軟組織上に位置し、正中矢状面で鼻柱が上唇と結合する点。
上唇:下唇の正中線にある、下唇と軟組織の角部の間の最も凹んだ点。
以下で説明されるように、顔からいくつかの重要なサイズが存在し、それは、図1のマスク100のようなユーザーインターフェースのサイズを選択するために使用されることができる。この例では、顔の高さ、鼻の幅、鼻の深さの3次元がある。図3A~3Bは、顔の高さを表す線3010を示している。図3Aに示すように、顔の高さはセリオンからスプラメントンまでの距離である。図3Aの線3020は、鼻の小翼(例えば、鼻翼の左右の最も外側の点)の間の距離とすることができる鼻幅を表す。図3Bの線3030は、矢状面に平行な方向における前鼻頂点と鼻翼頂点との間の距離であり得る鼻の深さを表す。
図4Aは、技術の一態様による、機械的、空気圧的、および/または電気的部品を含み、本明細書に記載された方法の全部または一部のような1つまたは複数のアルゴリズムを実行するように構成された例示的なRPTデバイス40の部品の分解図を示す。図4Bは、例示的なRPTデバイス40のブロック図を示す。図4Cは、RPTデバイス40の例示的な電気制御部品のブロック図である。上流および下流方向は、送風機およびユーザーインターフェースを参照して指示される。送風機は、ユーザーインターフェースの上流として定義され、ユーザーインターフェースは、特定の瞬間における実際の流れ方向とは無関係に送風機の下流として定義される。送風機とユーザーインターフェースとの間の空気圧経路内に位置する物品は、送風機の下流でユーザーインターフェースの上流に位置する。RPTデバイス40は、例えば1つまたは複数の呼吸障害を治療するために、ユーザーの気道に送るための空気の流れを生成するように構成され得る。
RPTデバイス40は、上部4012と下部4014の2つの部分に形成された外部ハウジング4010を有してもよい。さらに、外部ハウジング4010は、1つまたは複数のパネル4015を含んでもよい。RPTデバイス40は、RPTデバイス40の1つまたは複数の内部部品を支持するシャーシ4016を含む。RPTデバイス40は、ハンドル4018を含んでもよい。
RPTデバイス40の空気圧経路は、入口エアフィルタ4112、入口マフラー4122、陽圧で空気を供給することができる圧力発生器4140(例えば送風機4142)、出口マフラー4124、および圧力センサー4272、流量センサー4274およびモータ速度センサー4276などの1つまたは複数のトランスデューサ4270などの1つまたは複数の空気圧経路項目を含んでもよい。
1つまたは複数の空気圧経路項目は、空気圧ブロック4020と呼ばれる取り外し可能な一体構造内に配置されてもよい。空気圧ブロック4020は、外部ハウジング4010内に配置されてもよい。一形態では、空気圧ブロック4020は、シャーシ4016によって支持されるか、またはシャーシ4016の一部として形成される。
RPTデバイス40は、電源4210と、1つまたは複数の入力デバイス4220と、中央コントローラ4230と、圧力発生器4140と、データ通信インターフェース4280と、1つまたは複数の出力デバイス4290とを有してもよい。治療デバイス用に別個のコントローラを設けることができる。電気部品4200は、単一のプリント回路基板アセンブリ(PCBA)4202上に実装され得る。代替形態では、RPTデバイス40は、複数のPCBA 4202を含んでもよい。1つまたは複数の保護回路4250、トランスデューサ4270、データ通信インターフェース4280、および記憶デバイスのような他の部品もPCBA 4202上に実装することができる。
RPTデバイスは、以下の部品のうちの1つまたは複数を一体型ユニットに含んでもよい。代替形態では、以下の1つまたは複数の部品はそれぞれ個別のユニットとして配置されてもよい。
本技術の一形態によるRPTデバイスは、空気フィルタ4110または複数の空気フィルタ4110を含み得る。一形態では、入口エアフィルタ4112は、圧力発生器4140の上流で空気圧経路の始点に配置される。一形態では、出口エアフィルタ4114、例えば抗菌フィルタは、空気圧ブロック4020の出口とユーザーインターフェース100との間に配置される。
本技術の一形態によるRPTデバイスは、マフラー4120または複数のマフラー4120を含み得る。本技術の一形態では、入口マフラー4122は、圧力発生器4140の上流の空気圧経路内に配置される。本技術の一形態では、出口マフラー4124は、図1の圧力発生器4140とユーザーインターフェース100との間の空気圧経路内に配置される。
本技術の一形態では、陽圧空気の流れまたは供給を生成するための圧力発生器4140は、制御可能な送風機4142である。例えば、送風機4142は、1つまたは複数のインペラを有するブラシレスDCモータ4144を含んでもよい。インペラは、渦巻き状に配置されてもよい。送風機は、例えば約120L/minまでの速度、約4cmHO~約20cmHOの範囲内の陽圧、または約30cmHOまでの他の形態で空気の供給を送達することができる。送風機は、米国特許番号第7,866,944号、米国特許第8,636,479号、米国特許第8,636,479号、PCT特許出願公開第WO 2013/020167号の特許または特許出願のいずれか1項に記載されており、それらの内容は全体として参照により本明細書に組み込まれている。
圧力生成器4140は、療法デバイスコントローラ4240の制御下にある。他の形態では、圧力発生器4140は、ピストン駆動ポンプ、高圧源(例えば、圧縮空気リザーバ)に接続された圧力調整器、またはベローズであってもよい。
本技術の一態様による空気回路4170は、使用時に加湿器60およびユーザーインターフェース100などの2つの部品の間を加圧空気流が移動することを可能にするように構築および配置された導管またはチューブである。具体的には、空気回路4170は、加湿器60の出口およびユーザーインターフェース100のプレナムチャンバー120と流体的に連通してもよい。
本技術の一形態では、流出防止弁4160は、加湿器60と空気圧ブロック4020との間に配置される。流出防止弁は、水が加湿器60から上流に、例えばモータ4144に流れるリスクを低減するように構築および配置される。
電源4210は、RPTデバイス40の外部ハウジング4010の内部または外部に位置し得る。本技術の一形態において、電源4210は、RPTデバイス40にのみ電力を提供する。本技術の別の形態において、電源4210は、RPTデバイス40および加湿器60の両方に電力を提供する。
RTシステムは、RTシステム、そのユーザー、および/またはその環境に関連する任意の数のパラメータのうちの1つまたは複数を測定するように構成された1つまたは複数のトランスデューサ(センサー)4270を含んでもよい。トランスデューサは、トランスデューサが測定するように構成された1つまたは複数のパラメータを表す出力信号を生成するように構成され得る。
出力信号は、電気信号、磁気信号、機械信号、視覚信号、光信号、音信号、または当技術分野で公知の任意の数の他の信号のうちの1つまたは複数としてもよい。
トランスデューサは、RTシステムの別の部品と統合することができ、例示的な構成の1つは、トランスデューサがRPTデバイスの内部に配置されることである。トランスデューサは、実質的にRTシステムの「スタンドアロン」部品であってもよく、その例示的な構成は、RPTデバイスの外部に位置するトランスデューサである。
トランスデューサは、その出力信号を、RPTデバイス、ローカル外部デバイス、またはリモート外部デバイスなどのRTシステムの1つまたは複数の部品に送信するように構成され得る。外部トランスデューサは、例えば、ユーザーインターフェース上に配置されてもよく、または、スマートフォンなどの外部コンピューティングデバイス内に配置されてもよい。外部トランスデューサは、例えば、空気回路上に配置されてもよく、または、ユーザーインターフェースのような空気回路の一部を形成してもよい。
図4Dは、本開示のいくつかの実施形態によるシステム4300を示す。システム4300は、プロセッサ4312、メモリデバイス4314、電子インターフェース4316、および1つまたは複数のセンサー4270を含む制御システム4310を含む。いくつかの実施形態では、システム4300は、任意選択で、RPTデバイス40、モバイルデバイス234などのユーザーデバイス、およびアクティビティトラッカー4322を含む図2のシステムであり得る呼吸療法システム4320をさらに含んでもよい。デバイス234は、ディスプレイ4344を含んでもよい。いくつかの場合、システム4300の一部または大部分は、モバイルデバイス232、RPTデバイス40、または外部コンピューティングデバイスなどの他の外部デバイスとして実装され得る。上述したように、呼吸療法システム4320は、RPTデバイス40、ユーザーまたはユーザーインターフェース100、導管4326、出力4290などのディスプレイ、および加湿器60を含む。
1つまたは複数のセンサーまたはトランスデューサ4270は、流量、圧力または温度などの空気の属性を表す信号を生成するように構築および配置されてもよい。空気は、RPTデバイスからユーザーへの空気の流れ、ユーザーから大気への空気の流れ、周囲空気、または任意の他の空気であってもよい。信号は、RPTデバイスとユーザーとの間の空気圧経路における空気の流れのような特定の点における空気の流れの属性を表すことができる。本技術の一形態では、1つまたは複数のトランスデューサ4270は、加湿器60の下流など、RPTデバイスの空気圧経路内に配置される。
本技術の一態様によれば、1つまたは複数のセンサー4270は、空気圧経路と流体的に連通する圧力センサーを含む。適切な圧力センサーの例としては、HONEYWELL ASDXシリーズからのトランスデューサがある。代替の適切な圧力センサーは、GENERAL ELECTRICのNPAシリーズのトランスデューサである。一実施形態では、圧力センサーは、加湿器60の出口に隣接して空気回路4170内に配置される。
音響/オーディオセンサ4278(例えば、マイクロホン圧力センサー4278)は、空気回路4170内の圧力変化を表す音信号を生成するように構成されている。「音響センサー」または「オーディオセンサ」は、交換可能な用語であり、人間に聞こえる音および/または聞こえない音を検出することができるセンサーを意味する。オーディオセンサ4278からの音信号は、以下に説明する1つまたは複数のアルゴリズムによって構成されるように、音響処理および分析のために中央コントローラ4230によって受信され得る。オーディオセンサ4278は、音に対する感度を高めるために気道に直接曝されてもよく、または、柔軟なフィルム材料の薄い層の後ろにカプセル化されてもよい。フィルムは、熱および/または湿度の影響からオーディオセンサ4278を保護する役割を果たし得る。代替的に、オーディオセンサ4278は、RPTデバイス40、ユーザーインターフェース100または導管に結合されてもよいし、RPTデバイス40、ユーザーインターフェース100または外部ユーザーデバイスに統合されてもよい。
オーディオセンサ4278によって生成されたオーディオデータは、1つまたは複数の音(例えば、ユーザー10からの音)として再生可能である。オーディオセンサ4278からのオーディオデータは、バルブから逃げる空気の音など、ユーザーインターフェースに関連する特性を識別するために(例えば、中央コントローラ4230を使用して)または確認するためにも使用され得る。
スピーカーは、ユーザー10などのユーザーに聞こえる音波を出力することができる。スピーカーは、例えば、所望のセンサデータを得るためにRPTデバイス40または他のデバイスをどのように動作するか、またはセンサデータの収集が十分に完了したときを示すようなオーディオフィードバックを提供するために使用され得る。いくつかの実施形態では、スピーカーは、オーディオセンサ4278によって生成されたオーディオデータをユーザーに送信するために使用され得る。スピーカーは、RPTデバイス40、ユーザーインターフェース100、導管または外部デバイスに結合されてもよいし、RPTデバイス40、ユーザーインターフェース100、導管または外部デバイスに統合されてもよい。
オーディオセンサ4278およびスピーカーは、別個のデバイスとして使用され得る。いくつかの実施形態では、オーディオセンサ4278およびスピーカーは、例えば、WO 2018/050913およびWO 2020/104465に記載されているような音響センサ(例えば、ソナーセンサ)として組み合わされてもよく、ここで、各センサーは、参照によって全体として本明細書に組み込まれている。このような実施形態では、スピーカーは、所定の間隔で音波を生成または放射し、オーディオセンサ4278は、スピーカーから放射された音波の反射を検出する。スピーカーによって生成または放射される音波は、ユーザー10と干渉しないように、人間の耳には聞こえない周波数(例えば、20Hz未満または約18kHz以上)を有する。オーディオセンサ4278および/またはスピーカーからのデータに少なくとも部分的に基づいて、制御システムは、ユーザーおよび/またはユーザーインターフェース100に関する位置情報(例えば、ユーザーの顔の位置、ユーザーの顔上の特徴の位置、ユーザーインターフェース100の位置、ユーザーインターフェース100上の特徴の位置)、生理学的パラメータ(例えば、呼吸数)などを決定してもよい。このような文脈では、ソナーセンサは、超音波および/または低周波数超音波感知信号(例えば、約17~23kHz、18~22kHz、または17~18kHzの周波数範囲内)を空中で生成および/または送信することなどによるアクティブ音響センシングに関わるものと理解され得る。上述したWO 2018/050913およびWO 2020/104465に関するこのようなシステムが考えられ、それらの各々は、全体として参照によって本明細書に組み込まれている。いくつかの実施形態では、追加のマイクロホン圧力センサーを使用することがある。
圧力センサー4272、流量センサー4274、モータ速度センサー4276、オーディオセンサ4278などのトランスデューサ4270からのデータは、中央コントローラ4230によって定期的に収集され得る。このようなデータは、一般にRPTデバイス40の動作状態に関するものである。この例では、中央コントローラ4230は、センサーからのこのようなデータを独自のデータフォーマットで符号化する。データは、標準化されたデータフォーマットで符号化することもできる。
1つまたは複数のセンサーまたはトランスデューサ4270は、温度センサー4330、モーションセンサ4332、スピーカー4334、無線周波数(RF)受信機4336、RF送信機4338、カメラ4340、赤外線センサー4342(例えば、受動赤外線センサーまたは能動赤外線センサー)、光電脈波(PPG)センサー4344、心電図(ECG)センサー4346、脳波(EEG)センサー4348、静電容量センサー4350、力センサー4352、ひずみゲージセンサ4354、筋電図(EMG)センサー4356、酸素センサー4358、検体センサー4360、湿度センサー4362、LiDARセンサー4364、またはこれらの任意の組み合わせを含んでもよい。一般に、1つまたは複数のセンサーまたはトランスデューサ4270の各々は、受信され記憶デバイスに記憶されたセンサデータを出力するように構成される。
1つまたは複数のセンサー4270は、圧力センサー4272、流量センサー4274、モータ速度センサー4276、およびオーディオセンサ4278の各々を含むように示され、説明されているが、上述された他のセンサーは、本明細書で説明および/または図示された各センサーの任意の組み合わせおよび任意の数を含んでもよい。
1つまたは複数のセンサー4270を使用して、画像データ、オーディオデータ、測距データ、輪郭マッピングデータ、熱データ、生理学的データ、環境データなどのセンサデータを生成することができる。制御システムは、センサデータを使用して、ユーザーインターフェースを決定し、ユーザーインターフェース100の現在の適合度に関連する特性を識別することができる。
例示的な圧力センサー4272は、図1の呼吸療法システムのユーザーの呼吸(例えば、吸息および/または呼息)および/または周囲圧力を示すセンサデータを生成する空気圧センサ(例えば、気圧センサ)である。このような実施形態では、圧力センサー4272は、RPTデバイス40に結合されていてもよいし、RPTデバイス40内に統合されてもよい。圧力センサー4272は、例えば、静電容量センサー、電磁センサー、圧電センサー、歪みセンサー、光センサー、電位差センサー、またはこれらの任意の組み合わせであってもよい。
流量センサ(例えば、流量センサ4274)の例がWO 2012/012835に記載されており、WO 2012/012835の全内容が参照により本明細書に組み込まれている。いくつかの実施形態では、流量センサー4274は、RPTデバイス40からの空気流量、空気回路4170の導管を通る空気流量、ユーザーインターフェース100を通る空気流量、またはこれらの任意の組み合わせを決定するために使用される。このような実施形態では、流量センサー4274は、RPTデバイス40、ユーザーインターフェース100、またはユーザーインターフェース100をRPTデバイス40の導管に結合または統合することができる。流量センサー4274は、回転式流量計(例えば、ホール効果流量計)、タービン流量計、オリフィス流量計、超音波流量計、熱線センサー、渦電流センサー、メンブレンセンサ、またはこれらの任意の組み合わせのような質量流量センサーであってもよい。いくつかの実施形態では、流量センサー4274は、換気口流量(例えば、意図的な「漏れ」)、非意図的な漏れ(例えば、口からの漏れおよび/またはマスク漏れ)、ユーザーの流量(例えば、肺への空気の流入および/または肺からの空気の流出)、またはこれらの任意の組み合わせを測定するように構成される。いくつかの実施形態では、流量データを分析して、ユーザーの心原性振動を判定することができる。
一部の実施形態では、温度センサー4330は、ユーザー10のコア体温、ユーザーの局所的または平均的な皮膚温度、RPTデバイス40からおよび/または導管を通って流れる空気の局所的または平均的な温度、ユーザーインターフェース100内の局所的または平均的な温度、周囲温度、またはこれらの任意の組み合わせを示す温度データを生成する。温度センサー4330は、例えば、熱電対センサー、サーミスタセンサ、シリコンバンドギャップ温度センサーまたは半導体ベースのセンサー、測温抵抗体、またはそれらの任意の組み合わせであってもよい。いくつかの場合、温度センサーは、赤外線高温計のような非接触温度センサーであってもよい。
RF送信機4338は、所定の周波数および/または振幅(例えば、高周波数帯域、低周波数帯域、長波信号、短波信号等)を有する電波を生成および/または放射する。RF受信機4336は、RF送信機4338から放射された電波の反射を検出し、このデータは、制御システムによって分析されて、ユーザー10および/またはユーザーインターフェース100に関する位置情報、および/または本明細書に記載された1つまたは複数の生理学的パラメータを決定することができる。RF受信機(RF受信機とRF送信機または別のRFペア)は、外部部品とRPTデバイス40との間、またはそれらの任意の組み合わせの間の無線通信に使用することもできる。RF受信機4336およびRF送信機4338は、RFセンサ(例えば、RADARセンサ)の一部として組み合わせることができる。このような実施形態では、RFセンサーは制御回路を含む。RF通信の特定のフォーマットは、WiFi、Bluetooth(登録商標)などであってもよい。
いくつかの実施形態では、RFセンサーはメッシュシステムの一部である。メッシュシステムの一例は、WiFiメッシュシステムであり、メッシュノード、メッシュルータ、およびメッシュゲートウェイを含むことができ、これらの各々は、移動式または固定式であってもよい。このような実施形態では、WiFiメッシュシステムは、WiFiルータおよび/またはWiFiコントローラと、RFセンサーと同一または類似のRFセンサーをそれぞれ含む1つまたは複数の衛星(例えば、アクセス点)とを含む。WiFiルータと衛星は、WiFi信号を使用して常に相互に通信する。WiFiメッシュシステムは、移動する物体または人が信号を局所的に妨害することによるルータと衛星との間のWiFi信号の変化(例えば、受信信号強度の差)に基づいてモーションデータを生成するために使用され得る。動きデータは、動き、呼吸、心拍数、歩容、転倒、行動など、またはその任意の組み合わせを示すことができる。
制御システムは、カメラ4340からの画像データを使用して、ユーザーの顔、ユーザーインターフェース100、および/または、本明細書で説明される1つまたは複数の生理学的パラメータに関連する情報を決定することができる。例えば、カメラ4340からの画像データを使用して、ユーザーの位置、ユーザーの顔の一部の局所的な色、ユーザーの顔特徴に対するユーザーインターフェース上の特徴の相対位置などを識別することができる。いくつかの実施形態では、カメラは広角レンズまたは魚眼レンズを含む。カメラは、例えば、380nmまたは約380nmと740nmまたは約740nmとの間の波長などの可視スペクトルで動作するカメラであり得る。
IRセンサー4342は、受動センサーまたは能動センサーであってもよい。受動赤外線センサーは、表面の温度を決定するために表面から放射される赤外線エネルギーを測定するなど、離れた表面からの自然な赤外線放射または反射を測定することができる。能動IRセンサーは、IR受信機によって受信されるIR信号を生成するIR送信機を含んでもよい。このような能動IRセンサーは、物体からのIR反射および/または物体を通過する透過を測定するために使用され得る。例えば、ドットプロジェクタとしてのIR送信機は、IR光を使用してユーザーの顔に識別可能なドットのアレイを投影することができ、その後、IR受信機は、IR光の反射を検出して、ユーザーの顔に関連する測距データ(例えば、IRセンサー4342とリモート表面(例えば、ユーザーの顔の一部)との間の距離に関連するデータ)または輪郭データ(例えば、表面の公称高さに対する表面の相対高さ特徴に関連するデータ)を決定することができる。
一般に、IRセンサー4342からの赤外線データは、ユーザー10および/またはインターフェース100に関する情報、および/または、本明細書で説明される1つまたは複数の生理学的パラメータを決定するために使用され得る。一例では、IRセンサーからの赤外線データを使用して、ユーザーの顔の一部またはインターフェース100の一部の局所的な温度を検出することができる。IRセンサー4342は、例えば、IRデータ(例えば、温度データまたは測距データ)をカメラデータ(例えば、局所的な色)と相関させるなど、カメラとともに使用することもできる。IRセンサー4342は、700nmまたは約700nmと1mmまたは約1mmとの間の波長を有する赤外光を検出することができる。
PPGセンサー4344は、心拍数、心拍変動性、心周期、呼吸数、吸気振幅、呼気振幅、吸気呼気比、推定血圧パラメータ、またはこれらの任意の組み合わせのような1つまたは複数の睡眠関連パラメータを決定するために使用することができる、ユーザー10に関連する生理学的データを出力する。PPGセンサー4344は、ユーザーによって装着され、ユーザーが着用する衣服および/または布地に埋め込まれ、インターフェース100および/またはそれに関連するヘッドギア(例えば、ストラップなど)に埋め込まれ、および/または結合されていてもよい。
ECGセンサー4346は、ユーザー10の心臓の電気的活動に関連する生理学的データを出力する。いくつかの実施形態では、ECGセンサー4346は、睡眠セッション中にユーザー10の一部の上または周囲に配置された1つまたは複数の電極を含む。ECGセンサー4346からの生理学的データは、例えば、本明細書で説明する1つまたは複数の睡眠関連パラメータを決定するために使用することができる。
EEGセンサー4348は、ユーザー10の脳の電気的活動に関連する生理学的データを出力する。いくつかの実施形態では、EEGセンサー4348は、睡眠セッション中にユーザー10の頭皮上または周囲に配置された1つまたは複数の電極を含む。EEGセンサー4348からの生理学的データは、例えば、睡眠セッション中の任意の時点におけるユーザー10の睡眠状態および/または睡眠段階を決定するために使用されてもよい。いくつかの実施形態では、EEGセンサー4348は、インターフェース100および/または関連するヘッドギア(例えば、ストラップなど)に統合されてもよい。
EMGセンサー4356は、1つまたは複数の筋肉によって生成される電気的活動に関連する生理学的データを出力する。酸素センサー4358は、(例えば、導管やインターフェース100における)ガスの酸素濃度を示す酸素データを出力する。酸素センサー4358は、例えば、超音波酸素センサー、電気酸素センサー、化学酸素センサー、光学酸素センサー、パルスオキシメータ(例えば、SpO2センサー)、またはこれらの任意の組み合わせであってもよい。いくつかの実施形態では、1つまたは複数のセンサー4270は、ガルバニック皮膚反応(GSR)センサー、血流センサー、呼吸センサー、脈拍センサー、血圧計センサー、酸素濃度計センサー、またはこれらの任意の組み合わせをさらに含む。
検体センサー4360は、例えばユーザー10の呼気中の検体の存在を検出するために使用することができる。制御システムは、検体センサー4360によって出力されたデータを使用して、例えばユーザー10の呼気中などの任意の検体の識別情報および濃度を決定することができる。いくつかの実施形態では、検体センサーは、ユーザー10の口の近くに配置され、ユーザー10の口から吐き出された呼気中の検体を検出する。例えば、インターフェース100がユーザー10の鼻および口を覆う顔面マスクである場合、検体センサー4360は、マスク内に配置されてユーザー10の口呼吸を監視することができる。他の実施形態では、例えば、インターフェース100が鼻マスクまたは鼻枕マスクである場合、検体センサーは、鼻を介して吐き出される呼気中の検体を検出するために、ユーザー10の鼻の近くに位置されてもよい。他の実施形態では、インターフェース100が鼻マスクまたは鼻枕マスクである場合、検体センサーは口の近くに配置されてもよい。この実施形態では、検体センサー4360は、ユーザー10の口から非意図的な空気漏れがあるか否かを検出するために使用されてもよい。いくつかの実施形態では、検体センサー4360は、炭素系化学物質または化合物を検出するために使用され得る揮発性有機化合物(VOC)センサーである。いくつかの実施形態では、検体センサー4360は、ユーザー10が鼻または口を介して呼吸しているかを検出するために使用されてもよい。例えば、(インターフェースe100が顔面マスクである実施形態では)口の近くまたは顔面マスク内に配置された検体センサーから出力されたデータによって検体の存在が検出された場合、制御システムは、このデータを、ユーザー10が自分の口を介して呼吸していることを示す指標として使用することができる。
湿度センサー4322は、ユーザー10の周囲の様々な領域(例えば、導管またはインターフェース100の内部、ユーザー10の顔の近く、導管とインターフェース100との接続部の近く、導管とRPTデバイス40との接続部の近くなど)の湿度を検出するために使用されてもよい。したがって、いくつかの実施形態では、湿度センサー4362は、RPTデバイス40からの加圧空気の湿度を監視するために、インターフェース100または導管に結合または統合されてもよい。他の実施形態では、湿度センサー4362は、湿度レベルを監視する必要がある任意の領域の近くに配置される。湿度センサー4362はまた、ユーザー10の周囲の環境、例えば寝室の空気の湿度を監視するために使用されてもよい。
光検出測距(LiDAR)センサー4364は、深さ感知に使用することができる。このタイプの光センサ(例えば、レーザセンサ)を使用して、物体を検出し、ユーザーの顔、インターフェース100、または周囲の環境(例えば、生活空間)のような物体の3次元(3D)マップ(例えば、輪郭マップ)を構築することができる。LiDARは通常、パルスレーザーを利用して飛行時間を測定することができる。LiDARは3Dレーザースキャンとも呼ばれる。このようなセンサーを使用する例では、LiDARセンサーを有する固定またはモバイルデバイス(例えば、スマートフォン)は、センサーから5m以上離れた領域を測定およびマッピングすることができる。例えば、LiDARデータは、電磁RADARセンサーによって推定された点群データと融合することができる。LiDARセンサーはまた、人工知能(AI)を使用して、ガラス窓(レーダーにとって反射性が高い場合がある)などレーダーシステムに問題をもたらす可能性のある空間内の特徴を検出し、分類することによって、レーダーシステムを自動的に地理的にジオフェンスすることができる。LiDARは、人の身長の推定や、人が座ったり転んだりしたときの身長の変化などを提供するために使用されてもよい。LiDARは、ユーザーの顔、ユーザーインターフェース100(例えば、ユーザーの顔に装着された場合)、および/または環境の3Dメッシュ表現を形成するために使用されてもよい。さらなる用途では、LiDARは、電波が通過する固体表面(例えば、無線透光性材料)から反射することができ、それにより、さまざまなタイプの故障物の分類が可能になる。本明細書ではLiDARセンサーについて説明しているが、いくつかの場合、LiDARセンサーの代わりに、またはLiDARセンサーに加えて、例えば超音波測距センサー、電磁レーダセンサなどの1つまたは複数の他の測距センサーを使用することができる。
RPTデバイス40、導管、またはインターフェース100に加えて、上記のセンサーのいずれかまたはすべては、モバイルユーザーデバイスまたは活動トラッカーなどの外部デバイスに配置されてもよい。例えば、オーディオセンサ4278およびスピーカー4334は、モバイルデバイス内に統合され、および/またはモバイルデバイスに結合されてもよく、圧力センサー4272および/または流量センサー4274は、RPTデバイス40内に統合され、および/またはRPTデバイス40に結合されてもよい。いくつかの実施形態では、1つまたは複数のセンサーのうちの少なくとも1つは、睡眠セッション中にユーザー10にほぼ隣接して配置されてもよい(例えば、ユーザー10の一部に配置されるか接触するか、ユーザー10によって装着されるか、ナイトスタンドに結合または配置されるか、マットレスに連結されるか、天井に連結されるかなど)。
本技術の一形態において、RPTデバイス40は、人がデバイスとやりとりできるように、ボタン、スイッチまたはダイヤルの形態をとる1つ以上の入力デバイス4220を含む。ボタン、スイッチ、またはダイヤルは、タッチスクリーンを介してアクセス可能な物理デバイス、またはソフトウェアデバイスであってもよい。1つの形態では、ボタン、スイッチ、またはダイヤルは、外部ハウジング4010に物理的に接続されていてもよく、別の形態では、中央コントローラ4230に電気的に接続された受信機と無線通信していてもよい。一形態では、入力デバイス4220は、人が値および/またはメニューオプションを選択することを可能にするように構築および配置されてもよい。
本技術の一形態において、中央コントローラ4230は、RPTデバイス40の制御に適した1つまたは複数のプロセッサである。適切なプロセッサは、x86 INTELプロセッサ、ARM HoldingsからのARM(登録商標)Cortex(登録商標)-Mプロセッサに基づいたプロセッサ(例えば、ST MICROELECTRONICからのSTM32シリーズのマイクロコントローラ)含み得る。本技術の特定の代替形態において、TEXAS INSTRUMENTSによって製造されたST MICROELECTRONICSからのSTR9シリーズのマイクロコントローラなどの32ビットRISC CPU、またはMSP430ファミリーのマイクロコントローラからのプロセッサなどの16ビットRISC CPUも適切であり得る。本技術の一形態において、中央コントローラ4230は、専用電子回路である。一形態において、中央コントローラ4230は、特定用途向け集積回路である。別の形態において、中央コントローラ4230は、離散的な電子部品を含む。中央コントローラ4230は、1つまたは複数のトランスデューサ4270、1つまたは複数の入力デバイス4220、および加湿器60から入力信号を受信するように構成されてもよい。
中央コントローラ4230は、出力デバイス4290、治療デバイスコントローラ4240、データ通信インターフェース4280、および加湿器60のうちの1つまたは複数に出力信号を提供するように構成されてもよい。
本技術のいくつかの形態では、中央コントローラ4230は、内部メモリ上の非一時的なコンピュータ可読記憶媒体に記憶されたコンピュータプログラムとして表される1つまたは複数のアルゴリズムなど、本明細書に記載された1つまたは複数の方法を実装するように構成される。本技術のいくつかの形態では、中央コントローラ4230は、RPTデバイス40に統合されてもよい。しかしながら、本技術のいくつかの形態では、いくつかの方法は、モバイルコンピューティングデバイスなどのリモートデバイスによって実行され得る。例えば、リモートデバイスは、本明細書に記載されたいずれかのセンサーからのデータのような記憶されたデータを分析して、人工呼吸器の制御設定を決定したり、呼吸関連イベントを検出したりすることができる。上述したように、外部ソースまたは中央コントローラ4230のすべてのデータおよび動作は、一般にRPTデバイス40の製造業者が所有するものである。したがって、センサーからのデータや他の追加の動作データは、通常、他のデバイスからアクセスすることはできない。
本技術の一形態では、データ通信インターフェースが提供され、中央コントローラ4230に接続される。データ通信インターフェースは、リモート外部通信ネットワークおよび/またはローカル外部通信ネットワークに接続可能であってもよい。リモート外部通信ネットワークは、サーバまたはデータベースのようなリモート外部デバイスに接続可能であってもよい。ローカル外部通信ネットワークは、モバイルデバイスまたは健康監視デバイスのようなローカル外部デバイスに接続可能であってもよい。したがって、RPTデバイス40またはモバイルデバイスは、ローカル外部通信ネットワークを使用して、他のデバイスからデータを収集することができる。
一形態では、データ通信インターフェースは、中央コントローラ4230の一部である。別の形態では、データ通信インターフェース4280は、中央コントローラ4230から分離され、集積回路またはプロセッサを含むことができる。一形態では、リモート外部通信ネットワークはインターネットである。データ通信インターフェースは、有線通信(例えば、イーサネット(登録商標)または光ファイバを介して)または無線プロトコル(例えば、CDMA、GSM(登録商標)、2G、3G、4G/LTE、LTE Cat-M、NB-IoT、5G新無線、衛星、5G以上)を使用してインターネットに接続可能であってもよい。一形態では、ローカル外部通信ネットワーク4284は、ブルートゥース(登録商標)または消費者向け赤外線プロトコルなどの1つまたは複数の通信規格を利用する。
例示的なRPTデバイス40は、図4Cに示すように、統合されたセンサーおよび通信電子デバイスを含む。古いRPTデバイスは、収集されたデータを送信するための通信電子デバイスを含むことができるセンサモジュールが組み込まれている場合がある。このようなセンサモジュールは、RPTデバイスに取り付けられてもよく、したがって、サーバ210内のリモート分析エンジンに動作データを送信する。
図5は、RPTデバイス40を図1のインターフェース100に接続する空気回路4170内のオーディオセンサ4278の概略図である。この例では、導管180(長さL)は、RPTデバイス40によって生成される音の音響導波管として有効に機能する。この例では、入力信号は、RPTデバイス40が発する音である。入力信号(例えば、インパルス)は、導管180の一端に位置するオーディオセンサ4278に入り、導管180内の空気経路に沿ってマスク100に伝播し、空気経路内の特徴(導管180およびマスク100を含む)によって導管180に沿って反射されてオーディオセンサ4278に再び戻る。したがって、システムIRF(入力インパルスから生成される出力信号)は、入力信号成分と反射成分とを含む。重要な特徴の1つは、音が空気経路の一方の端から他方の端に伝わるのにかかる時間である。この間隔は、オーディオセンサ4278が、RPTデバイス40からの入力信号を受信し、その後、一定時間の後に、導管180によってフィルタリングされ、マスク100(および、マスク100がユーザーに着用されたときにマスクに取り付けられた他のシステム190、例えば人間の呼吸器系)によって反射およびフィルタリングされた入力信号を受信するので、システムIRFで表現される。これは、導管180のマスク端からの反射に関連するシステムIRFの成分(反射成分)が、比較的短い遅延の後にオーディオセンサ4278に到達する入力信号に関連するシステムIRFの成分(入力信号成分)に対して遅延されることを意味する。(実用上、この短い遅延は無視してもよく、ゼロ時間はマイクが入力信号に最初に応答した時間に近似している)。遅延は2L/c(Lは導管の長さ、cは導管内の音速)に等しい。
もう1つの特徴は、空気圧経路が損失しやすいので、導管が十分に長い場合、入力信号成分は、システムIRFの反射成分が開始するときに無視できる量まで減衰することである。この場合、入力信号成分は、システムIRFの反射成分から分離することができる。代替的に、入力信号は、空気経路のデバイス端にあるスピーカーからのものであってもよい
開示された音響分析技術のいくつかの実施形態は、ケプストラム分析を可能にすることができる。ケプストラムはデシベルスペクトルの順フーリエ変換の対数スペクトルの逆フーリエ変換と考えることができる。演算は、本質的に、インパルス応答関数(IRF)と音源の畳み込みを加算演算に変換でき、したがって、解析用にIRFのデータを分離するため、音源をより容易に解釈または削除することができる。ケプストラム解析の技法は、「The Cepstrum:A Guide to Processing」(Childersら著、Proceedings of the IEEE,Vol.65,No.10,Oct 1977)と題する学術論文、およびRANDALL RB著、「Frequency Analysis」、(Copenhagen:Bruel & Kjaer,p.344(1977、改訂版1987))に詳細に記載されている。呼吸療法システムの部品識別におけるケプストラム分析の適用については、名称が「呼吸療法デバイスの音響的検出」のPCT公開番号WO2010/091462に詳細に記載されており、その全内容は引用によって本明細書に組み込まれている。
前述したように、呼吸療法システムは、通常、図1に示されたような部品などの呼吸療法デバイス(例えば、RPTデバイス)、加湿器、送気導管、および患者インターフェースを含む。種々の異なる形態の患者インターフェースは、所与のRPTデバイスと共に使用することができ、例えば、鼻枕、鼻プロング、鼻堤にシールされた鼻マスク、鼻堤ではなく鼻の下周縁にシールされた鼻および鼻(口鼻)マスク、従来のフルフェースマスクと同様に、鼻梁または鼻堤ではなく鼻の下周縁にシールされた鼻および鼻(口鼻)マスク、マスクの前方に面する部分に導管が接続されたチューブダウンマスク、導管ヘッドギアを備えたマスク、主導管が接続された一体化型の短管を備えたマスク、主導管が直接接続されたエルボなどの分離構造を備えたマスク、および他のタイプのマスクや上記のバリエーションを使用することができる。さらに、さまざまな形態の送気導管を使用することができる。ユーザーインターフェースに送達される療法の改良された制御を提供するために、測定された治療パラメータ、例えばユーザーインターフェース内の圧力および通気流量を分析または推定することができる。従来のシステムでは、以下で説明するように、ユーザーにとって最適なインターフェースを決定するために、ユーザーが使用している部品の種類に関する知識を決定することができた。一部のRPTデバイスには、ユーザーインターフェースを含む、使用されているシステム部品のタイプ(ブランド、フォーム、モデルなど)をユーザーが選択できるメニューシステムが含まれている。ユーザーが部品のタイプを入力すると、RPTデバイスは、選択された部品に最適に調整されるフロージェネレータの適切な動作パラメータを選択することができる。RPTデバイスによって収集されたデータは、ユーザーへの加圧空気の供給に関して、特定の選択された部品(例えば、ユーザーインタフェース)の有効性を評価するために使用されてもよい。
図5を参照して上述したように、音響分析を使用して、呼吸圧療法システムの部品を識別するために使用することができる。本明細書において、部品の「識別」とは、部品タイプの識別を意味する。以下では、簡潔にするために、「マスク」とは、一般に「マスク」と記載されないユーザーインターフェースがあっても、「ユーザーインターフェース」と同義に使用される。
システムは、オーディオセンサ4278によって取得された音信号を分析することによって、使用中の導管の長さおよび導管に接続されているマスクを識別することができる。この技術は、識別時にユーザーがマスクを装着しているか否かにかかわらず、マスクと導管を識別することができる。
この技術は、音響マスクの反射を他のシステム騒音や応答(送風機音を含むがこれに限定されない)から分離することができる分析方法を含む。これにより、異なるマスクからの音響反射(通常、マスクの形状、構成および材料によって決定される)の間の差異を識別することが可能となり、ユーザーまたはユーザーの介入なしに異なるマスクを識別することが可能となる。
マスクを識別する例示的な方法は、オーディオセンサ4278によって取得された出力音信号y(t)を少なくともナイキストレート(例えば、20kHz)でサンプリングし、サンプリングされた出力信号からケプストラムを計算し、ケプストラムの入力信号成分からケプストラムの反射成分を分離することである。ケプストラムの反射成分は、入力音信号のマスクからの音響反射を含むので、マスクの「音響シグネチャ」または「マスクシグネチャ」と呼ばれる。音響シグネチャは次に、既知のマスクを含むシステムから得られた予め測定された音響シグネチャの予め定義されたまたは予め定められたデータベースと比較される。必要に応じて、適切な類似性を決定するためにいくつかの基準が設定される。例示的な実施形態では、比較は、測定された音響シグネチャと記憶された音響シグネチャとの間の相互相関における単一の最大データピークに基づいて行うことができる。しかしながら、このアプローチは、いくつかのデータピーク、または抽出された唯一のケプストラム特徴集合について比較を行うことによって改善され得る。
代替的に、RPTデバイス40から受信された音とマスク100から受信された音の反射との間の遅延を求めることによっても、同じ方法を使用して導管長を決定することができる。遅延は、チューブ180の長さに比例し得る。加えて、管径の変化は反射信号の振幅を増減させることができるので、識別することもできる。このような評価は、現在の反射データを以前の反射データと比較することによって行うことができる。直径変化は、反射信号(すなわち、反射データ)からの振幅変化の割合と考えることができる。
本技術によれば、反射成分に関連するデータは、次に、マスク反射成分のメモリまたはデータベースに含まれるデータのような、以前に識別されたマスク反射成分からの同様のデータと比較することができる。
例えば、テスト対象のマスクの反射成分(「マスクシグネチャ」)は、マイクロホンによって生成された出力信号のケプストラムから分離することがある。このマスクシグネチャは、デバイスのデータテンプレートとして記憶されている既知のマスクの以前のまたは予め定められたマスクシグネチャのマスクシグネチャと比較されてもよい。これを行う1つの方法は、テスト対象のマスクのマスクシグネチャと、既知のすべてのマスクまたはデータテンプレートについて以前に記憶されたマスクシグネチャとの間の相互相関を計算することである。最も高いピークとの相互相関は、テスト対象のマスクに相当する可能性が高く、ピークの位置は導管の長さに比例するべきである。
上述したように、RPTデバイス40は、動作データだけでなく、ユーザーインターフェースの種類に関するデータを提供することができる。動作データは、特定のマスクタイプが有効であるか否かを判定するために、マスクタイプとユーザー関連データとを相関させてもよい。例えば、動作データは、RPTデバイス40の使用時間や、その使用により効果的な治療が行われたか否かを反映している。ユーザーインターフェースのタイプは、RPTデバイス40によって収集された動作データから決定されるような、ユーザーコンプライアンスのレベルまたは治療の有効性と相関してもよい。相関データは、同様のRPTデバイスによる呼吸療法を必要とする新しいユーザーによって有効なインターフェースをより適切に決定するために使用されてもよい。この選択は、インターフェースの選択を補助するために、新しいユーザーの顔スキャンから得られた顔寸法と組み合わせてもよい。
したがって、本技術の例は、RPTデバイスを使用してユーザー集団から収集された異なるマスクに関するデータと、スキャンプロセスによって決定された個々のユーザーの顔特徴とを組み合わせることによって、ユーザーがマスクのようなユーザーインターフェースをより迅速かつ便利に取得することを可能にする。ユーザーは、スキャンプロセスを使用することにより、デスクトップ、タブレット、スマートフォン、またはその他のモバイルデバイスなどのコンピューティングデバイスを使用して、快適な自宅で顔の解剖学的構造を迅速に測定することができる。次いで、コンピューティングデバイスは、様々なインターフェースを使用してユーザーの顔寸法および一般ユーザー集団からのデータを分析した後、適切なユーザーインターフェースのサイズおよびタイプに関する推奨を受信または生成することができる。
有益な実施形態では、本技術は、製造業者またはサードパーティのサーバから統合カメラを有するスマートフォンまたはタブレットにダウンロード可能なアプリケーションを採用することができる。アプリケーションは、起動されると、視覚的および/または音声指示を提供し得る。示されるように、ユーザー(すなわち、ユーザー)は、鏡の前に立って、ユーザーインターフェース上のカメラボタンを押すことができる。その後、起動されたプロセスは、ユーザーの顔の一連の画像を撮影することができ、その後、例えば数秒以内に、インターフェースを選択するための顔寸法(画像を分析するプロセッサに基づく)を取得することができる。
ユーザー/ユーザーは、自分の顔構造の画像または一連の画像を取り込むことができる。一例としては、コンピュータ可読媒体上に記憶されたアプリケーションプログラムによって提供される指令であってもよく、例えば、プロセッサによって実行されるときに、画像内の様々な顔のランドマークを検出し、これらのランドマーク間の距離を測定し、スケーリングし、これらの距離をデータレコードと比較し、適切なユーザーインターフェースサイズを推奨する。したがって、消費者の自動化デバイスは、家庭内などでの正確なユーザーインターフェース選択を可能にし、顧客が訓練を受けた従業員なしでサイズを決定できるようにさせることができる。
他の例としては、画像からの3次元顔特徴の識別を含む場合がある。顔特徴の識別は、さまざまな特徴の「形状」に基づいてサイズを決定することである。この形状は、ユーザーの顔のほぼ連続した表面として記述される。実際には、連続表面は不可能であるが、顔に約10k~100k点を集めることで顔の連続表面の近似値が得られる。3次元の顔特徴を識別するために顔画像データを収集するための例示的な技術がいくつかある。
1つの方法は、2D画像から顔画像を決定することである。この方法では、コンピュータビジョン(CV)および訓練済み機械学習(ML)モデルが、主要な顔ランドマークを抽出するために使用される。例えば、OpenCVとDLibライブラリは、訓練された数の標準的な顔ランドマークを使用してランドマークの比較に使用できる。予備的な顔のランドマークが抽出されると、導き出された3次元特徴は適切にスケーリングされなければならない。スケーリングは、既知のスケールを提供するために、コイン、クレジットカード、またはユーザーの虹彩などのオブジェクトを決定することを含む。例えば、Google Mediapipe FacemeshとIrisモデルは、ユーザーの虹彩を追跡し、顔のランドマークをスケーリングしてマスクのサイズを調整することができる。これらのモデルには、468個の顔のランドマークと10個の目のランドマークが含まれている。次に、虹彩データは、他の識別された顔特徴をスケーリングするために使用される。
3次元特徴を決定する別の方法は、深度センサーを有する3Dカメラから取得された顔データであってもよい。iPhone(登録商標)X以降に搭載されているような3Dカメラは、顔の3Dスキャンを実行し、メッシュ化(三角形化)された表面に戻すことができる。表面点の数は一般的に約50kのオーダーである。この例では、iPhone(登録商標)などの3Dカメラには2種類の出力がある。それらは、(a)生スキャンデータ、および(b)顔の検出と追跡のための低解像度のブレンドシェイプモデルである。後者には自動ランドマークが含まれているが、前者には含まれていない。メッシュ面データにはスケーリングは必要である。
もう1つの方法は、2D画像から3Dモデルを直接生成することである。これは、3D変形可能モデル(または3DMM)と機械学習を使って、3DMMの形状を画像内の顔に合わせて調整することを含む。単一または複数の画像ビューを複数の角度から取得することができ、デジタルカメラで取り込まれたビデオから取得することができる。3つのDMMは、機械学習マッチングルーチンによって複数の2D画像から取得されたデータをマッチングするように適合されていてもよい。3DMMは、顔特徴を修正するために、顔画像に示される形状、姿勢および表情を考慮するように適合されていてもよい。スケーリングは依然として必要である可能性があるので、虹彩のような眼の特徴のような既知のオブジェクトの検出およびスケーリングは、年齢のような要因によるスケーリング誤差を考慮する参照として使用することができる。
3次元特徴または形状データをマスクのサイジングに使用することができる。マスクを一致させる1つの方法は、識別された顔の表面を提案されたマスクの既知の表面に位置合わせすることである。次に、表面を位置合わせする。この位置合わせは、最近接反復最近接点(NICP)技術によって実行され得る。次に、顔特徴の最近接点または対応点とマスク接触面との間の距離の平均値である平均距離を求めることにより、適合度スコアを算出することができる。低いスコアは良好な適合度に対応する。
マスクのサイズを決定する別の方法は、さまざまなユーザーから収集された3D顔スキャンを使用することである。この例では、1,000人を超えるユーザーについて3Dデータを収集することが可能である。これらのユーザーは、理想的なマスクサイズに基づいてグループ化される。この例では、利用可能な理想的なマスクサイズの数は、さまざまなユーザータイプをカバーするためにマスク設計者によって決定される。このようなグループ化方法は、従来の2Dランドマークに基づくグループ化や顔の形状の主成分に基づくグループ化など、他のタイプのデータに基づくグループ化であってもよい。主成分分析は、顔特徴の削減された特性セットを決定することができる。各マスクサイズを表す3D顔特徴の平均セットが、マスクサイズのグループ化に基づいて計算される。
新しいユーザーのサイズを決定するために、3D顔スキャンまたは2D画像から3Dデータを導出し、各平均顔に対する新しいユーザーの適合度スコアを計算する。選択されたマスクサイズとマスクタイプは、適合度スコアの最も低い平均的な顔に対応するマスクである。追加の個人的嗜好を加えることもできる。特定の顔特徴を使用して、利用可能なマスクタイプの変更に基づいてカスタムサイズを作成することもできる。
図7は、自動顔特徴測定およびユーザーインターフェース選択のために実装され得る例示的なシステム200を示す。システム200は、一般に、サーバ210、通信ネットワーク220、およびコンピューティングデバイス230のうちの1つまたは複数を含んでもよい。サーバ210およびコンピューティングデバイス230は、有線ネットワーク222、無線ネットワーク224、または無線リンク226を有する有線ネットワークとすることができる通信ネットワーク220を介して通信することができる。いくつかのバージョンでは、サーバ210は、情報をコンピューティングデバイス230に提供することによってコンピューティングデバイス230と一方向に通信し得、あるいはその逆も可能である。他の実施形態では、サーバ210およびコンピューティングデバイス230は、情報および/または処理タスクを共有し得る。このシステムは、例えば、図1のマスク100などのユーザーインターフェースの自動購入を可能にするために実装され得る。このプロセスは、本明細書でより詳細に説明する自動サイジングプロセスを含む場合がある。例えば、顧客は、異なるタイプおよびサイズのマスクを使用する患者集団からの他のマスクからの動作データとRPTデバイス動作データとを組み合わせて顧客の顔特徴を画像分析することにより、適切なマスクサイズ、タイプおよび/またはモデルを自動的に識別するマスク選択プロセスを実行した後に、マスクをオンラインで注文することができる。システム200は、1つまたは複数のデータベースを含んでもよい。1つまたは複数のデータベースは、患者データベース260、患者インターフェースデータベース270、および本明細書で説明する他の任意のデータベースを含んでもよい。本技術のいくつかの例では、システムによってアクセスされるか、または方法の実行中にアクセスされる必要があるすべてのデータが単一のデータベースに記憶されてもよいことを理解されるべきである。他の例では、データを2つ以上の個別のデータベースに記憶できる。したがって、本明細書で特定のデータベースに言及する場合、特定のデータベースは、いくつかの例では、固有のデータベースであってもよく、他の例では、より大きなデータベースの一部であってもよいことを理解すべきである。
サーバ210および/またはコンピューティングデバイス230は、図1に示すRPTデバイス40と同様のRPTデバイス250のような呼吸治療デバイスと通信することもできる。この例のRPTデバイス250は、ユーザー使用に関連する動作データ、マスク漏れ、および他の関連データを収集して、マスク使用に関連するフィードバックを提供する。RPTデバイス250からのデータが収集され、ユーザーデータベース260内のRPTデバイス250を使用するユーザーの個人ユーザーデータと相関している。ユーザーインターフェースデータベース270は、新しいユーザーが使用することができるマスクなど、さまざまなタイプおよびサイズのインターフェースに関するデータを含む。ユーザーインターフェースデータベース270はまた、マスクのタイプ毎の音響シグネチャデータを含むことができ、これは、呼吸療法デバイスから収集されたオーディオデータからマスクのタイプを決定することを可能にすることができる。サーバ210によって実行されるマスク分析エンジンは、個々の顔寸法データからの有効マスクサイズおよびタイプと、ユーザー集団全体を含むRPTデバイス250から収集された動作データの対応する有効性とを相関させて決定するために使用される。例えば、効果的な適合度は、検出された漏れの最小値、治療計画への最大コンプライアンス(例えば、マスクのオンオフ時間、オンオフイベントの頻度、使用される治療圧力)、一晩の無呼吸回数、AHIレベル、デバイスに使用される圧力設定、および所定の圧力設定によって証明され得る。このデータは、新しいユーザーの顔画像に基づく顔寸法データまたは他のデータと相関してもよい。
例えば、ユーザーの顔を撮像して得られた顔の形状、例えば3Dスキャンデータ)は、提案されたマスク(クッション、導管、ヘッドギア)の特徴の幾何学的形状と比較することができる。形状と幾何学的形状の違いを分析して、接触領域の発赤や痛みを引き起こす漏れや接触圧力の高い領域を引き起こす可能性のある適合度の問題があるか否かを判断することができる。本明細書で説明されるように、ユーザー集団について収集されたデータは、検出された漏れなどの他の形式のデータと組み合わせて、特定の顔の形状(すなわち、口、鼻、頬、頭などの形状)に最適なマスクシステムを識別することができる。
後述するように、サーバ210は、データベース260に記憶された複数のユーザーからのデータと、データベース270に記憶された各マスクサイズおよびタイプデータとを収集して、新しいユーザーから収集されたスキャン顔寸法データに最も適した最適マスクと、新規ユーザーに類似した顔寸法およびその他の特徴、睡眠行動データおよび人口統計データを有するユーザーに最適な動作データを実現するマスクと、に基づいて、適切なマスクを選択する。いくつかの例では、システム200は、ユーザー集団からの複数の顔特徴と、ユーザー集団によって使用される複数の対応するユーザーインターフェースと、ユーザー集団によって使用される呼吸圧療法デバイスの動作データとを記憶するための1つまたは複数のデータベースを含む。選択エンジンは、1つまたは複数のデータベースに結合されてもよく、選択エンジンは、望ましい結果に基づいて、および記憶された動作データおよびユーザーの顔特徴に基づいて、ユーザー用のユーザーインターフェースを選択するように動作可能である。システム200は、ユーザーインターフェースを選択するための対応する方法を実行するように構成され得る。したがって、システム200は、様々な点で新しいユーザーと同様の既存ユーザーにとってどのマスクが最適であることが示されているかを判断することにより、新しいユーザーにマスク推奨を提供することができる。最適なマスクは、例えば、治療コンプライアンスの最大化、漏れの最小化、無呼吸の最小化、AHIの最小化、および最も積極的な主観的ユーザーフィードバックに関連していることが示されているマスクのタイプ、モデル、および/またはサイズであり得る。本技術の様々な例では、最適なマスクの決定におけるこれらの結果の各々の影響は、様々な重みを与えることができる。
コンピューティングデバイス230は、デスクトップまたはラップトップコンピュータ232、またはスマートフォン234やタブレット236のようなモバイルデバイスであってもよい。図7は、コンピューティングデバイス230の一般的なアーキテクチャ300を示す。デバイス230は、1つまたは複数のプロセッサ310を含んでもよい。デバイス230はまた、表示インターフェース320、ユーザー制御/入力インターフェース331、センサー340および/または1つまたは複数のセンサー用のセンサインターフェース、慣性測定ユニット(IMU)342、および不揮発性メモリ/データストレージ350をさらに含んでもよい。
センサー340は、スマートフォンまたはラップトップに備えられたカメラのような、コンピューティングデバイス230に組み込まれた1つまたは複数のカメラ(例えば、CCD電荷結合デバイスまたはアクティブピクセルセンサ)であってもよい。代替的に、コンピューティングデバイス230がデスクトップコンピュータである場合、デバイス230は、図6に図示されたWebカメラ233のような外部カメラと結合するためのセンサインターフェースを含んでもよい。本明細書に記載された方法を支援するために使用され得る他の例示的なセンサーは、3次元画像を取り込むためのステレオカメラ、またはレーザ光源またはストロボ/構造化光源からの反射光を検出することができる光検出器を含み、コンピューティングデバイスに一体化されていてもよいし、コンピューティングデバイスに外付けされていてもよい。
ユーザー制御/入力インターフェース331により、ユーザーは、コマンドを入力するか、ユーザーに提供されるプロンプトまたは命令に応答することができる。これには、例えば、タッチパネル、キーボード、マウス、マイク、スピーカーなどが考えられる。
表示インターフェース320は、以下でさらに詳細に説明するように、プロンプト、出力情報(顔の測定値またはインタフェースサイズの推奨など)、および取り込みディスプレイなどの他の情報を表示するためのモニタ、LCDパネルなどを含み得る。
メモリ/データストレージ350は、RAM、フラッシュメモリまたはROMなどのコンピューティングデバイスの内部メモリであり得る。いくつかの実施形態では、メモリ/データストレージ350は、例えばSDカード、サーバ、USBフラッシュドライブ、または光ディスクなどのコンピューティングデバイス230にリンクされた外部メモリであってもよい。他の実施形態では、メモリ/データストレージ350は、外部メモリおよび内部メモリの組み合わせであり得る。メモリ/データストレージ350は、記憶されたデータ354と、プロセッサ310に特定のタスクを実行するように指示するプロセッサ制御命令352とを含む。記憶されたデータ354は、取り込まれた画像などのセンサー340によって受信されたデータ、およびアプリケーションの部品部分として提供される他のデータを含むことができる。プロセッサ制御命令352は、アプリケーションの部品部分として提供することもできる。
上述したように、顔画像は、スマートフォン234のようなモバイルコンピューティングデバイスによって取り込まれてもよい。コンピューティングデバイス230またはサーバ210上で実行される適切なアプリケーションは、適切なマスクの選択を支援するために、3次元関連顔データを提供することができる。アプリケーションは顔スキャンの適切な方法を使用し得る。そのようなアプリケーションは、StandardCyborg(https://www.standardcyborg.com/)からのキャプチャ、Scandy Pro(https://www.scandy.co/products/scandy-pro)からのアプリケーション、Qianxun3d(http://www.qianxun3d.com/scanpage)からのBeauty3Dアプリケーション、Unre 3D FaceApp(http://www.unre.ai/index.php?route=ios/detail)およびBellus3D(https://www.bellus3d.com/)からのアプリケーションを含み得る。顔スキャンの詳細なプロセスには、WO 2017000031に開示されている技術が含まれており、その全体が参照により本明細書に組み込まれる。
そのようなアプリケーションの1つは、顔特徴測定および/またはユーザーインタフェースサイジングのためのアプリケーション360であり、これは、スマートフォン234および/またはタブレット236のようなモバイルデバイスにダウンロード可能なアプリケーションであってもよい。メモリ/データストレージ350のようなコンピュータ可読媒体に記憶することができるアプリケーション360は、顔特徴測定および/またはユーザーインタフェースサイジングに関するいくつかのタスクをプロセッサ310が実行するためのプログラミング指令を含む。アプリケーションには、自動化された方法論のアルゴリズムによって処理され得るデータも含まれる。このようなデータには、以下でさらに詳しく説明するように、データレコード、参照特徴、および補正係数が含まれ得る。
アプリケーション360は、2次元または3次元画像を使用してユーザーの顔特徴を測定し、得られた測定結果に基づいて、例えば標準サイズのセットから適切なユーザーインターフェースのサイズおよびタイプを選択するためにプロセッサ310によって実行される。この方法は、一般に、3つまたは4つの異なる段階、すなわち、取り込み前段階、取り込み段階、取り込み後の画像処理段階、および比較および出力段階を含むものとして特徴付けられ得る。
いくつかの場合、顔特徴測定およびユーザーインターフェースのサイジングのためのアプリケーションは、プロセッサ310を制御して、表示インターフェース320上の参照特徴を含む視覚的な表示を出力することができる。ユーザーは、カメラを動かすなどして、その特徴を自分の顔の特徴に隣接して配置し得る。次に、プロセッサは、位置合わせ条件などの特定の条件が満たされた場合に、参照特徴に関連して顔の特徴の1つまたは複数の画像を取り込んで記憶することができる。これは鏡の支援で行うことができる。鏡は、表示された参照特徴とユーザーの顔をカメラに映す。次に、アプリケーションは、プロセッサ310を制御して、画像内の特定の顔の特徴を識別し、それらの間の距離を測定する。画像分析処理により、スケーリング係数を使用してピクセル数などの顔特徴測定値を、参照特徴に基づいた標準マスク測定値に変換し得る。このような値は、例えば、メートルまたはインチなどの標準化された測定単位、およびマスクのサイジングに適したそのような単位で表される値であってもよい。
追加の補正係数が測定値に適用され得る。顔特徴測定は、特定のユーザーインターフェース形式(例えば、鼻マスクおよびFFM)に対応する異なるユーザーインターフェースサイズの測定範囲を含むデータレコードと比較することができる。次に、推奨サイズが選択され、比較に基づいて推奨としてユーザー/患者に出力される。このようなプロセスは、任意のユーザーの快適な場所内で都合よく実施することができる。アプリケーションはこの方法を数秒以内に実行し得る。一例では、アプリケーションはこの方法をリアルタイムに実行する。
取り込み前段階では、プロセッサ310は、とりわけ、サイジング処理のために1つまたは複数の画像を取り込むための適切な条件を確立する際にユーザーを支援する。これらの条件のいくつかには、例えば、適切な照明およびカメラの向き、ならびにコンピューティングデバイス230を保持する不安定な手によって引き起こされるモーションブラーが含まれる。
ユーザーは、コンピューティングデバイス230などのユーザーデバイスで自動測定およびサイジングを実行するためのアプリケーションを、サードパーティのアプリケーションストアサーバなどのサーバからコンピューティングデバイス230に容易にダウンロードすることができる。ダウンロードされると、そのようなアプリケーションは、RAMまたはフラッシュメモリなどのコンピューティングデバイスの内部非揮発性メモリに記憶され得る。コンピューティングデバイス230は、好ましくは、スマートフォン234またはタブレット236のようなモバイルデバイスである。
ユーザーがアプリケーションを起動するとき、プロセッサ310は、表示インターフェース320を介して、年齢、性別、体重および身長などのユーザー固有情報を提供するようにユーザーに促すことができる。しかしながら、プロセッサ310は、ユーザーの顔特徴を測定した後など、いつでもユーザーに情報の入力を促してもよい。プロセッサ310はまた、アプリケーションによって提供される音および/または視覚によって提示され得るチュートリアルを提示することができ、ユーザーがプロセスにおける自分の役割を理解するのを助けることができる。プロンプトには、鼻やフルフェース、ユーザーインターフェースを使用するデバイスのタイプなどのユーザーインターフェースタイプに関する情報も必要になる場合がある。さらに、取り込み前段階では、アプリケーションは、ユーザーの顔の取り込み画像を受信した後など、ユーザーが収集した情報に基づいて、機械学習技術に基づいて、または人工知能によって、ユーザー固有情報を推論する場合がある。
ユーザーが続行する準備ができたとき(これは、ユーザー入力によって、またはユーザー制御/入力インターフェース331を介してプロンプトに対する応答によって示され得る。)、プロセッサ310は、アプリケーションのプロセッサ制御指令352にしたがってセンサー340を起動する。センサー340は、ディスプレイデバイスのインターフェース320と同じ側に位置するモバイルデバイスの前向きカメラであることが好ましい。カメラは通常、二次元画像を取り込むように構成されている。2次元画像を取り込むモバイルデバイスのカメラは遍在する。本技術は、この遍在性を利用して、専用の機器を入手する必要性によるユーザーの負担を回避する。
センサー/カメラ340が起動されるとほぼ同時に、アプリケーションによって指示されるように、プロセッサ310は、表示インターフェース320上に取り込み表示を提示する。取り込みディスプレイには、カメラのライブアクションプレビュー、参照特徴、ターゲットボックス、および1つ以上のステータスインジケータ、またはそれらの任意の組み合わせが含まれ得る。この例では、参照特徴は表示インターフェースの中心に表示され、表示インターフェース320の幅に対応する幅を有する。参照特徴の垂直位置は、参照特徴の上端が表示インターフェース320の最上端に当接するか、または参照特徴の下端が表示インターフェース320の最下端に当接するような位置であってもよい。表示インターフェース320の一部は、カメラのライブアクションプレビュー324を表示し、通常、ユーザーが正しい位置および方向にいる場合に、センサー/カメラ340によって取り込まれたユーザーの顔特徴をリアルタイムで表示する。
参照特徴は、コンピューティングデバイス230に知られている(所定の)特徴であり、プロセッサ310が取り込まれた画像をスケールできるようにする参照のフレームをプロセッサ310に提供する。参照特徴は、ユーザーの顔または解剖学的特徴以外の特徴であることが好ましい。したがって、画像処理段階中、参照特徴は、取り込み前段階中など、特定の位置合わせ条件がいつ満たされるかをプロセッサ310が決定するのを支援する。参照特徴は、スケーリング情報、向き、および/またはQRコード(登録商標)の構造から任意に決定できる他の任意の所望の情報などの特定の情報をプロセッサ310に提供できるクイックレスポンス(QR)コード、既知の見本またはマーカーなどであってもよい。QRコード(登録商標)の形状は正方形または長方形である。表示インターフェース320上に表示されるとき、参照特徴は、ミリメートルまたはセンチメートル単位などの所定の寸法を有し、その値はアプリケーションに符号化され、適切な時点でプロセッサ310に伝達され得る。参照特徴326の実際のサイズは、様々なコンピューティングデバイスの間で変化することができる。いくつかのバージョンでは、アプリケーションは、モデル固有のコンピューティングデバイスとして構成されてもよく、参照特徴326のサイズは、特定のモデル上に表示されたときに既知である。しかしながら、他の実施形態では、アプリケーションは、デバイス230から、例えば、ディスプレイサイズおよび/またはスケーリングによって表示インターフェース320上に表示された参照特徴の実世界/実際のサイズをプロセッサ310が計算することを可能にするスケーリング特性などの特定の情報を取得するようにプロセッサ310に指令してもよい。それにもかかわらず、そのようなコンピューティングデバイスの表示インターフェース320上に表示される参照特徴の実際の寸法は、一般に、取り込み後の画像処理の前に知られている。
参照特徴と共に、ターゲティングボックスを表示インターフェース320上に表示することができる。ターゲットボックスにより、ユーザーは、ターゲットボックス内の取り込みディスプレイ322内の特定の部品を位置合わせするが、これは、画像取り込みを成功させるために望ましい。
ステータスインジケータは、プロセスのステータスに関する情報をユーザーに提供する。これにより、ユーザーは画像の取り込みが完了する前にセンサー/カメラの位置合わせを大幅に調整する必要がなくなる。
これにより、ユーザーが表示インターフェース320を測定対象の顔特徴に平行に保持し、ユーザー表示インターフェース320を鏡または他の反射面に提示すると、参照特徴が強調表示され、鏡によって反射されたカメラ/センサー340によって見られるライブ画像を覆う。この参照特徴は、表示インターフェース320の上部近くに固定され得る。このように参照特徴が少なくとも局所的に強調表示されることにより、センサー340が参照特徴を明確に見ることができ、プロセッサ310が特徴を容易に識別することができる。さらに、参照特徴は、ユーザーの顔のリアルタイムのビューを覆うことができ、ユーザーの混乱を回避するのに役立つ。
ユーザーはまた、プロセッサ310によって、表示インターフェース320を介して、コンピューティングデバイス230のスピーカーを介して、またはチュートリアルによって事前に指示されて、表示インターフェース320を測定される顔特徴の平面内に位置させることができる。例えば、ユーザーは、表示インターフェース320が正面を向いて、測定される特定の顔特徴に位置合わせされた平面内で、ユーザーの顎の下に、ユーザーの顎に接して、または顎に隣接して配置されるように、表示インターフェース320を配置するように指令されてもよい。例えば、表示インターフェース320は、セルリオンおよびスープリメンテーションと平面的に位置合わせされるように配置されてもよい。最終的に取り込まれた画像は2次元であるので、平面的な位置合わせは、参照特徴326のスケールが顔特徴測定にも同様に適用されることを確実にするのに役立つ。この点に関して、鏡とユーザーの顔の特徴およびディスプレイの両方との間の距離はほぼ同じになる。
ユーザーが鏡の前に位置しれ、参照特徴を含む表示インターフェース320が測定対象の顔特徴とほぼ平面的に位置合わせて配置されたとき、プロセッサ310は、十分な位置合わせを確保するのに役立つ条件を調べる。前述したように、アプリケーションによって確立され得る1つの例示的な条件は、参照特徴全体がターゲットボックス328内で検出されなければ続行することができないということである。プロセッサ310が、参照特徴がターゲットボックス内に完全に配置されていないことを検出した場合、プロセッサ310は、画像の取り込みを禁止または遅延させることができる。その後、ユーザーは、ライブアクションプレビューに表示されるような参照特徴がターゲットボックス内に位置するまで、平面性を維持するために、表示インターフェース320に沿って顔を移動させることができる。これは、画像取り込みのための鏡に対する顔特徴および表示インターフェース320の最適な位置合わせを容易にする。
プロセッサ310がターゲットボックス内の全ての参照特徴を検出すると、プロセッサ310は、デバイス傾斜角を検出するために、コンピューティングデバイスのIMU342を読み取ることができる。IMU342は、例えば、加速度計またはジャイロスコープを含み得る。したがって、プロセッサ310は、1つまたは複数の閾値との比較などによってデバイスの傾きを評価し、それが適切な範囲内にあることを確認することができる。例えば、コンピューティングデバイス230、ひいては、表示インターフェース320およびユーザーの顔特徴が約5度以内のいずれかの方向に傾いていると判定された場合、プロセスは取り込み段階に進むことができる。他の実施形態では、継続のための傾斜角は、約±10度、±7度、±3度、または±1度以内であってもよい。過度の傾きが検出された場合、望ましくない傾きを修正するために、警告メッセージが表示または鳴らされる場合がある。これは、特に前後方向の過度の傾きを禁止または軽減するのにユーザーを支援するのに特に役立っている。これを補正しないと、キャプチャされた参照画像が適切なアスペクト比を有しないため、測定誤差の原因となる可能性がある。
アプリケーションによって制御されるように、プロセッサ310によって位置合わせが決定されると、プロセッサ310は取り込み段階に入る。取り込み段階は、位置合わせパラメータおよび先行する他の条件が満たされると、自動的に行われることが好ましい。しかしながら、いくつかの実施形態では、ユーザーは、そうするように求めるプロンプトに応答して取り込みを開始し得る。
画像取り込みが開始されると、プロセッサ310は、センサー340を介してn個の画像、好ましくは1個より多い数の画像を取り込む。例えば、プロセッサ310は、センサー340を介して、約5~20枚の画像、10~20枚の画像、または10~15枚の画像などを取り込み得る。取り込まれた画像の量は時間ベースであってもよい。言い換えれば、取り込まれる画像の数は、所定の時間間隔の間にセンサー340によって取り込まれ得る所定の解像度の画像の数に基づくことができる。例えば、センサー340が1秒間に所定の解像度で取り込むことができる画像の数が40枚であり、取り込みのための所定の時間間隔が1秒である場合、センサー340は、プロセッサ310による処理のために40枚の画像を取り込むことになる。画像の数は、ユーザーが定義してもよく、検出された環境条件に基づいてまたは予想される精度目標に基づいてサーバ210によって決定されてもよい。例えば、高い精度が必要な場合は、より多くの取り込まれた画像が必要になる場合がある。処理するための複数の画像を取り込むことが好ましいが、1つの画像が検討されており、正確な測定値を取得するために使用と成功する場合がある。ただし、複数の画像を使用すると、平均的な測定値を取得することができる。これにより、エラー/不一致が減少し、精度が向上する可能性がある。画像は、取り込み後の処理のために、プロセッサ310によってメモリ/データストレージ350の記憶データ354に配置され得る。
画像が取り込まれると、画像は、顔特徴/ランドマークを検出または識別し、ランドマーク間の距離を測定するために、プロセッサ310によって処理される。結果として得られた測定値は、適切なユーザーインターフェースサイズを推奨するために使用され得る。代替的に、この処理は、送信された取り込み画像を受信するサーバ210によって、および/またはユーザーのコンピューティングデバイス(例えば、スマートフォン)上で実行されてもよい。処理は、プロセッサ310とサーバ210との組み合わせによっても実行されてもよい。一例では、推奨ユーザーインターフェースサイズは、主にユーザーの鼻の幅に基づく場合がある。他の例では、推奨ユーザーインターフェースサイズは、ユーザーの口および/または鼻のサイズに基づく場合がある。
プロセッサ310は、アプリケーションによって制御されるように、記憶されたデータ354から1つまたは複数の取り込まれた画像を取得する。そして、画像はプロセッサ310によって抽出され、2次元の取り込まれた画像を構成する各ピクセルが識別される。次いで、プロセッサ310は、ピクセル構成内の特定の予め指定された顔特徴を検出する。
検出は、Canny、Prewitt、SobelまたはRobertなどのエッジ検出を使用してプロセッサ310によって実行され得る。これらのエッジ検出技術/アルゴリズムは、画像取り込みのために提示されたユーザーの実際の顔特徴に対応する、ピクセル構成内の特定の顔特徴の位置を識別することを容易にする。例えば、エッジ検出技術は、まず、画像内のユーザーの顔を識別することができ、また、各目およびその境界、口およびその角、左右の鼻翼、セリオン、スプラメントン、眉間、および左右の鼻唇溝など、特定の顔特徴に対応する画像内のピクセル位置も識別することができる。次いで、プロセッサ310は、これらの顔特徴のそれぞれの特定のピクセル位置にマーク、タグを付けたり、または記憶したりすることができる。代替的に、またはプロセッサ310/サーバ210によるこのような検出が成功しない場合、プロセッサ310/サーバ210のユーザーインターフェースを介して取り込まれた画像への閲覧アクセスを有する人間のオペレータによって、予め指定された顔特徴を手動で検出し、マークし、タグをつけて、または記憶してもよい。
これらの顔特徴のピクセル座標が識別されると、アプリケーションは、プロセッサ310を制御して、特定の識別された特徴の間のピクセル距離を測定する。例えば、距離は、一般に、各特徴のピクセル数によって決定され、スケーリングを含む場合がある。例えば、左右の鼻翼の間の測定を行って鼻のピクセル幅を決定することができ、および/またはセリオンとスプラメントンの間の測定を行って顔のピクセル高さを決定することができる。他の例には、口などの特定の構造の追加の測定データを取得するために、各目の間、口角の間、左右の鼻唇溝の間のピクセル距離が含まれる。顔特徴間の距離をさらに測定することもできる。この例では、いくつかの顔寸法がユーザーインターフェース選択プロセスに使用される。
予め指定された顔特徴のピクセル測定値が得られると、その測定値に人体測定補正係数を適用することができる。以下に説明するように、この補正係数がスケーリング係数を適用する前または後に適用できることを理解すべきである。人体測定補正係数は、自動化プロセス中に発生する可能性のあるエラーを補正することができ、これらのエラーはユーザーからユーザーへと一貫して発生することが観察される。言い換えれば、補正係数がなければ、個々の自動化プロセスはユーザー間で一貫した結果をもたらす可能性があるが、その結果、ある程度のサイズの異なるユーザーインターフェースが発生する可能性がある。集団検査から経験的に抽出できる補正係数により、結果が実際の測定値に近づき、サイズの誤りを軽減または排除するのに役立っている。各ユーザーの測定およびサイジングデータが対応するコンピューティングデバイスからサーバ210に送信されると、この補正係数は、時間の経過とともに精度を改良または改善することができ、このようなデータは、補正係数を改善するためにサーバ210においてさらに処理されてもよい。人体測定補正係数はまた、ユーザーインターフェースの形態によって異なる場合もある。例えば、FFMを求める特定のユーザーの補正係数は、鼻マスクを求めるときの補正係数とは異なる場合がある。このような補正係数は、例えばマスク返却を監視し、交換用マスクと返却されたマスクとの間のサイズ差を決定することにより、マスク購入の追跡から導き出すことができる。
顔特徴測定値をユーザーインターフェースのサイジングに適用するために、人体測定補正係数によって補正されているか否かにかかわらず、測定値をピクセル単位から画像取り込みのためにユーザーの顔特徴間の距離を正確に反映する他の値にスケーリングすることができる。参照特徴は、1つのスケーリング値または複数のスケーリング値を取得するために使用され得る。したがって、プロセッサ310は、同様に、参照特徴全体のピクセル幅および/またはピクセル高さ(xおよびy)測定値(例えば、ピクセル数)を含むことができる参照特徴の寸法を決定する。QRコード(登録商標)参照特徴を構成する多くの正方形/ドットのピクセル寸法、および/または参照特徴およびその構成部分によって占められるピクセル領域のより詳細な測定値も決定され得る。したがって、QRコード(登録商標)参照特徴の各正方形またはドットをピクセル単位で測定して、各ドットのピクセル測定値に基づいてスケーリング係数を決定し、その後、測定されたすべての正方形またはドット間で平均を求めることができる。これにより、QRコード(登録商標)参照特徴のフルサイズを1回測定する場合と比較して、スケーリング係数の精度が向上する。しかしながら、参照特徴のどのような測定値が取られても、その測定値は、参照特徴のピクセル測定値を参照特徴の対応する既知の寸法にスケーリングするために利用され得ることを理解すべきである。
参照特徴の測定値がプロセッサ310によって取得されると、スケーリング係数は、アプリケーションの制御にしたがってプロセッサ310によって計算される。参照特徴のピクセル測定値は、変換係数またはスケーリング係数を取得するために、画像取り込みのための表示インターフェース320によって表示される参照特徴326のような、参照特徴の既知の対応する寸法に関している。このようなスケーリング係数は、長さ/ピクセルまたは面積/ピクセルA2の形式であってもよい。換言すれば、既知の寸法を、対応するピクセル測定値(例えば、数)で除算され得る。
そして、プロセッサ310は、顔特徴測定値(ピクセル数)にスケーリング係数を適用して、ピクセル単位から他の単位に変換し、マスクのサイジングに適したユーザーの実際の顔特徴間の距離を反映する。これには、通常、マスクのサイズ設定に関連する顔の特徴の距離のピクセル数をスケーリング係数に乗算することが含まれる場合がある。
顔特徴および参照特徴の両方の測定ステップおよび計算ステップは、セット内の各画像がスケーリングおよび/または補正された顔特徴測定値を含むまで、取り込まれた各画像について繰り返される。
次いで、画像のセットの、補正されスケーリングされた測定値は、プロセッサ310によって任意に平均化されて、ユーザーの顔の解剖学的構造の最終的な測定値を得ることができる。このような測定値は、ユーザーの顔特徴間の距離を反映することができる。
比較出力段階では、取り込め後画像処理段階からの結果を関係者に直接出力(表示)したり、データレコードと比較したりして、ユーザーインターフェースのサイズの自動推奨を取得したりすることができる。
すべての測定値が決定されると、その結果(例えば、平均値)は、プロセッサ310によって表示インターフェース320を介してユーザーに表示され得る。一実施形態では、これにより自動化プロセスが終了し得る。ユーザー/患者は、ユーザーがさらに使用できるように測定値を記録することができる。
代替的に、最終的な測定値は、自動的に、またはユーザーの指令によって、通信ネットワーク220を介してコンピューティングデバイス230からサーバ210に転送されてもよい。サーバ210またはサーバ側の個人は、さらなる処理および分析を行って、適切なユーザーインターフェースおよびユーザーインターフェースサイズを決定することができる。
さらなる実施形態では、ユーザーの実際の顔特徴間の距離を反映する最終的な顔特徴の測定値は、プロセッサ310によって、データレコード内のようなユーザーインタフェースサイズデータと比較される。データレコードは、顔特徴の自動測定およびユーザーインターフェースのサイジングのためのアプリケーションの一部であってもよい。データレコードは、例えば、顔特徴距離/値範囲に対応するユーザーインターフェースサイズを含むことができるプロセッサ310によってアクセス可能なルックアップテーブルを含むことができる。データレコードには、複数のテーブルが含まれてもよく、テーブルの多くは、特定の形態のユーザーインターフェースおよび/または製造者によって提供される特定のモデルのユーザーインターフェースに対応してもよい。
ユーザーインターフェースを選択するための例示的なプロセスは、上述の方法によって取り込まれた顔画像から重要なランドマークを識別する。この例では、図3A~3Bの線3010、3020、および3030に示されるように、潜在的なインターフェースとの初期相関は、顔の高さ、鼻の幅および鼻の深さを含む顔のランドマークに関係する。これら3つの顔のランドマークの測定値は、アプリケーションによって収集され、上記のルックアップテーブルまたは複数のテーブルを介して互換性のあるマスクのサイズを選択するのに役立つ。代替的に、顔の3D形状に関する他のデータを使用して、導出された形状データを上述のように利用可能なマスクの表面に一致させることもできる。例えば、ランドマークや顔の任意の領域(口、鼻など)は、3D変形可能モデル(3DMM)をユーザーの3D顔スキャンにフィッティングさせることにより得ることができる。このフィッティングプロセスは、非剛性レジストレーションまたは(収縮)ラッピングとも呼ばれる。3DMMが3Dスキャンに登録されると、ユーザーの顔の点および表面が既知であるので、マスクサイズを決定するために任意の数の方法を使用することができる。
図8Aは、顔の高さの寸法、鼻の幅の寸法、および鼻の深さの寸法を決定するために用いられる顔画像800であり、例えば、上述したアプリケーションによって取り込まれた顔画像800である。画像800は、標準的に知られている任意の方法で画像800から決定することができる一連のランドマーク点810を含む。この例では、顔画像800上に識別され、表示される標準サイボーグランドマーク点が100個ある。この例では、この方法は、顔の高さ、鼻の幅および鼻の深さを決定するために、顔画像上の7つのランドマークを必要とし、ユーザーに関するマスクのサイズを決定する。後で説明するように、2つの既存のランドマーク(例えば、標準サイボーグランドマークに基づく)を使用することができる。3次元の位置を確認するには、処理方法によって画像上で5つの追加のランドマークを識別する必要がある。画像化データおよび/または既存のランドマークに基づいて、新しいランドマークを決定することができる。使用される2つの既存ランドマークには、セリオン(鼻梁)上の点と鼻先上の点とが含まれる。必要とされる5つの新しいランドマークには、スプラメントン(顎の上部)の点、左右の鼻翼の点、および左右の鼻顔面の溝の点が含まれる。
図8Bは、顔の高さの寸法(セリオンからサプラメントンまで)がランドマーク812および814を介して定義される顔画像800を示す。ランドマーク812は、セリオン上の既存のランドマークである。ランドマーク点814は、サプラメントン上の点である。顔の高さの寸法は、ランドマーク点812と814との間の距離に基づいて決定される。
図8Cは、鼻の幅の寸法を特定するための新しいランドマーク点820および822を有する顔画像800を示す。これには、鼻の両側にそれぞれ1つずつ、計2つの新しいマークが必要である。これらは右鼻翼点と左鼻翼点と呼ばれ、右鼻翼と左鼻翼に対応することができる。これらの点間の距離により鼻幅の寸法が決まる。小鼻のポイントは、鼻顔面の溝のポイントとは異なるが、似ている。
図8Dは、鼻の深さの寸法を決定するためのランドマーク830、832、834を有する顔画像800を示す。鼻先端のランドマーク830には、適切なランドマークを使用することができる。ランドマーク点832および834は、鼻の左側および右側で決定される。ランドマーク点832、834は、鼻の左側および右側の鼻顔面の溝にある。これらは小鼻の点に似ているが、鼻の後ろにある。
以上のように、RPTデバイス毎の動作データを多数のユーザーに対して収集することができる。これは、各ユーザーがいつRPTデバイスを動作したか、および動作の継続時間に基づく使用データを含むことができる。したがって、ユーザーが所定の期間内にRPTデバイスを使用した時間および頻度、使用される治療圧力、および/またはRPTデバイスの使用量および使用方法がユーザーの呼吸療法の処方と一致するか否か等のコンプライアンスデータを、収集された動作データから判定することができる。例えば、コンプライアンス基準の1つは、ユーザーが90日の間にRPTデバイスを許容可能に使用することであってもよい。漏れデータは、流量データまたは圧力データの分析などの動作データから決定され得る。ユーザーがマスクを切り替えているか否かを判定するために、音響信号の分析を用いたマスク切り替えデータを導出することができる。RPTデバイスは、図4Bのオーディオセンサ4278のような内部または外部オーディオセンサに基づいて、上述のケプストラム分析を利用してマスクタイプを決定するように動作可能である。代替的に、古いマスクの場合、収集された音響データを既知のマスクの音響シグネチャと相関させることにより、動作データを使用してマスクのタイプを決定することができる。
この例では、他のデータのユーザー入力は、コンピューティングデバイス230上で実行されるユーザーアプリケーションを介して収集することができる。ユーザーアプリケーションは、顔ランドマーク特徴を取得するようにユーザーに指示するユーザーアプリケーション360の一部であってもよいし、別個のアプリケーションであってもよい。これには、快適さについての嗜好、ユーザーが口呼吸者であるか鼻呼吸者であるか(例えば、「目が覚めたときに口は乾いているか?」など)、およびマスク素材の好み(シリコーン、フォーム、テキスタイル、ゲルなど)に関するデータを収集するための質問を伴うアンケート調査によって得られた主観的なデータも含まれていてもよい。例えば、ユーザー入力は、ユーザーアプリケーションを介してユーザーインターフェースの快適さに関する主観的な質問にユーザーが答えることによって収集され得る。他の質問は、睡眠特性などの関するユーザーの行動に関連する場合がある。例えば、主観的な質問には、目が覚めたときに口が乾いていますか?、口で呼吸していますか?、あなたの快適さの好みは何ですか?、などの質問が含まれる。このような睡眠情報には、睡眠時間、ユーザーの睡眠方法、気温およびストレス要因などの外部影響が含まれ得る。主観的なデータは、快適さに関する点数評価のような簡単であり、より詳細な応答である。このような主観的なデータは、グラフィカルユーザーインタフェース(GUI)から収集することもできる。例えば、ユーザーが治療中に経験したユーザーインターフェースからの漏れに関する入力データは、ユーザーがGUI上のユーザーインターフェースのグラフィック上に表示されたユーザーインターフェースの一部を選択することによって収集され得る。収集されたユーザー入力データは、図7のユーザーデータベース260に配信することができる。ユーザーからの主観的な入力データは、例示的なマスクのタイプおよびサイズを選択するための入力として使用することができる。ユーザーの心理的安全性に関する他の主観的なデータを収集することができる。例えば、ユーザーが特定のマスクで閉所恐怖症を感じているか否か、またはベッドパートナーのそばでマスクを装着することが心理的にどのように快適であるかなどの質問が尋ねられ、入力が収集される場合があり。これらの質問に対する答えが否定的な応答を示す下位の場合、システムは、インターフェースデータベース270からあまり目立たないインターフェースを推奨することができ、このようなインターフェースは、ユーザーの既存のマスクよりも小さいマスク、例えば、鼻クレードルマスク(ユーザーの鼻の下周縁でユーザーの顔にシールされ、ユーザーの口および鼻梁が覆われないマスク)、またはユーザーの口の周りにシールされ、ユーザーの鼻の下周縁にもシールされ、鼻梁が接合されていない口鼻マスク(超コンパクトなフルフェースマスクとして知られている場合がある)であってもよい。好ましい寝姿勢に関する他の問題、および夜間に多くの動きをすることをユーザーが好むか否か、およびより多くの動きを許容することができるチューブマスク(例えば、導管ヘッドギアを有するマスク)の形態の「自由」をユーザーが好むか否かに関する質問も考えられる。代替的に、ユーザーが仰向けまたは横向きに寝て動かない傾向がある場合、チューブダウンマスク(例えば、ユーザーの鼻または口の近くのマスクから前方および/または下方にチューブが伸びている従来のスタイルのマスク)が受け入れられる。
他のデータソースは、RPTデバイスの使用以外でマスク選択に相関する可能性のあるデータを収集することができる。これは、年齢、性別、または位置などのユーザー人口統計、ユーザーが経験した睡眠時無呼吸のレベルを示すAHI重症度を含むことができる。別の例は、顔のコンピュータ断層撮影(CT)に基づいて軟組織厚さを決定することができる。他のデータは、RPTデバイスの新しいユーザーに対する所定の圧力設定であってもよい。ユーザーに10cmHOなどの低い圧力が与えられた場合、ユーザーはより低い圧力に適した軽いマスクを装着できるようになり、その結果、快適さが向上したり、顔にかかるマスクの量が減ったりする可能性がある。一方、顔全体の場合は、20cmHOに適した非常に強固なシールを有するが、快適さが低下する可能性がある。しかし、ユーザーが20cmHOなどの高圧要件を持っている場合、非常に堅牢なシールを備えたフルフェースマスクをユーザーに推奨することがある。
マスクが選択された後、システムはRPTデバイス250からの動作データの収集を継続する。収集されたデータは、データベース260、270に追加される。新しいユーザーおよび既存のユーザーからのフィードバックを使用して、後続のユーザーにとって、より良いマスクオプションの推奨を調整することができる。例えば、推奨マスクに高いレベルの漏れがあることが動作データによって判定された場合、ユーザーに別のマスクタイプを推奨することができる。フィードバックループを通じて、選択アルゴリズムを改良して、特定のマスクに最適な顔の幾何学的形状の特定の側面を学習することができる。この相関は、顔の幾何学的形状を有する新しいユーザーにマスクを推奨することを絞り込むことができる。したがって、収集されたデータおよび相関させたマスクタイプデータは、マスクの選択基準にさらなる更新を提供することができる。したがって、システムは、ユーザーのマスク選択を改善するための追加的な知見を提供することができる。
マスク選択に加えて、このシステムは、呼吸療法の有効性およびユーザーのコンプライアンスに関するマスク選択の分析を可能にすることができる。追加データは、フィードバックループを通じてデータに基づいて呼吸療法を最適化することができる。
機械学習を適用して、マスク選択プロセスを最適化し、マスクの種類と、呼吸療法に対するユーザーのコンプライアンスを高めることとの間の相関を提供することができる。このような機械学習は、サーバ210によって実行することができる。訓練データセットは、有利な動作結果の出力と、ユーザーの人口統計、マスクのサイズおよびタイプ、並びにユーザーから収集された主観的なデータを含む入力とに基づいて、マスク選択アルゴリズムを訓練するために使用され得る。機械学習は、顔の寸法、ユーザーの人口統計、RPTデバイスからの動作データ、環境条件など、所望のマスクサイズと予測入力との間の相関を発見するために使用することができる。機械学習では、ニューラルネットワーク、クラスタリング、または従来の回帰手法などの手法が使用され得る。テストデータは、さまざまなタイプの機械学習アルゴリズムをテストし、どのアルゴリズムが相関の予測に関して最も正確であるかを決定するために使用することができる。
最適なインターフェースを選択するためのモデルは、図7のシステムからの新しい入力データによって持続的に更新されてもよい。したがって、分析プラットフォームの使用が増えるにつれて、モデルがより正確になる可能性がある。
上述したように、図6のシステムの一部は、RPTデバイスを使用するユーザーにインターフェースを推奨することに関する。システムの第2機能は、インターフェース選択の最適化を含む検証プロセスである。推奨マスクがユーザーに提供され、2日間、2週間、または他の期間のような所定期間だけ使用されると、システムはRPTデバイスの使用を監視し、他のデータを収集することができる。このように収集されたデータに基づいて、マスクが、漏れ、不十分なまたは低下したコンプライアンス、または不満足なフィードバックを示す不利なデータから判定されるように高い基準で機能していない場合、システムは、マスク選択を再評価し、データベース260および機械学習アルゴリズムをユーザーの結果で更新することができる。その後、システムは、新たに収集されたデータに適合するように、新しいマスクを推奨することができる。例えば、音響シグネチャや他のセンサーに基づいたデータから比較的高い漏れ率が判定された場合、REM睡眠中にユーザーが顎を下げている可能性があり、これは、最初に選択された鼻マスクのみまたは小さなフルフェースマスクではなく、フルフェースマスクなどの別のタイプのインターフェースが必要であることを示している可能性がある。
システムはまた、良好な後続データに応答して推奨を調整することができる。例えば、選択したフルフェースマスクからの漏れがないことを動作データが示している場合、ルーチンは、より良いエクスペリエンスを得るために、より小さなマスクを試すことを推奨する場合がある。療法に対するユーザーのコンプライアンスを最大限に高めるために、スタイル、材料、バリエーション、ユーザーの好みとの相関のトレードオフを使用して、後続の推奨を提供することができる。個々のユーザーのトレードオフは、アプリケーションによってユーザーに表示される入力ツリーによって決定され得る。例えば、ユーザーが潜在的な問題のメニューから皮膚刺激が問題であることを指示した場合、顔画像上に潜在的な刺激位置を示すグラフィックを表示して、ユーザーから刺激の具体的な位置などのデータを収集することができる。特定のデータは、特定のユーザーにとって最適なマスクとのより良い相関を提供することができる。
図9は、図7のサーバ210によって実行されるインターフェース選択エンジンによって実行され得るユーザーインターフェース選択プロセスの流れ図である。このプロセスは、ユーザーの顔の画像(顔画像)を収集し、その後、記憶デバイスに記憶することができる。システム200は、顔画像に基づいて患者の顔特徴を決定するように動作可能な顔輪郭エンジンを含むことができる。いくつかの例では、顔分析を伴うあらゆるステップは、顔輪郭エンジンによって実行されてもよい。この例では、図7のスマートフォン234またはタブレット236のようなモバイルデバイスの深度カメラによってユーザーの顔をスキャンし、顔の3D画像を生成する(900)。代替的に、スキャンしたユーザーの2次元または3次元の顔画像を有する3次元顔スキャンデータを記憶デバイスから取得してもよい。顔の3Dスキャンに基づいて顔メッシュ内のランドマーク点を決定し、顔の高さ、鼻の深さ、鼻の幅など、ユーザーインターフェースの適合度に関する重要な寸法および点のセットを画像に基づいて測定する(902)。次に、測定された重要な寸法を、サイズおよびタイプによって潜在的なインターフェースに相関させる(904)。例えば、相関は、3DMMとのフィッティングまたは非剛体位置合わせを含むことができる。3Dスキャンからの不規則三角形の表面メッシュは、主要な顔領域の位置や面積を含む顔に関する情報を含む3DMM表面に適合する。
呼吸デバイスおよび対応するユーザーインターフェースに関するデータベースから動作データを収集する(906)。呼吸療法デバイスを用いた呼吸療法に関連して、漏れの低減や最適なコンプライアンスなどの望ましい結果に関して動作データを分析する。次に、決定された顔の寸法および点についての望ましい結果に関する動作データを、利用可能な異なるサイズおよびタイプのインターフェースと相関させる(908)。モデルを用いて、漏れの最小化、呼吸療法デバイスの使用に対する最良の適合度、および最良のコンプライアンスを考慮した望ましい結果を得るために、動作データと顔寸法および点との間の相関に基づいて適切なインターフェースを選択する(910)。選択されたインターフェースに対する満足度などのユーザー入力を含む他の要素も考慮され得る。その後、選択されたインターフェースを記憶して、ユーザーに送信する(912)。上述したように、ユーザーが選択されたインターフェースを有するRPTデバイスを使用すると、スキャン顔寸法データおよびRPTデバイスから収集されたデータがデータベース260および270に追加され、選択プロセスの分析がさらに改良される。
図10は、図9に詳述されたインターフェースの初期選択後の1つまたは複数の特定の期間中に実行され得る後続のルーチンである。例えば、RPTデバイスと共に選択されたインターフェースを使用する最初の2日間に、後続のルーチンを実行することができる。以下で説明されるように、図10のルーチンは、最初に選択されたインターフェースを維持するか、または別のタイプのインターフェースに切り替えるための推奨を提供することができる。追加的な客観的および主観的なデータの収集は、インターフェースデータベース270に記録される。したがって、図10のルーチンは、インターフェースデータベース270において、「成功」または「失敗」として最初に選択されたマスクタイプ内のマークとともに、進行中の使用、切り替え、およびフィードバックデータを記録する。このデータは、サーバ210によって実行される例示的な機械学習によって駆動される推奨エンジンを継続的に更新する。
このルーチンは、まず、例えば2日間の使用などの設定期間に亘る動作データを収集する(1010)。例えば、図2のシステムは、使用時間やRPT装置250からの漏れデータなど、2日間の使用からコンパイルされた客観的データを収集することができる。もちろん、RPTデバイスから動作データおよび他の関連データを収集するための期間として、2日以上または2日未満の他の適切な期間を使用することができる。
さらに、コンピューティングデバイス230(1012)によって実行されるユーザーアプリケーションのインターフェースから、シール品質/性能、快適さ、一般的な好き嫌いなどの主観的フィードバックデータを収集することができる。主観的なデータは、双方向通信デバイスまたはコンピューティングデバイス230上で実行されるクライアントアプリケーションを介して尋ねられる主観的な質問によって収集されてもよい。したがって、主観的なデータには、不快感や漏れに関する回答や、ユーザーがマスクを着用していて心理的に快適か否かなどの心理的安全性の質問が含まれる場合がある。主観的なデータには、起きている間に経験する疲労に関して患者から提供された情報も含まれる場合がある。
次に、ルーチンは、客観的なデータおよび主観的なデータを、選択されたマスクのサイズ/タイプおよびユーザーの顔スキャンデータに相関させる(1014)。良好な結果の場合、ルーチンは、動作データが、ユーザーからの高いコンプライアンス、低い漏れ、良好な主観的結果データを示すと判定する(1016)。次に、ルーチンは、相関データとうまく一致するようにデータベースおよび学習アルゴリズムを更新する(1018)。ルーチンはまた、相関データを分析し、結果がより望ましいマスクによって改善され得るか否かを判定する(1020)。次に、このルーチンは、図9のルーチンにしたがって、より適切なマスクを試みることを提案する。
相関から望ましくない結果が得られた場合(1014)、ルーチンは、望ましくない結果が低コンプライアンス、高漏れ、または不満足な主観結果データのうちの少なくとも1つからのものであると判定する(1022)。次に、ルーチンは、ユーザーデータと選択されたマスクとの間の不一致になるように、データベース270および学習アルゴリズムを更新する(1024)。次に、このルーチンは、図9のルーチンにしたがって、より適切なマスクを試みることを提案する(1026)。
ユーザーがユーザーインターフェースを規定通り使用し、多くの要因に基づいて、ユーザーの療方に対するコンプライアンスが高いと判断することができる場合、これらの要因は同等または異なる重み付けをすることができる。ユーザーが使用を指示された頻度でユーザーインターフェースを使用することは、療法に対する高いコンプライアンスと言える。夜間に治療を放棄するのではなく、例えば一晩中など十分に長い時間だけユーザーインターフェースを使用することも、良好なコンプライアンスと言える。処方箋(例えば、最小限の欠勤など)を守ることも、良好なコンプライアンスといえる。さらに、ユーザーがより低い圧力ではなく、処方された治療圧力を使用している場合、これは良好なコンプライアンスの評価に寄与する可能性がある。
いくつかの例では、ユーザーは、予め定められた置換スケジュールにしたがって、ユーザーインターフェースまたはその部品を置換する必要がある場合がある。例えば、使用や洗浄によるシールおよび換気口の磨耗が性能に悪影響を及ぼし、治療の有効性に影響を及ぼす可能性があるので、ユーザーは、所定の圧力および使用強度に基づいて、所定の間隔にしたがってユーザーインターフェースのクションモジュールを交換する必要がある。本技術のいくつかの例では、部品の適時の交換は、療法に対する良好なコンプライアンスといえる。処方データが利用できない場合、ユーザーのコンプライアンスは、持続的に高い治療圧力(少なくとも4、6、8、または10cmHO)および/または(例えば、1週間に1回または2回以上の時間)を利用する、および/またはユーザーインターフェースまたはその部品を適時に交換しながら、毎週の少なくとも所定の夜数(例えば、少なくとも4、5、6、または7泊)、少なくとも所定の時間数(例えば、4、5、6、または7時間)だけ、ユーザーインターフェースおよび対応する呼吸療法デバイスを使用することに基づいて決定することができる。
以上のように、ユーザーを治療に従わせる方法はいくつかある。本技術のいくつかの例では、コンプライアンスの程度は、1つまたは複数の基準が満たされているか否かに基づいて、「非コンプライアンス」または「コンプライアンス」として決定される。いくつかの例では、コンプライアンスは、「低」、「中」、または「高」のうちの1つであってもよい。さらなる例では、コンプライアンスは100%までのスコアで表され得る。いくつかの例では、良好なレベルのコンプライアンスは必ずしも100%ではなく、少なくとも75%または80%であってもよい。
マスクなどの物理的なユーザーインターフェースがユーザーに利用可能になると、上述のシステムおよびモバイルデバイスは、適切な適合度を決定するためにも使用され得る。
図11は、本開示のいくつかの実装形態によれば、ユーザー10などのユーザーが、図7のスマートフォン234のようなユーザーデバイスを制御して、マスク100のようなユーザーインターフェースの現在の適合度に関連するセンサデータを収集する斜視図である。例えば、ユーザー10は、図1の呼吸療法システムのような新しいユーザーであってもよい。ユーザー10は、ユーザーインターフェース100を着用した直後に、ユーザーデバイス234の1つまたは複数のセンサーをユーザーの顔に向けていることができる。マスク100は、上記動作データと顔データとに基づいて選択されたマスクであってもよい。図11ではスマートフォン234として示されているが、任意の適切なユーザーデバイスを使用することができる。
測定値を取得するために、ユーザー10は、適切なボタンを押すか、またはスマートフォン234と対話して測定プロセスを開始することができる。開始されると、スマートフォン234は、任意選択で、所望の測定値を達成するためにユーザー10が取るべきまたは停止すべき異なる動作を示す刺激(例えば、プロンプトおよび/または指令)をユーザー10に提供することができる。例えば、プロンプトおよび/または指令は、「フォンを顔の高さに保持し、8の字形でゆっくりと動かす」などのテキスト指令、例えば測定プロセスが完了したときに特定の鐘の音が再生されるなどの聴覚的プロンプト382、および/または、例えばスマートフォン234の動きを遅くする旨の信号をユーザー10に送る増加した振動パターンなどの触覚フィードバック380を含んでもよい。非視覚的プロンプト(例えば、聴覚的プロンプト、触覚的フィードバック等)の使用は、ユーザー10がスマートフォン234のディスプレイを見ることを禁止する向きでスマートフォン234を保持しなければならない場合に特に有用である。いくつかの場合、プロンプトおよび/または指令は、ユーザー10の画像上にオーバーレイするように、例えば拡張現実のオーバーレイの形で提示されてもよい。例えば、アイコン、強調表示、テキスト、および他の印は、測定プロセスをどのように実行するかの指示を提供するために、ユーザー10の画像(例えば、ライブまたは非ライブ)上にオーバーレイされてもよい。
スマートフォン234は、1つまたは複数のセンサーを含むことができる。いくつかの場合、所望の1つまたは複数のセンサーが所望のデータを取得していることを確実にするために、特定の方向にスマートフォン234を保持するようにユーザー10に指示することができる。例えば、スマートフォンの前面の赤外線センサー(例えば、電話のロックを解除するための赤外線センサー)を使用している場合、赤外線センサーがユーザーの顔に向くように、ユーザー10にスマートフォン234に顔を向けて保持するように指示することができ、ユーザーの顔のデータを取得することができる。別の例では、スマートフォン234は、背面にLiDARセンサーを備えることができ、この場合、LiDARセンサーがユーザーの顔に面するように、顔をユーザー10とは反対側に向けて電話機を保持するようにユーザー10に指示し、ユーザーの顔のデータを取得することができる。いくつかの場合、ユーザー10は、スマートフォン234が異なる向きに配置された状態で複数回の測定を行うように指示されてもよい。
スマートフォン234は、測定プロセスの間(例えば、リアルタイムフィードバック)および/または測定プロセスの終了後(例えば、非リアルタイムフィードバック)にかかわらず、ユーザーインターフェース100の現在の適合度に関するフィードバックを提供することができる。一例では、ユーザー10が測定値を取得するためにスマートフォン234を保持している間、スマートフォン234は、ユーザーインターフェース100の現在の適合度を改善するためにユーザー10が例えば特定のストラップを引っ張るなどの調整をすべきであることを示すフィードバックを提供することができる。このような例では、ユーザー10は、スマートフォン234を保持し続けながら、ユーザーの顔および/またはユーザーインターフェース100の測定値を取得し続けることができるように調整することができる。このような場合、スマートフォン234は、現在の適合度がどのように改善されたか、または変化したかを示す動的フィードバックを提供することができる。
図12は、本開示のいくつかの実施形態による、ユーザーインターフェース100の現在の適合度に関連する熱特性を識別するためのスマートフォン234のユーザービューである。スマートフォン234およびユーザーインターフェース100は、任意の適切なユーザーデバイスおよびユーザーインターフェースであり得る。図12に示された図は、測定プロセスの間に(例えば、リアルタイムで見る)、または測定が行われた後に(例えば、測定プロセスが完了した後に見る)実施されてもよい。
ユーザー10は、ユーザーデバイス(例えば、スマートフォン234)を保持して、スマートフォン234の表示デバイス472(例えば、表示画面)を見ることができる。表示デバイス472は、ユーザーインターフェース100の現在の適合度に関連するフィードバックを提供することができるグラフィカルユーザーインタフェース(GUI)を描画することができる。GUIは、ユーザーインターフェース100を装着したユーザー10の画像を含むことができる。画像は赤外線センサーによって取得することができ、ユーザーインターフェース100を装着したユーザー10の熱マップとすることができる。熱マップは、ユーザーの顔およびユーザーインターフェース100上の異なる点における局所的な温度を描写することができる。
拡大図で示されるように、ユーザーインターフェース100とユーザーの顔との間のシールの近くのユーザーの顔領域482は、ユーザーの顔の周囲の領域よりもはるかに冷たいものとして示されている。このより冷たい領域482は、ユーザーインターフェース100のシールから漏れた空気が、IRセンサーによって知覚される量だけユーザーの皮膚を冷却することができるので、非意図的な空気漏れを示すことがある。
いくつかの場合、GUIは、ユーザーインターフェース100の現在の適合度に関連するスコア484の形でフィードバックを提供することができる。例えば、スコア484は、0%から100%の間で充填され得るフィラーバーとして描画することができる。図12に示すように、ユーザーインターフェース100の現在の適合度スコア484は現在約65%である。
いくつかの場合、GUIは、現在の適合度を改善するためにテキスト指令486の形でフィードバックを提供することができる。テキスト指令486は、例えば図12に示すように、左上のストラップを引き締めるなど、現在の適合度を改善するためのアクションを取るための指令をユーザー10に提供することができる。左上のストラップを引き締める旨の指令が選択されたのは、このようにさせることによって、領域482における温度差によって検出された空気漏れが減少または除去されるべきであるからである。
図13は、本開示のいくつかの実施形態による、ユーザーインターフェースの現在の適合度に関連する輪郭ベースの特性を識別するために使用される、スマートフォン234などのユーザーデバイスのユーザービューである。ユーザーデバイスは、図7に示されるような任意の適切なユーザーデバイスであってもよい。
スマートフォン234の表示デバイス572(例えば、表示画面)は、ユーザー10のライブ画像を含むGUIを表示することができる。ユーザー10のライブ画像を作成するために、スマートフォン234のカメラ550をユーザー10に向けることができる。
図13に示す図では、ユーザー10はユーザーインターフェースを取り外したばかりであり、ユーザーの顔の一部を取り込む窪み590が残されている。この窪み590は、視覚的感知(例えば、窪み590の色、または窪み590とユーザーの顔の隣接する表面との間の色差を感知すること)、距離感知(例えば、窪み590とユーザーの顔の隣接する表面との間の局所的な深さの差を伝達すること)、および/または類似のものによって検出することができる。図示のように、窪み590の領域592は、他の領域に比べて目立たない。この領域592は、ユーザーインターフェースが顔の皮膚に十分に押し付けられていない領域であり、それによって、有効なシールが確立されていないと識別されてもよい。
いくつかの場合、GUIは、ユーザーインターフェースの現在の適合度に関連するスコア584の形でフィードバックを提供することができる。例えば、領域592の範囲は、ユーザーインターフェースの現在の適合度(例えば、領域592の識別につながるセンサデータを収集する前に除去されたユーザーインターフェースの適合度)が最適でないことを示すことができる。スコア584は、例えば、数字スコア「65%」によって生成され、描画されることができる。いくつかの場合、不良な適合度が検出されたことを示すアラート585のようなアラートが追加的に提供されてもよい。いくつかの場合、GUIは、現在の適合度を改善するためにテキスト指令586の形でフィードバックを提供することができる。テキスト指令586は、異なるタイプのユーザーインターフェース(例えば、フルフェースユーザーインターフェースの代わりに鼻枕マスク)を使用することによって、現在の適合度を改善するアクションを取るような指令をユーザー10に提供することができる。フルフェースユーザーインターフェースの代わりに鼻枕マスクを使用する指令は、検出された不良な適合度の性質、および/または現在のユーザーインターフェースの適合度を改善しようとする1回以上の以前の試みのために選択されているかもしれない。例えば、ユーザーが現在のユーザーインターフェースの適合度を改善しようとする回数がしきい値回数を超えた場合、システムは、良好な適合度を確立するために、別のタイプのユーザーインターフェースを使用しようとすることが賢明である可能性があると判断する場合がある。利用可能なユーザーインターフェースは、RPTデバイスからの顔データおよび動作データを組み合わせた上述のルーチンを使用して選択することができる。
図13において、窪み590がユーザーの顔上の検出された輪郭として検出されると、ユーザーの顔の色の変化(例えば、ユーザーインターフェースのシールが皮膚表面上に留まっている皮膚表面に近い組織から一部の血液が押し出されたときの漂白、または色の変化)を検出して、ユーザーインターフェースのシールがユーザーの顔に係合する位置および方法を識別することができる。
図14は、本開示のいくつかの実施形態による、複数のユーザーインターフェース遷移イベントにわたるユーザーインターフェースの適合度を評価するためのプロセス1400を示すフローチャートである。ユーザーインターフェースは、図1のユーザーインターフェース100などの任意の適切なユーザーインターフェースとすることができる。プロセス1400は、図7のスマートフォン234用のプロセッサまたはサーバ210などのサーバのプロセッサなどの制御システムを使用して実行することができる。プロセス1400の間に収集されたセンサデータは、1つまたは複数のセンサー(例えば、図4A~4CのRPTデバイス40の1つまたは複数のセンサー)から収集することができ、1つまたは複数のセンサー、またはすべてのセンサーは、ユーザーデバイス(例えば、図7のスマートフォン234)に組み込まれ、および/または結合されてもよい。ユーザーインターフェース遷移イベントの例は、ユーザーインターフェースを着用すること、ユーザーインターフェースを取り外すこと、ユーザーインターフェースを調整すること(例えば、ユーザーインターフェースの調整可能な部分、例えば、調整可能なストラップを調整すること、ユーザーインターフェースをユーザーの顔のさまざまな位置または方向に移動させることなど)、およびユーザーインターフェースに結合されたRPTデバイス40などの呼吸療法システムを調整すること(例えば、呼吸療法システムをオンまたはオフにすること、呼吸療法システムのパラメータ、例えば、湿度または加熱などを調整することなど)を含む。
ブロック1402において、ユーザーインターフェースを着用する前に第1センサデータを収集することができる。第1センサデータは、ユーザーの顔、および任意にユーザーインターフェース(ユーザーが着用する前に)収集することができる。
いくつかの場合、第1センサデータをブロック1412で使用して、ユーザーインターフェースの潜在的適合度に関連する1つまたは複数の特性を識別することができる。例えば、システムは、第1センサデータのみから識別される特性に基づいて、ユーザーがフルフェースユーザーインターフェースの代わりに、鼻枕マスクを使用するのに最も適していると判断する場合がある(例えば、フルフェースユーザーインターフェースシールが通常配置される位置の周りに特に大きな輪郭が検出された場合、または、フルフェースユーザーインターフェースシールが通常配置される位置の周りに特に濃いひげが検出された場合)。
しかしながら、いくつかの場合、第1センサデータは、ブロック1412において、他のセンサデータと比較するために使用される。例えば、いくつかの場合、第1センサデータは、顔のベースライン輪郭マップ、顔のベースライン熱マップ、顔の1つまたは複数の特徴のベースライン検出(例えば、目、口、鼻、耳などの検出)など、将来の比較のためのベースラインを確立することができる。第1センサデータは、ベースラインを確立するためにユーザーインターフェースを着用する前に収集された場合など、ユーザーインターフェースの現在の適合度に関連するセンサデータであると考えることができ、このベースラインは更なるセンサデータと比較されて、装着時のユーザーインターフェースの適合度を評価することに用いられる。例えば、このようなデータは、図8A~8Dを参照して説明したように実行された顔スキャンから記憶することができる。
ブロック1404において、ユーザーインターフェースを着用することができる。ユーザーインターフェースを着用することは、(例えば、呼吸療法のために)それを使用しているかのように、ユーザーがユーザーの顔にユーザーインターフェースを配置することを含んでもよい。いくつかの場合、ブロック1404において、ユーザーインターフェースを着用することは、ユーザーインターフェースを着用する前にユーザーインターフェースを調整することを含んでもよいが、必ずしもそうではない。ユーザーインターフェースを着用する前にユーザーインターフェースを調整する場合、センサデータのさらなる分析は、履歴センサデータ、履歴特性データ、履歴適合度スコアなどと比較することができる。例えば、ブロック1404において、ユーザーインターフェースを着用することは、適合度を改善するために取られるべきアクションを識別するユーザーインターフェースの適合度の以前の評価の直後に行われてもよい。このような例では、ユーザーは、ブロック1404の一部としてアクションを行い、次いで、ユーザーインターフェースの結果的な適合度をユーザーインターフェースの以前の適合度と比較して、適合度が改善されたか否かを判定することができる。
いくつかの場合、ブロック1404において、ユーザーインターフェースを装着することは、ユーザーインターフェースを閾値持続時間だけ着用することを含んでもよい。例えば、ユーザーインターフェースの装着前と装着後のセンサデータを比較することによってユーザーインターフェースの適合度が評価される場合、プロセス1400は、ブロック1404からブロック1408に進んでもよい。このような場合、ユーザーインターフェースがユーザーの顔に影響を与えるのに十分な時間(例えば、ユーザーの顔にくぼみまたは色の変化を確立するのに十分な時間)にわたって装着されることを確保するために、ブロック1404において、ユーザーインターフェースを装着することは、ユーザーインターフェースを閾値時間(例えば、少なくとも10秒、20秒、30秒、40秒、50秒、1分、1.5分、2分、5分、10分、または15分)だけ着用することを含んでもよい。
ブロック1406において、ユーザーインターフェースが装着されている間(例えば、ユーザーの顔に装着されている間)に、第2センサデータを収集することができる。第2センサデータはユーザーの顔およびユーザーが装着していえるユーザーインターフェースから収集することができる。いくつかの場合、第2センサデータは、ユーザーインターフェースおよび/またはユーザーインターフェースに結合された呼吸療法システムに対して1つまたは複数の調整を行いながら収集することができる。このような場合、ブロック1412において、経時的に取得された第2センサデータは、識別された特性の変化を検出するために使用されてもよく、これらの第2センサデータは、ユーザーインターフェースの現在の適合度の評価に使用されてもよい。一例では、ブロック1406において収集された熱データは、図1の呼吸療法システムのヒータが作動しているときに、ユーザーインターフェースの外側およびユーザーインターフェースに隣接するユーザーの顔の領域の温度変化を識別することができ、これらの熱データは、ユーザーの顔領域の近くのユーザーインターフェースのシールに非意図的な空気漏れが存在する可能性があることを示している。このような例では、図4Cのオーディオセンサ4278によって収集されたオーディオデータなどの追加のセンサデータを使用して、(例えば、非意図的な漏れに関連する特徴的な音響信号、例えば可聴信号または非可聴信号を検出することによって)漏れの存在を確認することができる。
ブロック1408において、ユーザーインターフェースを取り外すことができる。ユーザーインターフェースを取り外すことは、常にとは限らないが、1つまたは複数のセンサーがセンサデータを収集している間に実行されてもよい。
ブロック1410において、ユーザーがユーザーインターフェースを取り外した後に、第3センサデータを収集することができる。第3センサデータは、ユーザーインターフェースの装着に起因するユーザーの顔の変化の影響を受けることを除いて、ブロック1402からの第1センサデータと同様であってもよい。
ブロック1402、ブロック1406、およびブロック1410においてセンサデータを収集することは、同じセンサーまたは異なるセンサーからのセンサデータを含む、同じタイプのセンサデータを収集すること、および/または異なるタイプのセンサデータを収集することを含んでもよい。例えば、ブロック1402および1410においてそれぞれ収集された第1センサデータおよび第2センサデータは、それぞれ、可視スペクトルおよびIRスペクトルにおける測距センサデータおよび画像データを含み、ブロック1406において収集された第2センサデータは、可視スペクトルおよびIRスペクトルにおけるオーディオデータおよび画像データを含み得る。
ブロック1412において、センサデータ(例えば、第1センサデータ、第2センサデータ、および/または第3センサデータ)から1つまたは複数の特性を識別する。ブロック1412において特性を識別することは、所与のセンサデータセット(例えば、別個に分析された第2センサデータ)を分析すること、および/またはセンサデータセットを比較すること(例えば、第1センサデータと第3センサデータとの比較)を含んでもよい。ブロック1412において特性を識別することは、ユーザーインターフェースの適合度の品質を示す特性を識別することを含んでもよい。例えば、いくつかの特性は、ユーザーインターフェースの不良な適合度を示し、他の特性は、ユーザーインターフェースの良好な適合度を示す。一例では、非意図的な空気漏れを示す音としての特性は、不良な適合度を示し、一方、ユーザーインターフェースを装着しているユーザーの顔の熱マップとしての特性は、ユーザーインターフェースに隣接するユーザーの顔の表面上の一貫性および/または予想される温度を示す良好な適合度を示す。
特性は、値(例えば、数値またはブール値)、値のセット、および/または信号(例えば、時間とともに変化する値のセット)を含む、適切な方式で出力することができる。一例では、ユーザーインターフェースを装着しているときのユーザーの顔の熱マッピングに関連する特性は、i)閾値を超える局所的な温度変化(例えば、顔の表面上の時間的または距離的な温度変化)が検出されたか否かのブール値、ii)ユーザーインターフェースのシールの周囲を囲むユーザーの顔上のさまざまな位置で取得された温度値のセット、iii)ユーザーの顔の熱画像またはビデオ、iv)またはI~IIIの任意の組み合わせとして出力することができる。
いくつかの場合、ブロック1414において、ユーザーインターフェースの適合度に関連するスコアを生成することができる。適合度スコアを生成することは、ブロック1412において識別された特性を分析することと、特性からスコアを生成することと、を含んでもよい。いくつかの場合、スコアは、ブロック1412の1つまたは複数の特性を入力として使用する計算、および/またはブロック1402、1406、および/または1410からのセンサデータに基づいて、または少なくとも部分的に基づいてもよい。
いくつかの場合、スコアは、ブロック1412の1つまたは複数の特性、および/またはブロック1402、1406、および/または1410からのセンサデータを入力として使用する機械学習アルゴリズムを使用して計算することができる。このような機械学習アルゴリズムは、ユーザーインターフェースを装着しているユーザーの適合度評価の訓練セットに関連する特性および/またはセンサデータを使用して訓練することができる。訓練セットの適合度評価は、ユーザーの主観的な評価、他の機器(例えば、実験室のセンサーや、専用センサーおよび/または専用感知機器を備えたユーザーインターフェース装備などの機器)を使用して収集された客観的な値などに基づいてもよい。
ブロック1416において、出力を生成することができる。出力または出力フィードバックは、ユーザーインターフェースの現在の適合度に関する情報を中継する任意の適切な出力を含んでもよい。出力は、ブロック1412の1つまたは複数の特性、ブロック1402、1406、および/または1410からのセンサデータ、および/または、ブロック1414からの適合度スコアに基づいてもよい。いくつかの場合、出力は、ブロック1414において生成された適合度スコアであってもよい。いくつかの場合、出力は、ブロック1402、1406、および/または1410からの生または処理されたセンサデータ(例えば、ユーザーに提示される熱画像またはオーディオ記録の一部)としてもよい。
いくつかの場合、出力は、ユーザーインターフェースの現在の適合度を改善するために選択されたアクションに対する指令または提案であってもよい。例えば、ブロック1412において識別された特性が、ユーザーインターフェースに対して非意図的な空気漏れが特定の位置に存在することを示している場合、出力は、非意図的な空気漏れを低減し、ユーザーインターフェースの適合度を改善するために、ユーザーインターフェースを調整する(例えば、ストラップを引き締める)指令を含んでもよい。いくつかの場合、ユーザーインターフェースの適合度の改善は、ブロック1414において生成された現在の適合度スコアと、ブロック1414の過去または未来のインスタンスにおいて生成された過去または未来の適合度スコアとに基づいてもよい。
いくつかの場合、ブロック1412の1つまたは複数の特性、ブロック1402、1406、および/または1410からのセンサデータ、および/または、ブロック1414からの適合度スコアを入力として使用する機械学習アルゴリズムを使用して、現在の適合度を改善するために選択された出力を選択することができる。このような機械学習アルゴリズムは、特性、センサデータ、および/または、特定のユーザーインターフェースを装着しているユーザーの適合度評価の訓練セットに関連する適合度スコアを使用して訓練することができる。訓練データは、ユーザーインターフェースに加えられた調整、ユーザーの顔に加えられた調整(例えば、髭剃り)、および/または、ユーザーインターフェースに対するさまざまな選択などの調整に関する情報を含んでもよい。
一例では、ユーザーインターフェース適合度は、ユーザーインターフェース装着前のセンサデータとユーザーインターフェース装着時のセンサデータとを比較することによって評価され、プロセス1400は、ブロック1402、1404、1406、1412、1414のみを含む。別の例では、現在の適合度は、ユーザーがユーザーインターフェースを装着しているときに評価され、プロセス1400は、ブロック1406、1412、および1414のみを含む。別の例では、ユーザーインターフェースの現在の適合度は、ユーザーインターフェースの装着前および装着後のユーザーの顔の特性を比較することによって評価され、プロセス1400は、ブロック1402、1404、1408、1410、1412、および1414のみを含む。他の配置を使用することもできる。加えて、いくつかの場合、別個のブロックとして提示される態様を1つまたは複数の他のブロックに組み込むことができる。例えば、いくつかの場合、ブロック1416における出力の生成の一部として、ブロック1414における適合度スコアの生成が行われる。別の例では、いくつかの場合、プロセス1400は、ブロック1414で適合度スコアを生成することなく、ブロック1412からブロック1416に進むことができる。
図15は、本開示のいくつかの実施形態による、ユーザーインターフェースの適合度を評価するためのプロセス1500を示すフローチャートである。ユーザーインターフェースは、図1のユーザーインターフェース100のような任意の適切なユーザーインターフェースとすることができる。プロセス1500は、スマートフォン234用のプロセッサ、または図7のサーバ210のようなサーバのプロセッサの制御システムを使用して実行することができる。
ブロック1402において、例えば、ユーザーインターフェースの現在の連携に関連するセンサデータが、ユーザーデバイスから受信される。ブロック702で受信したセンサデータは、1つまたは複数のセンサー(例えば、図4A~4CのRPTデバイス40の1つまたは複数のセンサー/トランスデューサ4270)から収集されていてもよく、これらのセンサー/トランスデューサの1つ、複数、またはすべてはユーザーデバイス(例えば、図7のスマートフォン234)に組み込まれ、および/または結合されていてもよい。センサデータは、同じ周波数または異なる周波数で任意の適切な解像度で収集することができる。いくつかの場合、検出周波数は、使用されるセンサーに基づいてもよい。例えば、可視スペクトルの画像データは、25~60フレーム/秒(fps)以上のフレームレートで収集され得るが、IR周波数の熱データは、10fps以下のフレームレートで収集され得る。
いくつかの場合、ブロック1502においてセンサデータを受信することは、ブロック1504においてセンサデータを校正、調整、または安定化することを含んでもよい。センサデータを校正、調整または安定化することは、データ中の望ましくないアーティファクトを考慮するためにセンサデータを調整することを含んでもよい。センサデータを校正、調整または安定化することは、センサデータの一部を使用して調整することを含んでもよい。一例では、ブロック1502において、画像データは、例えば、画像安定化ソフトウェアを画像データに適用することによって、または、慣性測定ユニット(IMU)またはスマートフォンのサブセンサから取得した慣性データを適用することによって安定化されてもよい。いくつかの場合、センサデータを安定化させることは、センサデータの第1部分に関連する画像安定化情報(例えば、可視スペクトルカメラからの画像データに関連する画像安定化情報)を受信することと、その安定化情報をセンサデータの第2部分(例えば、IRセンサーからの熱データのような他のセンサーからのセンサデータ)に適用することと、を含んでもよい。一例では、可視スペクトルカメラデータの安定化に関連する画像安定化情報(例えば、画像安定化ソフトウェアおよび/または慣性データによって得られる)をIRセンサーからの熱データに適用することができ、それにより、熱データを単独で使用する場合に可能な範囲を超えて熱データを安定化させることができる。
校正は、既知または公称の物体またはイベントのセンサデータを取得することによって行うことができる。例えば、画像データにおける露出および/または色温度の校正は、まず校正面(例えば、ホワイトバランスカードなどの既知の色の面)から基準画像データを収集し、次いで、基準画像データを使用して、画像データを取得するセンサーの設定を調整し、および/または画像データ自体を調整することによって達成することができる。
調整は、センサデータの一部を使用して他のセンサデータに対して行われた調整を通知することにより行うことができる。例えば、サーマルイメージャー(例えば、IRセンサ)は、熱データを収集して、ユーザーの顔の熱マップを生成することができる。熱マップは、ユーザーの顔上の様々な位置における局所的な温度と、ユーザーの背後の表後の表面などの周囲環境の一部の表面とを識別することができる。このような例では、熱データは、ユーザーの後背の表面が19℃であることを示すことができ、しかし、別の温度センサーから収集された周囲温度データは、ユーザーの背後の表面および/または周囲の室温が21℃に近いことを示している場合があるしたがって、システムは、ユーザーの背後の表面について感知される温度が、別の温度センサーによって測定された温度(例えば、21℃)に等しくなるように、サーマルイメージャーから取得される熱データを自動的に調整してもよい。したがって、このような調整は、ユーザーの顔の様々な位置における局所的な温度値にも継続してもよい。
別の例では、1つまたは複数のセンサーからのセンサデータを、1つまたは複数の他のセンサーからのセンサデータと相関させ、調整するために使用してもよい。例えば、可視スペクトルカメラからの画像データをIRセンサーからの熱描画データと相関させてもよい。このような例では、画像データ中のいくつかの検出された特徴(例えば、目、耳、鼻、口、ユーザーインターフェースの換気口など)を。熱マッピングデータ内の同様に検出された特徴と比較してもよい。したがって、画像データと熱マッピングデータとが同じスケールおよび視野で収集されていない場合でも、データを相関させることができる。例えば、画像データ内で検出された特徴の位置が、熱マッピングデータ内の相関する特徴の位置と一致するように、熱マッピングデータのすべてのピクセル(例えば、X方向および/またはY方向に引き伸ばす)を調整することができる。
いくつかの場合、センサデータを調整することは、i)ユーザーデバイスの動き、ii)ユーザーデバイス固有の雑音、iii)ユーザーの呼吸雑音、iv)ユーザーの発話(または他の発声)雑音、v)周囲照明の変化、vi)検出されたユーザーの顔に投影される一時的な影、vii)検出されたユーザーの顔に投影される一時的な色光、またはviii)i~viiの任意の組み合わせに関連するセンサデータの部分を利用してセンサデータを調整することを含んでもよい。
他の技術を使用して、センサデータおよび/または他のデータ(例えば、履歴センサデータ、システムに結合されていないセンサーから取得されたセンサデータなど)の一部に基づいて、センサデータを校正、調整、安定化、またはそうでなければ修正することができる。
いくつかの場合、ブロック1506において、ブロック1502におけるセンサデータの受信の一部として、感知フィードバックを提供することができる。感知フィードバックを提供することは、ブロック1502において、センサデータを受信するプロセスに関するフィードバックをユーザーに提示することを含んでもよい。第1例では、感知フィードバックは、進行中のセンサデータ収集に関する指示を示すディスプレイ上のテキストまたは画像を含んでもよい。例えば、感知フィードバックは、ユーザーに向いているカメラのライブカメラフィード上に重ねられた画面の領域を指定する輪郭または他のマークの形をとることができ、この場合、ユーザーに顔を画面の輪郭または領域内に維持するように指示することができる。
別の例では、ブロック1502においてセンサデータを受信することは、設定された継続時間の間、または何らかのセンサデータが正常に取得されるまで継続してもよい。このような場合、ユーザーは、ユーザーデバイスを特定の方向に保持する必要がある場合がある。持続時間が経過するか、または何らかのセンサデータが取得されると、ユーザーデバイスは、ユーザーデバイスを特定の方向に保持することをユーザーが停止できることを示すために、感知フィードバック1506を提示することができる(例えば、ユーザーデバイスのディスプレイがユーザーに背を向けている)。感知フィードバックは、視覚的および/または非視覚的な手がかり(例えば、ヒント、指令、通知などの刺激)の形態とすることができる。いくつかの場合、ユーザーデバイスの表示が現在ユーザーに見えない場合のように、非視覚的な合図(例えば、オーディオ合図または触覚フィードバック)を使用することが特に有用であり得る。
いくつかの場合、ブロック1506において感知フィードバックを提供することは、1つまたは複数のセンサーによって検出され得る効果を喚起するための何らかのアクションを実行するための指令をユーザーに提示することを含んでもよい。例えば、ある時間息を止めること、カメラに向かって微笑むこと、噛むこと、あくびをすること、話すこと、ユーザーインターフェースを着脱することなどをユーザーに指示してもよい。ブロック1514において、検出可能な効果を使用して、特性を検出することができる。一例では、検出可能な効果は、ユーザーが話す、噛む、またはあくびをするときの、ユーザーの顔に対するユーザーインターフェースの動き量であってもよい。このような例では、ユーザーインターフェースの過度の動きは、不良な適合度を示す可能性がある。いくつかの場合、ブロック1502においてセンサデータを受信することは、ブロック1506において指示されたアクションをユーザーが完了することに関連する完了信号を受信することを含んでもよい。完了信号検出の例には、ボタンの押下を感知すること(例えば、ユーザーが「完了」ボタンを押すこと)と、(例えば、カメラデータによって)アクションの完了を自動的に検出することが含まれる。
いくつかの場合、ブロック1506において感知フィードバックを提供することは、ユーザーに所望の位置に移動する(例えば、室内に移動するか、または十分に光の当たる部屋に移動する)指令、環境を調整する(例えば、部屋内のランプを点灯または消灯する)指令、および/または方向または姿勢を調整する(例えば、まっすぐに座る)指令を提供することを含んでもよい。
いくつかの場合、ブロック1502においてセンサデータを受信することは、ブロック1508において呼吸器系を制御することを含んでもよい。ブロック1508において呼吸療法システムを制御することは、ユーザーインターフェースに結合された呼吸療法デバイスに制御信号を送信することを含んでもよい。制御信号が呼吸療法デバイスによって受信されると、呼吸療法デバイスはパラメータを調整するか、または何らかのアクションを取ることができる。例えば、制御信号は、呼吸療法デバイスをオンおよび/またはオフにすること、所定の圧力または予め設定された圧力パターンで空気を供給すること、ヒータおよび/または加湿器を起動および/または停止すること、および/またはその他の適切な措置をとることを行わせる。
ブロック1510において、センサデータを使用して顔マッピングを生成することができる。顔マッピングは、(例えば、LiDARセンサーまたはIRセンサーからの)測距データ、(例えば、カメラからの)画像データ、および/または(例えば、IRセンサーからの)熱データなどの任意の適切なセンサデータを使用して生成することができる。顔マッピングは、目、鼻、口、耳、虹彩など、ユーザーの顔の1つまたは複数の特徴を識別することができる。顔マッピングは、識別された特徴の任意の組み合わせの間の距離を測定することを含んでもよい。結果として得られる顔マッピングは、2次元または3次元の顔マッピングであってもよい。代替的に、顔マッピングおよび結果として得られたデータは、図8A~8Cを参照して上述したように実行された顔スキャンから収集された記憶データから取得することができる。
いくつかの場合、顔マッピングは、ユーザーの顔に関連する輪郭および標高を示す輪郭マップである。いくつかの場合、顔マッピングは、ユーザーの顔のさまざまな位置における局所的な温度を示す熱マップである。
いくつかの場合、ブロック1510において顔マッピングを生成することは、第1個人および1つまたは複数の追加の個人を識別することを含んでもよい。この場合、顔マッピングを生成することは、第1個人を選択し(例えば、第1個人が1つまたは複数のセンサーまたはユーザーデバイスに最も近いことに基づいて、第1ユーザーの以前に記録された画像または特性との比較に基づいて、または他のそのような分析に基づいて)、第1個人の顔上で検出された1つまたは複数の特徴を使用して顔マッピング生成を継続することを含んでもよい。
いくつかの場合、任意のブロック1512において、センサデータを使用してユーザーインタフェースマッピングを生成してもよい。(例えば、LiDARセンサーまたはIRセンサーからの)測距データ、(例えば、カメラからの)画像データ、および/または(例えば、IRセンサーからの)熱データなど任意の適切なセンサデータを使用して、ユーザーインタフェースマッピングを生成することができる。ユーザーインタフェースマッピングは、換気口、輪郭、導管、導管接続部、ストラップなどのユーザーインターフェースの1つまたは複数の特徴を識別することができる。ユーザーインタフェースマッピングは、識別された特徴の任意の組み合わせ間の距離を測定することを含んでもよい。結果として得られるユーザーインタフェースマップは、2次元または3次元ユーザーインタフェースマッピングにすることができる。
いくつかの場合、ブロック1510において顔マッピングを生成することは、ブロック1512においてユーザーインタフェースマッピングを生成することを含んでもよい。
ブロック1514では、ブロック1502からのセンサデータおよびブロック1510からの顔マッピングを使用して、現在の適合度に関連する1つまたは複数の特性を識別する。いくつかの場合、ブロック1514において特性を識別することは、ブロック1512において生成されたインターフェースマッピングを使用することを含んでもよい。
任意の適切な特性を識別することができる。特性は、ユーザーの顔の特性、ユーザーの顔とユーザーインターフェースとの間のインタアクションの特性、ユーザーインターフェースの特性、および環境の特性を含んでもよい。いくつかの場合、特性は、センサデータから検出され、ユーザーインターフェースの適合度の品質を決定するための証明価値を有する、ユーザーの顔、ユーザーインターフェース、ユーザーの顔とユーザーインターフェースとの間のインタアクション、または環境の識別可能な態様としてもよい。
いくつかの場合、必ずしもそうではないが、特徴を位置に関連してもよい。位置に関連する特性は、顔マッピングおよび/またはユーザーインタフェースマッピング上の位置、または顔マッピングおよび/またはユーザーインタフェースマッピングを参照する位置に関連してもよい。例えば、例示的な特性は、非意図的な空気漏れを示すオーディオ信号(例えば、非意図的な空気漏れに関連する特徴的な周波数分布を有するオーディオ信号)、または非意図的な空気漏れ自体であってもよい。いくつかの場合、この特性は、単独で使用したり(例えば、適合度スコアを生成するなど、非意図的な空気漏れの有無を使用することができる)、特性に関連する位置情報と組み合わせて使用したりしてもよい。このような例では、ユーザーの顔の特定の位置(例えば、図12に示すように、鼻と左頬との間)に非意図的な空気漏れが検出され得る。この場合、位置情報は、ユーザーの顔上の非意図的な空気漏れがあった位置に相関する顔マッピング上またはユーザーインタフェースマップ上の位置を示すことができる。ユーザーインターフェースと共に位置情報を追加することは、より正確な適合度スコアおよび/または適合度を改善するためのより正確な指令のような有用な情報を提供するのに役立つ。
いくつかの場合、利用可能な特性のセットを事前に決定することができる。このような場合、ブロック1514において特性を識別することは、センサデータおよび/または顔マッピングを分析して、利用可能な特性のセットのうちのどれが検出されたか(存在する場合)を決定することを含んでもよい。例えば、利用可能な特性のセットは、ユーザーの顔の局所的な温度リバウンド、ユーザーの顔の局所的な色のリバウンド、およびユーザーインターフェースの局所的な温度を含んでもよい。このような例では、センサデータに熱データが含まれていない場合(例えば、IRセンサーまたは温度センサーが利用可能でない場合)、そのリストから決定され得る唯一の特性は、カメラによって収集された画像データから検出され得る局所的な色のリバウンドである。別の例では、十分な熱データが存在する場合、局所的な温度のリバウンドおよびユーザーインターフェースの局所的な温度を追加的に検出してもよい。
いくつかの場合、特性は、有益な特性または有害な特性であってもよい。有益な特性は、ユーザーインターフェースの良好な適合度に関連する特性であってもよい。例えば、ユーザーインターフェースのシール形状をしたユーザーの顔上の局所的な輪郭である特性は、ユーザーインターフェースがユーザーの顔と良好な適合度を維持していることを示す場合がある。したがって、このような特性の存在またはそれ以上の存在が有益である可能性がある。一方、有害な特性はユーザーインターフェースの不良な適合度に関連している可能性がある。例えば、ユーザーの顔の領域における局所的な温度変化としての特性は、冷気がユーザーの顔のその領域を通って流れていることを示し、それによって、不良な適合度に関連する非意図的な空気漏れを示す可能性がある。したがって、このような特性の存在またはそれ以上の存在は有害である可能性がある。
例示的な特性は、ユーザーの顔の局所的な温度である。この特性は、ユーザーの顔上で検出された温度であってもよく、それは、同じ位置で以前に検出された温度(例えば、ユーザーがユーザーインターフェースを装着していた以前の時間)または隣接する位置で検出された現在の温度と比較されてもよい。例えば、ユーザーインターフェースのシールの近くでコールドスポットが検出されたが、コールドスポットがより高い温度に囲まれている場合、コールドスポットは非意図的な空気漏れを示している可能性がある。
別の例示的な特性は、ユーザーの顔の局所的な温度のリバウンドである。局所的な温度のリバウンドは、特定の位置(例えば、顔マッピング上の特定の位置)での一定期間にわたる温度の変化を含んでもよい。局所的な温度のリバウンドは、ユーザーインターフェースの一時的なイベント(例えば、ユーザーインターフェースの取り外し)、ユーザーの一時的なイベント(例えば、暖かい部屋から寒い部屋への移動)、呼吸療法システムの一時的なイベント(例えば、流量発生器のヒータ、加湿器のヒータ、および/または導管のヒータなどの呼吸療法システムのヒータを作動させる)、または他の一時的なイベントなどの一時的なイベントに追従することができる。例えば、ユーザーインターフェースが取り外された後に、顔マッピングに対して特定の位置でより長い温度リバウンド時間が検出された場合は、不良な適合度を示す可能性がある。測定された属性(例えば、温度、色、輪郭など)の「リバウンド」は、ユーザーインターフェースの着脱または調整、RPTデバイスからの加圧空気流の開始または停止、または測定された属性が経時的に変化する別のイベントの発生などの一時的なイベントに続く測定された属性の変化を含んでもよい。
別の例示的な特性は、ユーザーの顔の局所的な色である。この特性は、ユーザーの顔上で検出された色であってもよく、それは、同じ位置で以前に検出された色(例えば、ユーザーがユーザーインターフェースを装着した以前の時間)または隣接する位置で検出された現在の色と比較されてもよい。例えば、ユーザーインターフェースのシールの近くでより赤い斑点が検出されたが、より白い色で囲まれている場合、このより赤い斑点は、(例えば、シールがユーザーの顔にあまり押し付けられていないため、および/または、流れる空気の刺激によって)非意図的な空気漏れを示す可能性がある。
別の例示的な特性は、ユーザーの顔の局所的なカラーリバウンドである。局所的な色のリバウンドは、特定の位置(例えば、顔マッピング上の特定の位置)での一定期間にわたる色の変化を含んでもよい。局所的な色のリバウンドは、ユーザーインターフェースの一時的なイベント(例えば、ユーザーインターフェースの取り外し)、ユーザーの一時的なイベント(例えば、暖かい部屋から寒い部屋への移動)、呼吸療法システムの一時的なイベント(例えば、呼吸療法デバイスのオンまたはオフ)、または他の一時的なイベントなどの一時的なイベントに追従することができる。例えば、ユーザーインターフェースが取り外された後に、顔マッピングに対して特定の位置でより長い色リバウンド時間が検出されると、良好な適合度を示すことができる。
別の例示的な特性は、ユーザーの顔の局所的な輪郭である。この特性は、ユーザーの顔上で検出された輪郭であってもよく、それは、同じ位置(例えば、ユーザーがユーザーインターフェースを装着した以前の時間)で以前に検出された輪郭、または隣接する位置で検出された現在の輪郭と比較されてもよい。例えば、ユーザーインターフェースのシール全体の周囲でユーザーの皮膚に一定量のくぼみが検出された場合、これは強いシールと良好な適合度を示す可能性がある。
別の例示的な特性は、ユーザーの顔の局所的な輪郭のリバウンドである。局所的な輪郭のリバウンドは、特定の位置(例えば、顔マッピング上の特定の位置)での一定期間にわたる輪郭の変化を含んでもよい。局所的な輪郭のリバウンドは、ユーザーインターフェースの一時的なイベント(例えば、ユーザーインターフェースの取り外し)、ユーザーの一時的なイベント(例えば、暖かい部屋から寒い部屋への移動)、呼吸療法システムの一時的なイベント(例えば、呼吸療法デバイスのオンまたはオフ)、または他の一時的なイベントなどの一時的なイベントに追従することができる。例えば、ユーザーインターフェースが取り外された後に、顔マッピングに対して特定の位置でより長い輪郭リバウンド時間が検出されると、良好な適合度を示す可能性がある。
もう1つの例示的な特性は、ユーザーインターフェースの局所的な輪郭である。この特性は、ユーザーインターフェース上(例えば、ユーザーインターフェースのシールなどのユーザーインターフェースの一部上)で検出された輪郭であってもよく、同じ位置(例えば、ユーザーインターフェースが以前に装着された時間)で以前に検出された輪郭、またはユーザーインターフェース上の他の位置で検出された現在の輪郭と比較されてもよい。例えば、一定量の窪みがユーザーインターフェースのシール上で検出された場合、これは強いシールと良好な適合度を示す可能性がある。
もう1つの例示的な特性は、ユーザーインターフェースの局所的なのリバウンドである。局所的な輪郭のリバウンドは、ユーザーインターフェース上の特定の位置(例えば、ユーザーインタフェースマップ上の特定の位置)での一定時間にわたる輪郭の変化を含んでもよい。局所的な輪郭のリバウンドは、ユーザーインターフェースの一時的なイベント(例えば、ユーザーインターフェースの除去)、ユーザーの一時的なイベント(例えば、暖かい部屋から寒い部屋への移動)、呼吸療法システムの一時的なイベント(例えば、呼吸療法デバイスのオンまたはオフ)、または他の一時的なイベントなどの一時的なイベントに追従することができる。例えば、ユーザーインターフェースのシール上の特定の位置で長い輪郭リバウンド時間が検出されると、不良な適合度および/またはシール不良を示す可能性がある(例えば、シール不良が急速にリバウンドしない場合がある)。
もう1つの例示的な特性は、ユーザーインターフェースの局所的な温度である。この特性は、ユーザーインターフェース上の特定の位置(例えば、ユーザーインターフェースの一部、例えばシール上)で検出された温度であってもよく、同じ位置(例えば、ユーザーインターフェースが以前に装着された時間)で以前に検出された温度、またはユーザーインターフェース上の他の位置で検出された現在の温度と比較されてもおい。例えば、ユーザーインターフェースのシール上の位置でコールドスポットが検出されたが、ユーザーインターフェースの他の部分が比較的高温であると検出された場合、コールドスポットは非意図的な空気漏れを示している可能性がある。別の例では、ユーザーインターフェースまたは導管の一部が所定の温度に加熱されるのに必要な時間の長さは、良好な適合度または不良な適合度を示すことができる。
別の例示的な特性は、ユーザーの顔の1つまたは複数の特徴に対するユーザーインターフェースの垂直位置である。ユーザーの顔の1つまたは複数の特徴に対するユーザーインターフェースの垂直位置は、顔マッピング、センサデータおよび/またはユーザーインタフェースマッピングに基づいてもよい。一例では、ユーザーインターフェースまたはユーザーインターフェースの検出された特徴が、ユーザーの顔の1つまたは複数の特徴(例えば、顎、口、および/または鼻)に対して高すぎるまたは低すぎることが検出された場合、不良な適合度ことを示す可能性がある(例えば、ストラップは、ユーザーインターフェースを引き揚げすぎている、または引き下げすぎている可能性がある)。
別の例示的な特性は、ユーザーの顔の1つまたは複数の特徴に対するユーザーインターフェースの水平位置である。ユーザーの顔の1つまたは複数の特徴に対するユーザーインターフェースの水平位置は、顔マッピング、センサデータおよび/またはユーザーインタフェースマッピングに基づいてもよい。一例では、ユーザーインターフェースまたはユーザーインターフェースの検出された特徴がユーザーの顔の一方または他方から遠すぎることが検出された場合、不良な適合度ことを示す可能性がある(例えば、ストラップがユーザーインターフェースをユーザーの右側または左側に引きすぎる可能性がある)。
別の例示的な特性は、ユーザーの顔の1つまたは複数の特徴に対するユーザーインターフェースの回転方向である。回転方向は、ユーザーの顔から外側に延びる回転軸、例えば顔から前方向または腹方向に延びる回転軸の周りにユーザーインターフェースがユーザーの顔に対してどれだけ回転するかという尺度であってもよい。ユーザーの顔の1つまたは複数の特徴に対するユーザーインターフェースの回転方向は、顔マッピング、センサデータおよび/またはユーザーインタフェースマッピングに基づいてもよい。一例では、ユーザーインターフェースまたはユーザーインターフェースの検出された特徴がユーザーの顔の1つまたは複数の特徴に対して過度に回転している度合いが検出された場合、不良な適合度を示す可能性がある(例えば、ストラップがユーザーの顔上でユーザーインターフェースを歪める可能性がある)。
別の例示的な特性は、ユーザーの顔の1つまたは複数の特徴に対するユーザーインターフェースの識別された特徴間の距離である。この距離は、顔マッピング、センサデータおよび/またはユーザーインタフェースマッピングに基づいてもよい。一例では、ユーザーインターフェースの検出された特徴(例えば、換気口)が、ユーザーの顔の検出された特徴(例えば、鼻梁)からあまりにもずれていることが検出された場合、不良な適合度を示す可能性がある。この距離は、1寸法、2次元または3次元で測定されてもよい。一例では、ユーザーの顔に過度に緩やかに適合するユーザーインターフェースは、ユーザーの顔の表面から比較的大きな距離に位置する換気口を有することができ、これは不良な適合度を示すことができる。このような場合、換気口とユーザーの顔特徴との間の距離の測定は、不良な適合度を示すことができ、これは、ユーザーインターフェースのストラップを引き締めることによって修正できる。
別の例では、ブロック1514において漏れ特性を識別することは、ブロック1502から受信したセンサデータに基づいてユーザーの呼吸パターンを決定することと、ブロック1502から受信したセンサデータおよびブロック1510からの顔マッピングに基づいてユーザーの顔に関連する熱パターンを決定することと、呼吸パターンおよび熱パターンを使用して、意図的な通気漏れと非意図的なシール漏れとの間のバランスを示す漏れ特性信号を生成することと、を含んでもよい。例えば、呼吸パターンおよび熱パターンを使用して、意図的な通気漏れの例および任意の強度を示す意図的な通気漏れ信号を生成してもよい。非意図的なシール漏れについては、同様の非意図的なシール漏れ信号を生成してもよい。漏れ特性信号は、非意図的なシール漏れ信号と意図的なシール漏れ信号との比であってもよい。
いくつかの場合、ブロック1514において特性を識別することは、ブロック1516において潜在的な特性を識別および確認することを含んでもよい。潜在的な特性を識別および確認することは、第1センサデータセットを使用して特性を識別し、次いで第2センサデータセットを使用して特性を確認することを含んでもよい。第1センサデータセットおよび第2センサデータセットは、同じセンサーから異なる時間に収集されてもよいし、異なるセンサーから収集されてもよい。例えば、異なる時間で同じセンサーから収集することは、ユーザーがユーザーインターフェースを装着している間に熱データから潜在的な非意図的な空気漏れを識別すること(例えば、ユーザーインターフェースの周囲の領域におけるユーザーの顔の表面の局所的な温度変化を検出すること)と、ユーザーがユーザーインターフェースを取り外した後に収集された熱データを使用して非意図的な空気漏れを確認すること(例えば、血液が別の位置で以前に圧縮された組織に逆戻りしている間など、潜在的な空気漏れの近くではない時間の間、特定の領域のユーザーの顔の表面温度が変化しないことを検出すること)とを含んでもよい。
別の例では、潜在的な特性を識別および確認するために、さまざまなセンサーからセンサデータを収集することは、ユーザーがユーザーインターフェースを装着している間に収集された熱データを使用して潜在的な非意図的な空気漏れを識別し、次いで、同時に収集されたオーディオデータを使用して非意図的な空気漏れを確認すること(例えば、非意図的な空気漏れを示す特徴的なオーディオまたは音響信号を検出することによって、潜在的な非意図的な空気漏れが熱画像において検出されたのと同じ時間に一致する)を含んでもよい。
いくつかの場合、追加のセンサデータは、ブロック1520において呼吸デバイスから受信され、ブロック1514において特性の識別のために使用されてもよい。呼吸療法デバイスからの追加のセンサデータは、呼吸療法システム(例えば、図1の呼吸療法システム)から取得されたデータを含んでもよい。このような追加のセンサデータは、流量、圧力、送出空気温度、周囲温度、送出空気湿度、周囲湿度、周囲オーディオ信号、導管または導管内の空気を介して伝達されるオーディオ信号などのデータを含んでもよい。いくつかの場合、追加のセンサデータは、ユーザーインターフェースおよび/または導管内のセンサーによって収集されたデータを含んでもよい。いくつかの場合、ブロック1520からの追加のセンサデータは、呼吸療法システムによる空気送達に関連してもよい。例えば、ブロック1514において、送出空気温度に関連する追加のセンサデータを使用して、送出空気温度をユーザーインターフェースのシール周囲のユーザーの皮膚の温度と比較することによって、非意図的な空気漏れを識別および/または確認してもよい。
しかしながら、いくつかの場合、ブロック1520からの追加のセンサデータは、ユーザーインターフェースの現在の適合度に関連してもよい。一例では、呼吸療法システムは、ユーザーの顔またはユーザーインターフェースに関する情報を検出することができる1つまたは複数のセンサーを含んでもよい。例えば、呼吸療法デバイスのRFセンサーは、ユーザーインターフェースのユーザーに対する現在の適合度に関連する測距情報を検出してもよい。別の例では、1つまたは複数の光センサー(例えば、可視光カメラ、受動赤外線センサー、および/または能動赤外線センサー)を使用して、ユーザーの顔および/またはユーザーインターフェースに関する情報を検出してもよい。
いくつかの場合、履歴データは、ブロック1522において受信され、特性の識別のためにブロック1514において使用されてもよい。履歴データは、履歴センサデータ(例えば、ブロック1502の前のインスタンスにおいて収集または受信したセンサデータ)、履歴特性データ(例えば、ブロック1514の前のインスタンスにおいて識別された特性に関する情報)、および/または他の履歴データ(例えば、以前の適合度スコア)を含んでもよい。ブロック1518において、ブロック1514において特性を識別することは、ブロック1522において受信された履歴データを、ブロック1502において受信したセンサデータと比較することを含んでもよい。例えば、ブロック1522において履歴データを受信することは、ユーザーインターフェースを装着する前に、ユーザーの顔の熱マッピングを含むメモリにアクセスすることを含んでもよい。このような例では、ブロック1518において、その熱マッピングは、ユーザーがユーザーインターフェースを装着している間および/またはユーザーがユーザーインターフェースを取り外した後に行われ得るユーザーの顔の現在の熱マッピングと比較されてもよい。2つの熱マッピングで検出された差異は、特性(例えば、予期しない局所的な温度および/または非意図的な空気漏れ)を識別するために使用され得る。
別の例では、ブロック1522において履歴データを受信することは、特定のユーザーインターフェースのシーリングに関連する以前の輪郭リバウンド時間を含むメモリにアクセスすることを含んでもよい。このような例では、以前の輪郭リバウンド時間は、ユーザーインタフェースシールの同じ部分について新たに得られた輪郭リバウンド時間と比較されてもよい。この比較は、シールが経時的に劣化していることを示すことができ、これは不良な適合度を引き起こす可能性があり、必然的にシール不良を引き起こす可能性がある。したがって、この劣化を特性として検出し、シールの交換をユーザーに知らせることができる。
いくつかの場合、機械学習アルゴリズムを使用して、特性の識別を容易にし、または実現することができる。このような機械学習アルゴリズムは、ユーザーインターフェースを着用しているか、またはユーザーインターフェースの一時的なイベントに参加している1人以上のユーザーによって収集されたセンサデータの訓練セットを使用して訓練することができる。訓練データは、常にそうであるとは限らないが、存在すると判定された特性に関する情報を含むことができる。いくつかの場合、訓練データは、ユーザーインターフェースの適合度品質に関する情報を含んでもよい。このような適合度情報の品質は、ユーザーの主観的な評価、他の機器(例えば、実験室のセンサーや、専用センサーおよび/または専用感知機器を備えたユーザーインターフェースなどの機器)を使用して収集された客観的な値などに基づいてもよい。いくつかの場合、ブロック1514において識別された特性は、機械学習アルゴリズムによって使用される特徴である。
いくつかの場合、現在の適合度に関連する特性を識別することは、所与のユーザー顔(例えば、ブロック1510からの顔マッピング)および所与のユーザーインターフェース(例えば、ブロック1512からのユーザーインタフェースマッピングまたは他のユーザーインターフェース識別情報)の予測適合度品質を決定することを含んでもよい。このような場合、ユーザーの顔の顔マッピングを所与のユーザーインターフェースの設計パラメータに適用して、予測される適合度品質(例えば、ユーザーの顔に対する特定のユーザーインターフェースの最も可能性の高い適合度)を決定してもよい。その予測された適合度品質がしきい値を下回る場合、所与のユーザーインターフェースがユーザーによる使用に適さないと判定することができる。予測された適合度の品質はさらに、現在の適合度の所与の評価(例えば、ブロック1528を参照して説明された評価)が改善され得るか否か(例えば、現在の適合度の改善が達成され得るかまたは可能であるか否か)を判定するためにも使用され得る。例えば、特定のユーザーの顔上の所与のユーザーインターフェースの予測された適合度の品質が「良好」であり(例えば、適合度の品質を表すために他の尺度を使用することができるが、「不良」、「良い」、「良好」、「非常良好」から)、現在の適合度が「良好」と評価された場合、ユーザーインターフェースを変更することなく、適合度の品質の更なる改善は不可能であると判定することができる。別の例では、予測された適合度の品質が「非常良好」であり、現在の適合度が「良い」と評価された場合、顔の毛髪のトリミング、化粧品の除去、ベッド上の位置の変更、または他の変更など、他の要因の調整が現在の適合度を改善することができると判断してもよい。
ブロック1524において、出力フィードバックは、ブロック1514からの識別された(1つまたは複数の)特性およびオプションとして特徴的な位置(例えば、顔マッピングおよび/またはユーザーインタフェースマッピングに対する位置)に基づいて生成することができる。ブロック1524において出力フィードバックを生成することは、例えば、GUI、スピーカー、触覚フィードバックデバイスなどを介して出力フィードバックを提示することを含んでもよい。いくつかの場合、出力フィードバックは、ユーザー画像上のオーバーレイとして、例えば拡張現実のオーバーレイの形で提示されてもよい。例えば、アイコン、強調表示、テキスト、および他のマークは、現在の適合度の品質に関するフィードバックおよび/または現在の適合度を改善する方法に関する指示を提供するために、ユーザーの画像(例えば、ライブまたは非ライブ)上にオーバーレイしてもよい。
いくつかの場合、出力フィードバックは、識別された1つまたは複数の特性および任意選択の位置情報を含んでもよい。例えば、出力フィードバックは、検出された特性の存在を示すグラフィックまたはテキストで覆われたユーザーの顔の画像または表現であってもよい(例えば、可視スペクトルカメラ、サーマルイメージャーから取得され、または顔マッピングからグラフィック的に生成される)。一例では、検出された非意図的な空気漏れは、検出された非意図的な空気漏れの位置において、矢印、強調表示された円、または注意を喚起する他の視覚的要素によって、ユーザーの顔の画像または表現上に表示されてもよい。
いくつかの場合、ブロック1524において出力フィードバックを生成することは、適合度を改善するための提案されたアクションをブロック1526において決定して提示することを含んでもよい。適合度を改善するための提案されたアクションを決定して提示することは、適合度を改善するように設計されたアクションを選択するために識別された特性およびその位置情報を使用することと、そのアクションを(例えば、テキスト、グラフィック、オーディオフィードバック、触覚フィードバックなどによって)提示することと、を含んでもよい。いくつかの場合、適合度を改善するためのアクションは、識別された特性に基づいて取るべきアクションを選択することができるルックアップテーブルまたはアルゴリズムに基づいて識別されてもよく、オプションとしてその位置情報を含む。例えば、非意図的な空気漏れの検出は、ユーザーインターフェースのストラップを調整するための提案されたアクションと相関させることができ、この場合、非意図的な空気漏れの位置を使用して、どのストラップを調整すべきかを決定することができる。
しかし、いくつかの場合、取るべきアクションを決定するのは機械学習アルゴリズムに基づいていてもよい。このような機械学習アルゴリズムは、取るべきアクションの訓練セットと、そのアクションが取られる前および/または後の適合度情報の品質とを使用して訓練することができる。このような適合度情報の品質は、ユーザーの主観的評価、他の機器(例えば、実験室のセンサーや、専用センサーおよび/または専用感知機器を備えたユーザーインターフェースなどの機器)を使用して収集された客観的な値などに基づいてもよい。いくつかの場合、ブロック1514において識別された特性は、機械学習アルゴリズムによって使用される特徴である。
いくつかの場合、ブロック1524において出力フィードバックを生成することは、ブロック1526において現在の適合度の評価を生成することを含んでもよい。ブロック1526において現在の適合度の評価を生成することは、センサデータ、識別された特性、および/または特徴的な位置情報を使用することを含んでもよい。評価は、数値スコア(例えば、0から100の間の数値スコアのような適合度スコア)、カテゴリスコア(例えば、「良好」、「一般」、「不良」などのテキストスコア、緑色、黄色、赤色のような色スコア、または、空気漏れのないシールを描く、小さいシールを描く、空気漏れの大きいシールを描くなどのグラフィックスコア)とすることができる。
いくつかの場合、評価を生成することは、センサデータ、識別された特性、および/または特徴的な位置情報を入力として使用して、方程式アルゴリズムに基づいて評価を生成することを含んでもよい。例えば、適合度スコアは、さまざまな識別特性に関連する値の重み付け計算(例えば、温度差の量、検出されたユーザーインタフェースシールエッジからの温度差の距離、オーディオ信号における検出された非意図的な漏れの継続時間など)であってもよい。
いくつかの場合、生成された評価は、履歴データ(例えば、ブロック1522において受信された履歴データ)との比較に少なくとも部分的に基づいてもよい。この場合、評価は、識別された特性に関連する値が改善または劣化を示すか否かに少なくとも部分的に基づいてもよく、この場合、改善は、適合度スコアが以前の適合度スコアから増加することを確保し、劣化は、適合度スコアが以前の適合度スコアから減少することを確保する。
いくつかの場合、生成された評価は機械学習アルゴリズムに基づいていてもよい。このような機械学習アルゴリズムは、センサデータ、識別された(1つまたは複数の)特性、および/または特徴的な位置情報の訓練セットを使用して訓練することができる。いくつかの場合、訓練セットは適合品質情報を含んでもよい。このような適合度情報の品質は、ユーザーの主観的な評価、他の機器(例えば、実験室センサーや、専用センサーおよび/または専用感知機器を備えたユーザーインターフェースなどの機器)を使用して収集された客観的な値などに基づいてもよい。いくつかの場合、ブロック1514において識別された特性は、機械学習アルゴリズムによって使用される特徴である。
本明細書では、特定の順序で発生するプロセス1500が示され、説明されているが、より一般的には、プロセス1500の個々のブロックは、任意の適切な順序で実行され、より少ないおよび/または追加のブロックを有してもよい。例えば、ブロック1520、1522、1512、および1518は、いくつかの場合使用されない。
図9~10および図14~15の流れ図は、呼吸圧療法のための最適なインターフェースを選択するためのデータを収集および分析するための例示的な機械可読指令の代表であり、選択されたユーザーインターフェースのマッチングなどの後続の分析を行うために使用される。この例では、機械可読命令は、(a)プロセッサ、(b)コントローラ、および/または(c)1つまたは複数の他の適切な処理装置(複数可)によって実行されるアルゴリズムを含む。このアルゴリズムは、フラッシュメモリ、CD-ROM、フロッピー(登録商標)ディスク、ハードドライブ、デジタルビデオ(多用途)ディスク(DVD)、または他の記憶装置などの有形媒体に記憶されたソフトウェアに具現化され得る。しかしながら、当業者は、アルゴリズム全体および/またはその一部が、代替的に、プロセッサ以外のデバイスによって実行され、および/または周知の方法でファームウェアもしくは専用ハードウェアに具現化され得る(例えば、アルゴリズム全体および/またはその一部が、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルロジックデバイス(FPLD)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリートロジックなどによって実装され得る)ことを容易に理解する。例えば、インターフェースの部品のいずれかまたは全部は、ソフトウェア、ハードウェア、および/またはファームウェアによって実装され得る。また、流れ図によって表される機械可読命令の一部またはすべては、手動で実装され得る。さらに、アルゴリズムの一例は、図19~10および14~15に示すフローチャートを参照して説明されているが、以下のように説明される。実際には、典型的な機械可読指令を実装する他の多くの方法が代替的に使用されてもよいことは、当業者には容易に理解される。例えば、ブロックの実行順序を変更することができ、および/または、記載されたブロックのいくつかを変更、削除、または結合することができる。
本明細書で使用されるように、用語「部品」、「モジュール」、「システム」などは、一般に、コンピュータに関連するエンティティ、ハードウェア(例えば、回路)、ハードウェアとソフトウェアの組み合わせ、ソフトウェア、または1つまたは複数の特定の機能を有する動作機械に関連するエンティティを意味する。例えば、部品は、プロセッサ(例えば、デジタル信号プロセッサ)で実行されるプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行スレッド、プログラム、および/またはコンピュータであってもよいが、これらに限定されない。例えば、コントローラ上で実行されるアプリケーションとコントローラは、部品であってもよい。1つまたは複数の部品は、実行中のプロセスおよび/またはスレッド内に存在することができ、部品は、1つのコンピュータ上でローカライズされ、および/または、2つ以上のコンピュータ間で分散されてもよい。更に、「デバイス」は、特別に設計されたハードウェア;汎用化ハードウェアであって、ハードウェア上のソフトウェアの実行によって専用化されてハードウェアに特定の機能を実施させることを可能にする、汎用化ハードウェア;コンピュータ可読媒体に記憶されたソフトウェア;またはそれらの組合せ、の形態であり得る。
本明細書で使用される用語は、特定の実施形態を説明する目的でのみ使用され、本発明を限定することを意図していない。本明細書で使用する場合、単数形「1つの(a)」、「1つの(an)」、および「前記(the)」は、文脈が別途明確に示さない限り、複数形も含むことが意図され得る。更に、用語「含む(including)」、「含む(includes)」、「有する(having)」、「有する(has)」、「有する(with)」、またはそれらの変形が、「発明を実施するための形態」および/または「特許請求の範囲」のいずれかで使用される限りにおいて、そのような用語は、「備える(comprising)」という用語と同様に包括的であることが意図される。
別段の定義がない限り、本明細書で使用されるすべての用語(技術用語および科学用語を含む)は、当業者が通常理解するのと同じ意味を有する。さらに、用語、例えば、一般的な辞書で定義されている用語は、関連する分野の文脈におけるその意味と一致する意味を有するものとして解釈されるべきであり、ここで明示的にそのように定義されない限り、理想的または過度に正式な意味として解釈されることはない。
以下の請求項1~100のうちのいずれか1つまたは複数からの1つまたは複数のステップ、態様またはステップ、またはその任意の部分を、他の請求項1~100のうちのいずれか1つまたは複数からの1つまたは複数のステップ、態様またはステップ、またはその任意の部分と組み合わせて、本開示の1つまたは複数の追加の実装および/または請求項を形成することができる。
以上、本発明の様々な実施形態について説明してきたが、それらは限定するものではなく、例示的にのみ提示されることを理解されたい。本発明は、1つ以上の実装形態に関して例示および説明されているが、当業者であれば、本明細書および添付の図面を読んで理解することにより、同等の変更および修正を想到するであろう。加えて、本発明の特定の特徴が、いくつかの実装形態のうちの1つだけに関して開示されている場合があるが、そのような特徴は、任意の所与の用途または特定の用途にとって望ましく有利であり得る、他の実装形態の1つ以上の他の特徴と組み合わされてもよい。したがって、本発明の幅および範囲は、上述した実施形態のいずれによっても限定されるべきではない。むしろ、本発明の範囲は、以下の請求項およびその均等物に基づいて定義されるべきである。

Claims (100)

  1. ユーザーの顔に適した呼吸療法用のインターフェースを選択するためのシステムであって、
    前記ユーザーの顔画像を記憶する記憶デバイスと、
    前記顔画像に基づいて前記ユーザーの顔特徴を決定するように動作可能な顔輪郭エンジンと、
    ユーザー集団からの複数の顔特徴と前記ユーザー集団によって使用される複数の対応するインターフェース、および
    前記複数の対応するインターフェースを有する前記ユーザー集団によって使用される呼吸療法デバイスの動作データを記憶する
    1つまたは複数のデータベースと、
    前記1つまたは複数のデータベースに結合された選択エンジンであって、前記記憶された動作データからの望ましい結果および前記決定された顔特徴に基づいて、前記複数の対応するインターフェースの中からユーザー用のインターフェースを選択するように動作可能である選択エンジンと、を含むシステム。
  2. 前記インターフェースはマスクである、請求項1に記載のシステム。
  3. 前記呼吸療法デバイスは、気道陽圧(PAP)または非侵襲的換気(NIV)のうちの1つまたは複数を提供するように構成されている、請求項1~2のいずれか1項に記載のシステム。
  4. 少なくとも1つの前記呼吸療法デバイスは、少なくとも1つの前記呼吸療法デバイスの動作中にオーディオデータを収集するためのオーディオセンサを含む、請求項1~3のいずれか1項に記載のシステム。
  5. 前記選択エンジンは、前記オーディオデータを既知の前記インターフェースの音響シグネチャと一致させることに基づいて、前記オーディオデータを分析して、少なくとも1つの前記呼吸療法デバイスの前記対応するインターフェースのタイプを決定するように動作可能である、請求項4に記載のシステム。
  6. 前記選択エンジンは、前記1つまたは複数のデータベースに記憶されたユーザー集団の人口統計データと比較されたユーザーの人口統計データに基づいて前記インターフェースを選択する、請求項1~5のいずれか1項に記載のシステム。
  7. 前記動作データは、流量、モータ速度、および治療圧力のうちの1つを含む、請求項1~6のいずれか1項に記載のシステム。
  8. 前記顔画像は、カメラを含むモバイルデバイスからのスキャンに基づいて決定される、請求項1~7のいずれか1項に記載のシステム。
  9. 前記モバイルデバイスは、深度センサーを含み、前記カメラは、3Dカメラであり、前記顔特徴は、前記顔画像から導出されるメッシュ面から導出される3次元特徴である、請求項8に記載のシステム。
  10. 前記顔画像はランドマークを含む2次元画像であり、前記顔特徴は前記ランドマークから導出される3次元特徴である、請求項1~9のいずれか1項に記載のシステム。
  11. 前記顔画像は、複数の2次元顔画像のうちの1つであり、前記顔特徴は、前記顔画像と一致するように適合された3D変形可能モデルから導出される3次元特徴である、請求項1~9のいずれか1項に記載のシステム。
  12. 前記顔画像は、少なくとも1つの顔寸法に関するランドマークを含む、請求項1~8のいずれか1項に記載のシステム。
  13. 前記顔寸法は、顔の高さ、鼻の幅、および鼻の深さのうちの少なくとも1つを含む、請求項12に記載のシステム。
  14. 前記望ましい結果は、漏れを防止するためのインターフェースと顔面との間のシールである、請求項1~13のいずれか1項に記載のシステム。
  15. 前記望ましい結果は、前記呼吸療法デバイスの使用のコンプライアンスである、請求項1~14のいずれか1項に記載のシステム。
  16. 前記ユーザーから入力された主観的なデータを収集するように動作可能なモバイルデバイスをさらに含み、前記インターフェースの選択は、主観的なデータに部分的に基づいている、請求項1~15のいずれか1項に記載のシステム。
  17. 前記望ましい結果を達成するインターフェースに相関する動作データのタイプを決定するように動作可能な機械学習モジュールをさらに含む、請求項1~16のいずれか1項に記載のシステム。
  18. 前記選択されたインターフェースは、複数のタイプのインターフェースのうちの1つと、複数のサイズのインターフェースのうちの1つとを含む、請求項1~17のいずれか1項に記載のシステム。
  19. 前記選択エンジンはさらに、前記選択されたインターフェースの動作に基づいて、および望ましくない結果に基づいて、前記ユーザーからのフィードバックを受信し、前記望ましい結果に基づく別のインターフェースを選択するように動作可能である、請求項1~18のいずれか1項に記載のシステム。
  20. 前記望ましくない結果は、療法に対するユーザーのコンプライアンスが低いこと、漏れが多いこと、または主観的結果データが満足できないことのうちの1つである、請求項19に記載のシステム。
  21. ユーザーの顔に適した呼吸療法用のインターフェースを選択するための方法であって、
    前記ユーザーの顔画像を記憶デバイスに記憶するステップと、
    前記顔画像に基づいて顔特徴を決定するステップと、
    ユーザー集団からの複数の顔特徴および複数の対応するインターフェースを1つまたは複数のデータベースに記憶するステップと、
    前記ユーザー集団によって使用される前記呼吸療法デバイスの動作データを、前記複数の対応するインターフェースと共に1つまたは複数のデータベースに記憶するステップと、
    前記記憶された動作データからの望ましい結果および前記判定された顔特徴に基づいて、前記複数の対応するインターフェースの中からユーザー用のインターフェースを選択するステップと、を含む、この方法。
  22. 前記インターフェースはマスクである、請求項21に記載の方法。
  23. 前記呼吸療法デバイスは、気道陽圧換気(PAP)または非侵襲的換気(NIV)のうちの1つを提供するように構成されている、請求項21~22のいずれか1項に記載の方法。
  24. 少なくとも1つの前記呼吸療法デバイスは、少なくとも1つの前記呼吸療法デバイスの動作中にオーディオデータを収集するためのオーディオセンサを含む、請求項21~23のいずれか1項に記載の方法。
  25. 前記選択ステップは、前記オーディオデータを既知の前記インターフェースの音響シグネチャと一致させることに基づいて、前記オーディオデータを分析して、少なくとも1つの前記呼吸療法デバイスの前記対応するインターフェースのタイプを決定するステップを含む、請求項24に記載の方法。
  26. 前記選択ステップは、前記ユーザーの人口統計データを、前記1つまたは複数のデータベースに記憶された前記ユーザー集団の人口統計データと比較するステップを含む、請求項21~25のいずれか1項に記載の方法。
  27. 前記動作データは、流量、モータ速度、および治療圧力のうちの1つを含む、請求項21~26のいずれか1項に記載の方法。
  28. 前記顔画像は、カメラを含むモバイルデバイスからのスキャンに基づいて決定される、請求項21~27のいずれか1項に記載の方法。
  29. 前記モバイルデバイスは、深度センサーを含み、前記カメラは、3Dカメラであり、前記顔特徴は、前記顔画像から導出されるメッシュ面から導出される3次元特徴である、請求項28に記載の方法。
  30. 前記顔画像はランドマークを含む2次元画像であり、前記顔特徴は前記ランドマークから導出される3次元特徴である、請求項21~29のいずれか1項に記載の方法。
  31. 前記顔画像は、複数の2次元顔画像のうちの1つであり、前記顔特徴は、前記顔画像と一致するように適合された3D変形可能モデルから導出される3次元特徴である、請求項21~30のいずれか1項に記載の方法。
  32. 前記顔画像は、少なくとも1つの顔寸法に関するランドマークを含む、請求項21~28のいずれか1項に記載の方法。
  33. 前記顔寸法は、顔の高さ、鼻の幅、および鼻の深さのうちの少なくとも1つを含む、請求項32に記載の方法。
  34. 前記望ましい結果は、漏れを防止するためのインターフェースと顔面との間のシールである、請求項21~33のいずれか1項に記載の方法。
  35. 前記望ましい結果は、療法に対するユーザーのコンプライアンスである、請求項21~34のいずれか1項に記載の方法。
  36. 少なくとも1つのモバイルデバイスによって前記ユーザーから入力された主観的なデータを収集するステップをさらに含み、前記インターフェースの選択は、前記主観的なデータに少なくとも部分的に基づいている、請求項21~35のいずれか1項に記載の方法。
  37. 機械学習モジュールにより、前記望ましい結果を達成する前記インターフェースに相関する動作データのタイプを決定するステップをさらに含む、請求項21~36のいずれか1項に記載の方法。
  38. 前記選択されたインターフェースは、前記複数のタイプのインターフェースのうちの1つと、前記複数のサイズのインターフェースのうちの1つとを含む、請求項21~37のいずれか1項に記載の方法。
  39. 前記選択されたインターフェースの動作に基づいて、前記ユーザーからフィードバックを受信するステップと、
    望ましくない結果に基づいて、前記望ましい結果に基づく別のインターフェースを選択するステップと、をさらに含む、請求項21~38のいずれか1項に記載の方法。
  40. 前記望ましくない結果は、療法に対するユーザーのコンプライアンスが低いこと、漏れが多いこと、または主観的結果データが満足できないことのうちの1つである、請求項39に記載の方法。
  41. 前記ユーザーの顔への選択されたインターフェースの現在の適合度に関連する、前記モバイルデバイスの1つまたは複数のセンサーによって収集されたセンサデータを受信するステップと、
    前記センサデータを使用して、前記ユーザーの顔の1つまたは複数の特徴を示す顔マッピングを生成するステップと、
    前記センサデータおよび前記顔マッピングを使用して、現在の適合度に関連する第1特性を識別するステップであって、前記第1特性は、現在の適合度の品質を示し、前記特性は前記顔マッピング上の特徴的な位置に関連しているステップと、
    前記識別された第1特性および前記特徴的な位置に基づいて前記出力フィードバックを生成するステップと、をさらに含む、請求項21~40のいずれか1項に記載の方法。
  42. 前記センサデータは距離データを含み、前記距離データは、モバイルデバイスの1つまたは複数のセンサーとユーザーの顔との間の1つまたは複数の距離を示す、請求項41に記載の方法。
  43. 前記1つまたは複数のセンサーは、i)近接センサー、ii)赤外線ベースのドットマトリクスセンサ、iii)LiDARセンサー、iv)MEMSマイクロミラープロジェクタベースのセンサー、またはv)i~ivの任意の組み合わせを含む、請求項42に記載の方法。
  44. 前記センサデータは、i)前記ユーザーが前記インターフェースを着用する前に、ii)前記ユーザーが現在の適合度で前記インターフェースを装着している間に、iii)前記ユーザーが前記インターフェースを取り外した後に、またはiii)i、ii、およびiiiの任意の組み合わせで収集される、請求項41~43のいずれか1項に記載の方法。
  45. 前記インターフェースを着用する前の前記ユーザーの顔に関連している初期センサデータを受信するステップをさらに含み、前記特性を識別するステップは、前記初期センサデータを前記センサデータと比較するステップを含む、請求項44に記載の方法。
  46. 前記特性は、
    i)前記ユーザーの顔の局所的な温度、
    ii)前記ユーザーの顔の局所的な温度変化、
    iii)前記ユーザーの顔の局所的な色、
    iv)前記ユーザーの顔の局所的な色変化、
    v)前記ユーザーの顔の局所的な輪郭、
    vi)前記ユーザーの顔の局所的な輪郭変化、
    vii)前記インターフェースの局所的な輪郭、
    viii)前記インターフェースの局所的な変化、
    ix)前記インターフェースの局所的な温度
    x)i~ixの任意の組み合わせを含む、請求項41~45のいずれか1項に記載の方法。
  47. 前記第1特性は、
    i)前記ユーザーの顔の1つまたは複数の特徴に対するインターフェースの垂直位置、
    ii)前記ユーザーの顔の1つまたは複数の特徴に対するインターフェースの水平位置、
    iii)前記ユーザーの顔の1つまたは複数の特徴に対するインターフェースの回転方向、
    iv)ユーザーの顔の1つまたは複数の特徴に対するインターフェースの識別された特徴の間の距離、または
    v)i~ivの任意の組み合わせを含む、請求項41~46のいずれか1項に記載の方法。
  48. 前記1つまたは複数のセンサーは、1つまたは複数の方向センサーを含み、前記センサデータは、前記1つまたは複数の方向センサーからの方向センサデータを含み、前記センサデータを受信するステップは、
    前記1つまたは複数の方向センサーが前記ユーザーの顔に向けられるように前記モバイルデバイスが方向付けられているときに、前記モバイルデバイスを使用して前記ユーザーの顔をスキャンするステップと、
    前記顔のスキャンの進行状況を追跡するステップと、
    前記顔のスキャンの進行状況を示す不可視刺激を生成するステップと、を含む、請求項41~47のいずれか1項に記載の方法。
  49. 前記モバイルデバイスの動きに関連するモーションデータを受信するステップと、
    前記ユーザーの顔に対する前記モバイルデバイスの動きを考慮するために、前記モーションデータを前記センサデータに適用するステップと、をさらに含む、請求項41~48のいずれか1項に記載の方法。
  50. 前記センサデータを使用して、前記顔マッピングに対する前記インターフェースの1つまたは複数の特徴の相対位置を示すインターフェースマッピングを生成するステップをさらに含み、前記第1特性を識別するステップは、前記インターフェースマッピングを使用するステップを含む、請求項41~49のいずれか1項に記載の方法。
  51. 前記1つまたは複数のセンサーはカメラを含み、前記センサデータはカメラデータを含み、
    前記カメラが校正面に向けられているときに、前記カメラによって収集されたセンサー校正データを受信するステップと、
    前記センサー校正データに基づいて前記センサデータのカメラデータを校正するステップと、をさらに含む、請求項41~50のいずれか1項に記載の方法。
  52. 前記センサデータおよび前記顔マッピングを使用して、前記インターフェースの将来起こり得る故障に関連する第2特性を識別するステップと、
    前記識別された第2特性に基づいて、将来起こり得る故障が発生する可能性を低減するか、または将来起こり得る故障の発生を遅延させるために使用され得る出力フィードバックを生成するステップと、をさらに含む、請求項41~51のいずれか1項に記載の方法。
  53. 前記センサデータを受信する前に、前記ユーザーの顔上のインターフェースの1つまたは複数の履歴適合度に関連する履歴センサデータにアクセスするステップをさらに含み、前記第1特性を識別するステップは、前記履歴センサデータをさらに使用する、請求項41~52のいずれか1項に記載の方法。
  54. 前記センサデータおよび前記顔マッピングを使用して現在の適合度スコアを生成するステップをさらに含み、前記出力フィードバックは、後続の適合度スコアを改善するために生成される、請求項41~53のいずれか1項に記載の方法。
  55. 前記センサデータを受信するステップは、前記1つまたは複数のオーディオセンサからオーディオデータを受信するステップを含み、前記第1特性を識別するステップは、前記オーディオデータを使用して非意図的な漏れを識別するステップを含む、請求項41~54のいずれか1項に記載の方法。
  56. 前記1つまたは複数のセンサーは、カメラ、オーディオセンサおよび熱センサーを含み、前記センサデータは、カメラデータ、オーディオデータ、および熱データを含み、前記特性を識別するステップは、
    前記カメラデータ、前記オーディオデータ、および前記熱データのうちの少なくとも1つを使用して潜在的な特性を識別するステップと、
    前記カメラデータ、前記オーディオデータ、および前記熱データのうちの少なくとも1つの他のデータを使用して潜在的な特性を確認するステップと、を含む、請求項41~55のいずれか1項に記載の方法。
  57. 前記ユーザーによって実施されるべきアクションを示すユーザー指令を提示するステップと、
    前記ユーザーが前記アクションを実施したことを示す完了信号を受信するステップであって、前記センサデータの第1部分は前記完了信号を受信する前に収集され、前記センサデータの第2部分は前記完了信号を受信した後に収集されるステップと、をさらに含み、前記特性を識別するステップは、前記センサデータの第1部分を前記センサデータの第2部分と比較するステップを含む、請求項41~56のいずれか1項に記載の方法。
  58. 前記顔マッピングを生成するステップは、
    前記受信したセンサデータを使用して第1個人および第2個人を識別するステップと、
    前記第1個人を前記インターフェースに関連するものとして識別するステップと、
    前記第1個人について前記顔マッピングを生成するステップと、を含む、請求項41~57のいずれか1項に記載の方法。
  59. 前記センサデータを受信するステップは、
    前記受信したセンサデータから、i)前記モバイルデバイスの動き、ii)前記モバイルデバイス固有の雑音、iii)前記ユーザーの呼吸雑音、iv)前記ユーザーの発話雑音、v)周囲の照明の変化、vi)検出された前記ユーザーの顔に投影される一時的な影、vii)検出された前記ユーザーの顔に投影される一時的な色光、またはviii)i~viiの任意の組み合わせに関連する調整データを決定するステップと、
    前記調整データに基づいて、前記受信したセンサデータの少なくとも一部に調整を適用するステップと、を含む、請求項41~58のいずれか1項に記載の方法。
  60. 前記センサデータを受信するステップは、
    前記1つまたは複数のセンサーの、可視光スペクトルで動作する前記カメラに関連する画像データを受信するステップと、
    前記可視光スペクトル外で動作する画像センサーまたは測距センサーである前記1つまたは複数のセンサーのうちの追加のセンサーに関連する不安定なデータを受信するステップと、
    前記画像データの安定化に関連する画像安定化情報を決定するステップと、
    前記画像データの安定化に関連する画像安定化情報を使用して、不安定なデータを安定化するステップと、を含む、請求項41~59のいずれか1項に記載の方法。
  61. 前記出力フィードバックは現在の適合度を改善するのに有用である、請求項41~60のいずれか1項に記載の方法。
  62. 前記センサデータを使用して、前記現在の適合度に基づいて初期スコアを生成するステップと、
    前記ユーザーの顔への前記インターフェースの後続の適合度に関連する後続のセンサデータを受信するステップであって、前記後続の適合度は、前記出力フィードバックの実施後の現在の適合度に基づいているステップと、
    前記後続のセンサデータを使用して、後続の適合度に基づいて後続のスコアを生成するステップと、
    前記初期スコアを超える品質の改善を示す前記後続のスコアを評価するステップと、をさらに含む、請求項61に記載の方法。
  63. 前記現在の適合度に関連する第1特性を識別するステップは、
    前記受信したセンサデータに基づいて前記ユーザーの呼吸パターンを決定するステップと、
    前記受信したセンサデータおよび前記顔マッピングに基づいて、前記ユーザーの顔に関連する熱パターンを決定するステップと、
    前記呼吸パターンおよび前記熱パターンを使用して、意図的な換気口漏れと非意図的なシール漏れとのバランスを示す漏れ特性を決定するステップと、を含む、請求項41~62のいずれか1項に記載の方法。
  64. 前記1つまたは複数のセンサーは、i)受動熱センサー、ii)能動熱センサー、iii)カメラ、iv)加速度計、v)ジャイロスコープ、vi)電子コンパス、vii)磁力計、viii)圧力センサー、ix)マイクロホン、x)温度センサー、xi)近接センサー、xii)赤外線ベースのドットマトリクスセンサ、xiii)LiDARセンサー、xiv)MEMSマイクロミラープロジェクタベースのセンサー、xv)無線周波数ベースの測距センサー、およびxvi)無線ネットワークインターフェースからなる群から選択される少なくとも2つのセンサーを含む、請求項41~63のいずれか1項に記載の方法。
  65. 前記呼吸デバイスの1つまたは複数の追加センサーから追加センサデータを受信するステップをさらに含み、前記第1特性を識別するステップは、前記追加センサデータを使用するステップを含む、請求項41~64のいずれか1項に記載の方法。
  66. 前記呼吸デバイスによって受信されると、前記呼吸デバイスが定義されたパラメータのセットを使用して動作するようにさせる制御信号を送信するステップをさらに含み、前記センサデータの第1部分は、前記呼吸デバイスが定義されたパラメータのセットを使用して動作している間に収集され、前記センサデータの第2部分は、前記呼吸デバイスが定義されたパラメータのセットを使用して動作していない間に収集され、前記センサデータの第2部分は、呼吸デバイスが定義されたパラメータのセットを使用して動作している間に収集され、前記第1特性を識別するステップは、前記センサデータの第1部分を前記センサデータの第2部分と比較するステップを含む、請求項41~65のいずれか1項に記載の方法。
  67. 方法であって、
    ユーザーの顔へのインターフェースの現在の適合度に関連する、前記モバイルデバイスの1つまたは複数のセンサーによって収集されたセンサデータを受信するステップと、
    前記センサデータを使用して、前記ユーザーの顔の1つまたは複数の特徴を示す顔マッピングを生成するステップと、
    前記センサデータおよび前記顔マッピングを使用して、前記現在の適合度に関連する第1特性を識別するステップであって、前記特性は、現在の適合度の品質を示し、前記第1特性は前記顔マッピング上の特徴的な位置に関連しているステップと、
    前記識別された第1特性および前記特徴的な位置に基づいて前記出力フィードバックを生成するステップと、を含む、方法。
  68. 前記インターフェースは前記呼吸デバイスに流体的に結合可能であり、前記モバイルデバイスは前記呼吸デバイスから分離されている、請求項67に記載の方法。
  69. 前記出力フィードバックを生成するステップは、
    実施された場合、前記第1特性に影響を与えて前記現在の適合度を改善する提案されたアクションを決定するステップと、
    前記モバイルデバイスの電子インターフェースを使用して、前記提案されたアクションを提示するステップと、を含む、請求項67または68に記載の方法。
  70. 前記センサデータは、i)受動熱センサー、ii)能動熱センサー、またはiii)iおよびiiの両方からの赤外線データを含む、請求項67~69のいずれか1項に記載の方法。
  71. 前記センサデータは距離データを含み、前記距離データは、前記モバイルデバイスの1つまたは複数のセンサーと前記ユーザーの顔との間の1つまたは複数の距離を示す、請求項67~70のいずれか1項に記載の方法。
  72. 前記1つまたは複数のセンサーは、i)近接センサー、ii)赤外線ベースのドットマトリクスセンサ、iii)LiDARセンサー、iv)MEMSマイクロミラープロジェクタベースのセンサー、またはv)i~ivの任意の組み合わせを含む、請求項71に記載の方法。
  73. 前記センサデータは、i)前記ユーザーがインターフェースを着用する前に、ii)前記ユーザーが現在の適合度でインターフェースを装着している間に、iii)前記ユーザーがインターフェースを取り外した後に、またはiii)i、ii、およびiiiの任意の組み合わせで収集される、請求項67~72のいずれか1項に記載の方法。
  74. 前記インターフェースを着用する前の前記ユーザーの顔に関連している前記初期センサデータを受信するステップをさらに含み、前記第1特性を識別するステップは、前記初期センサデータを前記センサデータと比較するステップを含む、請求項73に記載の方法。
  75. 前記第1特性は、
    i)前記ユーザーの顔の局所的な温度、
    ii)前記ユーザーの顔の局所的な温度変化、
    iii)前記ユーザーの顔の局所的な色、
    iv)前記ユーザーの顔の局所的な色変化、
    v)前記ユーザーの顔の局所的な輪郭、
    vi)前記ユーザーの顔の局所的な輪郭変化、
    vii)前記インターフェースの局所的な輪郭、
    viii)前記インターフェースの局所的な変化、
    ix)前記インターフェースの局所的な温度、
    x)i~ixの任意の組み合わせを含む、請求項67~74のいずれか1項に記載の方法。
  76. 前記第1特性は、
    i)前記ユーザーの顔の1つまたは複数の特徴に対するインターフェースの垂直位置、
    ii)前記ユーザーの顔の1つまたは複数の特徴に対するインターフェースの水平位置、
    iii)前記ユーザーの顔の1つまたは複数の特徴に対するインターフェースの回転方向、
    iv)前記ユーザーの顔の1つまたは複数の特徴に対するインターフェースの識別された特徴の間の距離、または
    v)i~ivの任意の組み合わせを含む、請求項67~75のいずれか1項に記載の方法。
  77. 前記1つまたは複数のセンサーは、1つまたは複数の方向センサーを含み、前記センサデータは、前記1つまたは複数の方向センサーからの方向センサデータを含み、前記センサデータを受信するステップは、
    前記1つまたは複数の方向センサーが前記ユーザーの顔に向けられるように前記モバイルデバイスが方向付けられているときに、前記モバイルデバイスを使用して前記ユーザーの顔をスキャンするステップと、
    前記顔のスキャンの進行状況を追跡するステップと、
    前記顔のスキャンの進行状況を示す不可視刺激を生成するステップと、を含む、請求項67~76のいずれか1項に記載の方法。
  78. 前記モバイルデバイスの動きに関連するモーションデータを受信するステップと、
    前記ユーザーの顔に対する前記モバイルデバイスの動きを考慮するために、前記モーションデータを前記センサデータに適用するステップと、をさらに含む、請求項67~77のいずれか1項に記載の方法。
  79. 前記センサデータを使用して、前記顔マッピングに対する前記インターフェースの1つまたは複数の特徴の相対位置を示す前記インタフェースマップを生成するステップをさらに含み、前記特性を識別するステップは、前記インタフェースマップを使用するステップを含む、請求項67~78のいずれか1項に記載の方法。
  80. 前記1つまたは複数のセンサーはカメラを含み、前記センサデータはカメラデータを含み、
    前記カメラが校正面に向けられているときに、前記カメラによって収集されたセンサー校正データを受信するステップと、
    銭起センサー校正データに基づいて前記センサデータのカメラデータを校正するステップと、をさらに含む、請求項67~79のいずれか1項に記載の方法。
  81. 前記センサデータおよび前記顔マッピングを使用して、前記インターフェースの将来起こり得る故障に関連する第2特性を識別するステップと、
    前記識別された第2特性に基づいて、将来起こり得る故障が発生する可能性を低減するか、または将来起こり得る故障の発生を遅延させるために使用され得る出力フィードバックを生成するステップと、をさらに含む、請求項67~80のいずれか1項に記載の方法。
  82. 前記センサデータを受信する前に、前記ユーザーの顔上のインターフェースの1つまたは複数の履歴適合度に関連する履歴センサデータにアクセスするステップをさらに含み、前記第1特性を識別するステップは、前記履歴センサデータをさらに含む、請求項67~81のいずれか1項に記載の方法。
  83. 前記センサデータおよび前記顔マッピングを使用して現在の適合度スコアを生成するステップをさらに含み、前記出力フィードバックは、後続の適合度スコアを改善するために生成される、請求項67~82のいずれか1項に記載の方法。
  84. 前記センサデータを受信するステップは、前記1つまたは複数のオーディオセンサからオーディオデータを受信するステップを含み、前記第1特性を識別するステップは、前記オーディオデータを使用して非意図的な漏れを識別するステップを含む、請求項67~83のいずれか1項に記載の方法。
  85. 前記1つまたは複数のセンサーは、カメラ、オーディオセンサおよび熱センサーを含み、前記センサデータは、カメラデータ、オーディオデータ、および熱データを含み、前記第1特性を識別するステップは、
    前記カメラデータ、前記オーディオデータ、および前記熱データのうちの少なくとも1つを使用して潜在的な特性を識別するステップと、
    前記カメラデータ、前記オーディオデータ、および前記熱データのうちの少なくとも1つの他のデータを使用して潜在的な特性を確認するステップと、を含む、請求項67~84のいずれか1項に記載の方法。
  86. 前記ユーザーによって実施されるべきアクションを示すユーザー指令を提示するステップと、
    前記ユーザーがアクションを実施したことを示す完了信号を受信するステップであって、前記センサデータの第1部分は前記完了信号を受信する前に収集され、前記センサデータの第2部分は前記完了信号を受信した後に収集されるステップと、をさらに含み、前記特性を識別するステップは、前記センサデータの第1部分を前記センサデータの第2部分と比較するステップを含む、請求項67~85のいずれか1項に記載の方法。
  87. 前記顔マッピングを生成するステップは、
    前記受信したセンサデータを使用して第1個人および第2個人を識別するステップと、
    前記第1個人を前記インターフェースに関連するものとして識別するステップと、
    前記第1個人について前記顔マッピングを生成するステップと、を含む、請求項67~86のいずれか1項に記載の方法。
  88. 前記センサデータを受信するステップは、
    前記受信したセンサデータから、i)前記モバイルデバイスの動き、ii)前記モバイルデバイス固有の雑音、iii)前記ユーザーの呼吸雑音、iv)前記ユーザーの発話雑音、v)周囲の照明の変化、vi)検出された前記ユーザーの顔に投影される一時的な影、vii)検出された前記ユーザーの顔に投影される一時的な色光、またはviii)i~viiの任意の組み合わせに関連する調整データを決定するステップと、
    前記調整データに基づいて、前記受信したセンサデータの少なくとも一部に調整を適用するステップと、を含む、請求項67~87のいずれか1項に記載の方法。
  89. 前記センサデータを受信するステップは、
    前記1つまたは複数のセンサーの、可視光スペクトルで動作する前記カメラに関連する画像データを受信するステップと、
    前記可視光スペクトルの外側で動作する画像センサーまたは測距センサーである前記1つまたは複数のセンサーのうちの追加のセンサーに関連する不安定なデータを受信するステップと、
    前記画像データの安定化に関連する画像安定化情報を決定するステップと、
    前記画像データの安定化に関連する画像安定化情報を使用して、不安定なデータを安定化するステップと、を含む、請求項67~88のいずれか1項に記載の方法。
  90. 前記出力フィードバックは現在の適合度を改善するのに有用である、請求項67~89のいずれか1項に記載の方法。
  91. 前記センサデータを使用して、前記現在の適合度に基づいて初期スコアを生成するステップと、
    前記ユーザーの顔へのインターフェースの後続の適合度に関連する後続のセンサデータを受信するステップであって、前記後続の適合度は、前記出力フィードバックの実施後の現在の適合度に基づいているステップと、
    前記後続のセンサデータを使用して、後続の適合度に基づいて後続スコアを生成するステップと、
    前記初期スコアを超える品質の改善を示す前記後続のスコアを評価するステップと、をさらに含む、請求項90に記載の方法。
  92. 前記現在の適合度に関連する特性を識別するステップは、
    前記受信したセンサデータに基づいて前記ユーザーの呼吸パターンを決定するステップと、
    前記受信したセンサデータおよび前記顔マッピングに基づいて、前記ユーザーの顔に関連する熱パターンを決定するステップと、
    前記呼吸パターンおよび前記熱パターンを使用して、意図的な換気口漏れと非意図的なシール漏れとのバランスを示す漏れ特性を決定するステップと、を含む、請求項67~91のいずれか1項に記載の方法。
  93. 前記1つまたは複数のセンサーは、i)受動熱センサー、ii)能動熱センサー、iii)カメラ、iv)加速度計、v)ジャイロスコープ、vi)電子コンパス、vii)磁力計、viii)圧力センサー、ix)マイクロホン、x)温度センサー、xi)近接センサー、xii)赤外線ベースのドットマトリクスセンサ、xiii)LiDARセンサー、xiv)MEMSマイクロミラープロジェクタベースのセンサー、xv)無線周波数ベースの測距センサー、およびxvi)無線ネットワークインターフェースからなる群から選択される少なくとも2つのセンサーを含む、請求項67~92のいずれか1項に記載の方法。
  94. 前記呼吸デバイスの1つまたは複数の追加センサーから追加センサデータを受信するステップをさらに含み、前記特性を識別するステップは、前記追加センサデータを使用するステップを含む、請求項68~93のいずれか1項に記載の方法。
  95. 前記呼吸デバイスによって受信されると、前記呼吸デバイスが定義されたパラメータのセットを使用して動作するようにさせる制御信号を送信するステップをさらに含み、前記センサデータの第1部分は、前記呼吸デバイスが定義されたパラメータのセットを使用して動作している間に収集され、前記センサデータの第2部分は、前記呼吸デバイスが定義されたパラメータのセットを使用して動作していない間に収集され、前記センサデータの第2部分は、前記呼吸デバイスが定義されたパラメータのセットを使用して動作している間に収集され、前記特性を識別するステップは、前記センサデータの第1部分を前記センサデータの第2部分と比較するステップを含む、請求項68~94のいずれか1項に記載の方法。
  96. システムであって、
    1つまたは複数のプロセッサを含む制御システムと、
    機械可読指令を記憶するメモリと、を含み、
    前記制御システムは前記メモリに結合され、前記メモリ内の機械可読指令は、前記制御システムの1つまたは複数のプロセッサのうちの少なくとも1つによって実行されると、請求項67~95のいずれか1項に記載の方法を実施する、システム。
  97. 請求項67~95のいずれか1項に記載の方法を実施するように構成された制御システムを含む、インターフェースの適合度を評価するためのシステム。
  98. コンピュータによって実行されると、請求項67~94のいずれかの方法を前記コンピュータに実行させる指令を含む、コンピュータプログラム製品。
  99. 前記コンピュータプログラム製品は、非一時的なコンピュータ可読媒体である、請求項98に記載のコンピュータプログラム製品。
  100. ユーザーの顔に対する呼吸療法用のインターフェースの適合度を決定するためのシステムであって、
    前記ユーザーの顔へのインターフェースの現在の適合度に関連するセンサデータを収集するように動作可能なセンサーを含むモバイルデバイスと、
    制御システムと、を含み、前記制御システムは、
    前記センサデータを使用して、前記ユーザーの顔の1つまたは複数の特徴を示す顔マッピングを生成し、
    前記センサデータおよび前記顔マッピングを使用して、現在の適合度に関連する特性を識別し、前記特性は前記現在の適合度の品質を示し、前記特性は前記顔マッピング上の特徴的な位置に関連しており、
    前記識別された特性および前記顔マッピング上の特徴的な位置に基づいて前記出力フィードバックを生成するように動作可能である、システム。
JP2023547888A 2021-02-26 2022-02-28 個人化されたマスク形状を持続的に調整するためのシステムおよび方法 Pending JP2024511698A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163154223P 2021-02-26 2021-02-26
US63/154,223 2021-02-26
US202163168635P 2021-03-31 2021-03-31
US63/168,635 2021-03-31
PCT/US2022/018178 WO2022183116A1 (en) 2021-02-26 2022-02-28 System and method for continuous adjustment of personalized mask shape

Publications (1)

Publication Number Publication Date
JP2024511698A true JP2024511698A (ja) 2024-03-15

Family

ID=80787030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023547888A Pending JP2024511698A (ja) 2021-02-26 2022-02-28 個人化されたマスク形状を持続的に調整するためのシステムおよび方法

Country Status (3)

Country Link
EP (1) EP4298638A1 (ja)
JP (1) JP2024511698A (ja)
WO (1) WO2022183116A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115644853B (zh) * 2022-09-23 2024-05-03 华中科技大学 基于MediaPipe人体姿态模型的步态分析方法
WO2024086803A1 (en) * 2022-10-21 2024-04-25 Resmed Digital Health Inc. Device recommendations using machine learning
US12023529B1 (en) 2023-05-24 2024-07-02 Ohd, Lllp Virtual operator for respirator fit testing

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ597253A (en) 2006-05-24 2013-06-28 Resmed Motor Technologies Inc Compact low noise efficient blower for CPAP devices
KR101565858B1 (ko) 2006-10-24 2015-11-13 레즈메드 모터 테크놀로지스 인코포레이티드 베어링을 구비한 브러시리스 dc 모터
AU2008202487B2 (en) 2007-06-05 2013-07-04 Resmed Motor Technologies Inc. Blower with Bearing Tube
NZ617502A (en) 2009-02-11 2015-05-29 Resmed Ltd Acoustic detection for respiratory treatment apparatus
JP5759475B2 (ja) * 2009-12-16 2015-08-05 コーニンクレッカ フィリップス エヌ ヴェ 睡眠管理販売キオスクと関連方法
WO2012012835A2 (en) 2010-07-30 2012-02-02 Resmed Limited Methods and devices with leak detection
EP3673941A1 (en) 2011-08-05 2020-07-01 ResMed Motor Technologies Inc Blower
US9498593B2 (en) * 2013-06-17 2016-11-22 MetaMason, Inc. Customized medical devices and apparel
EP3033130B1 (en) * 2013-08-12 2017-10-11 Koninklijke Philips N.V. Detecting the fit of a patient interface device
WO2015196255A1 (en) * 2014-06-27 2015-12-30 Resmed Limited Auto-fit mask
CN107735136B (zh) 2015-06-30 2021-11-02 瑞思迈私人有限公司 使用移动应用的面罩大小调整工具
EP3515290B1 (en) 2016-09-19 2023-06-21 ResMed Sensor Technologies Limited Detecting physiological movement from audio and multimodal signals
KR20210087046A (ko) * 2018-10-23 2021-07-09 레스메드 피티와이 엘티디 Cpap 시스템의 셋업을 위한 시스템 및 방법
CN113382676A (zh) * 2018-10-31 2021-09-10 瑞思迈公司 用于改变发送到外部源的数据量的系统和方法
CN113710151A (zh) 2018-11-19 2021-11-26 瑞思迈传感器技术有限公司 用于检测呼吸障碍的方法和设备
CN111512319A (zh) * 2018-12-07 2020-08-07 瑞思迈公司 睡眠呼吸暂停装置的智能设置和推荐系统

Also Published As

Publication number Publication date
US20240131287A1 (en) 2024-04-25
EP4298638A1 (en) 2024-01-03
WO2022183116A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
JP2024511698A (ja) 個人化されたマスク形状を持続的に調整するためのシステムおよび方法
US11935252B2 (en) System and method for collection of fit data related to a selected mask
US20220023567A1 (en) Intelligent setup and recommendation system for sleep apnea device
US11724051B2 (en) Systems and methods for detecting an intentional leak characteristic curve for a respiratory therapy system
US20230099622A1 (en) Sleep status detection for apnea-hypopnea index calculation
US20240091476A1 (en) Systems and methods for estimating a subjective comfort level
CN116601721A (zh) 用于识别用户接口的系统和方法
KR20230066545A (ko) 아이 마스크 시스템
US20230206486A1 (en) Systems and methods for locating user interface leak
US20240226482A9 (en) System and method for continuous adjustment of personalized mask shape
CN116569276A (zh) 自动用户接口识别
US20230364365A1 (en) Systems and methods for user interface comfort evaluation
CN116888682A (zh) 用于持续调整个性化面罩形状的系统和方法
US20240009416A1 (en) Systems and methods for determining feedback to a user in real time on a real-time video
WO2024023743A1 (en) Systems for detecting a leak in a respiratory therapy system
WO2024039569A1 (en) Systems and methods for determining a risk factor for a condition
CA3232840A1 (en) Method and system for selecting a mask
CN116783661A (zh) 用于确定面罩建议的系统和方法