CN111195115A - 用于确定受试者位置和生命体征的系统和方法 - Google Patents

用于确定受试者位置和生命体征的系统和方法 Download PDF

Info

Publication number
CN111195115A
CN111195115A CN201911103271.9A CN201911103271A CN111195115A CN 111195115 A CN111195115 A CN 111195115A CN 201911103271 A CN201911103271 A CN 201911103271A CN 111195115 A CN111195115 A CN 111195115A
Authority
CN
China
Prior art keywords
subject
image data
patient support
determining
nir
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911103271.9A
Other languages
English (en)
Inventor
伊本·索里夫安
埃里克·阿德帕
付永吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hill Rom Services Inc
Original Assignee
Hill Rom Services Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hill Rom Services Inc filed Critical Hill Rom Services Inc
Publication of CN111195115A publication Critical patent/CN111195115A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0046Arrangements of imaging apparatus in a room, e.g. room provided with shielding or for improved access to apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • A61B5/1135Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing by monitoring thoracic expansion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6889Rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0008Temperature signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

公开了用于确定受试者位置和生命体征的系统和方法。一种方法包括由监视设备的处理设备接收来自监视设备的第一成像组件的LWIR图像数据和来自监视设备的第二成像组件的NIR图像数据,从NIR图像数据确定患者支撑装置的一个或多个边界,构造对应于患者支撑装置的一个或多个边界的一个或多个虚拟边界,从LWIR图像数据和NIR图像数据中的至少一个确定受试者相对于一个或多个虚拟边界的位置,从LWIR图像数据确定受试者的面部温度和心率,以及从LWIR图像数据和NIR图像数据中的至少一个确定受试者的呼吸率。

Description

用于确定受试者位置和生命体征的系统和方法
技术领域
本说明书大体涉及受试者追踪和监视系统和方法,并且更具体地涉及利用多个成像设备来监视受试者的位置、运动和生命体征的追踪和监视系统和方法。
背景技术
当受试者处于诸如医院病床之类的患者支撑装置中时,可能有必要确定和/或追踪受试者的位置。例如,受试者可能受命令停留在患者支撑装置中,但可能没有这样做。另外,可能有必要在监视受试者的位置同时监视受试者的面部温度、心率以及呼吸率。现有方法不允许使用同一设备进行此类并行监视。因此,需要彼此不通信的多个设备,这占用了过多的空间并且需要额外的人力参与来监视多个设备。
因此,需要使医务人员能够同时监视受试者的位置、面部温度、心率以及呼吸率的系统和方法。
发明内容
在一个方面,一种自动监视由患者支撑装置支撑的受试者的位置和生命体征的方法包括由监视设备的处理设备接收来自监视设备的第一成像组件的长波红外(LWIR)图像数据和来自监视设备的第二成像组件的近红外(NIR)图像数据。该方法还包括由处理设备从NIR图像数据确定患者支撑装置的一个或多个边界,由处理设备构造对应于患者支撑装置的一个或多个边界的一个或多个虚拟边界,由处理设备从LWIR图像数据和NIR图像数据中的至少一个确定受试者相对于一个或多个虚拟边界的位置,由处理设备从LWIR图像数据确定受试者的面部温度和心率,以及由处理设备从LWIR图像数据和NIR图像数据中的至少一个确定受试者的呼吸率。在另一方面,该方法还包括由处理设备向用户设备发送以下至少一项:LWIR图像数据、NIR图像数据、对应于一个或多个虚拟边界的数据、对应于受试者的位置的数据、对应于受试者的面部温度的数据、对应于受试者的心率的数据以及对应于受试者的呼吸率的数据。在另一方面,该方法还包括由处理设备引导一个或多个发光组件向受试者发射NIR光。在另一方面,确定受试者的心率包括从NIR图像数据确定由一个或多个发光组件发射的NIR光的量,该NIR光在一段时间内被存在于受试者的面部的毛细血管中的含氧血液吸收。被吸收的NIR光的量在最大吸收量和最小吸收量之间循环,并且其中心跳对应于每个循环。在另一方面,从NIR图像数据确定患者支撑装置的一个或多个边界包括利用对象识别算法基于患者支撑装置的形状和尺寸从NIR图像数据确定患者支撑装置并且确定患者支撑装置的一个或多个边缘。在另一方面,确定受试者相对于一个或多个虚拟边界的位置包括利用面部识别算法和对象识别算法中的一个或多个来从LWIR图像数据和NIR图像数据中的至少一个确定受试者头部位置、建立对应于受试者头部位置的点、并随着受试者头部位置的变化追踪该点的移动。在另一方面,确定受试者的呼吸率包括利用对象检测算法从LWIR图像数据和NIR图像数据中的至少一个识别受试者胸腔,以及监视胸部在一段时间内的扩张和收缩运动。
在另一方面,一种用于监视由患者支撑装置支撑的受试者的位置和生命体征的监视设备包括:第一成像组件,获得受试者的长波红外(LWIR)图像数据,第二成像组件,获得受试者和患者支撑装置的近红外(NIR)图像数据,处理设备,以及非暂时性处理器可读存储介质,在其上包括一个或多个程序指令。一个或多个程序指令在被执行时使处理设备从第一成像组件接收LWIR图像数据并且从第二成像组件接收NIR图像数据,从NIR图像数据中确定患者支撑装置的一个或多个边界,构造对应于患者支撑装置的一个或多个边界的一个或多个虚拟边界,从LWIR图像数据和NIR图像数据中的至少一个确定受试者相对于一个或多个虚拟边界的位置,从LWIR图像数据确定受试者的面部温度和心率,以及从LWIR图像数据和NIR图像数据中的至少一个确定受试者的呼吸率。在另一方面,监视设备还包括将监视设备通信地耦接到网络的网络接口硬件。在另一方面,该非暂时性处理器可读存储介质还包括一个或多个程序指令,该程序指令在被执行时使处理设备经由网络接口硬件向用户设备发送以下至少一项:LWIR图像数据、NIR图像数据、对应于一个或多个虚拟边界的数据、对应于与受试者的位置的数据、对应于受试者的面部温度的数据、对应于受试者的心率的数据以及对应于受试者的呼吸率的数据。在另一方面,监视设备还包括发射NIR光的一个或多个发光组件。在另一方面,该非暂时性处理器可读存储介质还包括一个或多个程序指令,该程序指令在被执行时使处理设备引导一个或多个发光组件向受试者发射NIR光。在另一方面,一个或多个程序指令在被执行时使处理设备确定受试者的心率,进一步使处理设备从NIR图像数据中确定由一个或多个发光组件发射的NIR光的量,NIR光在一段时间内被存在于受试者的面部的毛细血管中的含氧血吸收,其中被吸收的NIR光的量在最大吸收量和最小吸收量之间循环,并且其中心跳对应于每个循环。在另一方面,第一成像组件包括第一光轴,第二成像组件包括第二光轴,第一成像组件定向为使得第一光轴相对于患者支撑装置的表面形成第一角度,第二成像组件定向为使得第二光轴相对于患者支撑装置的表面形成第二角度,并且第一角度不同于第二角度。
在另一方面,一种用于监视由患者支撑装置支撑的受试者的位置和生命体征的系统包括监视设备。监视设备包括:第一成像组件,获得受试者的长波红外(LWIR)图像数据,第二成像组件,获得受试者和患者支撑装置的近红外(NIR)图像。监视设备被编程为接收来自第一成像组件的LWIR图像数据和来自第二成像组件的NIR图像数据,从NIR图像数据确定患者支撑装置的一个或多个边界,构造对应于患者支撑装置的一个或多个边界的一个或多个虚拟边界,从LWIR图像数据和NIR图像数据中的至少一个确定受试者相对于一个或多个虚拟边界的位置,从LWIR图像数据确定受试者的面部温度和心率,以及从LWIR图像数据和NIR图像数据中的至少一个确定受试者的呼吸率。在另一方面,该系统还包括通信地耦接到监视设备的用户设备。该用户设备包括显示器,该显示器显示LWIR图像数据、NIR图像数据、一个或多个虚拟边界、受试者相对于一个或多个虚拟边界的位置、受试者的面部温度、受试者的呼吸率以及受试者的心率中的至少一个。在另一方面,用户设备位于监视设备的远程位置。在另一方面,监视设备还包括发射NIR光的一个或多个发光组件。在另一方面,监视设备还被编程为引导一个或多个发光组件向受试者发射NIR光。在另一方面,监测设备还被编程为从NIR图像数据中确定由一个或多个发光组件发射的NIR光的量,该NIR光在一段时间内被存在于受试者的面部的毛细血管中的含氧血吸收,其中被吸收的NIR光的量在最大吸收量和最小吸收量之间循环,并且心跳对应于每个循环。在另一方面,第一成像组件包括第一光轴,第二成像组件包括第二光轴,第一成像组件定向为使得第一光轴相对于患者支撑装置的表面形成第一角度,第二成像组件定向为使得第二光轴相对于患者支撑装置的表面形成第二角度,并且第一角度不同于第二角度。在另一方面,监视设备耦接到空间的天花板。
将在下面的具体实施方式中阐述本文描述的实施例的附加特征和优点,并且对于本领域技术人员而言,通过该描述或通过实践本文描述的实施例(包括随后的具体实施方式、权利要求书以及附图)将认识到,部分将是显而易见的。
应该理解地是,前面的概述和下面的具体实施方式都描述了各种实施例,并且旨在于提供用于理解所要求保护的主题的性质和特征的概述或框架。包括附图以提供对各种实施例的进一步理解,并且附图被并入本说明书中并构成本说明书的一部分。附图示出了本文所述的各种实施例,并且与说明书一起用于解释所要求保护的主题的原理和操作。
附图说明
图1示意性地描绘了根据本文示出或描述的一个或多个实施例的示例性受试者监视系统;
图2示意性地描绘了根据本文示出或描述的一个或多个实施例的受试者监视系统内的监视设备的示例性内部组件的框图;
图3示意性地描绘了根据本文示出或描述的一个或多个实施例的受试者监视系统内的计算设备的示例性内部组件的框图;
图4示意性地描绘了根据本文示出或描述的一个或多个实施例的示例性受试者监视网络的组件之间的互连性;
图5示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视受试者位置的示例性受试者监视系统的操作;
图6A示意性地描绘了根据本文示出或描述的一个或多个实施例的由监视设备获得的图像的示例性屏幕截图,该图像示出了处于仰卧位的受试者;
图6B示意性地描绘了根据本文示出或描述的一个或多个实施例的由监视设备获得的图像的示例性屏幕截图,该图像示出了处于患者支撑装置边界内的坐位的受试者;
图6C示意性地描绘了根据本文示出或描述的一个或多个实施例的由监视设备获得的图像的示例性屏幕截图,该图像示出了处于患者支撑装置边界之外的站立位的受试者;
图6D示意性地描绘了根据本文示出或描述的一个或多个实施例的由监视设备获得的图像的示例性屏幕截图,该图像示出部分处于患者支撑装置边界之外的坐位的受试者;
图7A示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视受试者位置的示例性用户界面,其示出了躺在患者支撑装置中的受试者;
图7B示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视受试者位置的示例性用户界面,其示出了躺在患者支撑装置中的受试者;
图7C示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视受试者位置的示例性用户界面,其示出了坐在患者支撑装置中的受试者;
图7D示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视受试者位置的示例性用户界面,其示出了坐在患者支撑装置中的受试者;
图7E示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视受试者位置的示例性用户界面,该用户界面示出了受试者坐在患者支撑装置的边缘上。
图7F示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视受试者位置的示例性用户界面,其示出了位于患者支撑装置之外的受试者;
图8示意性地描绘了根据本文示出或描述的一个或多个实施例的用于监视对受试者温度、心率和呼吸率的示例性受试者监视系统的操作;
图9A示意性地描绘了根据本文示出或描述的一个或多个实施例的出于确定心率的目的由监视设备获得的图像的示例性屏幕截图;
图9B示意性地描绘了根据本文示出或描述的一个或多个实施例的出于确定心率的目的由监视设备获得的图像的另一示例性屏幕截图。
图9C示意性地描绘了根据本文示出或描述的一个或多个实施例的出于确定心率的目的由监视设备获得的图像的另一示例性屏幕截图;
图9D示意性地描绘了根据本文示出或描述的一个或多个实施例的出于确定心率的目的由监视设备获得的图像的另一示例性屏幕截图;
图9E示意性地描绘了根据本文示出或描述的一个或多个实施例的出于确定心率的目的由监视设备获得的图像的另一示例性屏幕截图;
图9F示意性地描绘了根据本文示出或描述的一个或多个实施例的出于确定心率的目的由监视设备获得的图像的另一示例性屏幕截图;
图10描绘了根据本文示出或描述的一个或多个实施例的使用受试者监视系统同时确定受试者位置、温度、心率和呼吸率的示例性概述方法的流程图;
图11描绘了根据本文示出或描述的一个或多个实施例的使用受试者监视系统确定受试者位置的示例性方法的流程图;
图12描绘了根据本文示出或描述的一个或多个实施例的使用受试者监视系统确定受试者温度的示例性方法的流程图;
图13描绘了根据本文示出或描述的一个或多个实施例的使用受试者监视系统确定受试者呼吸率的示例性方法的流程图;以及
图14描绘了根据本文示出或描述的一个或多个实施例的使用受试者监视系统确定受试者心率的示例性方法的流程图。
具体实施方式
现在将详细参考用于同时确定受试者的位置、温度、心率和呼吸率的系统和方法的实施例,其示例在附图中示出。只要有可能,在所有附图中将使用相同的附图标记指代相同或相似的部件。在图1中描绘了用于同时确定受试者的位置、温度、心率以及呼吸率的系统的一个实施例,其中,该系统包括具有多个成像设备和一个或多个发光二极管的监视设备,以及通信耦接到该监视设备的用户设备。监视设备通常定位成使得其面对受试者并且从多个成像设备获得受试者的图像。监视设备和/或用户设备从图像同时确定受试者的位置、面部温度、心率以及呼吸率。通过用户界面向用户提供与位置、面部温度、心率以及呼吸率有关的信息。因此,可以准确地追踪受试者的位置、温度、心率以及呼吸率,使得如果受试者移动和/或如果受试者的温度、心率和/或呼吸波动超过阈值,则用户可以警惕运动和/或波动。另外,监视设备的位置允许对受试者进行非侵入性和非接触式监视,这对于在无菌区域中监视受试者可能是必要的。另外,监视设备的位置允许在大业务量区域中对受试者进行连续监视,而无需担心碰撞或相对于被监视受试者以其他方式移动监视设备的位置,从而确保了连续准确的监视。此外,受试者不需要物理地连接到监视设备,物理地连接到监视设备可能阻碍受试者运动、是不舒服的、可能脱落等。
如本文所用,术语“生命体征”通常是指受试者的总体的温度、心率以及和呼吸率。应当理解的是,除了对受试者的温度、心率和呼吸率的总体的监测之外,本文还可以包括和监测其他生命体征。
本文中使用短语“通信地耦接”来描述用于监视受试者的位置和生命体征的系统的各个组件的互连性,并且意味着这些组件通过线缆、光纤或无线方式连接,使得可以在组件之间交换电、光和/或电磁信号。应该理解的是,在不脱离本公开的范围的情况下,包括了在本文未具体描述的连接系统的各个部件的其他方式。
如本文所用,术语“位置”通常是指受试者如何在诸如患者支撑装置等的表面上定向。如本文所用的位置通常可基于从与受试者的面部有关的图像数据中获取的测量值涉及受试者相对于表面的位置。但是,应该理解地是,可以根据受试者身体的其他特征来确定位置。受试者相对于表面的位置的示例性示例可以包括仰卧位(例如,受试者正躺在患者支撑装置上)、坐位(例如,受试者正坐在患者支撑装置中或坐在边缘上)、站立位等。
参考图1,描绘了用于同时确定受试者的位置、温度、心率以及呼吸率的系统100。系统100包括通信地耦接到用户设备140的监视设备110。监视设备110包括第一成像组件112、第二成像组件114以及一个或多个发光组件116。尽管图1描绘了两个发光组件116,但是应当理解的是,可以使用任何数量的发光组件116。
在图1中也描绘了患者支撑装置130,在其表面132上支撑受试者S。表面132通常是用于支撑受试者S的任何支撑部件,特别是当受试者S正在接受医疗护理时。患者支撑装置130的表面132由一个或多个边界134限定。一个或多个边界134通常是患者支撑装置130的边缘。在一些非限制性示例中,患者支撑装置130可以是手术台、轮床、医院病床和/或人员支撑设备。
监视设备110通常相对于患者支撑装置130定位,以使第一成像组件112、第二成像组件114和发光组件116对准患者支撑装置130。第一成像组件112的第一光轴113和第二成像组件114的第二光轴115分别朝向受试者S的至少一部分(例如,受试者的面部FS)、患者支撑装置130的表面132和或其他目标延伸。在本文所述的实施例中,光轴113、115是指限定路径的假想线,电磁辐射沿该路径传播并穿过每个相应成像组件112、114。光轴113、115的相应角度可以彼此不同。因此,第一成像组件112的视场包括患者支撑装置130的至少一部分,并且第二成像组件114的视场包括患者支撑装置130的至少一部分,但是不一定患者支撑装置130的相同部分。此外,监视设备110的位置使得发光组件116发射通常朝向患者支撑装置130和/或其一部分、特别是受试者的面部FS的光。
图1描述了当被安装在容纳患者支撑装置130的空间的天花板120上的监视设备110。也就是说,监视设备110经由安装臂118等与天花板120连接。在一些实施例中,监视设备110可以在天花板120上处于固定位置,使得监视设备110不可移动。在其他实施例中,监视设备110可以相对于天花板120移动。例如,安装臂118可以是伸出或缩回以使监视设备110相对于天花板120移动的铰接臂。在另一示例中,安装臂118可以连接至沿着安装在天花板120上的一个或多个轨道可移动的托架。在又一示例中,监视设备110可以可旋转地安装至安装臂118的端部,使得监视设备110可以相对于安装臂118移动(例如,在球窝结构中)。
虽然在图1中监视设备110被示为安装在空间的天花板120上,应当理解的是,这仅仅是示例性的。在其他实施例中,监视设备110可以被安装到墙壁、被安装在角落中、被安装到患者支撑装置130、从横梁或其他设备悬挂、被连接到支架、被连接到手术灯等。监视设备110通常可以被安装为使得第一成像组件112、第二成像组件114以及一个或多个发光组件保持它们相对于患者支撑装置的位置(例如,使得光轴113、115保持特别对准),不会受到个人、其他设备等的撞击或以其他方式移动的危险,尤其是在大业务量的区域(例如手术室,康复室等)。另外,安装位置可以是这样的,使得整个患者支撑装置130和其中的受试者S可以由第一成像组件112和第二成像组件114中的至少一个成像。
监视设备110的第一成像组件112通常是热感摄像机,特别是长波红外(LWIR)热感摄像机。也就是说,第一成像组件112可以是适合于获得LWIR光谱内的图像的任何成像设备。如本文所使用的,术语由第一成像组件112获得的“图像”是指至少在LWIR光谱中捕获的视频图像(也就是说,一系列连续图像)和/或静止图像(包括从视频图像中分离出的静止图像)。也就是说,第一成像组件112可以是经由IR热成像仪获得图像以捕获电磁光谱的长红外范围内的辐射的设备。电磁光谱的长红外范围可以是具有从大约8微米(μm)到大约14μm的波长的电磁辐射,包括大约8μm、大约9μm、大约10μm、大约11μm、大约12μm、大约13μm、大约14μm或这些值中任何两个值之间的任何值或范围(包括端点)。第一成像组件112的非限制性示例可以是由FLIR系统公司(Wilsonville,OR)出售的
Figure BDA0002270480950000091
LWIR微型热像仪模块。
由于所有具有高于绝对零温度的物体都发出IR辐射,因此第一成像组件112在通过IR热成像仪获得图像时,可以对具有或不具有可见照明的环境成像。第一成像组件112基于温度获得图像,并且所得图像指示温度变化。因此,在由第一成像组件112产生的图像中,基于温度的变化,物体可以彼此区分并且与背景区分。例如,在典型的室温环境中,人类变得可区分,因为他们的体温要高于处于或低于室温的物体,并且因为人体发射与处于、低于或高于室温此类物体的温度不同的红外辐射。本文示出并描述了关于图7A-图7F的仅描绘温度变化的图像的示例性示例。
仍参考图1,即使第一成像组件112和目标对象之间的视场被处于较低温度并允许热能穿透的物品阻挡或部分阻挡,第一成像组件112也可以成像某些目标对象(诸如受试者S、患者支撑装置130的表面132和/或其他对象)。这是因为目标对象散发了围绕阻挡物和/或通过阻挡物延伸的热能。例如,如果第一成像组件112的视场被诸如床单、手术单、病号服、衣物等的阻挡物部分地阻挡,然而,如果目标对象发射足够的热能以绕过和/或穿过阻挡物,则第一成像组件112仍可以检测到目标对象发出的IR辐射。
监视设备110的第二成像组件114可以是热感摄像机和/或获得热图像和可见光谱中的图像的摄像机。在第二成像组件114是热感摄像机的实施例中,第二成像组件114可以是近红外(NIR)摄像机。也就是说,第二成像组件114可以是适于至少在NIR光谱内获得图像的任何成像设备。在第二成像组件114进一步获得可见光谱中的图像的实施例中,第二成像组件114可以是RGB摄像机。也就是说,第二成像组件114可以是适于至少在NIR光谱内获得图像的任何成像设备,但是可以可选地包括获得可见光谱中的图像。这种摄像机的非限制性示例包括多光谱摄像机和增强的RGB摄像机。
如本文所使用的,术语由第二成像组件114获得的“图像”是指在NIR光谱和/或可见光谱中捕获的视频图像(也就是说,一系列连续图像)和/或静止图像(包括从视频图像中分离出的静止图像)。也就是说,第二成像组件114可以是通过IR热成像仪获得图像以捕获电磁光谱的近红外范围内的辐射的设备,和/或可以是通过RGB成像获得图像以捕获电磁光谱的可见范围中的辐射的设备。电磁光谱的近红外范围可以是具有从大约0.75微米(μm)到大约1.7μm的波长的电磁辐射,包括大约0.75μm、大约0.8μm、大约0.9μm、大约1.0μm、大约1.1μm、大约1.2μm、大约1.3μm、大约1.4μm、大约1.5μm、大约1.6μm、大约1.7μm或这些值中的任何两个之间的任何值或范围(包括端点)。第二成像组件114的非限制性示例可以包括由FLIR系统公司(Wilsonville,OR)出售的
Figure BDA0002270480950000101
BosonTMSWIR摄像机核心、由FluxData公司(Rochester,NY)出售的FluxData FD-3SWIR摄像机,以及由Spectral Devices公司(London,ON)出售的光谱设备多光谱摄像机。
一个或多个发光组件116中的每个通常是发射特定波长的光的发光二极管(LED)。例如,一个或多个发光组件116中的每一个可以特别地被配置为发射近红外光谱中的光。也就是说,一个或多个发光组件116中的每一个可以是固态p-n结器件,其在正向偏置时发光,该光具有从大约0.75微米(μm)到大约1.7μm的波长,包括大约0.75μm、大约0.8μm、大约0.9μm、大约1.0μm、大约1.1μm、大约1.2μm、大约1.3μm、大约1.4μm、大约1.5μm、大约1.6μm、大约1.7μm,或者这些值中的任何两个之间的任何值或范围(包括端点)。在一些实施例中,一个或多个发光组件116中的每一个可以布置为使得从其发射的光在特定方向上对准目标,例如朝向受试者S、受试者的脸FS、患者支撑装置130的表面132等。在一些实施例中,可以布置多个发光组件116以朝着目标发射特定图案的光。
第一成像组件112和第二成像组件114可以在监视设备110内间隔开或者可以彼此相邻布置。例如,第一成像组件112和第二成像组件114中的每一个可以彼此间隔开一定距离,使得第一成像组件112和第二成像组件114各自的光轴113、115相对于患者支撑装置130的表面132成不同的角度。例如,在实施例中,第一成像组件112和第二成像组件114可以相对于彼此并且相对于患者支撑装置130的表面132取向,使得其光轴113、115彼此不平行,如图1中描绘的。这样,第一成像组件112和第二成像组件114分别捕获受试者S、受试者的面部FS、患者支撑装置130的表面132和/或其他受试者的不同角度。第一成像组件112和第二成像组件114之间的距离不受本公开的限制,并且通常可以是任何距离。在另一示例中,第一成像组件112和第二成像组件114可以彼此相邻布置,并且第一成像组件112配置为获得与第二成像组件114获得的图像部分重叠的图像,使得当对受试者S的位置、受试者的面部FS的位置、受试者S的面部温度、受试者S的心率和/或受试者S的呼吸率进行分析时,可以比较其中的图像。
除了第一成像组件112、第二成像组件114和一个或多个发光组件116之外,监视设备110还可包括一个或多个内部组件,内部组件提供监视设备110的功能。图2描绘了在一些实施例中的监视设备110内的示例性内部组件。如图2所示,监视设备110还可以包括通信地互连各种组件的本地接口200(例如,总线),所述各种组件包括但不限于处理设备210、存储器220、网络接口硬件230、数据存储设备240、第一成像组件112和/或第二成像组件114。
诸如计算机处理单元(CPU)之类的处理设备210可以是监视设备110的中央处理单元,执行运行程序所需的计算和逻辑运算。单独地或与图2中公开的一个或多个其他元件结合的处理设备210为示例性处理设备、计算设备、处理器或其组合,因为这些术语在本公开中使用。
诸如只读存储器(ROM)和随机存取存储器(RAM)之类的存储器220可以构成示例性的存储器设备(也就是说,非暂时性的处理器可读存储介质)。这样的存储器220可以在其上包括一个或多个程序指令,当程序指令由处理设备210执行时,该程序指令使处理设备210完成各种过程,诸如本文描述的过程。可选地,程序指令可以存储在有形的计算机可读介质上,例如数字磁盘、闪存、存储卡、USB驱动器、光盘存储介质(例如Blu-rayTM、CD、DVD),和/或其他非暂时性处理器可读存储介质。
在一些实施例中,包含在存储器220上的程序指令可以呈现为多个软件模块,其中每个模块提供用于完成一个或多个任务的程序指令。例如,如图2所示,存储器220可以包含操作逻辑222、成像逻辑224、定位逻辑226和生命确定逻辑228中的一个或多个。操作逻辑222可以包括操作系统和/或用于管理监视设备110的组件的其他软件。成像逻辑224通常可以包括用于指导第一成像组件112和/或第二成像组件114的操作的程序指令,以便从第一成像组件112和/或第二成像组件114获得图像。例如,成像逻辑224可以指导第一成像组件112和/或第二成像组件114打开/关闭、收集图像、调整设置等。定位逻辑226通常可以包括用于基于从第一成像组件112和/或第二成像组件114接收的图像来确定受试者S在患者支撑装置130的表面132上的位置的程序指令。参照图1和图2,生命确定逻辑228通常可以包括用于基于从第一成像组件112和/或第二成像组件114接收的图像来确定受试者S的生命体征的程序指令,生命体征包括受试者S的身体温度(例如,面部温度)、心率和/或呼吸率。应当理解的是,本文关于图2描述的各种逻辑模块仅是示例性的,并且可以使用其他逻辑模块,包括结合了上述两个或更多个模块的功能的逻辑模块,而不脱离本申请的范围。
仍参考图1和图2,通常可以是与存储器220分离的存储介质的数据存储设备240可以包含用于存储电子数据的数据储存库。数据存储设备240可以是任何物理存储介质,包括但不限于硬盘驱动器(HDD)、存储器、可移动存储设备等等。尽管在图2中将数据存储设备240描绘为本地设备,但是应当理解的是,数据存储设备240可以是位于监视设备110(例如服务器计算设备等)的远程位置的远程存储设备。
可以包含在数据存储设备240中的示例性数据可以例如包括图像数据242和/或其他数据244。图像数据242通常包括从第一成像组件112和/或第二成像组件114获得的图像。在一些实施例中,当执行在定位逻辑226和/或生命确定逻辑228内编码的过程时,图像数据242可由处理设备210访问。在一些实施例中,图像数据242可以在被卸载到外部设备、被删除、被重写等之前被临时存储在数据存储设备240中。其他数据244不受本公开的限制,并且通常可以是由于系统100或其组件(例如,监视设备110)的操作而生成和/或存储的任何其他数据。
网络接口硬件230通常可以使得监视设备110能够与一个或多个外部组件连接,一个或多个外部组件例如为外部设备(例如,用户设备140)、远程服务器和/或监视设备110外部的类似物。可以使用各种通信端口(未示出)与外部设备进行通信。示例性的通信端口可以被附接到通信网络,例如因特网、内联网、局域网、直接连接等。
应该理解的是,图2中所示的组件仅是示例性的,并不旨在于限制本公开的范围。更具体地,尽管图2中的组件被示为存在于监视设备110内,这是非限制性示例。在一些实施例中,组件中的一个或多个可以存在于在监视设备110的外部。类似地,组件中的一个或多个可以实施在本文未具体描述的其他设备中。
再次参考图1,在各种实施例中,监视设备110可以并入或连接到各种其他组件以提供附加功能。例如,在一些实施例中,监视设备110可以并入各种机构,这些机构允许第一成像组件112和/或第二成像组件114移动,例如改变位置、摇动、倾斜、扫描等。
用户设备140通常可以是包含硬件的任何设备,该硬件可操作以用作用户和系统100的其他组件之间的接口。因此,用户设备140可用于执行一个或多个面向用户的功能,例如从监视设备110接收图像数据和/或其他数据,向用户显示图像数据和/或其他数据,接收一个或多个用户输入,发送对应于一个或多个用户输入的的信号等。另外,如本文所述,用户设备140可以用于处理从监视设备110接收的图像数据和/或其他数据。虽然图1将用户设备140描绘为智能手机,但是应当理解的是,这是非限制性示例。也就是说,用户设备140可以是任何移动电话、平板计算设备、个人计算设备(例如,个人计算机)等。关于图3示出和描述了包含在用户设备140内的示例性内部组件。如图3所示,用户设备140还可以包括通信地互连各种组件的本地接口300(例如,总线),所述各种组件包括但不限于处理设备310、存储器320、输入/输出硬件330、网络接口硬件340和/或数据存储设备350。
诸如计算机处理单元(CPU)之类的处理设备310可以是用户设备140的中央处理单元,其执行运行程序所需的计算和逻辑运算。单独地或与图3中公开的一个或多个其他元件结合的处理设备310为示例性处理设备、计算设备、处理器或其组合,因为这些术语在本公开中使用。
诸如只读存储器(ROM)和随机存取存储器(RAM)之类的存储器320可以构成示例性存储设备(也就是说,非暂时性的处理器可读存储介质)。这样的存储器320可以在其上包括一个或多个程序指令,当程序指令由处理设备310执行时,该程序指令使处理设备310完成各种过程,诸如本文描述的过程。可选地,程序指令可以存储在有形的计算机可读介质上,例如数字磁盘、闪存、存储卡、USB驱动器、光盘存储介质(例如Blu-rayTM、CD、DVD),和/或其他非暂时性处理器可读存储介质。
在一些实施例中,包含在存储器320上的程序指令可以实施为多个软件模块,其中每个模块提供用于完成一个或多个任务的程序指令。例如,如图3所示,存储器320可包含操作逻辑322、用户界面(UI)逻辑324、定位逻辑326和生命确定逻辑328中的一个或多个。操作逻辑322可包括操作系统和/或用于管理用户设备140的组件的其他软件。UI逻辑324通常可以包括用于经由用户界面与用户交互的程序指令。也就是说,如本文中更详细描述的,UI逻辑324可以为处理设备310提供指令以完成作为特定用户输入的结果的特定过程和/或经由用户界面向用户发送信息和/或数据。参照图1和图3,定位逻辑326通常可以包括用于基于从第一成像组件112和/或第二成像组件114接收的图像来确定受试者S在患者支撑装置130的表面132上的位置的程序指令。生命确定逻辑328通常可以包括用于基于来自第一成像组件112和/或第二成像组件114的图像确定受试者S的生命体征的程序指令,生命体征包括受试者S的身体温度(例如,面部温度)、心率和/或呼吸率。应当理解的是,用户设备140的存储器320的定位逻辑326和/或生命确定逻辑328可以提供与由在图2中所描绘的监视设备110的存储器220的定位逻辑226和/或生命确定逻辑228提供的编程和/或指令相似编程和/或指令。同样地,在一些实施例中,可以使用用户设备140的存储器320的定位逻辑326和/或生命确定逻辑328来代替图2所描绘的监视设备110的存储器220的定位逻辑226和/或生命确定逻辑228或与监视设备110的存储器220的定位逻辑226和/或生命确定逻辑228结合使用。应当理解的是,关于图3本文所描述的各种逻辑模块仅是示例性的,并且可以使用包括结合了上述两个或更多个模块的功能的逻辑模块的其他逻辑模块,而不脱离本申请的范围。
仍参考图1和图3,通常可以是与存储器320分离的存储介质的数据存储设备350可以包含用于存储电子数据的数据储存库。数据存储设备350可以是任何物理存储介质,包括但不限于硬盘驱动器(HDD)、存储器、可移动存储设备和/或类似物。尽管在图3中将数据存储设备350描绘为本地设备,但是应当理解的是,数据存储设备350可以是位于监视设备110的远程位置的远程存储设备,例如服务器计算设备等。
可以包含在数据存储设备350中的示例性数据可以例如包括图像数据352和/或其他数据354。图像数据352通常包括从第一成像组件112和/或第二成像组件114获得的图像。在一些实施例中,当执行在定位逻辑326和/或生命确定逻辑328内编码的过程时,图像数据352可被处理设备310访问。在一些实施例中,在图像数据352被卸载到外部设备、被删除、被重写等之前,图像数据352可被临时存储在数据存储设备350内。其他数据354不受本公开的限制,并且通常可以是由于系统100或其组件(例如监视设备110和/或用户设备140)的操作而产生和/或存储的任何其他数据。
输入/输出硬件330通常可以包括用于提供一个或多个用户界面设备或组件与图3所描绘的用户设备140的各种内部组件之间的接口的硬件。例如,在图3所描绘的实施例中,输入/输出硬件330可以通信地耦接到显示器332和/或用户接口硬件334。在一些实施例中,输入/输出硬件330可以允许来自本地接口300的信息以音频、视频、图形或字母数字格式在显示器332上显示。用户界面硬件334可以允许向诸如键盘、鼠标、操纵杆、触摸屏、遥控器、定点设备、视频输入设备、音频输入设备、触觉反馈设备等的输入设备传输数据和从输入设备接收数据。在一些实施例中,特别是其中用户设备140是具有触摸屏显示器的设备(例如智能手机、平板计算设备等),显示器332和用户界面硬件334可以集成到单个组件中。
网络接口硬件340通常可以使得用户设备140能够与一个或多个外部组件连接,一个或多个外部组件例如为外部设备(例如,监视设备110)、远程服务器和/或用户设备140外部的类似物。可以使用各种通信端口(未示出)与外部设备进行通信。示例性的通信端口可以被连接到通信网络,例如因特网、内联网、局域网、直接连接等。
应该理解的是,图3中所示的组件仅是示例性的,并不旨在限制本公开的范围。更具体地,尽管图3中的组件被示为存在于用户设备140内,但这是非限制性示例。在一些实施例中,组件中的一个或多个可以存在于用户设备140的外部。类似地,组件中的一个或多个可以体现在本文未具体描述的其他设备中。
再次参考图1,系统100的各种组件通常可以位于用于受试者护理的房间或区域中。例如,在一些实施例中,系统100的某些组件可以位于手术室、外科手术室、恢复室、受试者室等中。在一些实施例中,系统100的所有组件可以位于相同的房间或区域中。在其他实施例中,系统100的某些组件可以远程定位。在非限制性示例中,用户设备140和/或其一个或多个组件可以远程定位(例如,不与监视设备110位于同一房间或空间中)。例如,用户设备140可以是通信地连接到监视设备110的远程定位服务器。
系统100的某些组件彼此通信地连接以传输数据。例如,如图4所描述的,受试者监视网络400可以用于将一个或多个组件通信地连接在一起。受试者监视网络400可以包括诸如因特网的广域网(WAN)、局域网(LAN)、移动通信网络、公共服务电话网(PSTN)、个人区域网(PAN)、城域网(MAN)、虚拟专用网(VPN)和/或其他网络。受试者监视网络400通常可以配置为电连接一个或多个设备,例如计算设备和/或其组件。示例性设备可以包括但不限于监视设备110、用户设备140和/或服务器计算设备410。
服务器计算设备410可以从一个或多个源(例如,用户设备140和/或监视设备110)接收数据、分析接收到的数据(例如,确定受试者的头部位置、确定受试者相对于患者支撑装置的位置、确定受试者的面部温度、确定受试者的心率、确定受试者的呼吸率等)、生成数据、存储数据、索引数据、搜索数据和/或向用户设备140和/或监视设备110提供数据。在一些实施例中,服务器计算设备410可以结合由用户设备140和/或监视设备110完成的分析步骤来分析接收到的数据。在其他实施例中,服务器计算设备410可以代替可以由用户设备140和/或监视设备110完成的任何分析来分析接收到的数据。
应该理解的是,尽管服务器计算设备410被描述为服务器,但这是非限制性示例。在一些实施例中,可以使用任何类型的计算设备(例如,移动计算设备、个人计算机、服务器、基于云的设备网络等)。另外,尽管在图4中这些计算设备中的每个作为单个硬件示出,这也仅仅是示例。服务器计算设备410可以代表多个计算机、服务器、数据库、组件和/或类似物。
现在参考图5,用户设备140和/或其一个或多个组件布置成使得从监视设备110接收一个或多个图像和/或将信息以及一个或多个图像向用户(例如,照顾受试者S的各种人员)显示。因此,用户设备140(诸如显示器)的至少一个组件可以布置成使得用户可以观看显示的图像。
参照图5和图6A-图6D,监视设备110监视受试者S相对于患者支撑装置130的位置,以确定受试者S是否躺在患者支撑装置中(如图6A中的图像600所示),是否在患者支撑装置130中坐起(如图6B中的图像600所示),是否完全离开患者支撑装置130(如图6C中的图像600所示),是否坐在患者支撑装置130的边缘上(如图6D中的图像600中所示)等。通常通过利用第一成像组件112获得受试者的面部FS的热图像数据并利用第二成像组件114获得患者支撑装置130的附加图像数据从而确定患者支撑装置130的边界134并构建虚拟边界522,虚拟边界522对应于患者支撑装置130的边界134。也就是说,第一成像组件112定位成使得受试者的面部FS位于第一成像组件112的第一视场512内,如在图5中的从第一成像组件112延伸的虚线所描绘的。另外,第二成像部件114定位成使得患者支撑装置130的表面132位于第二成像组件114的第二视场514内,如在图5中的从第二成像组件114延伸的虚线所描绘的那样。
仍参考图5和图6A-图6D,通常可以通过从第一成像组件112接收热图像数据并利用现在已知或以后开发的任何面部识别算法来确定受试者的面部FS,以从热图像数据中确定特定的布置和与面部的形状、大小和温度相对应的像素颜色。也就是说,面部识别算法可以分析像素的布置以确定通常对应于已知面部形状和/或大小的尺寸的对象,并且还可以分析像素的颜色以确定通常对应于人的体温的人脸的颜色。(例如,通常约为37摄氏度,但有些变化以说明表现出体温过低、体温过高或发热情形的人)。在一些实施例中,可以从从第二成像组件114接收的图像数据获得附加数据,以更准确地确定从第一成像组件112接收的图像中的像素的特定布置是否对应于可能的面部形状和大小的存储特征。也就是说,监视设备110可以分析从第二成像组件114接收的图像数据,以更准确地识别对象的特定边界,然后将特定边界与来自第一成像组件112的图像数据一起使用,以确定对象是否对应于存储的面部尺寸。
通常可以通过从第二成像组件114接收图像数据并分析图像数据中与患者支撑装置的已知形状和尺寸相对应的对象来确定患者支撑装置130的边界134。也就是说,现在已知或以后开发的对象识别算法可以用于分析从第一成像组件112接收的图像数据,确定图像数据内的对象,确定对象的形状和/或大小以及确定形状和/或大小是否对应于患者支撑装置或其他表面的已知形状和/或大小。例如,如果图像数据包括形状通常为矩形、大约一(1)米宽并且大约两(2)米长的对象,则可以确定该对象是患者支撑装置。一旦做出这样的确定,则监视设备110在从图像数据生成的图像600中的对象周围构建虚拟边界522,该虚拟边界522对应于患者支撑装置130的边界134。同样地,虚拟边界522通常具有如图5和图6A-图6D中所描述的与患者支撑装置130的边界134相同的形状和大小。虚拟边界522形成用于确定受试者S是否在患者支撑装置130中和/或受试者S如何在患者支撑装置130中定位的监视区域520。
在一些实施例中,特别是患者支撑装置130在黑暗的房间中的实施例,可能难以从第二成像组件114获得足够的RGB图像来准确地确定患者支撑装置130、受试者S和/或类似物并构造准确的虚拟边界522。在这样的实施例中,一个或多个发光组件116可以被激活以发射NIR光,虽然人眼无法检测到(对人眼来说房间仍然显得暗),但患者支撑装置130和受试者S被NIR光充分照明,该光可以由第二成像组件114中的NIR传感器成像,以产生足以确定患者支撑装置130、受试者S等的图像并构造虚拟边界522。
一旦已经使用面部识别算法检测到受试者的面部FS,并且虚拟边界522被覆盖在根据从第一成像组件112和/或第二成像组件114接收的图像数据生成的图像600上,则监视设备110可以分配通常位于图像600中的检测到的面部处的特定点,并确定该特定点相对于虚拟边界522的坐标。例如,如在图6A和图7A所示,选择位于在受试者S的图像600上显示的面部的中间的点P,并且确定点P相对于虚拟边界522的x,y坐标。也就是说,x坐标可以对应于从对应于患者支撑装置130的左侧的虚拟边界522到点P的多个单位(例如,图像600中的像素)。另外,y坐标可以对应于从对应于患者支撑装置130的头部的虚拟边界522到点P的多个单位(例如,图像600中的像素)。可以在显示给用户的界面700上提供在受试者的头部上的点P的x,y坐标。可以记录像素的颜色和/或点P处的任何其他区别特征,从而将点P作为参考存储在存储器中,像素的颜色和/或点P处的任何其他区别特征可用于识别在初始成像时在点P处存在的图像600中的对象(例如,对象的形状和/或大小)。
参考图5、图6A-图6D以及图7A-图7F,可以将从第一成像组件112和第二成像组件114接收的各个图像数据拼接在一起和/或叠加以获得合成图像,合成图像在界面700内显示为了随后追踪受试者S的运动。例如,在图7A中所描绘的界面700的左上角中的图像600a示出了仅来自第二成像组件114的图像数据(例如,NIR图像数据和/或RGB图像数据)。在图7A中所描绘的界面700的右上角中的图像600b示出了由来自第一成像组件112(例如,热图像数据)和第二成像组件114(例如,NIR图像数据和/或RGB图像数据)的图像数据形成的合成物。在图7A中所描绘的界面700的下部中间的图像600c示出了仅来自第一成像组件112的图像数据(例如,热图像数据)。此外,如图7A-图7F所描绘,可以在受试者的头部HS周围绘制头部追踪虚拟边界702,以辅助进一步追踪受试者S的运动。因此,为了确定受试者的头部HS是否在从第一成像组件112和/或第二成像组件114接收的后续图像数据中移动,此后可以访问点P的特性。也就是说,根据从第一成像组件112和/或第二成像组件114接收的后续图像数据确定,随着受试者S的移动,点P的位置被连续追踪。也就是说,随后接收到的图像数据可以通过一种或多种图像处理算法(例如,面部识别算法、对象识别算法等)来确定受试者S的更新后的位置。如图7A-7F所示,只要检测到点P的新位置,就更新界面700,其中在图像下方的界面内显示坐标。另外,基于虚拟边界522的位置和与点P相对应的坐标来确定受试者S是否在患者支撑装置130中。例如,如图7F所示,点P的坐标(-28,-5)指示受试者S不再在患者支撑装置130中,因此确定受试者S在患者支撑装置130之外,这是在界面700中显示。
仍参考图5、图6A-图6D和图7A-图7F,系统100还配置为使得用户设备140的用户可以从监视设备110访问最新图像600以随时检查受试者S的状态。另外,用户装置140的用户可以在关于受试者S的位置的任何预设条件发生时的任何时间从监视设备110接收警报。例如,如果受试者S坐在患者支撑装置中(如如图6B中的图像600所示),移出患者支撑装置(如图6C中的图像600所示)或坐在患者支撑装置的边缘上(如图6D中的图像600所示),监视设备110在如上所述检测到用户移动时,可以将警报发送到用户设备140。
现在参考图8,用户设备140和/或其一个或多个组件布置成使得从监视设备110接收的图像600以及可以由用户使用的各种其他信息被显示在界面700上。其他信息的说明性示例包括但不限于受试者标识符802、面部温度显示804、呼吸率显示806、心率显示808和/或提供有关受试者S的附加信息的附加信息显示810。
如本文所述,经由接口在用户设备140上提供的信息是从监视设备110接收的。也就是说,监视装置110监视受试者S的各种特征以提供诸如面部温度、心率和呼吸率的信息。通常,当受试者在患者支撑装置130中时,通过利用第一成像组件112获得至少受试者的面部FS的热图像数据并利用第二成像组件114获得受试者S的附加图像数据来完成此操作。也就是说,第一成像组件112定位成使得至少受试者的面部FS位于第一成像组件112的第一视场512内,如在图8中从第一成像组件112延伸的虚线所描绘的。另外,第二成像部件114定位成使得受试者S的至少一部分位于第二成像组件114的第二视场514内,如在图8中从第二成像组件114延伸的虚线所描绘的。
如将在本文中更详细地描述的,通常通过从第一成像组件112获得图像数据(例如,热图像数据)并基于所确定的包含受试者的面部FS的区域中的像素的颜色从图像数据确定受试者的面部FS的温度来确定受试者的面部温度,如本文所述。在一些实施例中,可以根据受试者的面部FS上的特定点来确定面部温度。在其他实施例中,可以从受试者的面部FS的平均面部温度确定面部温度。也就是说,从位于图像数据中与受试者的面部FS相对应的各个位置处的多个像素确定温度,并且将所有确定的温度一起求平均以获得平均面部温度。应当理解的是,经常使用面部温度的确定来与体温相关。
可以根据从第一成像组件112和/或第二成像组件114接收到的图像数据来确定受试者S的呼吸率。也就是说,从图像数据获得受试者S的胸部运动,胸部运动用于确定呼吸率。例如,可以从第一成像组件112和/或第二成像组件114获得包含在一段时间内获得的几个连续图像的图像数据(例如,视频流)。使用本文前面讨论的对象识别算法和方法,可以从视频流中检测到受试者S的胸部的扩张和收缩,并且使用图像捕获的速度(例如,每秒帧数),可以确定受试者S的胸部在扩张/收缩周期中移动的时间量并将其用于计算每分钟的呼吸次数(例如,在一分钟内发生的扩张/收缩周期数)。可以连续地确定和计算呼吸率,使得提供给用户设备140的呼吸率是最新的。
通常,可以通过分析从第二成像组件114接收的图像数据并应用编码的血液动力学成像(CHI)技术来确定受试者S的心率。更具体地,在每个心跳时,由一个或多个发光组件116投射到受试者的面部FS上的NIR光被皮肤毛细血管中的部分含氧血液的流入部分吸收。这样,由第二成像组件114反射和检测的剩余NIR光基于多少血液吸收了NIR光而变化。例如,如图9A至图9F所示,当由第二成像组件114捕获时,出现在每个图像900中的被吸收的NIR光902的量基于受试者的面部FS的毛细血管中存在的部分含氧的血液的量而变化。更具体地,图9A-图9F描绘了在一个心动周期的过程中,受试者的面部FS的毛细血管中的含氧血液量的波动。如图9A所示,示出了较少的被吸收的NIR光902的区域,这表示在毛细血管中存在较少的含氧血液,这还表示心脏处于舒张期(血液进入心脏)。图9B描绘了更多的被吸收的NIR光902的区域,并且图9C描绘了甚至更多的被吸收的NIR光902的区域,其表明毛细血管中存在的含氧血液的量增加,这还表明心脏处于心脏收缩期(将血液从心脏中抽出)。然后,随着心脏循环回到舒张期,受试者的面部FS上被吸收的NIR光902的区域的数量减少,如图9D至图9E再然后至图9F的进程所示。参考图8和图9A-9F,监视设备110可以使用一种或多种图像处理算法,以基于被吸收的NIR光902的量来确定受试者的面部FS中的含氧血液的量,并且基于图9A-9F所示和所描述的波动来确定何时发生心动周期。另外,监视设备110可以从第二成像组件114接收关于图像捕获的速度(例如,每秒的帧数)的数据,以确定受试者S经历心动周期的时间量以确定受试者S的心率(例如,每分钟心跳数)。可以连续地确定和计算心率,使得经由用户设备140提供的心率是最新的。
关于图5、图6A-图6D、图7A-图7F、图8和图9A-图9D所描述的在从第一成像组件112和/或第二成像组件114获得图像数据、确定受试者的位置和/或运动、确定受试者温度、确定受试者的呼吸率、确定受试者的心率以及向用户设备140提供信息和/或图像中可以由监视设备110执行的各种过程可以根据图10至图14中描述的过程来完成。关于图10-14描述的每个过程可以由存储在一个或多个存储设备上的一个或多个程序指令来实现,所述存储设备例如是本文描述的监视设备110的存储器220(图2)和/或用户设备140的存储器320(图3)。
图10描绘了根据一个实施例的同时确定受试者的位置、运动和生命体征(例如,温度,呼吸率和心率)的概述方法。参考图1、图2、图3以及图10,在框1002,监视设备110的处理设备210或用户设备140的处理设备310可以接收用户输入以开始确定受试者的位置、运动和生命体征。应当理解的是,根据框1002的处理是可选的。也就是说,在一些实施例中,监视设备110的处理设备210和/或用户设备140的处理设备310可以不接收用户输入以开始确定受试者的位置、运动和生命体征。例如,处理设备210可以基于从成像组件112、114恒定接收的图像数据来识别受试者S和患者支撑装置130何时在第一成像组件112和/或第二成像组件114的视场内,并开始确定位置、运动和生命体征,或者在接通电源时监视设备110可能处于“始终打开”状态,以使监视设备和/或其组件准备好完成关于图10所描述的各种过程,而无需任何用户输入。
参考图1、图2以及图10,在一些实施例中,在框1004,处理设备210可以指导第一成像组件112和/或第二成像组件114获得图像数据(例如,热图像数据、RGB图像数据和/或NIR图像数据)。例如,处理设备210可以通过将信号发送到第一成像组件112和/或第二成像组件114来指导第一成像组件112和/或第二成像组件114。应该理解地是,根据框1004的处理是可选的。也就是说,在一些实施例中,第一成像组件112和/或第二成像组件114可以在没有来自处理设备210或其组件的指导的情况下获得图像数据和/或发送数据。例如,第一成像组件112和/或第二成像组件114可以在接通电源时自动获得图像数据和/或发送数据。
在框1006,处理设备210从第一成像组件112和/或第二成像组件114接收图像数据。在框1008,处理设备210分析图像数据。通常对图像数据进行分析,为了确定受试者S的位置和/或运动、构建与患者支撑装置130的边界134相对应的虚拟边界、确定受试者的面部FS的面部温度、确定受试者S的呼吸率以及确定受试者S的心率,如本文更详细地描述的。因此,在框1010,处理设备210从接收到的图像数据中确定生命体征信息。也就是说,在框1010,处理设备210确定受试者S的面部温度、确定受试者S的心率并确定受试者S的呼吸率。然而,应理解地是,在一些实施例中,处理设备210还可以根据图像数据确定其他生命体征,而不脱离本公开的范围。另外,在框1012,处理设备210确定受试者S相对于患者支撑装置130的位置。也就是说,处理设备210利用如本文所述的面部识别算法和/或对象识别算法来确定对应于受试者S的图像数据中的对象,包括受试者的面部FS
如本文先前所论述,监视设备110可通过从第一成像组件112和/或第二成像组件114接收恒定的图像数据流(例如,视频馈送)来连续监视受试者的位置、运动和生命体征。因此,在框1014,处理设备210确定是否需要对受试者S进行附加的监视。这种确定通常可以为基于从用户接收到的一个或多个输入受试者S是否在患者支撑装置130内(例如,在第一成像组件112和/或第二成像组件114的视场内)等。例如,在一些实施例中,用户可能希望无限期连续地监视患者支撑装置中的受试者S。在这样的情况下,处理设备210可以接收指示附加的监视应该连续发生的输入,或者可以自动地对处理设备210进行编程以进行附加的监视。可能需要进行附加的监视以追踪受试者S的进一步运动和/或位置,以确定对象S是否已从患者支撑装置130中移出,是否已坐在患者支撑装置130中等。在这样的情况下,处理设备210可以接收指示附加的监视应当完成的输入,例如,经由用户设备140来自用户的指示受试者S被布置在基线位置的输入或来自用户的要求连续监视的输入。
如果需要附加的监视(例如,以连续监视受试者S),则过程返回到框1004,以指导第一成像组件112和/或第二成像组件114获得附加图像数据。在省略了框1004的实施例中,过程可以返回到框1006以从第一成像组件112和/或第二成像组件114接收额外的图像数据。如果不需要附加的监视,则过程可以结束。
图11描绘了关于确定受试者S的定位的方法的附加细节。参照图1、图2和图11,在框1102,处理设备210接收图像数据。也就是说,第一成像组件112和/或第二成像组件114提供由处理设备210接收的图像数据。在框1104,处理设备调整接收到的图像数据,以便为了确定位置和移动的目的可以充分地识别受试者S。例如,可以通过拼接或以其他方式组合来自第一成像组件112的第一图像数据和来自第二成像组件114的第二图像数据来调整图像数据,以获得合成图像,该合成图像包括与第二成像组件114的视场中的对象的形状有关的RGB图像数据和与由受试者S和/或其他周围对象发出的热辐射的量有关的热图像数据。在另一示例中,处理设备210可以调节图像数据的灵敏度、颜色等,以产生描绘受试者S的图像。通常应当理解调节图像数据的其他方式。
在框1106处,处理设备210在图像数据中搜索与受试者S的面部FS和/或身体相对应的热特征,并在框1108处相应地将受试者映射在图像中。关于框1106和1108所描述的搜索和映射过程通常可以作为使用面部识别算法和/或形状识别算法来确定图像数据内的受试者S的轮廓的一部分而完成。在方框1110,确定患者支撑装置130的边界134,如本文所述。如本文中还描述的,虚拟边界被放置在图像数据内的患者支撑装置130的边界134之上。
在框1112处,确定是否检测到面部和/或身体运动。也就是说,如果如本文关于图6A-图6D和图7A-图7F所讨论的点P移动使得点P的坐标改变,则可以在框1112确定受试者的面部FS已经移动。如果没有检测到运动,则过程可以返回到框1112,直到检测到运动。如果检测到运动,则过程可以进行到框1114。
在框1114处,确定受试者的面部FS的点P(图6A-图6D和图7A-图7F)的新坐标(或位于受试者身体上的另一参考点的坐标)。如上文更详细描述的,在框1116处确定受试者S(包括受试者的面部FS)的位置。然后,在框1118处,发送与受试者S的运动相对应的数据和/或信号。例如,可以将包含受试者S的新位置的图像数据发送到用户设备140和/或服务器计算设备410(图4),可以将警报信号发送到用户设备140以向用户警告受试者S的运动等。
图12描绘了关于确定受试者的面部FS的面部温度的方法的其他细节。参考图1、图2和图12,在框1202处,处理设备210接收图像数据。也就是说,第一成像组件112和/或第二成像组件114提供由处理设备210接收的图像数据。在框1204处,处理设备调整接收到的图像数据,使得为了确定面部温度的目的可以充分地识别出受试者S。例如,可以通过拼接或以其他方式组合来自第一成像组件112的第一图像数据和来自第二成像组件114的第二图像数据来调整图像数据,以获得合成图像,该合成图像包括与第二成像组件114的视场中的对象的形状有关的RGB图像数据和与由受试者S和/或其他周围对象发出的热辐射的量有关的热图像数据。在另一示例中,处理设备210可以调整图像数据的灵敏度、颜色等,以产生描绘受试者S(特别是受试者的面部FS)的图像,从而可以获得准确的温度读数。通常应该理解调整图像数据的其他方式。
在框1206处,处理设备210在图像数据中搜索与受试者S的面部FS相对应的热特征,并在框1208处确定面部温度。如本文所述,关于框1206和框1208步骤的这种搜索和确定过程通常可以作为使用面部识别算法和/或形状识别算法来确定图像数据中的受试者的面部FS的轮廓并将面部中像素的颜色与特定温度相关联的一部分而完成。在框1110处,确定患者支撑装置130的边界134,如本文所述。
在框1210处,处理设备210发送对应于所确定的受试者的面部FS的温度的温度数据。也就是说,可以将与面部温度相对应的数据发送到用户设备140,以在用户设备140上显示给用户,或者发送到服务器计算设备410(图4)以进行存储等。
如本文之前所讨论的,监视设备110可以通过从第一成像组件112和/或第二成像组件114接收恒定的图像数据流(例如,视频馈送)来连续地监视受试者的面部温度。因此,在框1212处,处理设备210确定是否需要对受试者的面部FS进行附加的监视。这种确定通常可以为基于从用户接收到的一个或多个输入受试者S是否在患者支撑装置130中(例如,在第一成像部件112和/或第二成像部件114的视场内),等等。如果需要附加的监视(例如,连续监视对象的面部FS),则过程返回到框1202,以接收新的图像数据并监视面部温度。如果不需要其他监视,则过程可以结束。
图13描绘了关于确定受试者S的呼吸率的方法的其他细节。参照图1、图2和图13,在框1302处,处理设备210接收图像数据。也就是说,第一成像组件112和/或第二成像组件114提供由处理设备210接收的图像数据。关于图13,图像数据通常包括在特定时间段内获得的多个静止图像、视频流等。仍参考图1、图12和图13,在框1304处,处理设备调整接收到的图像数据,使得为了确定胸部扩张和收缩的目的而可以充分地识别出受试者S。例如,可以通过拼接或以其他方式组合来自第一成像组件112的第一图像数据和来自第二成像组件114的第二图像数据来调整图像数据,以获得合成图像,该合成图像包括与第二成像组件114的视场中的对象的形状有关的RGB图像数据和与由受试者S和/或其他周围的对象发出的热辐射的量有关的来自第一成像组件112的热图像数据。在另一示例中,处理设备210可以调整图像数据的灵敏度、颜色等,以产生描绘受试者S(特别是受试者的胸部区域)的图像,从而可以确定准确的呼吸率。通常应该理解调整图像数据的其他方式。
在框1306处,处理设备210从图像数据确定胸部位置。如本文所述,对象识别算法可以用于从图像数据确定受试者的胸部。因此,在框1308处,可以分析在图像数据内接收的多个图像(例如,视频流),特别是在被识别为受试者的胸部的区域中,以得到胸部运动(例如,收缩和扩张)以及完整运动周期(例如,一个收缩运动和一个扩展运动)发生的帧数。一旦确定了在完整运动周期期间经过的帧数,则在框1310处,处理设备210可以基于成像设备(例如,第一成像组件112和/或第二成像组件114)的帧速率来确定受试者S的呼吸率。例如,如果完整的运动周期出现在三十(30)帧中,并且图像数据的帧速率是每秒三十(30)帧,则可以在框1310确定每秒进行一(1)次呼吸。因此,受试者S的呼吸率将被计算为每分钟十二(12)次呼吸。
在框1312处,处理设备210发送与所确定的受试者S的呼吸率相对应的呼吸数据。也就是说,如本文所述,可以将与受试者的呼吸率相对应的数据发送至用户设备140以在用户设备140上显示给用户,发送至服务器计算设备410(图4)进行存储,等等。
如本文先前所讨论的,监视设备110可以通过从第一成像组件112和/或第二成像组件114接收恒定的图像数据流(例如,视频流)来连续地监视受试者的呼吸率,超出了初步确定呼吸率所需的范围。因此,在框1314处,处理设备210确定是否需要对受试者S进行附加的监视。这种确定通常可以基于从用户接收到的一个或多个输入,受试者S是否在患者支撑装置130中(例如,在第一成像组件112和/或第二成像组件114的视场内)等。如果需要附加的监视(例如,以连续监视受试者的呼吸率),则过程返回到框1302,以接收新的图像数据并监视呼吸率。如果不需要其他监视,则过程可以结束。
图14描绘了关于确定受试者S的心率的方法的其他细节。参照图1、图2和图14,在框1402处,处理设备210接收图像数据。也就是说,第一成像组件112和/或第二成像组件114提供由处理设备210接收的图像数据。关于图14,图像数据通常包括在特定时间段内获得的多个静止图像、受试者的面部FS的视频流等。图像数据通常对应于从一个或多个发光组件116发射的受试者的面部FS反射的NIR光的量,其继而可以用于确定被受试者面部FS的毛细血管中的含氧血液吸收的NIR光的量,如本文所述。仍参考图1、图12和图14,在框1404处,处理设备调整接收到的图像数据,使得可以充分识别受试者的面部FS,以便确定被受试者的面部FS的毛细血管中的含氧血液吸收并反射的NIR光的量。
在框1406处,处理设备210从图像数据确定受试者的面部FS的位置。如本文所述,面部识别算法可以用于从图像数据确定受试者的面部FS的位置。因此,在框1408处,可以分析在图像数据内接收的多个图像(例如,视频流),尤其是在被识别为受试者的面部FS的区域中,以得到血流和心动周期发生的帧数,从而可以应用编码的血流动力学成像技术。更具体地,如图9A-9F所示,处理设备210确定从最小的NIR光吸收量到最大的光吸收量循环时对于描绘受试者的面部FS的图像所经过的帧的数量,从而指示一个心动周期,如本文所述。在框1410处,一旦确定了在心动周期期间经过的帧数,则处理设备210可以基于成像设备(例如,第一成像组件112和/或第二成像设备114)的帧率来确定受试者S的心率。例如,如果在三十(30)帧中观察到两(2)个跳动,并且图像数据的帧速率为每秒三十(30)帧,则可以在框1410处确定心脏每秒跳动两次。因此,受试者S的呼吸率将被计算为每分钟一百二十(120)次跳动。
在框1412处,处理设备210发送与所确定的受试者S的心率相对应的心率数据。也就是说,如本文所描述的,可以将与受试者的心率相对应的数据发送至用户设备140以在用户设备140上显示给用户并发送至服务器计算设备410(图4)以进行存储等。
如本文前述所讨论的,监视设备110可以通过从第一成像组件112和/或第二成像组件114接收恒定的图像数据流(例如,视频馈送)来连续地监视受试者的呼吸率,超出了初步确定心率所需的范围。因此,在框1414处,处理设备210确定是否需要对受试者S进行附加的监视。这种确定通常可以为基于从用户接收的一个或多个输入受试者S是否在患者支撑装置130中(例如,在第一成像组件112和/或第二成像组件114的视场内)等等。如果需要附加的监视(例如,连续监视受试者的心率),则过程返回到框1402以接收新的图像数据并监视呼吸率。如果不需要附加的监视,则过程可以结束。
现在应该理解地是,本文所述的系统和方法使用具有LWIR成像设备、NIR和/或RGB成像设备以及一个或多个NIR发光设备的监测设备准确并同时地确定患者支撑装置中受试者的位置、运动、面部温度、心率以及呼吸率。结果,可以以非侵入性、非接触方式准确地追踪患者支撑装置中的受试者的运动和生命体征。另外,监视设备可以连续地操作,使得信息可以连续地发送到通信耦接的用户设备,该用户设备允许远程监视受试者。
对于本领域技术人员而言显而易见的是,在不脱离所要求保护的主题的精神和范围的情况下,可以对本文所述的实施例进行各种修改和变化。因此,本说明书旨在覆盖本文描述的各种实施例的修改和变型,只要这些修改和变型落在所附权利要求及其等同物的范围内。

Claims (10)

1.一种自动监视由患者支撑装置支撑的受试者的位置和生命体征的方法,所述方法包括:
由监视设备的处理设备接收来自所述监视设备的第一成像组件的长波红外LWIR图像数据和来自所述监视设备的第二成像组件的近红外NIR图像数据;
由所述处理设备从所述NIR图像数据确定所述患者支撑装置的一个或多个边界;
由所述处理设备构造对应于所述患者支撑装置的所述一个或多个边界的一个或多个虚拟边界;
由所述处理设备从所述LWIR图像数据和所述NIR图像数据中的至少一个确定所述受试者相对于所述一个或多个虚拟边界的位置;
由所述处理设备从所述LWIR图像数据确定所述受试者的面部温度和心率;以及
由所述处理设备从所述LWIR图像数据和所述NIR图像数据中的至少一个确定所述受试者的呼吸率。
2.根据权利要求1所述的方法,还包括:
由所述处理设备向所述用户设备发送以下至少一项:所述LWIR图像数据、所述NIR图像数据、对应于所述一个或多个虚拟边界的数据、对应于所述受试者的所述位置的数据、对应于所述受试者的所述面部温度的数据、对应于所述受试者的所述心率的数据以及对应于所述受试者的所述呼吸率的数据;以及
由所述处理设备引导一个或多个发光组件向所述受试者发射NIR光,其中确定所述受试者的所述心率包括从所述NIR图像数据确定由所述一个或多个发光组件发射的所述NIR光的量,所述NIR光在一段时间内被存在于所述受试者的面部的毛细血管中的含氧血液吸收,其中被吸收的所述NIR光的量在最大吸收量和最小吸收量之间循环,并且其中心跳对应于每个循环。
3.根据权利要求1-2中任一项所述的方法,其中,从所述NIR图像数据确定所述患者支撑装置的所述一个或多个边界包括:利用对象识别算法基于所述患者支撑装置的形状和尺寸从所述NIR图像数据确定所述患者支撑装置并且确定所述患者支撑装置的所述一个或多个边缘。
4.根据权利要求1-3中任一项所述的方法,其中,确定所述受试者相对于所述一个或多个虚拟边界的所述位置包括利用面部识别算法和对象识别算法中的一个或多个从所述LWIR图像数据和所述NIR图像数据中的至少一个确定受试者头部位置、建立与所述受试者头部位置相对应的点、并随着所述受试者头部位置的变化追踪所述点的移动。
5.根据权利要求1-4中任一项所述的方法,其中,确定所述受试者的所述呼吸率包括利用对象检测算法从所述LWIR图像数据和所述NIR图像数据中的至少一个识别受试者胸腔,并监视胸部在一段时间内的扩张和收缩运动。
6.一种用于监视由患者支撑装置支撑的受试者的位置和生命体征的监视设备,所述监视设备包括:
第一成像组件,获得所述受试者的长波红外LWIR图像数据;
第二成像组件,获得所述受试者和所述患者支撑装置的近红外NIR图像数据;
处理设备;以及
非暂时性处理器可读存储介质,在其上包括一个或多个程序指令,所述一个或多个程序指令在被执行时使所述处理设备执行根据权利要求1-5中任一项所述的方法。
7.一种用于监视由患者支撑装置支撑的受试者的位置和生命体征的系统,所述系统包括:
监视设备,包括:
第一成像组件,获得所述受试者的长波红外LWIR图像数据;
第二成像组件,获得所述受试者和所述患者支撑装置的近红外NIR图像数据;
其中,所述监视设备被编程为:
从所述第一成像组件接收LWIR图像数据和从所述第二成像组件接收NIR图像数据,
从所述NIR图像数据确定所述患者支撑装置的一个或多个边界,
构造与所述患者支撑装置的所述一个或多个边界相对应的一个或多个虚拟边界,
从所述LWIR图像数据和所述NIR图像数据中的至少一个确定所述受试者相对于所述一个或多个虚拟边界的位置,
从所述LWIR图像数据确定所述受试者的面部温度和心率,以及
从所述LWIR图像数据和所述NIR图像数据中的至少一个确定所述受试者的呼吸率。
8.根据权利要求7所述的系统,还包括通信地耦接至所述监视设备的用户设备,所述用户设备包括显示器,所述显示器显示以下至少一项:
所述LWIR图像数据;
所述NIR图像数据;
所述一个或多个虚拟边界;
所述受试者相对于所述一个或多个虚拟边界的位置;
所述受试者的面部温度;
所述受试者的呼吸率;以及
所述受试者的心率。
9.根据权利要求7-8中任一项所述的系统,其中,所述监视设备还包括发射NIR光的一个或多个发光组件。
10.根据权利要求7-9中任一项所述的系统,其中,
所述第一成像组件包括第一光轴;
所述第二成像组件包括第二光轴,
所述第一成像组件定向为使得所述第一光轴相对于所述患者支撑装置的表面形成第一角度;
所述第二成像组件定向为使得所述第二光轴相对于所述患者支撑装置的表面形成第二角度,并且
所述第一角度不同于所述第二角度。
CN201911103271.9A 2018-11-16 2019-11-12 用于确定受试者位置和生命体征的系统和方法 Pending CN111195115A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862768334P 2018-11-16 2018-11-16
US62/768,334 2018-11-16

Publications (1)

Publication Number Publication Date
CN111195115A true CN111195115A (zh) 2020-05-26

Family

ID=68581330

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911103271.9A Pending CN111195115A (zh) 2018-11-16 2019-11-12 用于确定受试者位置和生命体征的系统和方法

Country Status (3)

Country Link
US (2) US20200155040A1 (zh)
EP (1) EP3653112B1 (zh)
CN (1) CN111195115A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115429581B (zh) * 2022-08-02 2024-06-07 合肥工业大学 重症卧床患者面部状态记录仪器

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943092B2 (en) * 2018-05-23 2021-03-09 ClairLabs Ltd. Monitoring system
EP3928684A1 (en) * 2020-06-26 2021-12-29 Koninklijke Philips N.V. Contactless temperature-based monitoring of a patient
US11882366B2 (en) 2021-02-26 2024-01-23 Hill-Rom Services, Inc. Patient monitoring system
US20230057855A1 (en) * 2021-08-23 2023-02-23 Hill-Rom Services, Inc. Patient monitoring system
WO2024052857A1 (en) * 2022-09-07 2024-03-14 Umano Medical Inc. System and method for monitoring a patient in a patient support apparatus using a contactless sensing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8710981B1 (en) * 1999-04-19 2014-04-29 Accutrak Systems, Inc. Monitoring system
KR20170001785A (ko) * 2015-06-25 2017-01-05 동의대학교 산학협력단 영상 분석을 통하여 환자의 낙상 위험을 판단하는 시스템 및 방법
JP2017168105A (ja) * 2015-06-11 2017-09-21 コニカミノルタ株式会社 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
CN107205663A (zh) * 2015-01-19 2017-09-26 皇家飞利浦有限公司 用于皮肤检测的设备、系统和方法
WO2018047795A1 (ja) * 2016-09-09 2018-03-15 コニカミノルタ株式会社 見守りシステム、見守り装置、見守り方法、および見守りプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2533508A1 (en) * 2003-07-22 2005-02-03 Ronjo Llc Method of monitoring sleeping infant
US7961906B2 (en) * 2007-01-03 2011-06-14 Science Applications International Corporation Human detection with imaging sensors
US8483806B2 (en) * 2010-02-04 2013-07-09 The Boeing Company Systems and methods for non-contact biometric sensing
US8790269B2 (en) * 2011-05-09 2014-07-29 Xerox Corporation Monitoring respiration with a thermal imaging system
TWI505706B (zh) * 2012-03-14 2015-10-21 Inst Information Industry 應用近紅外線與遠紅外線之物體偵測方法、裝置以及其電腦可讀取記錄媒體
US9500635B2 (en) * 2012-12-31 2016-11-22 Omni Medsci, Inc. Short-wave infrared super-continuum lasers for early detection of dental caries
US9770213B2 (en) * 2014-10-30 2017-09-26 Koninklijke Philips N.V. Device, system and method for extracting physiological information
WO2016172549A1 (en) * 2015-04-23 2016-10-27 Gen-Nine, Inc. Activity and exercise monitoring system
US9901306B2 (en) * 2015-04-29 2018-02-27 Analog Devices, Inc. Tracking mechanism for heart rate measurements
US10346723B2 (en) * 2016-11-01 2019-07-09 Snap Inc. Neural network for object detection in images
US11065958B2 (en) * 2017-01-03 2021-07-20 Transportation Ip Holdings, Llc Control system and method
US10674916B2 (en) * 2017-07-10 2020-06-09 The Florida International University Board Of Trustees Integrated NIR and visible light scanner for co-registered images of tissues
US11259710B2 (en) * 2018-05-16 2022-03-01 Mitsubishi Electric Research Laboratories, Inc. System and method for remote measurements of vital signs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8710981B1 (en) * 1999-04-19 2014-04-29 Accutrak Systems, Inc. Monitoring system
CN107205663A (zh) * 2015-01-19 2017-09-26 皇家飞利浦有限公司 用于皮肤检测的设备、系统和方法
JP2017168105A (ja) * 2015-06-11 2017-09-21 コニカミノルタ株式会社 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
KR20170001785A (ko) * 2015-06-25 2017-01-05 동의대학교 산학협력단 영상 분석을 통하여 환자의 낙상 위험을 판단하는 시스템 및 방법
WO2018047795A1 (ja) * 2016-09-09 2018-03-15 コニカミノルタ株式会社 見守りシステム、見守り装置、見守り方法、および見守りプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115429581B (zh) * 2022-08-02 2024-06-07 合肥工业大学 重症卧床患者面部状态记录仪器

Also Published As

Publication number Publication date
US20200155040A1 (en) 2020-05-21
US20230389826A1 (en) 2023-12-07
EP3653112A1 (en) 2020-05-20
EP3653112B1 (en) 2023-12-27

Similar Documents

Publication Publication Date Title
US20230389826A1 (en) Systems and methods for determining subject positioning and vital signs
US9700242B2 (en) Motion information processing apparatus and method
EP3373804B1 (en) Device, system and method for sensor position guidance
EP3057487B1 (en) Device and method for obtaining a vital sign of a subject
RU2676147C2 (ru) Непрерывное автоматическое наблюдение за движениями пациента
EP2964078B1 (en) System and method for determining vital sign information
JP6615197B2 (ja) 皮膚検出に関するデバイス及び方法
EP3076892B1 (en) A medical optical tracking system
KR101420200B1 (ko) 열화상 카메라를 이용한 체온 감지 시스템
US20160206216A1 (en) Device, system and method for skin detection
US9504426B2 (en) Using an adaptive band-pass filter to compensate for motion induced artifacts in a physiological signal extracted from video
US20150124067A1 (en) Physiological measurement obtained from video images captured by a camera of a handheld device
US11850026B2 (en) Remote portable vital signs monitoring
CN107077214A (zh) 用于在医院中使用的通信的方法和系统
KR102508831B1 (ko) 원격 이미지 전송 시스템, 디스플레이 장치 및 그의 가이드 표시 방법
JP5818233B2 (ja) 視線計測装置および方法
US20230046365A1 (en) Techniques for three-dimensional analysis of spaces
CA3084779A1 (en) Remote portable vital signs monitoring
EP4176809A1 (en) Device, system and method for monitoring a subject
KR101635731B1 (ko) 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법
JP2014130519A (ja) 医用情報処理システム、医用情報処理装置及び医用画像診断装置
US20230210363A1 (en) Infrared tele-video-oculography for remote evaluation of eye movements
US20220291045A1 (en) Noncontact thermometer
WO2023199193A1 (en) Non-contact monitoring system and method
Huang et al. Research Article Mobile Robotic Platform for Contactless Vital Sign Monitoring

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination