CN115605923A - 从患者的2-d正面图像确定患者的3-d面部信息 - Google Patents
从患者的2-d正面图像确定患者的3-d面部信息 Download PDFInfo
- Publication number
- CN115605923A CN115605923A CN202180035556.2A CN202180035556A CN115605923A CN 115605923 A CN115605923 A CN 115605923A CN 202180035556 A CN202180035556 A CN 202180035556A CN 115605923 A CN115605923 A CN 115605923A
- Authority
- CN
- China
- Prior art keywords
- patient
- frontal image
- determining
- facial information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M16/00—Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
- A61M16/06—Respiratory or anaesthetic masks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M16/00—Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
- A61M16/06—Respiratory or anaesthetic masks
- A61M2016/0661—Respiratory or anaesthetic masks with customised shape
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2205/00—General characteristics of the apparatus
- A61M2205/33—Controlling, regulating or measuring
- A61M2205/3306—Optical measuring means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Emergency Medicine (AREA)
- Pulmonology (AREA)
- Anesthesiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Hematology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
一种标识用于患者的特定面罩以用于向患者递送呼吸气流的方法,通过首先接收患者的2‑D正面图像来实现。接下来,从2‑D正面图像确定患者的3‑D面部信息。将3‑D面部信息中的至少一些信息与多个候选面罩的维度信息进行比较。最后,根据3‑D面部信息中的至少一些信息与多个候选面罩的维度信息的比较结果来确定患者的特定面罩。
Description
相关申请的交叉引用
本专利申请根据35 U.S.C.§119(e)要求于2020年5月15日提交的美国临时申请No.63/025,822的优先权,其内容在此引入作为参考。
技术领域
本发明涉及使用气道正压(PAP)治疗用于确定用于治疗诸如睡眠呼吸紊乱的状况的患者的面罩的系统和方法。更具体地,本发明涉及用于使用从患者的二维(2-D)正面图像确定的三维(3-D)面部信息来为患者确定这种面罩的系统和方法。本发明进一步涉及用于从人的2-D正面图像确定人的3-D面部信息的方法。
背景技术
许多个体在睡眠期间患有呼吸紊乱。睡眠呼吸暂停是全世界数百万人遭受的这种睡眠呼吸障碍的常见实例。睡眠呼吸暂停的一种类型是阻塞性睡眠呼吸暂停(OSA),其是睡眠由于气道阻塞而不能呼吸而反复被中断的病症;通常上气道或咽部区域。通常认为气道阻塞至少部分是由于使上气道段稳定的肌肉的总体松弛,从而允许组织使气道塌陷。另一种类型的睡眠呼吸暂停综合症是中枢性呼吸暂停,其是由于没有来自大脑呼吸中枢的呼吸信号而导致的呼吸停止。呼吸暂停情况,无论是阻塞性的、中枢性的或混合型的(其是阻塞性和中枢性的组合),被限定为呼吸完全或接近停止,例如峰值呼吸气流减少90%或更多。
患有睡眠呼吸暂停的患者在睡眠过程中间歇性地经历睡眠片段化和完全或几乎完全停止通气,伴随有潜在严重程度的氧合血红蛋白去饱和。这些症状在临床上可以被转化为极度白天嗜睡、心律失常、肺动脉高血压、充血性心力衰竭和/或认知功能障碍。睡眠呼吸暂停的其他后果包括右心室功能障碍、觉醒期间以及睡眠期间的二氧化碳潴留、以及持续降低的动脉氧张力。在驾驶和/或操作潜在危险的设备时,睡眠呼吸暂停患者可能处于由这些因素引起的过度死亡的危险中,以及处于事故的高风险中。
即使患者没有遭受气道的完全或几乎完全阻塞,也已知在仅存在气道的部分阻塞的情况下可能发生诸如睡眠引起的觉醒的不利影响。气道的部分阻塞通常导致浅呼吸,称为呼吸不足。呼吸不足通常被限定为在峰值呼吸气流减少50%或更多。其它类型的睡眠呼吸障碍包括但不限于上气道阻力综合征(UARS)和气道振动,诸如咽壁振动,通常称为打鼾。
众所周知,通过将连续正气压(CPAP)应用于患者气道来治疗睡眠呼吸障碍。这种正压有效地“夹住”气道,从而保持通向肺的开放通道。提供正压治疗也是已知的,其中递送到患者的气体的压力随着患者的呼吸周期而变化,或者随着患者的呼吸努力而变化,以增加患者的舒适度。这种压力支持技术被称为双水平压力支持,其中递送到患者的吸气气道正压(IPAP)高于呼气气道正压(EPAP)。还已知提供一种正压治疗,其中基于检测到的患者状况(诸如患者是否正经历呼吸暂停和/或呼吸不足)自动调节压力。这种压力支持技术被称为自动滴定类型的压力支持,因为压力支持设备试图向患者提供仅与治疗呼吸紊乱所需的压力一样高的压力。
刚才描述的压力支持治疗涉及患者接口设备的放置,该患者接口设备包括面罩组件,该面罩组件具有在患者面部上的柔软的、柔性密封衬垫。面罩组件可以是但不限于覆盖患者鼻子的鼻罩、连接在患者鼻子下面的鼻托、连接患者各个鼻孔的鼻枕面罩、覆盖患者鼻子和嘴的鼻/口面罩、或覆盖患者面部的全面罩。这种患者接口设备还可以采用其他患者接触组件,诸如前额支撑件、脸颊垫、下巴垫、硅树脂框架和头带元件。患者接口设备被连接到气体递送管或导管,并且将压力支持设备与患者的气道连接,使得呼吸气体流可以从压力/流量生成设备被递送到患者的气道。
用于生成为患者创建或确定用于向患者递送治疗气体流的“定制”面罩的现有技术系统使用患者的三维扫描,三维扫描使用昂贵的3-D图像捕获设备被获得。备选地,使用在特定位置处拍摄的多个图像的其他方法已经被用于创建患者的3-D模型,该3-D模型然后被用于为患者确定最佳面罩或创建“定制”面罩。用于捕获这种3-D扫描所需的设备的成本和使用多个图像成功获得准确数据所需的方法的复杂性限制了这种解决方案的适用性
发明内容
作为本发明的一个方面,提供了一种标识用于患者的特定面罩的方法,该面罩用于向患者递送呼吸气流。该方法包括:接收患者的2-D正面图像;从2-D正面图像确定患者的3-D面部信息;将3-D面部信息中的至少一些3-D面部信息与多个候选面部面罩的维度信息进行比较;以及根据3-D面部信息的至少一些3-D面部信息与多个候选面罩的维度信息的比较结果,来确定患者的特定面罩。
接收患者的2-D正面图像可以包括接收患者的2-D RGB正面图像。从2-D正面图像确定患者的3-D面部信息可以包括用经训练的神经网络分析2-D正面图像。从2-D正面图像确定患者的3-D面部信息可以进一步包括从经训练的神经网络的分析确定3-D UV位置图。从2D正面图像确定患者的3-D面部信息可以进一步包括从3-D UV位置图确定患者面部的参数模型。该方法可以进一步包括向患者提供特定面罩。接收患者的2-D正面图像可以包括用数字成像设备捕获患者的2-D正面图像。用数字成像设备捕获患者的2-D正面图像可以包括用与计算设备通信的智能手机的正面相机或网络相机中的一个捕获2-D正面图像。
作为本发明的另一方面,提供了一种确定患者的3-D面部信息的方法。该方法包括:接收患者的2-D正面图像;以及通过用经训练的神经网络分析2-D正面图像来从2-D正面图像确定患者的3-D面部信息。
接收患者的2-D正面图像可以包括接收患者的2-D RGB图像。从2-D正面图像确定患者的3-D面部信息可以进一步包括来自由经训练的神经网络的分析确定3-D UV位置图。从2D正面图像确定患者的3-D面部信息可以进一步包括从3-D UV位置图创建参数模型。接收患者的2-D正面图像可以包括用数字成像设备捕获患者的2-D正面图像。用数字成像设备捕获患者的2-D正面图像可以包括用与计算设备通信的智能手机的正面相机或网络相机中的一个捕获2-D正面图像。
作为本发明的又一方面,提供了一种用于标识特定面罩的系统,该特定面罩用于将呼吸气流递送到患者。系统包括:用于接收患者的2-D正面图像的输入;被训练以接收患者的2-D正面图像并且确定患者面部的3-D UV位置图的神经网络;处理装置,其被编程为:从3-DUV位置图确定患者的面部的3-D面部信息,将3-D面部信息中的至少一些3-D面部信息与多个候选面罩的维度信息进行比较,并且从3-D面部信息中的至少一些3-D面部信息与多个候选面罩的维度信息的比较结果确定患者的特定面罩;以及输出设备,其与处理装置通信,用于提供特定面罩的指示。
本发明的这些和其它目的、特征和特性,以及结构的相关元件的操作方法和功能以及部分的组合和制造的经济性,将在参考附图考虑以下描述和所附权利要求时变得更加明显,所有附图形成本说明书的一部分,其中相同的附图标记在各个附图中表示相应的部分。然而,应当清楚地理解,附图仅用于说明和描述的目的,而不旨在作为对本发明的限制的定义。
附图说明
图1是根据本发明的一个示范性实施例的用于标识患者的特定面罩的系统的示意图,该面罩用于向患者递送呼吸气体流;
图2是根据本发明的一个示范性实施例的用于标识患者的特定面罩的另一系统的示意图,面罩用于向患者递送呼吸气体流;
图3是根据本发明的一个示例性实施例的神经网络的操作的示例性表示,示出了其示例性输入和其对应的输出;
图4是类似于图3的神经网络的操作的示例表示,但进一步示出了被转换成3-D形式的神经网络的输出的示例;
图5是根据本发明的一个示例性实施例的方法的流程图;
图6A、7A、8A和9A示出了由诸如图1所示的由2-D图像捕获装置捕获的RGB正面图像的示例;
图6B、7B、8B和9B示出了由诸如图1所示的经训练的神经网络从图6A、7A、8A和9A的对应的RGB正面图像生成的UV位置图的示例;以及
图6C、7C、8C和9C示出了从图6B、7B、8B和9B的对应的UV位置图选择的3-D参数模型的示例图,诸如由图1所示的经训练的神经网络生成的3-D参数模型。
具体实施方式
如本文所使用的,单数形式的“一”、“一个”和“该”包括复数指代,除非上下文另有明确说明。如本文所使用的,两个或更多个部分或组件被“耦合”的表述将意味着这些部分被直接地或间接地(即,通过一个或多个中间部分或组件)连接或一起操作,只要发生链接。如本文所使用的,“数目”应意指一个或大于一个的整数(即,多个)。
如本文所使用的,术语“患者”和“用户”可以互换地使用以指代其图像被捕获/利用以确定其3-D信息并且进一步从中确定其“定制”面罩的人。
如本文所使用的,患者的面部的“正面图像”应意指电子图像,该电子图像至少包含患者的面部(例如,鼻子、嘴巴和附近的结构),该电子图像被定位成大致直视相机,其已经被直接捕获或者被提供有合适的图像捕获设备。在本发明的示例性实施例中,正面图像被利用,其中患者的面部占据图像的至少50%。其中面部占据小于图像的50%的图像可能导致小于最佳的结果。另外,在本发明的示例性实施例中,已经采用了由位于平分患者面部的垂直平面的50°内的设备捕获的正面图像。通常,用定位靠近垂直平面的设备捕获的图像提供最好的结果。
如本文所使用的,患者的三维(3-D)面部信息应指描述患者面部上的界标或其他点在三维空间中相对于彼此的间隔和/或定位的信息。
本发明的实施例利用患者的面部的单个二维(以下称为“2-D”)正面图像来确定患者的三维(以下称为“3-D”)面部信息,然后可以将其用于与一个或多个候选面罩的二维或三维信息进行比较,以确定用于建议和/或提供给患者的特定面罩。如先前在背景部分中所讨论的,现有解决方案利用3-D扫描或以各种角度拍摄的多个图像来生成等效的3-D面部信息。
图1中示出了根据本发明的一个示例性实施例的用于标识用于患者的特定面罩的系统10的示意图,该面罩用于向患者递送呼吸气流。系统10包括本地设备12和与本地设备12进行双向电子通信(例如,经由任何合适的有线或无线连接)的远程处理装置14,使得远程处理装置14可以从本地设备12接收输入并且向本地设备12提供输出。本地设备12可以是智能手机、膝上型电脑或其它计算机、电子信息站或其它合适的装置,并且包括本地处理装置16,以及与本地处理装置16电子通信的2-D图像捕获装置18、输入装置20和输出装置22。本地处理装置16包括处理器、固定磁盘存储设备和存储器模块(未编号)。
本地处理装置16可以是例如但不限于与前述存储器模块接口的微处理器(μP),存储器模块可以是各种类型的内部和/或外部存储介质中的任何一种或多种存储介质,诸如但不限于RAM、ROM、EPROM、EEPROM、FLASH等,其提供存储寄存器,即机器可读介质,用于诸如以计算机的内部存储区域的方式进行数据存储,并且可以是易失性存储器或非易失性存储器。本地处理装置16的固定磁盘存储设备中存储有可由本地处理装置16执行的多个例程。
2-D图像捕获装置18可以是用于直接或间接地电子捕获人的2-D图像的任何合适的装置(例如,但不限于,智能手机的面向前或面向后的相机、电子扫描仪等)。如下所述,根据系统10的一个或多个其它组件的细节,这种2-D图像可以是RGB图像(即彩色图像)、灰度图像或黑白图像,如下所述。
输入装置20可以是任何合适的装置(例如但不限于物理小键盘或键盘、触摸屏、麦克风、摄像机等),用于向本地设备12(并且更具体地,本地处理装置16)提供至少最小的输入,而不脱离本发明的范围。输出设备22通常可以是用于从本地处理装置16和/或本地设备12提供输出的任何合适的装置。更具体地,输出设备22可以是适于向用户提供特定面罩的指示或提供实际特定面罩的任何装置。例如,如下面进一步讨论的,系统10确定用于患者的特定面罩,并且可以根据特定应用提供关于确定的特定面罩的信息(例如但不限于型号、大小、如何获得等),并且或者可以实际提供确定的特定面罩。因此,输出装置22可以是多种适当装置中的任何一种装置(例如,但不限于显示屏、扬声器、容纳多个面罩的选择可访问的隔室或多个隔室),而不改变本发明的范围。
远程处理装置14是基于云的处理装置,其整体或部分地包括公知架构的可训练神经网络24。更具体地,神经网络24已经被训练以仅从作为输入提供给神经网络24的用户的单个2-D正面图像产生用户面部的3-D位置图。如本文所使用的,“经训练的神经网络”是已经例如通过传统技术被训练以从用户/患者的2-D正面图像产生用户/患者的面部的3-D位置图的神经网络。在本发明的一个示例性实施例中,诸如在图3中一般例示的,神经网络24被训练以接收作为输入26的用户30的面部的2-D RGB正面图像28,并且提供以UV位置图34的形式的输出32。如本文里所使用的,“UV位置图”是包含用户(例如,图3中的用户30)的面部(或其相关部分)的所有像素的深度信息的图。通过向神经网络24提供UV位置图来进行神经网络24的这种训练,UV位置图是使用传统的3-D扫描设备和技术从大约3000个的不同样本中获得的。还向神经网络24提供从每个上述UV位置图中提取的每个人的2-D正面图像。根据这种训练,神经网络24被有效地教导以创建3-D UV位置图(诸如图3中的图34),作为仅来自作为输入26提供给神经网络24的2-D RGB正面图像(诸如图3的正面图像28)输出32。
如图4中所示,这种3-D UV位置图34然后可以被转换成3-D参数模型36(其三个2-D视图在图4的示例中被示出),用于与一个或多个候选面罩的3-D维度信息进行比较,以确定用于用户的推荐面罩。尽管使用2-D RGB图像示出,但是应当理解,除了使用灰度材料代替RGB之外,通过使用类似的训练材料来类似地训练神经24也可以使用2-D灰度图像。
图2中示出了根据本发明的另一示例实施例的另一系统10'的示意图,该系统用于标识用于患者的特定面罩以用于向患者递送呼吸气体流。系统10'类似于前面讨论的系统10,除了系统10'完全被包含在本地设备12'内。更具体地,本地设备12'具有与本地设备12类似的装置,除了本地设备12'包括作为本地处理装置16'或作为本地处理装置16'的部分提供的神经网络24'(类似于先前讨论的神经网络24)。
已经如此描述了根据本发明的一些示范性实施例的一些示例系统10、10',连同其组件的细节和一般操作,将不参考图5描述根据本发明的一个示范性实施例的经由这种系统10、10'(或任何其他合适的装置)中的任一个系统来执行的示范性方法40,该方法标识用于向患者递送呼吸气体流的用于患者的特定面罩。
方法40开始于42处,其中患者的2-D正面图像被接收。在图1和图2的示例性系统10和10'中,这种2-D正面图像可以是使用2-D图像捕获装置18捕获的RGB图像,该RGB图像被提供给经训练的神经网络24或24'并且由经训练的神经网络24或24'接收用于进行处理。
接下来,在44处,从2-D正面图像确定患者的3-D面部信息。在图1和2的示例性系统10和10'中,这种确定由经训练的神经网络24或24'执行,该神经网络接收2-D RGB正面图像并且确定/产生3-DUV位置图作为其输出。可以从3-D UV位置图确定患者面部的参数模型。
接下来,在46处,将至少一些3-D面部信息与多个候选面罩的维度信息进行比较。在图1和2的示例系统10和10'中,这种比较可以由神经网络24或24'或本地处理装置16或16'使用规则集或诸如本领域公知的用于找到面罩的接口部分与患者/用户的面部之间的最佳3-D匹配的其他方法来执行。
最后,方法40通常在48处结束,其中根据在46处执行的至少一些3-D面部信息与多个候选面罩的维度信息的比较结果来确定患者的特定面罩。用于患者/用户的特定面罩的这种确定可以包括向用户提供标识特定面罩的信息(例如但不限于样式、型号#、尺寸等)和/或向患者提供实际的特定面罩。在图1和2的示例性系统10和10'中,向患者提供标识特定面罩和/或实际特定面罩的信息可以使用诸如先前描述的输出设备22来执行。
图6A-6C、7A-7C、8A-8C和9A-9C示出了提供给系统10的经训练的神经网络24的RGB正面图像28(图6A、7A、8A和9A)的示例;UV位置图34(图6B、7B、8B和9B)由经训练的神经网络24从对应的正面图像28生成;以及3-D参数模型36(图6C、7C、8C和9C)的示例图,该3-D参数模型36进一步由经训练的神经网络24从上述生成的UV位置图34生成。
从上文可以理解,本发明的实施例提供了用于从患者的可获得的基本2-D正面图像中标识/提供用于特定用户/患者的“定制”面罩的解决方案。
可以设想,所公开概念的各方面可以体现为有形计算机可读记录介质上的计算机可读代码。计算机可读记录介质是能够存储其后可以由计算机系统读取的数据的任何数据存储设备。计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光学数据存储设备。
在权利要求中,被放置于括号中的任何附图标记不应被解释为限制权利要求。词语“包括”或“包含”不排除权利要求中所列出的元件或步骤之外的元件或步骤的存在。在列举了几个装置的设备权利要求中,这些装置中的几个装置可以由同一项硬件来实现。元件之前的词语“一”或“一个”不排除多个这种元件的存在。在列举了几个装置的任何设备权利要求中,这些装置中的几个装置可以由同一项硬件来实现。在相互不同的从属权利要求中叙述某些元件的事实并不表示这些元件不能组合使用。
尽管出于说明的目的,已经基于当前被认为是最实用和优选的实施例详细描述了本发明,但是应当理解,这种细节仅用于该目的,并且本发明不限于所公开的实施例,而是相反,旨在覆盖在所附权利要求的精神和范围内的修改和等同装置。例如,应当理解,本发明预期在可能的程度上,任何实施例的一个或多个特征可以与任何其他实施例的一个或多个特征被组合。
Claims (15)
1.一种标识用于患者的特定面罩以用于将呼吸气体流递送至所述患者的方法,所述方法包括:
接收所述患者的2-D正面图像;
从所述2-D正面图像确定所述患者的3-D面部信息;
将所述3-D面部信息中的至少一些3-D面部信息与多个候选面罩的维度信息进行比较;以及
根据所述3-D面部信息中的所述至少一些3-D面部信息与所述多个候选面罩的所述维度信息的所述比较的结果,来确定用于所述患者的所述特定面罩。
2.根据权利要求1所述的方法,其中接收所述患者的所述2-D正面图像包括接收所述患者的2-D RGB正面图像。
3.根据权利要求1所述的方法,其中从所述2-D正面图像确定所述患者的所述3-D面部信息包括用经训练的神经网络分析所述2-D正面图像。
4.根据权利要求3所述的方法,其中从所述2-D正面图像确定所述患者的所述3-D面部信息进一步包括从通过所述经训练的神经网络的所述分析来确定3-D UV位置图。
5.根据权利要求4所述的方法,其中从所述2D正面图像确定所述患者的所述3-D面部信息进一步包括从所述3-D UV位置图确定所述患者的面部的参数模型。
6.根据权利要求1所述的方法,进一步包括向所述患者提供所述特定面罩。
7.根据权利要求1所述的方法,其中接收所述患者的2-D正面图像包括用数字成像设备捕获所述患者的所述2-D正面图像。
8.根据权利要求7所述的方法,其中用数字成像设备捕获所述患者的所述2-D正面图像包括用与计算设备通信的智能手机的正面相机或网络相机中的一者捕获所述2-D正面图像。
9.一种确定患者的3-D面部信息的方法,所述方法包括:
接收所述患者的2-D正面图像;以及
通过用经训练的神经网络分析所述2-D正面图像,从所述2-D正面图像确定所述患者的3-D面部信息。
10.根据权利要求9所述的方法,其中接收所述患者的所述2-D正面图像包括接收所述患者的2-D RGB图像。
11.根据权利要求9所述的方法,其中从所述2-D正面图像确定所述患者的3-D面部信息进一步包括从通过所述经训练的神经网络的所述分析来确定3-D UV位置图。
12.根据权利要求11所述的方法,其中从所述2D正面图像确定所述患者的所述3-D面部信息进一步包括从所述3-D UV位置图创建参数模型。
13.根据权利要求9所述的方法,其中接收所述患者的2-D正面图像包括用数字成像设备捕获所述患者的所述2-D正面图像。
14.根据权利要求9所述的方法,其中用数字成像设备捕获所述患者的所述2-D正面图像包括用与计算设备通信的智能手机的正面相机或网络相机中的一者捕获所述2-D正面图像。
15.一种用于标识特定面罩的系统,所述特定面罩用于向患者递送呼吸气体流,所述系统包括:
用于接收所述患者的2-D正面图像的输入;
神经网络,被训练以接收患者的所述2-D正面图像并且确定所述患者的面部的3-D UV位置图;
处理装置,被编程为:
从所述3-D UV位置图确定所述患者的所述面部的3-D面部信息,
将所述3-D面部信息中的至少一些3-D面部信息与多个候选面罩的维度信息进行比较,以及
根据所述3-D面部信息中的所述至少一些3-D面部信息与所述多个候选面罩的所述维度信息的所述比较的结果来确定用于所述患者的所述特定面罩;以及
与所述处理装置通信的输出设备,所述输出设备用于提供所述特定面罩的指示。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063025822P | 2020-05-15 | 2020-05-15 | |
US63/025,822 | 2020-05-15 | ||
PCT/EP2021/062241 WO2021228727A1 (en) | 2020-05-15 | 2021-05-08 | Determining 3-d facial information of a patient from a 2-d frontal image of the patient |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115605923A true CN115605923A (zh) | 2023-01-13 |
Family
ID=75904923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180035556.2A Pending CN115605923A (zh) | 2020-05-15 | 2021-05-08 | 从患者的2-d正面图像确定患者的3-d面部信息 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210358144A1 (zh) |
EP (1) | EP4150509A1 (zh) |
JP (1) | JP2023524416A (zh) |
CN (1) | CN115605923A (zh) |
WO (1) | WO2021228727A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11810256B2 (en) * | 2021-11-11 | 2023-11-07 | Qualcomm Incorporated | Image modification techniques |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7904193B2 (en) * | 2006-09-29 | 2011-03-08 | Nellcor Puritan Bennett Llc | Systems and methods for providing custom masks for use in a breathing assistance system |
US10881827B2 (en) * | 2017-09-29 | 2021-01-05 | Koninklijke Philips N.V. | Providing a mask for a patient based on a temporal model generated from a plurality of facial scans |
US10650564B1 (en) * | 2019-04-21 | 2020-05-12 | XRSpace CO., LTD. | Method of generating 3D facial model for an avatar and related device |
US11602314B2 (en) * | 2020-06-15 | 2023-03-14 | Microsoft Technology Licensing, Llc | Animating physiological characteristics on 2D or 3D avatars |
-
2021
- 2021-04-28 US US17/242,655 patent/US20210358144A1/en active Pending
- 2021-05-08 JP JP2022565568A patent/JP2023524416A/ja active Pending
- 2021-05-08 EP EP21725109.9A patent/EP4150509A1/en active Pending
- 2021-05-08 WO PCT/EP2021/062241 patent/WO2021228727A1/en active Application Filing
- 2021-05-08 CN CN202180035556.2A patent/CN115605923A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210358144A1 (en) | 2021-11-18 |
WO2021228727A1 (en) | 2021-11-18 |
EP4150509A1 (en) | 2023-03-22 |
JP2023524416A (ja) | 2023-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107735136B (zh) | 使用移动应用的面罩大小调整工具 | |
US11791042B2 (en) | Methods and systems for providing interface components for respiratory therapy | |
US20200384229A1 (en) | Patient sleep therapy mask selection tool | |
US10398867B2 (en) | Determining information about a patients face | |
US20190184121A1 (en) | Method for obtaining facial metrics of a person and indentifying a mask for the person from such metrics | |
US10881827B2 (en) | Providing a mask for a patient based on a temporal model generated from a plurality of facial scans | |
US20220288338A1 (en) | Customizable mask and method of sizing | |
US20210358144A1 (en) | Determining 3-d facial information of a patient from a 2-d frontal image of the patient | |
US11338102B2 (en) | Determining facial metrics of a patient and identifying a custom mask for the patient therefrom | |
US11583649B2 (en) | Patient interface device component design selection or generation systems and methods | |
US20190188455A1 (en) | Capturing and using facial metrics for mask customization | |
US20240001062A1 (en) | Method and system for patient interface device data collection with privacy | |
JP2023507899A (ja) | マスクのフィッティングをガイドするアプリケーション | |
US20190192799A1 (en) | Delivery of a pressure support therapy | |
NZ762184A (en) | Methods and systems for providing interface components for respiratory therapy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |