CN113380383A - 一种医疗监护方法、装置和终端 - Google Patents
一种医疗监护方法、装置和终端 Download PDFInfo
- Publication number
- CN113380383A CN113380383A CN202110917814.1A CN202110917814A CN113380383A CN 113380383 A CN113380383 A CN 113380383A CN 202110917814 A CN202110917814 A CN 202110917814A CN 113380383 A CN113380383 A CN 113380383A
- Authority
- CN
- China
- Prior art keywords
- human body
- image
- region
- area
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种医疗监护方法、装置和终端,属于医疗监护的技术领域,医疗监护方法包括获取人体图像;定位人体图像内的人体关键点,以获得人体关键点的坐标;获取人体图像中的病灶区域;基于人体关键点的坐标确定人体图像中的手部区域和脸部区域;判断人体图像中的手部区域是否置于病灶区域处,如果是,则计算人体图像的手部区域内中心处人体关键点和病灶区域内中心处人体关键点之间的欧式距离,并将欧式距离与距离阈值比较;若欧式距离小于距离阈值,则通过表情识别网络模型识别脸部区域的人脸面部表情,若表情为预设的异常表情,则输出第一报警信息。本申请具有有助于医护人员能够准确识别患者的生理和心理需求的效果。
Description
技术领域
本申请涉及医疗监护的技术领域,尤其是涉及一种医疗监护方法、装置和终端。
背景技术
医院病患往往因行动不便,需要他人的帮助,又因为患病导致心情低落,在生理和心理双重打击之下,患者需要更多的关怀和照顾。
相关技术中,通常是由医护人员借助专业的医用设备对患者进行检测,通过识别患者的面部表情来预测患者的生理和心理需求。
针对上述中的相关技术,发明人认为由于表情的复杂性,因此仅仅通过表情识别来预测患者的生理和心理需求,还不够准确,误差较大。
发明内容
为了有助于医护人员能够准确识别患者生理和心理需求,本申请提供一种医疗监护方法、装置和终端。
第一方面,本申请提供的一种医疗监护方法,采用如下的技术方案:
一种医疗监护方法,包括:
获取待识别的人体图像;
通过预先训练完成的人体关键点网络模型定位所述人体图像内的人体关键点,以获得人体关键点的坐标;
获取所述人体图像中的病灶区域;
基于所述人体关键点的坐标确定所述人体图像中的手部区域和脸部区域,其中,手部区域指的是手部处人体关键点坐标邻域内的图像映射;脸部区域指的是脸部处人体关键点坐标邻域内的图像映射;
判断所述人体图像中的手部区域是否置于所述病灶区域内,如果是,则计算所述人体图像的手部区域内中心处人体关键点和所述病灶区域内中心处人体关键点之间的欧式距离,并将所述欧式距离与预设的距离阈值进行比较;
若所述欧式距离小于距离阈值,则通过预先训练完成的表情识别网络模型识别所述人体图像中脸部区域的面部表情,若所述面部表情为预设的异常表情,则输出第一报警信息;
其中,异常表情指的是带有消极情绪的表情。
通过采用上述技术方案,将获取到人体图像输入至人体关键点网络模型内,而后人体关键点网络模型输出人体关键点坐标;同时获取人体图像中的病灶区域,而后基于人体关键点坐标确定出手部区域和脸部区域,当手部区域置于病灶区域处时,计算手部区域中内中心处人体关键点和病灶区域内中心处人体关键点之间的欧式距离,当欧式距离小于距离阈值时,再将人体图像输入至表情识别网络模型中,表情识别网络模型识别脸部区域的面部表情,当面部表情为异常表情时,输出第一报警信息,以提醒医护人员;
由于了解患者生理和心理需求时,采用了判断患者手部区域与患者病灶区域之间的关系和判断患者面部表情的双重方式,相比于单一判断患者面部表情更加精确,因此有助于医护人员能够准确识别患者的生理和心理需求。
可选的,所述通过预先训练完成的人体关键点网络模型定位所述人体图像内的人体关键点,以获得人体关键点的坐标的步骤包括:
将所述人体图像输入至预先训练完成的人体关键点网络模型中,以提取人体图像中人体区域的特征矩阵;
将所述特征矩阵与所述人体关键点网络模型中掩膜的矩阵进行与运算,以定位所述人体关键点,并生成所述人体关键点的坐标。
可选的,所述获取人体图像中的病灶区域的步骤包括:
获取多个待识别的人体图像;
分别对多个所述人体图像进行颜色筛选,以获得多个白色区域;
对多个所述白色区域进行判断,若所述人体图像中白色区域内的A点与其邻近的一人体关键点的距离和后一帧所述人体图像中A点与同一人体关键点的距离相等,则所述白色区域为病灶区域。
可选的,判断所述人体图像中手部区域是否置于所述病灶区域处的步骤包括:
获取多个所述人体图像中手部区域的图像;
判断多个所述手部区域的图像中白色的占比,若后一帧所述手部区域的图像中白色占比值大于前一帧所述手部区域图像中白色占比值,则所述人体图像的手部区域处于病灶区域处。
可选的,所述通过预先训练完成的表情识别网络模型识别所述人体图像中脸部区域的面部表情的步骤包括:
获取所述人体图像中脸部区域的图像;
将所述脸部区域的图像输入至预先训练完成的表情识别网络模型中,以提取所述脸部区域图像中面部表情的特征矩阵;
基于所述面部表情的特征矩阵识别所述脸部区域的面部表情。
可选的,所述医疗监护方法还包括:
获取所述人体图像中手部区域的图像;
通过预先训练完成的医疗设备识别网络模型判断所述手部区域的图像中是否有医疗设备,如果是,则输出第一异常信号;
判断所述第一异常信号持续的时间,若所述第一异常信号持续的时间大于预设的时间阈值,则输出第二报警信息;其中,医疗设备指的是患者头部所佩戴的医疗设备;
其中,所述医疗设备识别网络模型包括训练网络和推理网络,所述训练网络用于提取手部区域的图像中医疗设备的特征矩阵,所述推理网络用于基于该特征矩阵识别手部区域的图像中的医疗设备。
可选的,所述医疗监护方法还包括:
获取待识别的人体图像,其中,所述人体图像中包含病床信息;
基于所述人体关键点的坐标确定所述人体图像中的左腿区域和右腿区域;
其中,左腿区域指的是左腿处人体关键点坐标邻域内的图像映射;右腿区域指的是右腿处人体关键点坐标邻域内的图像映射;
基于所述左腿区域中相邻人体关键点连线的夹角大小,获得第一夹角值,基于所述右腿区域中相邻人体关键点连线的夹角大小,获得第二夹角值;
分别比较所述第一夹角值、第二夹角值与预设的夹角范围,若所述第一夹角值和第二夹角值均位于预设的夹角范围内,则人体处于躺平状态;
基于人体处于躺平状态和人体关键点的坐标,判断人体四肢中任意一肢是否超出病床边界,如果是,则输出第三报警信息。
可选的,所述判断人体四肢中任意一肢超出病床边界的步骤包括:
获取多个待识别的人体图像;
对多个所述人体图像进行颜色筛选,以获得多个白色区域;
对多个所述白色区域进行判断,若前一帧和后一帧所述人体图像中白色区域中的同一点坐标一致,则判断所述白色区域为病床边界;
分别判断所述人体图像中左腿区域、右腿区域和手部区域中的一人体关键点是否置于病床边界外,如果是,则判断人体四肢中任意一肢超出病床边界。
第二方面,本申请还提供一种医疗监护装置,采用如下技术方案:
一种医疗监护装置,包括:
存储器,用于存储医疗监护程序;
处理器,在运行所述医疗监护程序时,执行上述医疗监护方法的步骤。
第三方面,本申请还提供一种医疗监护终端,采用如下技术方案:
一种医疗监护终端,包括:
图像采集模块,用于采集病床处的图像;
控制器,与所述图像采集模块通信连接,用于接收所述图像,以获取人体图像;
第一处理模块,与所述控制器通信连接,用于处理所述人体图像,以定位人体关键点,并获得人体关键点的坐标;
人体部位图像映射模块,与所述第一处理模块通信连接,用于基于所述人体关键点的坐标,映射所需人体部位中人体关键点坐标邻域内的图像,以获得脸部区域和手部区域;
颜色筛选模块,与所述控制器通信连接,用于对所述人体图像进行颜色筛选,以获取白色区域;
判断模块,分别与所述颜色筛选模块和所述人体部位截取模块通信连接,用于判断白色区域是否为病灶区域,并用于判断手部区域是否置于病灶区域处;所述判断模块用于判断欧式距离是否小于距离阈值,若所述欧式距离小于距离阈值,则判断人体图像中面部表情是否为异常表情,如果是,则输出第一报警信息;
第二处理模块,与所述判断模块通信连接,用于计算手部区域内中心处人体关键点和病灶区域内中心处人体关键点之间的欧式距离;
表情与医疗设备识别模块,与所述人体部位图像映射模块和所述判断模块通信连接,用于识别脸部区域的图像中面部表情;
报警模块,与所述控制器通信连接,所述控制器与所述判断模块通信连接;
所述控制器响应于所述第一报警信息,以控制报警模块报警。
通过采用上述技术方案,通过图像采集模块和控制器获取到人体图像,第一处理模块对获取的人体图像进行处理,从而获得手部区域和脸部区域;同时通过颜色筛选模块对获取的人体图像进行颜色筛选,从而获取白色区域,而后判断模块判断白色区域是否为病灶区域,手部区域是否置于病灶区域处,而后表情与医疗设备识别模块对脸部区域的图像中面部表情进行识别;若达到报警条件,则控制模块控制报警模块报警;相对于相关技术有助于医护人员能够准确识别患者的生理和心理需求。
附图说明
图1是医疗监护方法在一处理器上的流程框图。
图2是人体关键点的示意图。
图3是获取的人体图像示意图。
图4是对人体图像进行颜色筛选后,以获取白色区域的图像示意图。
图5是表情识别网络模型中训练网络和推理网络结构的示意图。
图6是医疗监护终端的结构框图。
附图标记说明:100、图像采集模块;110、摄像机;120、控制器;130、第一处理模块;140、人体部位图像映射模块;150、颜色筛选模块;160、判断模块;170、第二处理模块;180、表情与医疗设备识别模块;190、报警模块。
具体实施方式
以下结合附图1-6对本申请作进一步详细说明。
参照图1,本申请一实施例提供了一种医疗监护方法,可以包括如下步骤S101-S106:
S101,获取待识别的人体图像;
其中,待识别的人体图像可以是设备实时采集的包含患者的人体图像的图像。
S102,通过预先训练完成的人体关键点网络模型定位上述人体图像内的人体关键点,以获得人体关键点的坐标;
其中,人体关键点用于定位人体的关键部位,例如:头部、颈部、肩部、手部和腿部等易于受伤的部位;并且,针对任一关键部位,在定位该关键部位时,所需要的人体关键点可以为一个或多个。在不同的场景中,由于需要定位的关键部位不同,因此,人体关键点的具体位置以及数量可以不同。
并且,针对任一人体关键点而言,其存在二维坐标,即(x,y),同时也存在三维坐标,即(x,y,z)。本申请所提供的医疗监护方法用于识别人体关键点的二维坐标。
S103,获取人体图像中的病灶区域;
其中,病灶区域通常是指人体伤口处。
S104,基于上述人体关键点的坐标确定上述人体图像中的手部区域和脸部区域;
其中,手部区域指的是手部处人体关键点坐标邻域内的图像映射;脸部区域指的是脸部处人体关键点坐标邻域内的图像映射。
S105,判断上述人体图像中手部区域是否置于上述病灶区域内,如果是,则计算人体图像的手部区域内中心处的人体关键点和病灶区域内中心处的人体关键点之间的欧式距离,并将该欧式距离与预设的距离阈值进行比较;
其中,在计算欧式距离时,根据人体图像的手部区域与病灶区域中人体关键点的坐标,分别选取该手部区域和病灶区域中心处的人体关键点的坐标。欧式距离指的是,选取的两区域内人体关键点的实际距离,其计算公式为:;其中,(x1,y1)为手部区域中选取的人体关键点的二维坐标,(x2,y2)为病灶区域中选取的人体关键点的二维坐标。
S106,若欧式距离小于距离阈值,则通过预先训练完成的表情识别网络模型识别人体图像中脸部区域的面部表情,若面部表情为预设的异常表情,则输出第一报警信息。
其中,异常表情指的是,愤怒或悲伤等带有消极情绪的表情。
另外,在一实施方式中,步骤S101-步骤S106可以在同一处理器上运行,并且在同一处理器上运行时,步骤S105和步骤S106顺序可更换;在其他实施方式中,步骤S101-步骤S106可以在两处理器上运行,即分别对步骤S105和步骤S106处理。
作为一种通过预先训练完成的人体关键点网络模型定位人体图像内的人体关键点,以获得人体关键点的坐标的步骤,可以包括S201-S202:
S201,将人体图像输入至预先训练完成的人体关键点网络模型中,以提取人体图像中人体区域的特征矩阵;
其中,人体图像的尺寸可以为预先训练的人体关键点网络模型的输入图像的尺寸,从而使得人体图像输入至人体关键点网络模型时,无需尺寸调整。
S202,将该特征矩阵与人体关键点网络模型中的掩膜的矩阵进行与运算,以获得人体关键点,并生成人体关键点的坐标;
其中,该人体关键点网络模型为基于样本图像以及该样本图像中人体关键点的真值二维坐标,所训练得到的模型;并且,该人体关键点网络模型包括特征提取网络和掩膜,其中掩膜为预先制作的人体区域的掩膜。特征网络提取到人体图像中人体区域的特征矩阵后,与掩膜相乘,即可得到人体图像中的人体区域,人体区域内图像值保持不变,而区外图像值都为0,而且人体区域内人体关键点的特征被保留,人体关键点外的其余特征被过滤,从而定位出人体关键点的坐标;而后人体关键点网络模型直接输出人体关键点的标签。其中,人体关键点的标签指的是,人体关键点的编号。
例如,参照图2,以18个人体关键点为例,则18个人体关键的标签依次为0、1、2...17,其中脸部的人体关键点标签为0、14、15、16和17;手部中右手的人体关键点标签为2、3和4,左手的人体关键点的标签为5、6和7;左腿的人体关键点的标签为1、8、9和10;右腿的人体关键点的标签为1、11、12和13。
作为人体关键点网络模型训练过程的一种实施方式,人体关键点网络模型的训练过程,可以包括S301-S304:
S301,从第一样本图像库中,获取多个第一样本图像;其中,该第一样本图像标注有人体关键点的真值二维坐标;
其中,第一样本图像的尺寸为人体关键点网络模型的输入图像的尺寸。并且,第一样本图像可以为:对人体图像进行尺寸调整后所得到的图像。
S302,将每个第一样本图像输入至该人体关键点网络模型,得到每个第一样本图像中人体关键点的预测二维坐标;
在将每一第一样本图像输入至训练中的该人体关键点网络模型后,该人体关键点网络模型针对每一第一样本图像进行人体关键点信息识别;具体的,该人体关键点网络模型中的特征提取网络对所接收到的第一样本图像提取人体区域的特征矩阵,并将该特征矩阵与掩膜本身的矩阵相乘;进而,使得人体关键点网络模型生成第一样本图像中每个人体关键点的预测二维坐标。
S303,基于每个第一样本图像中人体关键点的真值二维坐标和预测二维坐标的差异,计算损失值;
其中,基于每个第一样本图像中人体关键点的真值二维坐标和预测二维坐标的差异,计算损失值的实现方式存在多种。
S304,基于该损失值,判断该人体关键点网络模型是否收敛,如果判断结果为是,则结束训练,得到训练完成的该人体关键点网络模型;否则,调整该人体关键点网络模型中的网络参数,继续训练该人体关键点网络模型。
其中,基于该损失值,判断该人体关键点网络模型是否收敛,具体可以为:判断该损失值是否小于预设损失阈值,如果是,则判定该人体关键点网络模型收敛,否则,则判定该人体关键点网络模型未收敛。当判定该人体关键点网络模型未收敛时,可以调整该人体关键点网络模型的网络参数,继续训练该人体关键点网络模型;即返回S302步骤。另外,在该人体关键点网络模型未收敛时,可以调整的网络参数可以包括但不局限于:卷积核权重,以及全连接层权重;并且,调整网络参数时所利用的调整方式可以存在多种,例如:梯度调节方式,或者,反向传播方式,等等。
参照图3和图4,作为获取人体图像中的病灶区域的步骤包括S401-S403:
S401,获取多个待识别的人体图像;
其中,该人体图像为上述人体图像。
S402,分别对多个上述人体图像进行颜色筛选,以获得多个白色区域;
由于通常是采用白色材质的纱布对病灶区域进行保护,因此获得的白色区域有可能为病灶区域;
其中,作为一种对人体图像进行颜色筛选的实施方式,可以是,将上述人体图像传输至Python框架内,利用Python框架内opencv库中cv2.cvtColor(img_original,cv2.COLOR_BGR2HSV)函数可将人体图像转换成HSV空间。其中HSV表示:H色调、S饱和度、V亮度,对三种参数进行数值上的大小筛选就可以大致区分出颜色。例如,当人体图像中一区域,H色调处于0°到180°的范围,S饱和度处于0°到30°的范围,V亮度处于221°到225°的范围时,该区域为白色区域。
S403,分别对多个白色区域进行判断,若前一帧和后一帧人体图像中白色区域的A点与该A点邻近的一人体关键点14的距离相等,则白色区域为病灶区域。
例如,选取前一帧的人体图像中A点坐标为(10,10),人体关键点14的坐标为(40,20),此时A点到人体关键点14的距离,即;选取后一帧人体图像中A点坐标为(20,30),人体关键点14的坐标为(50,40),此时,A点到人体关键点14的距离为,即,因此d1=d2,因此可说明该白色区域跟随人体关键点移动,因此表示该白色区域为病灶区域。另外,需要说明的是,后一帧人体图像为人体移动后的图像。
作为基于人体关键点的坐标确定人体图像中的手部区域和脸部区域的一种实施方式,可以是根据人体关键点的标签,选取脸部和手部中的人体关键点组合,而后截取脸部中人体关键点坐标邻域内以及手部中人体关键点坐标邻域内映射的图像即可确定脸部区域和手部区域。
作为判断人体图像中手部区域是否置于病灶区域处的一种实施方式,可以包括:
S501,获取多个人体图像中手部区域的图像;
其中,该手部区域的图像可以是实时从获取的人体图像中截取的。
S502,判断多个手部区域的图像中白色的占比,若后一帧手部区域的图像中白色占比值大于前一帧手部区域图像中白色占比值,则手部区域置于病灶区域处;
当手部区域置于病灶区域处时,手部区域的图像中势必会出现白色,因此通过对比前后帧手部区域的图像中白色的占比,即可判断手部区域是否置于病灶区域处。例如,前一帧手部区域的图像中白色占20%,后一帧手部区域的图像中白色占比40%,40%>20%,因此可判断手部区域置于了病灶区域内。
作为通过预先训练完成的表情识别网络模型识别所述人体图像中脸部区域的面部表情的一种实施方式,其步骤可以包括S601-S603:
S601,获取人体图像中脸部区域的图像;
其中,脸部区域的图像为实时从人脸图像中截取的。
另外,脸部区域的图像的尺寸可以为预先训练的表情识别网络模型的输入图像的尺寸,从而使得脸部区域的图像输入至表情识别网络模型时,无需尺寸调整。
S602,将脸部区域的图像输入至预先训练完成的表情识别网络模型中,以提取脸部区域的图像中面部表情的特征矩阵;
S603,基于面部表情的特征矩阵识别脸部区域的面部表情。
其中,该表情识别网络模型为基于样本图像以及该样本图像中人脸面部表情的真值表情类别,所训练得到的模型;并且,该表情识别网络模型包括训练网络和推理网络。训练网络,用于提取脸部区域图像中人脸面部表情的特征矩阵;推理网络,基于该特征矩阵识别人脸面部表情。
参照图5,作为训练网络和推理网络结构的一种实施方式,训练网络包括:3x3卷积结构、Conv1x1的残差结构和Identiy的残差结构;推理网络由3x3卷积核堆叠而成。由于在表情识别网络模型中,存在着卷积层和bn层,而卷积层和bn层一般是单独进行运算,导致表情识别网络模型的运算速度比较慢,因此为了提高表情识别网络模型的运算速度,需要使得卷积层和bn层相融合;
其融合时的训练推导的公式1如下:
其中,w指的是卷积核权重;x指的是训练网络的输入值;b指的是卷积偏置;u指的是图像均值;其中0< <0.1,目的是防止分母为0;为学习率;为缩放因子;为像素偏移量;其中,s1, s2, s3为x得到h1中间产生的结果。
将一个X输入至训练网络后,其经过与卷积核权重与运算后,得到s1,而后将s1带入bn计算公式中,得到bn的输出值s2,而后再将s2带入bn计算公式中,从而得到s3,最后将s3带入ReLu函数(激活函数)内,得到h1,h1为第一层卷积层的输出值,即第二层卷积层的输入值。
通过将卷积层与bn层融合,使得卷积结构、Conv1x1的残差结构和Identiy的残差结构结合,以获得3x3卷积核堆叠而成的推理网络。
,bn层相当于训练网络中3个分支bn整合的结果。其中,M是指训练网络中每一层的三个分支的bn层参数的集合,其表示为图像的输入与公式1中X的含义相同;M(1)相当于等于号前面的上标是指训练网络的哪一层;等于号后面的每个参数的上标是指明该参数来自哪一个分支;需要说明的是,M(2)指的是第二层的输入,M(1)指的是第一层的输入。
其中, bn层的计算公式如下:
作为表情识别网络模型训练过程的一种实施方式,可以包括S701-S704:
S701,从第二样本图像库中,获取多个第二样本图像;其中,第二样本图像标注有人脸面部表情的真值表情类别;
其中,第二样本图像的尺寸为训练网络的输入图像的尺寸,并且第二样本图像可以为:对脸部区域的图像进行尺寸调整后得到的图像。
S702,将每个第二样本图像输入至该表情识别网络模型,得到第二样本图像中人脸面部表情的预测表情类别;
在将每一第二样本图像输入至训练中的该表情识别网络模型后,该表情网络模型针对每一第二样本图像进行人脸面部表情识别;具体的,该表情识别网络模型中的训练网络对所接收到的第二样本图像提取面部表情特征矩阵,而后推理网络基于该特征矩阵,识别第二样本图像中脸部区域的面部表情,并输出预测表情类别标注。
S703,基于每个第二样本图像中脸部区域的面部表情的真表情和预测表情类别的差异,计算损失值;
其中,计算该损失值的实现方式存在多种。
在一种计算损失值的实现方式中,网络损失函数采用交叉熵:Loss=-[ylogy´+(1-y)log(1-y´)],其中,y为真值表情类别标注,y´为网络预测表情类别标注。
S704,基于该损失值,判断该表情识别网络模型是否收敛,如果判断结果为是,则结束训练,得到训练完成的该人体关键点网络模型;否则,调整该人体关键点网络模型中的网络参数,继续训练该人体关键点网络模型。
其中,基于该损失值,判断该人体关键点网络模型是否收敛,具体可以为:判断该损失值是否小于预设阈值,如果小于,则判定该表情识别网络模型收敛,否则,则判定该表情识别网络模型未收敛。当判定该表情识别网络模型未收敛时,可以调整该表情识别网络模型的网络参数,继续训练该表情识别网络模型;即返回S702步骤。另外,在该表情识别网络模型未收敛时,可以调整的网络参数可以包括但不局限于:卷积核权重,以及全连接层权重;并且,调整网络参数时所利用的调整方式可以存在多种,例如:梯度调节方式,或者,反向传播方式,等等。
为了进一步了解患者的需求,医疗监护方法还包括S108-S110:
S108,获取人体图像中手部区域的图像;
其中,手部区域的图像可以是实时从人体图像中截取的。
另外,手部区域的图像的尺寸可以为预先训练的表情识别网络模型的输入图像的尺寸,从而使得手部区域的图像输入至表情识别网络模型时,无需尺寸调整。
S109,通过预先训练完成的医疗设备识别网络模型判断手部区域的图像中是否有医疗设备,如果是,则输出第一异常信号;
其中,医疗设备指患者头部所佩戴的医疗设备,例如喉管或鼻管等。
S110,判断第一异常信号持续的时间,若第一异常信号持续的时间大于预设的时间阈值,则输出第二报警信息。
作为一种判断手部区域的图像中是否存在医疗设备的实施方式,可以包括:
S801,将手部区域图像输入至上述医疗设备识别网络模型中,以提取手部区域的图像中医疗设备的特征矩阵;
S802,基于该医疗设备的特征矩阵识别手部区域的图像内的医疗设备;
其中,在一种实施方式中,医疗设备识别网络模型可以是表情识别网络模型,表情识别网络模型中的训练网络,用于提取手部区域的图像中医疗设备的特征矩阵;表情识别网络模型中的推理网络,基于该特征矩阵识别手部区域的图像中的医疗设备。
另外,在对表情识别网络模型进行训练时,只需要改变第二样本图像的标注类型,使得第二样本图像标注有医疗设备即可。当然,在其他实施方式中,医疗设备识别网络模型可以是独立的。
为了判断人体的四肢是否超出病床边界,医疗监护方法还包括S111-S115:
S111,获取待识别的人体图像;
需要说明的是,该待识别的人体图像中包含病床信息。
S112,基于人体关键点的坐标确定人体图像中的左腿区域和右腿区域;
其实施方式与上述中确定脸部区域和手部区域的方式相同;并且左腿区域指的是左腿处人体关键点坐标邻域内的图像映射;右腿区域指的是右腿处人体关键点坐标邻域内的图像映射。
S113,基于左腿区域中相邻人体关键点连线的夹角大小,获得第一夹角值,基于右腿区域中相邻人体关键点连线的夹角大小,获得第二夹角值;
S114,分别比较第一夹角值和第二夹角值与预设的夹角范围,若第一夹角值和第二夹角值均置于预设的夹角范围内,则人体处于躺平状态;
例如,预设的夹角范围为175°到 185°,第一夹角值为178°,第二夹角值为183°,此时第一夹角值和第二夹角值均位于175°到185°范围内,因此可判断此时人体处于躺平状态。
S115,基于人体处于躺平状态和人体关键点的坐标,判断人体四肢中任意一肢体是否超出病床边界,如果是,则输出第三报警信息。
判断人体四肢中任意一肢体超出病床边界的一种实施方式,可以具体包括S901-S904:
S901,获取多个待识别的人体图像;
其中,该人体图像与步骤S111中的人体图像相同。
S902,对多个人体图像进行颜色筛选,以获得多个白色区域;
颜色筛选的方式,可以采用上述步骤S104。
S903,对多个白色区域进行判断,若前一帧和后一帧人体图像中白色区域中的同一点坐标一致,则判断白色区域为病床边界;
例如,选取的前一帧人体图像中白色区域中的B和C点,此时B点的坐标为(5,5),C点的坐标为(10,5),而后,选取后一帧人体图像中白色区域中的B点和C点,此时B点的坐标为(5,5),C点的坐标为(10,5),B点和C点的坐标不变,从而表示该白色区域为静止区域,也就说明该白色区域为病床区域。
S904,分别判断人体图像中左腿区域、右腿区域和手部区域中的一人体关键点是否置于病床边界外,如果是,则判断人体四肢中任意一肢超出病床边界;
例如,手部区域的左手区域中人体关键点7的坐标为(12,13),此时以同一坐标而言,此时人体关键点7到原点的距离大于C点到原点的距离,因此此时人体关键点7落于病床边界外,从而表示患者的左手已经超出了病床边界。
本实施例的实施原理为:
获取到待识别的人体图像后,将人体图像输入至人体关键点网络模型中,人体关键点网络模型对人体图像进行处理后,输出人体关键点标签;
基于人体关键点标签,选取脸部和手部内人体关键点组合,而后截取对应部位内人体关键点坐标邻域内映射的图像,从而确定脸部区域和手部区域;
而后通过比较前一帧和后一帧人体图像中手部区域的图像中白色占比,判断手部区域是否置于病灶区域处,如果是,则计算手部区域与病灶区域的欧式距离,当该欧式距离小于距离阈值时,
将脸部区域的图像输入至表情识别网络模型内,表情识别网络模型对脸部区域的图像的面部表情进行识别,若面部表情为异常表情,则输出第一报警信息,以提醒医护人员查房。
参照图6,相应于上述方法实施例,本申请第二实施例还提供了一种医疗监护终端,可以包括:
图像采集模块100,用于采集病床处的图像;
其中,作为图像采集模块100的一种实施方式,图像采集模块100可以为摄像机110,摄像机110安装于室内,可以用于实时采集病床处的图像,也可以当患者躺在病床上时,摄像机110开始进行工作。
在其他实施方式中,图像采集模块100可以为照相机。
控制器120,与图像采集模块100通信连接,用于接收上述图像采集模块100采集的图像,并识别图像中的人体图像,以获取人体图像;其中,控制器120可采用单片机也可采用PLC。
第一处理模块130,与控制器120通信连接,用于将人体图像输入至人体关键点网络模型内,以使人体关键点网络模型提取人体区域的特征矩阵,并将该特征矩阵与人体关键点网络模型内的掩膜相乘,从而定位出人体关键点,获得人体关键点的坐标,并生成人体关键点标签。
人体部位图像映射模块140,与第一处理模块130通信连接,基于人体关键点标签,选取所需人体部位中的人体关键点组合,并截取对应人体部位内人体关键点坐标邻域映射的图像,以获得脸部区域、手部区域、左腿区域和右腿区域。
颜色筛选模块150,与控制器120通信连接,用于对人体图像进行颜色筛选,以获取白色区域。
判断模块160,分别与颜色筛选模块150和人体部位图像映射模块140通信连接,基于白色区域内一点与该点相邻的一人体关键点之间的距离,判断白色区域是否为病灶区域;并基于手部区域的图像中白色的占比,判断手部区域是否置于病灶区域处;
而后判断模块160将手部区域内人体关键点和病灶区域内人体关键点之间的欧式距离与距离阈值比较,若欧式距离小于距离阈值,则判断表情与医疗设备识别模块输出的面部表情;
判断模块160用于判断获取的第一夹角值和第二夹角值是否置于夹角范围内,如果是,则判断人体处于躺平状态;而后判断模块160基于人体处于躺平状态和人体关键点的坐标,判断四肢中任意一肢是否超出病床边界,如果是,则输出第三报警信息。
第二处理模块170,与判断模块160通信连接,用于计算白色区域内一点与相邻人体关键点的距离;当人体图像中手部区域置于病灶区域处时,第二处理模块170用于计算手部区域内人体关键点和病灶区域内人体关键点的欧式距离;以及,第二处理模块170用于计算左腿区域中相邻人体关键点连线的夹角大小和右腿区域中相邻人体关键点连线的夹角大小。
表情与医疗设备识别模块180,与人体部位图像映射模块140和判断模块160通信连接,用于将脸部区域的图像和手部区域的图像传输至表情识别网络模型中,表情识别网络模型中的训练网络用于提取面部表情的特征矩阵和医疗设备的特征矩阵,而后推理网络基于该特征矩阵,识别人脸面部表情,以及手部区域内的医疗设备;
控制器120分别与判断模块160和报警模块190通信连接,用于响应第一报警信息和/或第三报警信息,以控制报警模块190报警;
判断模块160判断医疗设备是否置于手部区域处,如果是,则输出第一异常信号;
控制器120接收到第一异常信号后,若第一异常信号持续的时间大于时间阈值,则输出第二报警信息;报警模块190响应于第二报警信息以进行报警。
其中,报警模块190可以为声光报警器,也可以为智能终端。当报警模块190为智能终端时,用以显示房间号的提示消息,另外智能终端可以是医院内医护人员的智能手机、电脑等智能显示设备。
另外,判断模块160、表情与医疗设备识别模块180、颜色筛选模块150和人体部位图像映射模块140均集成于第一处理模块130内。
本实施例的实施原理为:
图像采集模块100采集到病床处的图像后,将该图像传输至控制器120内,控制器120接收到该图像后,识别图像中的人体图像,以获取到人体图像;
而后将该人体图像传输至第一处理模块130内,第一处理模块130将人体图像输入至人体关键点网络模型内,人体关键点网络模型对人体图像进行处理后,生成人体关键点标签;
而后人体部位图像映射模块140基于人体关键点标签,选取所需人体部位内的人体关键点组合,并截取对应的所需人体部位内人体关键点坐标邻域内映射的图像,以确定脸部区域、手部区域、左腿区域和右腿区域;
而后脸部区域的图像和手部区域的图像分别输入至表情与医疗设备识别模块180中,表情与医疗设备识别模块180将脸部区域的图像和手部区域的图像分别输入至表情识别网络模型内,表情识别网络模型对面部表情和手部区域内医疗设备进行识别;
同时,将人体图像传输至颜色筛选模块150内,颜色筛选模块150对人体图像进行颜色筛选,从而获得白色区域;
而后判断模块160判断白色区域是否为病灶区域,而后判断手部区域是否置于病灶区域处;
当手部区域置于病灶区域处时,第二处理模块170计算手部区域中人体关键点和病灶区域中人体关键的欧式距离;
而后判断模块160判断欧式距离是否小于距离阈值,如果是,则判断面部表情是否为异常表情,如果是,则输出第一报警信息;而后判断模块160判断手部区域内是否存在医疗设备,如果是,则输出第一异常信号;
控制器120接收到第一异常信号后,若第一异常信号持续的时间大于时间阈值,则输出第二报警信息;
报警模块190响应于第二报警信息报警;控制器120响应于第一报警信息,控制报警模块190报警。
而后,第二处理模块170分别计算左腿区域中相邻人体关键点连线的夹角大小和右腿区域中相邻人体关键点连线的夹角大小;
判断模块160判断第一夹角值和第二夹角值是否置于夹角范围内,如果是,则人体处于躺平状态;而后再判断人体四肢是否超出病床边界,若人体四肢中任一一肢体超出病床边界,则输出第三报警信号;控制器120响应于第三报警信号,以控制报警模块190报警。
本申请第三实施例还提供了一种医疗监护装置,包括:
存储器,用于存储医疗监护程序;
处理器,用于执行存储器上存储的医疗监护程序,以实现本申请所提供的医疗监护方法的步骤。
其中,存储器可以通过通信总线与处理器通信连接,通信总线,可以为地址总线、数据总线、控制总线等。
另外,存储器可以包括随机存取存储器(RAM),也可以包括非易失性存储器(NVM),例如至少一个磁盘存储器。
并且处理器可以是通用处理器,包括中央处理器(CPU)、网络处理器(NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
在申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有医疗监护程序,医疗监护装置被处理器执行时实现上述医疗监护方法的步骤。
在申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中医疗监护方法的步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行上述计算机程序指令时,全部或部分地产生按照本申请实施例中的流程或功能。另外,计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。其中,可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘)等。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。
Claims (10)
1.一种医疗监护方法,其特征在于,包括:
获取待识别的人体图像;
通过预先训练完成的人体关键点网络模型定位所述人体图像内的人体关键点,以获得人体关键点的坐标;
获取所述人体图像中的病灶区域;
基于所述人体关键点的坐标确定所述人体图像中的手部区域和脸部区域,其中,手部区域指的是手部处人体关键点坐标邻域内的图像映射;脸部区域指的是脸部处人体关键点坐标邻域内的图像映射;
判断所述人体图像中的手部区域是否置于所述病灶区域内,如果是,则计算所述人体图像的手部区域内中心处人体关键点和所述病灶区域内中心处人体关键点之间的欧式距离,并将所述欧式距离与预设的距离阈值进行比较;
若所述欧式距离小于距离阈值,则通过预先训练完成的表情识别网络模型识别所述人体图像中脸部区域的面部表情,若所述面部表情为预设的异常表情,则输出第一报警信息;
其中,异常表情指的是带有消极情绪的表情。
2.根据权利要求1所述的医疗监护方法,其特征在于,所述通过预先训练完成的人体关键点网络模型定位所述人体图像内的人体关键点,以获得人体关键点的坐标的步骤包括:
将所述人体图像输入至预先训练完成的人体关键点网络模型中,以提取人体图像中人体区域的特征矩阵;
将所述特征矩阵与所述人体关键点网络模型中掩膜的矩阵进行与运算,以定位所述人体关键点,并生成所述人体关键点的坐标。
3.根据权利要求2所述的医疗监护方法,其特征在于,所述获取人体图像中的病灶区域的步骤包括:
获取多个待识别的人体图像;
分别对多个所述人体图像进行颜色筛选,以获得多个白色区域;
对多个所述白色区域进行判断,若前一帧所述人体图像中白色区域内的A点与其邻近的一人体关键点的距离和后一帧所述人体图像中A点与同一人体关键点的距离相等,则所述白色区域为病灶区域。
4.根据权利要求3所述的医疗监护方法,其特征在于,判断所述人体图像中手部区域是否置于所述病灶区域处的步骤包括:
获取多个所述人体图像中手部区域的图像;
判断多个所述手部区域的图像中白色的占比,若后一帧所述手部区域的图像中白色占比值大于前一帧所述手部区域图像中白色占比值,则所述人体图像的手部区域处于病灶区域处。
5.根据权利要求1所述的医疗监护方法,其特征在于,所述通过预先训练完成的表情识别网络模型识别所述人体图像中脸部区域的人脸面部表情的类别的步骤包括:
获取所述人体图像中脸部区域的图像;
将所述脸部区域的图像输入至预先训练完成的表情识别网络模型中,以提取所述脸部区域图像中面部表情的特征矩阵;
基于所述面部表情的特征矩阵识别所述脸部区域的面部表情。
6.根据权利要求1-5任一所述的医疗监护方法,其特征在于,所述医疗监护方法还包括:
获取所述人体图像中手部区域的图像;
通过预先训练完成的医疗设备识别网络模型判断所述手部区域的图像中是否有医疗设备,如果是,则输出第一异常信号;
判断所述第一异常信号持续的时间,若所述第一异常信号持续的时间大于预设的时间阈值,则输出第二报警信息;其中,医疗设备指的是患者头部所佩戴的医疗设备;
其中,所述医疗设备识别网络模型包括训练网络和推理网络,所述训练网络用于提取手部区域的图像中医疗设备的特征矩阵,所述推理网络用于基于该特征矩阵识别手部区域的图像中的医疗设备。
7.根据权利要求1-5任一所述的医疗监护方法,其特征在于,所述医疗监护方法还包括:
获取待识别的人体图像,其中,所述人体图像中包含病床信息;
基于所述人体关键点的坐标确定所述人体图像中的左腿区域和右腿区域;
其中,左腿区域指的是左腿处人体关键点坐标邻域内的图像映射;右腿区域指的是右腿处人体关键点坐标邻域内的图像映射;
基于所述左腿区域中相邻人体关键点连线的夹角大小,获得第一夹角值,基于所述右腿区域中相邻人体关键点连线的夹角大小,获得第二夹角值;
分别比较所述第一夹角值、第二夹角值和预设的夹角范围,若所述第一夹角值和第二夹角值均位于预设的夹角范围内,则人体处于躺平状态;
基于人体处于躺平状态和人体关键点的坐标,判断人体四肢中任意一肢是否超出病床边界,如果是,则输出第三报警信息。
8.根据权利要求7所述的医疗监护方法,其特征在于,所述判断人体四肢中任意一肢超出病床边界的步骤包括:
获取多个待识别的人体图像;
对多个所述人体图像进行颜色筛选,以获得多个白色区域;
对多个所述白色区域进行判断,若前一帧和后一帧所述人体图像中白色区域中的同一点坐标一致,则判断所述白色区域为病床边界;
分别判断所述人体图像中左腿区域、右腿区域和手部区域中的一人体关键点是否置于病床边界外,如果是,则判断人体四肢中任意一肢超出病床边界。
9.一种医疗监护装置,包括:
存储器,用于存储医疗监护程序;
处理器,在运行所述医疗监护程序时,执行如权利要求1-8任一所述的医疗监护方法的步骤。
10.一种医疗监护终端,包括:
图像采集模块(100),用于采集病床处的图像;
控制器(120),与所述图像采集模块(100)通信连接,用于接收所述图像,以获取人体图像;
第一处理模块(130),与所述控制器(120)通信连接,用于处理所述人体图像,以定位人体关键点,并获得人体关键点的坐标;
人体部位图像映射模块(140),与所述第一处理模块(130)通信连接,用于基于所述人体关键点的坐标,映射所需人体部位中人体关键点坐标邻域内的图像,以获得脸部区域和手部区域;
颜色筛选模块(150),与所述控制器(120)通信连接,用于对所述人体图像进行颜色筛选,以获取白色区域;
判断模块(160),分别与所述颜色筛选模块(150)和人体部位图像映射模块(140)通信连接,用于判断白色区域是否为病灶区域,并用于判断手部区域是否置于病灶区域处;所述判断模块(160)用于判断欧式距离是否小于距离阈值,若所述欧式距离小于距离阈值,则判断人体图像中面部表情是否为异常表情,如果是,则输出第一报警信息;
第二处理模块(170),与所述判断模块(160)通信连接,用于计算手部区域内中心处人体关键点和病灶区域内中心处人体关键点之间的欧式距离;
表情与医疗设备识别模块(180),与所述人体部位图像映射模块(140)和所述判断模块(160)通信连接,用于识别脸部区域的图像中面部表情;
报警模块(190),与所述控制器(120)通信连接,所述控制器(120)与所述判断模块(160)通信连接;
所述控制器(120)响应于第一报警信息,以控制报警模块(190)报警。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110917814.1A CN113380383A (zh) | 2021-08-11 | 2021-08-11 | 一种医疗监护方法、装置和终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110917814.1A CN113380383A (zh) | 2021-08-11 | 2021-08-11 | 一种医疗监护方法、装置和终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113380383A true CN113380383A (zh) | 2021-09-10 |
Family
ID=77576699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110917814.1A Withdrawn CN113380383A (zh) | 2021-08-11 | 2021-08-11 | 一种医疗监护方法、装置和终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113380383A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113971839A (zh) * | 2021-12-23 | 2022-01-25 | 宏景科技股份有限公司 | 检测图像、视频中人体异常行为方法、装置、设备和介质 |
-
2021
- 2021-08-11 CN CN202110917814.1A patent/CN113380383A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113971839A (zh) * | 2021-12-23 | 2022-01-25 | 宏景科技股份有限公司 | 检测图像、视频中人体异常行为方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220036055A1 (en) | Person identification systems and methods | |
US20220344044A1 (en) | User-customized skin diagnosis system and method | |
US20210090736A1 (en) | Systems and methods for anomaly detection for a medical procedure | |
CN111524608B (zh) | 智能检测与防疫系统和方法 | |
CN109002846B (zh) | 一种图像识别方法、装置和存储介质 | |
KR101978548B1 (ko) | 안구 움직임 측정을 통한 어지럼 진단 서버, 방법, 및 이를 기록한 기록매체 | |
EP3908173A1 (en) | Systems and methods for diagnosing a stroke condition | |
CN109478227A (zh) | 计算设备上的虹膜或其他身体部位识别 | |
US20190125306A1 (en) | Method of transmitting a medical image, and a medical imaging apparatus performing the method | |
KR102410286B1 (ko) | 딥러닝에 기반하여 낙상 사고를 감지하는 방법 및 그 전자장치 | |
US9569838B2 (en) | Image processing apparatus, method of controlling image processing apparatus and storage medium | |
US20220008001A1 (en) | System and method of determining an accurate enhanced lund and browder chart and total body surface area burn score | |
US11957300B2 (en) | Information processing apparatus, control method, and program | |
CN113380383A (zh) | 一种医疗监护方法、装置和终端 | |
CN113221802A (zh) | 踢被子识别方法与装置、电子设备 | |
US20230284968A1 (en) | System and method for automatic personalized assessment of human body surface conditions | |
CN110110750B (zh) | 一种原始图片的分类方法及装置 | |
CN111862118A (zh) | 压疮分期的训练方法、分期方法及分期系统 | |
CN110801229A (zh) | 视力保护监测方法、系统、设备及存储介质 | |
JP2023047410A (ja) | ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法 | |
CN111854963A (zh) | 温度检测的方法、装置、设备和计算机设备 | |
CN114615422B (zh) | 猎物识别方法、装置、电子设备及存储介质 | |
CN110874560A (zh) | 选取用户的代表性影像的影像检测方法以及影像检测装置 | |
US20240032856A1 (en) | Method and device for providing alopecia information | |
CN110874561A (zh) | 使用双重分析的影像检测方法以及影像检测装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210910 |
|
WW01 | Invention patent application withdrawn after publication |