CN110874594A - 基于语义分割网络的人体外表损伤检测方法及相关设备 - Google Patents

基于语义分割网络的人体外表损伤检测方法及相关设备 Download PDF

Info

Publication number
CN110874594A
CN110874594A CN201910901600.8A CN201910901600A CN110874594A CN 110874594 A CN110874594 A CN 110874594A CN 201910901600 A CN201910901600 A CN 201910901600A CN 110874594 A CN110874594 A CN 110874594A
Authority
CN
China
Prior art keywords
human body
network
picture
damage
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910901600.8A
Other languages
English (en)
Other versions
CN110874594B (zh
Inventor
赵霄鸿
刘莉红
刘玉宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910901600.8A priority Critical patent/CN110874594B/zh
Priority to PCT/CN2019/116542 priority patent/WO2021056705A1/zh
Publication of CN110874594A publication Critical patent/CN110874594A/zh
Application granted granted Critical
Publication of CN110874594B publication Critical patent/CN110874594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Abstract

一种基于语义分割网络的人体外表损伤检测方法,所述方法包括:获取需要进行人体外表损伤检测的待检测图片;将所述待检测图片输入至基于语义分割的人体损伤检测模型中;依次通过人体损伤检测模型中的区域候选网络以及输出网络进行特征提取;将区域候选网络提取的第一特征图与输出网络提取的第二特征图进行特征融合,获得最终特征图;对最终特征图进行特征检测,获得待检测图片的人体外表损伤检测结果,其中,人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。本发明还提供一种基于语义分割网络的人体外表损伤检测装置、电子设备及存储介质。本发明能更加精确地对人体外表损伤进行检测。

Description

基于语义分割网络的人体外表损伤检测方法及相关设备
技术领域
本发明涉及图片检测技术领域,尤其涉及一种基于语义分割网络的人体外表损伤检测方法及相关设备。
背景技术
近年来,计算机视觉作为人工智能的一个重要领域,在人们日常生活中起到越来越重要的作用。尤其在医疗领域,计算机视觉已经有了较为广泛的引用,例如:基于计算机视觉的肺尘病检测、乳腺癌检测等。
实践中发现,在对人体外表损伤进行鉴定时,通常采用计算机视觉中的目标检测方法,如Faster-RCNN、SSD、YOLO等,这种目标检测方法一般只能将目标物体限定在固定形状内(一般为矩形),而人体外表损伤通常为尺寸不固定的不规则形状,基于上述目标检测方法的检测结果会包含较多的无关背景区域,在以面积作为鉴定标准的损伤鉴定中,这些误差将对结果产生较大影响。
因此,如何更加精确地对人体外表损伤进行检测是一个亟待解决的技术问题。
发明内容
鉴于以上内容,有必要提供一种基于语义分割网络的人体外表损伤检测方法及相关设备,能够更加精确地对人体外表损伤进行检测。
本发明的第一方面提供一种基于语义分割网络的人体外表损伤检测方法,所述方法包括:
获取需要进行人体外表损伤检测的待检测图片;
将所述待检测图片输入至基于语义分割的人体损伤检测模型中;
依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取;
将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图;
对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。
在一种可能的实现方式中,所述获取需要进行人体外表损伤检测的待检测图片之前,所述方法还包括:
获取多个需要进行模型训练的原始人体损伤图片;
接收用户对每个所述原始人体损伤图片的受损区域进行边界标注输入的多边形区域,以及接收用户针对所述原始人体受损区域输入的损伤类型;
将所述多边形区域以及所述损伤类型保存成格式化文件;
根据所述多边形区域的像素值,生成图片掩膜;
将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至语义分割网络框架模型中进行训练,获得训练好的人体损伤检测模型。
在一种可能的实现方式中,所述根据所述多边形区域的像素值,生成图片掩膜包括:
根据所述多边形区域,将所述多边形区域的内部区域确定为目标区域,以及将所述多边形区域的外部区域确定为背景区域;
按照所述损伤类型,将所述目标区域的像素值设置为第一标识,以及将所述背景区域的像素值设置为第二标识;
根据所述第一标识以及所述第二标识,生成图片掩膜。
在一种可能的实现方式中,所述将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至语义分割网络框架模型中进行训练,获得训练好的人体损伤检测模型包括:
将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至初始模型;
通过所述初始模型中的骨干网络对所述原始人体损伤图片进行卷积运算以及池化运算,获得待训练特征图;
采用交替训练方法,将所述待训练特征图、所述格式化文件以及所述图片掩膜依次输入至所述人体损伤检测模型中的区域候选网络以及输出网络进行训练;
获取所述输出网络输出的掩膜计算结果、边界框坐标计算结果以及分类计算结果;
根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型。
在一种可能的实现方式中,所述根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型包括:
将所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果输入至预设的损失函数进行计算,获得损失值;
根据所述损失值,使用随机梯度下降算法,更新所述初始模型的参数;
若所述损失函数的损失值达到收敛状态,确定更新参数后的初始模型为训练好的人体损伤检测模型。
在一种可能的实现方式中,所述初始模型的骨干网络、区域候选网络以及输出网络中的激活函数采用PRelu函数,所述骨干网络采用Densenet121模型。
在一种可能的实现方式中,所述将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图包括:
将所述区域候选网络提取的第一特征图拆分成多个第一子特征图;
确定每个所述第一子特征图的计算类型;
从所述输出网络提取的第二特征图中获取多个第二子特征图;
确定每个所述第二子特征图的计算类型;
将相同计算类型的所述第一子特征图以及所述第二子特征图进行融合,获得最终特征图。
本发明的第二方面提供一种基于语义分割网络的人体外表损伤检测装置,所述装置包括:
获取模块,用于获取需要进行人体外表损伤检测的待检测图片;
输入模块,用于将所述待检测图片输入至基于语义分割的人体损伤检测模型中;
提取模块,用于依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取;
融合模块,用于将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图;
检测模块,用于对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。
本发明的第三方面提供一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述的基于语义分割网络的人体外表损伤检测方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述的基于语义分割网络的人体外表损伤检测方法。
由以上技术方案,本发明中,可以先获取需要进行人体外表损伤检测的待检测图片,将所述待检测图片输入至基于语义分割的人体损伤检测模型中,依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取,将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图,对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。可见,本发明中,通过将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得的最终特征图能够避免卷积运算过程中信息的丢失,通过对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,能够有效的提高了模型的检测精度,更加精确地对人体外表损伤进行检测。
附图说明
图1是本发明公开的一种基于语义分割网络的人体外表损伤检测方法的较佳实施例的流程图。
图2是本发明公开的一种基于语义分割网络的人体外表损伤检测装置的较佳实施例的功能模块图。
图3是本发明实现基于语义分割网络的人体外表损伤检测方法的较佳实施例的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明实施例的基于语义分割网络的人体外表损伤检测方法应用在电子设备中,也可以应用在电子设备和通过网络与所述电子设备进行连接的服务器所构成的硬件环境中,由服务器和电子设备共同执行。网络包括但不限于:广域网、城域网或局域网。
其中,服务器可以是指能对网络中其它设备(如电子设备)提供服务的计算机系统。如果一个个人电脑能够对外提供文件传输协议(File Transfer Protocol,简称FTP)服务,也可以叫服务器。从狭义范围上讲,服务器专指某些高性能计算机,能通过网络,对外提供服务,其相对于普通的个人电脑来说,稳定性、安全性、性能等方面都要求更高,因此在CPU、芯片组、内存、磁盘系统、网络等硬件和普通的个人电脑有所不同。
所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。所述电子设备还可包括网络设备和/或用户设备。其中,所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(Cloud Computing)的由大量主机或网络服务器构成的云。所述用户设备包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理PDA等。
图1是本发明公开的一种基于语义分割网络的人体外表损伤检测方法的较佳实施例的流程图。其中,根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
S11、电子设备获取需要进行人体外表损伤检测的待检测图片。
其中,所述待检测图片为携带有人体损伤区域的图片,可以为人体的全部图片,也可以为包括损伤区域的人体中某个部位的图片,本发明实施例不做限定。
S12、电子设备将所述待检测图片输入至基于语义分割的人体损伤检测模型中。
其中,所述人体损伤检测模型可以是基于Mask RCNN(Mask Regions withConvolutional Neural Networks,基于卷积神经网络的掩膜区域获取)方法的语义分割网络,所述人体损伤检测模型能够将所述待检测图片的前景目标与背景从像素级别进行分割,进而可以给出更精准的目标区域定位。
S13、电子设备依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取。
其中,所述人体损伤检测模型包括三个部分:骨干网络、区域候选网络以及输出网络。其中,每个部分的工作原理可以参见下文所述的训练部分,在此不再赘述。
可选的,电子设备需要依次从所述人体损伤检测模型中的骨干网络、区域候选网络以及输出网络进行特征提取。
其中,骨干网络的输出作为区域候选网络的输入,区域候选网络的输出作为输出网络的输入,三个网络共同协作,实现对所述人体损伤检测模型的特征提取及损伤检测。
S14、电子设备将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图。
由于损伤中常包含面积较小的区域(像素值小于20*20),为了增强模型对此类数据的拟合能力,可以在原始Mask-RCNN网络的基础上利用快捷连接(shortcut connection)将候选区域网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图,其中,所述最终特征图避免了卷积运算过程中信息的丢失,能够有效提高模型的精度。
具体的,所述将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图包括:
将所述区域候选网络提取的第一特征图拆分成多个第一子特征图;
确定每个所述第一子特征图的计算类型;
从所述输出网络提取的第二特征图中获取多个第二子特征图;
确定每个所述第二子特征图的计算类型;
将相同计算类型的所述第一子特征图以及所述第二子特征图进行融合,获得最终特征图。
其中,所述输出网络包括3个分支,分别为掩膜计算分支,边界框坐标计算分支和分类计算分支。因此,从所述输出网络提取的第二特征图中包括多个第二子特征图,比如三个第二子特征图,分别对应上述三个分支所输出的结果,即不同的第二子特征图对应不同的计算类型。此外,由于损伤中常包含面积较小的区域(像素值小于20*20),为了增强模型对此类数据的拟合能力,在从所述区域候选网络提取的第一特征图后,需要根据所述输出网络的三个分支,将所述第一特征图拆分成多个第一子特征图(比如三个第一子特征图),不同的第一子特征图对应不同的计算类型,比如掩膜计算类型、边界框坐标计算类型和分类计算类型,之后,可以将相同计算类型的所述第一子特征图以及所述第二子特征图进行融合,获得最终特征图。这样可以避免卷积运算过程中信息的丢失,有效的提高了模型的精度。
S15、电子设备对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。
其中,所述损伤区域边界框为所述待检测图片中受损区域外接矩形的位置坐标所在的边界框,所述损伤类型即所述待检测图片中的人体外表损伤的类型,比如软组织擦伤、软组织挫伤、软组织裂伤及皮下血肿,所述图片掩膜即所述待检测图片中受损区域的边界轮廓。
作为一种可选的实施方式,步骤S11之前,所述方法还包括:
获取多个需要进行模型训练的原始人体损伤图片;
接收用户对每个所述原始人体损伤图片的受损区域进行边界标注输入的多边形区域,以及接收用户针对所述原始人体受损区域输入的损伤类型;
将所述多边形区域以及所述损伤类型保存成格式化文件;
根据所述多边形区域的像素值,生成图片掩膜;
将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至语义分割网络框架模型中进行训练,获得训练好的人体损伤检测模型。
在该可选的实施方式中,在进行模型训练前,需要获取多个原始人体损伤图片,该多个原始人体损伤图片可以具有不同的损伤区域,不同的损伤大小,不同的损伤类型。其中,可以预先定义人体外表的损伤类型,比如:软组织擦伤、软组织挫伤、软组织裂伤及皮下血肿。其中,软组织擦伤指软组织或骨骼肌肉受到直接或间接暴力,呈局部渗血、水肿状;软组织挫伤指横向擦刮造成的皮肤损伤,皮肤表面出现划痕;软组织裂伤指皮肤多方位的撕裂造成的皮肤及肌肉损伤,伤口不规则;皮下血肿指毛细血管中的血液受外力或其他原因渗出血管外,积聚在皮肤内及皮肤下,形成血肿。
具体的,可以事先按照上述定义的损伤类型在开源标注工具SLOTH中添加相应的标注标签,同时,将软件中标签的读取方式从原始的硬编码(hard-code)改为从.json文件中动态获取,这样不但使得软件适用于损伤检测场景,同时标签的动态获取也使得软件具有可扩展性,方便以后损伤类别的增删和更改。
标注时,用户需要先选择损伤类型,然后以连续的受损区域为单位,沿受损区域边界进行边界标注,生成多边形区域。如果原始人体损伤图片中存在多种不同类型的损伤,将分别按各自损伤类型进行标注。多边形区域确定后,软件会自动将多边形区域和损伤类型保存成格式化文件。另外,还可以将所述多边形区域的内外区域设置不同的像素值,进而根据像素值来自动生成图片掩膜。最终,原始人体损伤图片、格式化文件及图片掩膜将全部作为初始模型的输入,供初始模型训练。其中,所述图片掩膜即受损区域的区域轮廓。
具体的,所述根据所述多边形区域的像素值,生成图片掩膜包括:
根据所述多边形区域,将所述多边形区域的内部区域确定为目标区域,以及将所述多边形区域的外部区域确定为背景区域;
按照所述损伤类型,将所述目标区域的像素值设置为第一标识,以及将所述背景区域的像素值设置为第二标识;
根据所述第一标识以及所述第二标识,生成图片掩膜。
在该可选的实施方式中,可以根据标注的所述多边形区域,将所述多边形区域的内部区域确定为目标区域,以及将所述多边形区域的外部区域确定为背景区域,即实现了语义分割方法中前景目标与背景之间的明确分界,进一步地,可以按照所述损伤类型,将所述目标区域的像素值设置为第一标识,即所述目标区域的像素值与所述损伤类型相对应,比如:软组织擦伤置像素值为1,软组织损伤置像素值为2,皮下血肿置像素值为3,软组织裂伤置像素值为4,更进一步地,即可将所述背景区域的像素值设置为第二标识,比如置为0。最后,可以根据标注的第一标识和第二标识,自动生成图片掩膜。
具体的,所述将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至语义分割网络框架模型中进行训练,获得训练好的人体损伤检测模型包括:
将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至初始模型;
通过所述初始模型中的骨干网络对所述原始人体损伤图片进行卷积运算以及池化运算,获得待训练特征图;
采用交替训练方法,将所述待训练特征图、所述格式化文件以及所述图片掩膜依次输入至所述人体损伤检测模型中的区域候选网络以及输出网络进行训练;
获取所述输出网络输出的掩膜计算结果、边界框坐标计算结果以及分类计算结果;
根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型。
其中,所述初始模型基于Mask RCNN方法的语义分割网络,所述初始模型主要分为三个部分:骨干网络、区域候选网络以及输出网络。
其中,所述骨干网络由卷积层和池化层等组成。原始人体损伤图片与卷积层发生卷积运算,实现了对图片的特征提取,原始人体损伤图片与池化层发生池化运算,实现了对图片的数据降维。骨干网络的最终输出为待训练特征图(feature maps),即高纬度的特征矩阵。由于人体损伤图片一般尺寸较大,分辨率较高,包含信息复杂,因此本方案采用特征提取能力较强的密集型网络-121(Densenet121)模型作为骨干网络。该网络结构还包含残差运算,可以有效地将网络中浅层运算得到的特征向量传递至深层中进行合并计算,提高模型对数据的拟合能力。
其中,由于人体损伤检测场景中损伤部位一般与正常部位有明显的颜色、形状上的差异,因此一般情况下候选区域网络可以比较容易的提取大致目标位置,同时为了缩短初始模型的训练时间,本方案采用交替训练方法作为模型训练方法,即将区域候选网络与后面的输出网络分开训练,先训练其中的一部分,待结果稳定后再训练其余部分。
其中,区域候选网络(RPN)主要由前景背景分类和目标边界框回归两个分支组成。RPN以骨干网络提取的待训练特征图作为输入,经3*3的卷积层通过卷积运算得到新的特征图,之后分别连接两个1*1的卷积层来实现上述分支。其中前景背景分类分支的计算结果是前景或背景对应的概率值,而目标边界框回归分支的结果是边界框的坐标值。综合上述两个分支的计算结果,得到候选区域(Proposal),并与人工标注的真实值(ground truth)进行比对,保留交并比(IOU)最高的候选区域其对应特征图作为最终的输出传递至输出网络。其中,为了保证区域候选网络输出的特征图尺寸统一,网络引入了ROI Align(感兴趣区域对齐),在特征图的不同点采样,并应用双线性插值运算实现特征图尺寸的统一化。
其中,为了得到精细的输出结果,还需要经过输出网络对RPN网络得到的尺寸统一的特征图进行进一步计算。输出网络共包含三个分支,分别为掩膜计算分支,边界框坐标计算分支和分类计算分支。其中,此外,由于损伤中常包含面积较小的区域(像素值小于20*20),为了增强模型对此类数据的拟合能力,在原始Mask-RCNN网络的基础上利用shortcutconnection将候选区域网络的输出特征图与输出网络的特征图直接连接(加权和),这样避免了卷积运算过程中信息的丢失,有效的提高了模型的精度,而且结合经验,一般图像中的颜色、纹理等基础信息是判断损伤类型的主要依据,这也正好与候选区域网络提取的相对更浅层的特征信息相吻合。
具体的,所述根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型包括:
将所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果输入至预设的损失函数进行计算,获得损失值;
根据所述损失值,使用随机梯度下降算法,更新所述初始模型的参数;
若所述损失函数的损失值达到收敛状态,确定更新参数后的初始模型为训练好的人体损伤检测模型。
其中,整个网络的损失函数由输出网络中的三个分支各自的损失加和构成。在获取到所述输出网络输出的掩膜计算结果、边界框坐标计算结果以及分类计算结果之后,还需要将所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果输入至预设的损失函数进行计算,获得损失值,通过随机梯度下降方法将损失值反传给网络,更新所述初始模型的参数,实现模型训练,直至所述损失函数的损失值达到收敛状态,即可确定更新参数后的初始模型为训练好的人体损伤检测模型。
可选的,所述初始模型的骨干网络、区域候选网络以及输出网络中的激活函数采用PRelu函数,所述骨干网络采用Densenet121模型。
在图1所描述的方法流程中,可以先获取需要进行人体外表损伤检测的待检测图片,将所述待检测图片输入至基于语义分割的人体损伤检测模型中,依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取,将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图,对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。可见,通过将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得的最终特征图能够避免卷积运算过程中信息的丢失,通过对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,能够有效的提高了模型的检测精度,更加精确地对人体外表损伤进行检测。
以上所述,仅是本发明的具体实施方式,但本发明的保护范围并不局限于此,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
图2是本发明公开的一种基于语义分割网络的人体外表损伤检测装置的较佳实施例的功能模块图。
在一些实施例中,所述基于语义分割网络的人体外表损伤检测装置运行于电子设备中。所述基于语义分割网络的人体外表损伤检测装置可以包括多个由程序代码段所组成的功能模块。所述基于语义分割网络的人体外表损伤检测装置中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行图1所描述的基于语义分割网络的人体外表损伤检测方法中的部分或全部步骤。
本实施例中,所述基于语义分割网络的人体外表损伤检测装置根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:获取模块201、输入模块202、提取模块203、融合模块204及检测模块205。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在一些实施例中,关于各模块的功能将在后续的实施例中详述。
获取模块201,用于获取需要进行人体外表损伤检测的待检测图片。
其中,所述待检测图片为携带有人体损伤区域的图片,可以为人体的全部图片,也可以为包括损伤区域的人体中某个部位的图片,本发明实施例不做限定。
输入模块202,用于将所述待检测图片输入至基于语义分割的人体损伤检测模型中。
其中,所述人体损伤检测模型可以是基于Mask RCNN(Mask Regions withConvolutional Neural Networks,基于卷积神经网络的掩膜区域获取)方法的语义分割网络,所述人体损伤检测模型能够将所述待检测图片的前景目标与背景从像素级别进行分割,进而可以给出更精准的目标区域定位。
提取模块203,用于依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取。
其中,所述人体损伤检测模型包括三个部分:骨干网络、区域候选网络以及输出网络。其中,每个部分的工作原理可以参见下文所述的训练部分,在此不再赘述。
可选的,电子设备需要依次所述人体损伤检测模型中的骨干网络、区域候选网络以及输出网络进行特征提取。
其中,骨干网络的输出作为区域候选网络的输入,区域候选网络的输出作为输出网络的输入,三个网络共同协作,实现对所述人体损伤检测模型的特征提取及损伤检测。
融合模块204,用于将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图。
由于损伤中常包含面积较小的区域(像素值小于20*20),为了增强模型对此类数据的拟合能力,可以在原始Mask-RCNN网络的基础上利用快捷连接(shortcut connection)将候选区域网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图,其中,所述最终特征图避免了卷积运算过程中信息的丢失,能够有效提高模型的精度。
检测模块205,用于对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。
其中,所述损伤区域边界框为所述待检测图片中受损区域外接矩形的位置坐标所在的边界框,所述损伤类型即所述待检测图片中的人体外表损伤的类型,比如软组织擦伤、软组织挫伤、软组织裂伤及皮下血肿,所述图片掩膜即所述待检测图片中受损区域的边界轮廓。
作为一种可选的实施方式,所述获取模块201,还用于获取多个需要进行模型训练的原始人体损伤图片;
所述基于语义分割网络的人体外表损伤检测装置还可以包括:
接收模块,用于接收用户对每个所述原始人体损伤图片的受损区域进行边界标注输入的多边形区域,以及接收用户针对所述原始人体受损区域输入的损伤类型;
保存模块,用于将所述多边形区域以及所述损伤类型保存成格式化文件;
生成模块,用于根据所述多边形区域的像素值,生成图片掩膜;
训练模块,用于将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至语义分割网络框架模型中进行训练,获得训练好的人体损伤检测模型。
在该可选的实施方式中,在进行模型训练前,需要获取多个原始人体损伤图片,该多个原始人体损伤图片可以具有不同的损伤区域,不同的损伤大小,不同的损伤类型。其中,可以预先定义人体外表的损伤类型,比如:软组织擦伤、软组织挫伤、软组织裂伤及皮下血肿。其中,软组织擦伤指软组织或骨骼肌肉受到直接或间接暴力,呈局部渗血、水肿状;软组织挫伤指横向擦刮造成的皮肤损伤,皮肤表面出现划痕;软组织裂伤指皮肤多方位的撕裂造成的皮肤及肌肉损伤,伤口不规则;皮下血肿指毛细血管中的血液受外力或其他原因渗出血管外,积聚在皮肤内及皮肤下,形成血肿。
具体的,可以事先按照上述定义的损伤类型在开源标注工具SLOTH中添加相应的标注标签,同时,将软件中标签的读取方式从原始的硬编码(hard-code)改为从.json文件中动态获取,这样不但使得软件适用于损伤检测场景,同时标签的动态获取也使得软件具有可扩展性,方便以后损伤类别的增删和更改。
标注时,用户需要先选择损伤类型,然后以连续的受损区域为单位,沿受损区域边界进行边界标注,生成多边形区域。如果原始人体损伤图片中存在多种不同类型的损伤,将分别按各自损伤类型进行标注。多边形区域确定后,软件会自动将多边形区域和损伤类型保存成格式化文件。另外,还可以将所述多边形区域的内外区域设置不同的像素值,进而根据像素值来自动生成图片掩膜。最终,原始人体损伤图片、格式化文件及图片掩膜将全部作为初始模型的输入,供初始模型训练。其中,所述图片掩膜即受损区域的区域轮廓。
作为一种可选的实施方式,所述生成模块根据所述多边形区域的像素值,生成图片掩膜的方式具体为:
根据所述多边形区域,将所述多边形区域的内部区域确定为目标区域,以及将所述多边形区域的外部区域确定为背景区域;
按照所述损伤类型,将所述目标区域的像素值设置为第一标识,以及将所述背景区域的像素值设置为第二标识;
根据所述第一标识以及所述第二标识,生成图片掩膜。
在该可选的实施方式中,可以根据标注的所述多边形区域,将所述多边形区域的内部区域确定为目标区域,以及将所述多边形区域的外部区域确定为背景区域,即实现了语义分割方法中前景目标与背景之间的明确分界,进一步地,可以按照所述损伤类型,将所述目标区域的像素值设置为第一标识,即所述目标区域的像素值与所述损伤类型相对应,比如:软组织擦伤置像素值为1,软组织损伤置像素值为2,皮下血肿置像素值为3,软组织裂伤置像素值为4,更进一步地,即可将所述背景区域的像素值设置为第二标识,比如置为0。最后,可以根据标注的第一标识和第二标识,自动生成图片掩膜。
作为一种可选的实施方式,所述训练模块包括:
输入子模块,用于将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至初始模型;
运算子模块,用于通过所述初始模型中的骨干网络对所述原始人体损伤图片进行卷积运算以及池化运算,获得待训练特征图;
训练子模块,用于采用交替训练方法,将所述待训练特征图、所述格式化文件以及所述图片掩膜依次输入至所述人体损伤检测模型中的区域候选网络以及输出网络进行训练;
获取子模块,用于获取所述输出网络输出的掩膜计算结果、边界框坐标计算结果以及分类计算结果;
确定子模块,用于根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型。
其中,所述初始模型基于Mask RCNN方法的语义分割网络,所述初始模型主要分为三个部分:骨干网络、区域候选网络以及输出网络。
其中,所述骨干网络由卷积层和池化层等组成。原始人体损伤图片与卷积层发生卷积运算,实现了对图片的特征提取,原始人体损伤图片与池化层发生池化运算,实现了对图片的数据降维。骨干网络的最终输出为待训练特征图(feature maps),即高纬度的特征矩阵。由于人体损伤图片一般尺寸较大,分辨率较高,包含信息复杂,因此本方案采用特征提取能力较强的密集型网络-121(Densenet121)模型作为骨干网络。该网络结构还包含残差运算,可以有效地将网络中浅层运算得到的特征向量传递至深层中进行合并计算,提高模型对数据的拟合能力。
其中,由于人体损伤检测场景中损伤部位一般与正常部位有明显的颜色、形状上的差异,因此一般情况下候选区域网络可以比较容易的提取大致目标位置,同时为了缩短初始模型的训练时间,本方案采用交替训练方法作为模型训练方法,即将区域候选网络与后面的输出网络分开训练,先训练其中的一部分,待结果稳定后再训练其余部分。
其中,区域候选网络(RPN)主要由前景背景分类和目标边界框回归两个分支组成。RPN以骨干网络提取的待训练特征图作为输入,经3*3的卷积层通过卷积运算得到新的特征图,之后分别连接两个1*1的卷积层来实现上述分支。其中前景背景分类分支的计算结果是前景或背景对应的概率值,而目标边界框回归分支的结果是边界框的坐标值。综合上述两个分支的计算结果,得到候选区域(Proposal),并与人工标注的真实值(ground truth)进行比对,保留交并比(IOU)最高的候选区域其对应特征图作为最终的输出传递至输出网络。其中,为了保证区域候选网络输出的特征图尺寸统一,网络引入了ROI Align(感兴趣区域对齐),在特征图的不同点采样,并应用双线性插值运算实现特征图尺寸的统一化。
其中,为了得到精细的输出结果,还需要经过输出网络对RPN网络得到的尺寸统一的特征图进行进一步计算。输出网络共包含三个分支,分别为掩膜计算分支,边界框坐标计算分支和分类计算分支。其中,此外,由于损伤中常包含面积较小的区域(像素值小于20*20),为了增强模型对此类数据的拟合能力,在原始Mask-RCNN网络的基础上利用shortcutconnection将候选区域网络的输出特征图与输出网络的特征图直接连接(加权和),这样避免了卷积运算过程中信息的丢失,有效的提高了模型的精度,而且结合经验,一般图像中的颜色、纹理等基础信息是判断损伤类型的主要依据,这也正好与候选区域网络提取的相对更浅层的特征信息相吻合。
作为一种可选的实施方式,所述确定子模块根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型的方式具体为:
将所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果输入至预设的损失函数进行计算,获得损失值;
根据所述损失值,使用随机梯度下降算法,更新所述初始模型的参数;
若所述损失函数的损失值达到收敛状态,确定更新参数后的初始模型为训练好的人体损伤检测模型。
其中,整个网络的损失函数由输出网络中的三个分支各自的损失加和构成。在获取到所述输出网络输出的掩膜计算结果、边界框坐标计算结果以及分类计算结果之后,还需要将所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果输入至预设的损失函数进行计算,获得损失值,通过随机梯度下降方法将损失值反传给网络,更新所述初始模型的参数,实现模型训练,直至所述损失函数的损失值达到收敛状态,即可确定更新参数后的初始模型为训练好的人体损伤检测模型。
作为一种可选的实施方式,所述初始模型的骨干网络、区域候选网络以及输出网络中的激活函数采用PRelu函数,所述骨干网络采用Densenet121模型。
作为一种可选的实施方式,所述融合模块204将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图的方式具体为:
将所述区域候选网络提取的第一特征图拆分成多个第一子特征图;
确定每个所述第一子特征图的计算类型;
从所述输出网络提取的第二特征图中获取多个第二子特征图;
确定每个所述第二子特征图的计算类型;
将相同计算类型的所述第一子特征图以及所述第二子特征图进行融合,获得最终特征图。
其中,所述输出网络包括3个分支,分别为掩膜计算分支,边界框坐标计算分支和分类计算分支。因此,从所述输出网络提取的第二特征图中包括多个第二子特征图,比如三个第二子特征图,分别对应上述三个分支所输出的结果,即不同的第二子特征图对应不同的计算类型。此外,由于损伤中常包含面积较小的区域(像素值小于20*20),为了增强模型对此类数据的拟合能力,在从所述区域候选网络提取的第一特征图后,需要根据所述输出网络的三个分支,将所述第一特征图拆分成多个第一子特征图(比如三个第一子特征图),不同的第一子特征图对应不同的计算类型,比如掩膜计算类型、边界框坐标计算类型和分类计算类型,之后,可以将相同计算类型的所述第一子特征图以及所述第二子特征图进行融合,获得最终特征图。这样可以避免卷积运算过程中信息的丢失,有效的提高了模型的精度。
在图2所描述的基于语义分割网络的人体外表损伤检测装置中,可以先获取需要进行人体外表损伤检测的待检测图片,将所述待检测图片输入至基于语义分割的人体损伤检测模型中,依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取,将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图,对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。可见,通过将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得的最终特征图能够避免卷积运算过程中信息的丢失,通过对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,能够有效的提高了模型的检测精度,更加精确地对人体外表损伤进行检测。
图3是本发明实现基于语义分割网络的人体外表损伤检测方法的较佳实施例的电子设备的结构示意图。所述电子设备3包括存储器31、至少一个处理器32、存储在所述存储器31中并可在所述至少一个处理器32上运行的计算机程序33及至少一条通讯总线34。
本领域技术人员可以理解,图3所示的示意图仅仅是所述电子设备3的示例,并不构成对所述电子设备3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备3还可以包括输入输出设备、网络接入设备等。
所述至少一个处理器32可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。该处理器32可以是微处理器或者该处理器32也可以是任何常规的处理器等,所述处理器32是所述电子设备3的控制中心,利用各种接口和线路连接整个电子设备3的各个部分。
所述存储器31可用于存储所述计算机程序33和/或模块/单元,所述处理器32通过运行或执行存储在所述存储器31内的计算机程序和/或模块/单元,以及调用存储在存储器31内的数据,实现所述电子设备3的各种功能。所述存储器31可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备3的使用所创建的数据(比如音频数据)等。此外,存储器31可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。
结合图1,所述电子设备3中的所述存储器31存储多个指令以实现一种基于语义分割网络的人体外表损伤检测方法,所述处理器32可执行所述多个指令从而实现:
获取需要进行人体外表损伤检测的待检测图片;
将所述待检测图片输入至基于语义分割的人体损伤检测模型中;
依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取;
将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图;
对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。
具体地,所述处理器32对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在图3所描述的电子设备3中,可以先获取需要进行人体外表损伤检测的待检测图片,将所述待检测图片输入至基于语义分割的人体损伤检测模型中,依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取,将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图,对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。可见,通过将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得的最终特征图能够避免卷积运算过程中信息的丢失,通过对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,能够有效的提高了模型的检测精度,更加精确地对人体外表损伤进行检测。
所述电子设备3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于语义分割网络的人体外表损伤检测方法,其特征在于,所述方法包括:
获取需要进行人体外表损伤检测的待检测图片;
将所述待检测图片输入至基于语义分割的人体损伤检测模型中;
依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取;
将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图;
对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。
2.根据权利要求1所述的方法,其特征在于,所述获取需要进行人体外表损伤检测的待检测图片之前,所述方法还包括:
获取多个需要进行模型训练的原始人体损伤图片;
接收用户对每个所述原始人体损伤图片的受损区域进行边界标注输入的多边形区域,以及接收用户针对所述原始人体受损区域输入的损伤类型;
将所述多边形区域以及所述损伤类型保存成格式化文件;
根据所述多边形区域的像素值,生成图片掩膜;
将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至语义分割网络框架模型中进行训练,获得训练好的人体损伤检测模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述多边形区域的像素值,生成图片掩膜包括:
根据所述多边形区域,将所述多边形区域的内部区域确定为目标区域,以及将所述多边形区域的外部区域确定为背景区域;
按照所述损伤类型,将所述目标区域的像素值设置为第一标识,以及将所述背景区域的像素值设置为第二标识;
根据所述第一标识以及所述第二标识,生成图片掩膜。
4.根据权利要求2所述的方法,其特征在于,所述将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至语义分割网络框架模型中进行训练,获得训练好的人体损伤检测模型包括:
将所述原始人体损伤图片、所述格式化文件以及所述图片掩膜输入至初始模型;
通过所述初始模型中的骨干网络对所述原始人体损伤图片进行卷积运算以及池化运算,获得待训练特征图;
采用交替训练方法,将所述待训练特征图、所述格式化文件以及所述图片掩膜依次输入至所述人体损伤检测模型中的区域候选网络以及输出网络进行训练;
获取所述输出网络输出的掩膜计算结果、边界框坐标计算结果以及分类计算结果;
根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果,确定人体损伤检测模型包括:
将所述掩膜计算结果、所述边界框坐标计算结果以及所述分类计算结果输入至预设的损失函数进行计算,获得损失值;
根据所述损失值,使用随机梯度下降算法,更新所述初始模型的参数;
若所述损失函数的损失值达到收敛状态,确定更新参数后的初始模型为训练好的人体损伤检测模型。
6.根据权利要求5所述的方法,其特征在于,所述初始模型的骨干网络、区域候选网络以及输出网络中的激活函数采用PRelu函数,所述骨干网络采用Densenet121模型。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图包括:
将所述区域候选网络提取的第一特征图拆分成多个第一子特征图;
确定每个所述第一子特征图的计算类型;
从所述输出网络提取的第二特征图中获取多个第二子特征图;
确定每个所述第二子特征图的计算类型;
将相同计算类型的所述第一子特征图以及所述第二子特征图进行融合,获得最终特征图。
8.一种基于语义分割网络的人体外表损伤检测装置,其特征在于,所述基于语义分割网络的人体外表损伤检测装置包括:
获取模块,用于获取需要进行人体外表损伤检测的待检测图片;
输入模块,用于将所述待检测图片输入至基于语义分割的人体损伤检测模型中;
提取模块,用于依次通过所述人体损伤检测模型中的区域候选网络以及输出网络进行特征提取;
融合模块,用于将所述区域候选网络提取的第一特征图与所述输出网络提取的第二特征图进行特征融合,获得最终特征图;
检测模块,用于对所述最终特征图进行特征检测,获得所述待检测图片的人体外表损伤检测结果,其中,所述人体外表损伤检测结果包括损伤区域边界框、损伤类型及图片掩膜。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1至7中任意一项所述的基于语义分割网络的人体外表损伤检测方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有至少一个指令,所述至少一个指令被处理器执行时实现如权利要求1至7中任意一项所述的基于语义分割网络的人体外表损伤检测方法。
CN201910901600.8A 2019-09-23 2019-09-23 基于语义分割网络的人体外表损伤检测方法及相关设备 Active CN110874594B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910901600.8A CN110874594B (zh) 2019-09-23 2019-09-23 基于语义分割网络的人体外表损伤检测方法及相关设备
PCT/CN2019/116542 WO2021056705A1 (zh) 2019-09-23 2019-11-08 基于语义分割网络的人体外表损伤检测方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910901600.8A CN110874594B (zh) 2019-09-23 2019-09-23 基于语义分割网络的人体外表损伤检测方法及相关设备

Publications (2)

Publication Number Publication Date
CN110874594A true CN110874594A (zh) 2020-03-10
CN110874594B CN110874594B (zh) 2023-06-30

Family

ID=69718052

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910901600.8A Active CN110874594B (zh) 2019-09-23 2019-09-23 基于语义分割网络的人体外表损伤检测方法及相关设备

Country Status (2)

Country Link
CN (1) CN110874594B (zh)
WO (1) WO2021056705A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667011A (zh) * 2020-06-08 2020-09-15 平安科技(深圳)有限公司 损伤检测模型训练、车损检测方法、装置、设备及介质
CN111860522A (zh) * 2020-07-23 2020-10-30 中国平安人寿保险股份有限公司 身份证图片处理方法、装置、终端及存储介质
CN112966730A (zh) * 2021-03-01 2021-06-15 创新奇智(上海)科技有限公司 车辆伤损识别方法、装置、设备及存储介质
CN113160204A (zh) * 2021-04-30 2021-07-23 聚时科技(上海)有限公司 基于目标检测信息生成缺陷区域的语义分割网络训练方法
CN116503694A (zh) * 2023-06-28 2023-07-28 宁德时代新能源科技股份有限公司 模型训练方法、图像分割方法、装置和计算机设备
CN117593301A (zh) * 2024-01-18 2024-02-23 深圳市奥斯珂科技有限公司 基于机器视觉的内存条损伤快速检测方法及系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033557A (zh) * 2021-04-16 2021-06-25 北京百度网讯科技有限公司 用于训练图像处理模型和检测图像的方法、装置
CN113269197B (zh) * 2021-04-25 2024-03-08 南京三百云信息科技有限公司 基于语义分割的证件图像顶点坐标回归系统和识别方法
CN113421231B (zh) * 2021-06-08 2023-02-28 杭州海康威视数字技术股份有限公司 一种出血点检测方法、装置及系统
CN113327241B (zh) * 2021-06-16 2023-02-24 南昌航空大学 一种轴承端面的表面缺陷视觉检测方法及系统
CN113516668B (zh) * 2021-06-16 2024-03-29 郑州大学 物联网应用中图像语义分割方法
CN113608805B (zh) * 2021-07-08 2024-04-12 阿里巴巴创新公司 掩膜预测方法、图像处理方法、显示方法及设备
CN113592871A (zh) * 2021-07-09 2021-11-02 西北工业大学 一种基于分割监督的机器人物体抓取检测方法
CN113763326B (zh) * 2021-08-04 2023-11-21 武汉工程大学 一种基于Mask Scoring R-CNN网络的受电弓检测方法
CN113989255A (zh) * 2021-11-05 2022-01-28 中国地质大学(北京) 基于Mask-RCNN的地铁隧道衬砌脱落识别模型训练方法和识别方法
CN114004963B (zh) * 2021-12-31 2022-03-29 深圳比特微电子科技有限公司 目标类别识别方法、装置及可读存储介质
CN114677565B (zh) * 2022-04-08 2023-05-05 北京百度网讯科技有限公司 特征提取网络的训练方法和图像处理方法、装置
CN116503932A (zh) * 2023-05-24 2023-07-28 北京万里红科技有限公司 重点区域加权的眼周特征提取方法、系统及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190065856A1 (en) * 2017-08-31 2019-02-28 Mirriad Advertising Plc Machine learning for identification of candidate video insertion object types
CN109447169A (zh) * 2018-11-02 2019-03-08 北京旷视科技有限公司 图像处理方法及其模型的训练方法、装置和电子系统
CN109886179A (zh) * 2019-02-18 2019-06-14 深圳视见医疗科技有限公司 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113800B2 (en) * 2017-01-18 2021-09-07 Nvidia Corporation Filtering image data using a neural network
CN109584246B (zh) * 2018-11-16 2022-12-16 成都信息工程大学 基于多尺度特征金字塔的dcm心肌诊疗放射影像分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190065856A1 (en) * 2017-08-31 2019-02-28 Mirriad Advertising Plc Machine learning for identification of candidate video insertion object types
CN109447169A (zh) * 2018-11-02 2019-03-08 北京旷视科技有限公司 图像处理方法及其模型的训练方法、装置和电子系统
CN109886179A (zh) * 2019-02-18 2019-06-14 深圳视见医疗科技有限公司 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
田萱等: ""基于深度学习的图像语义分割方法综述"", 《软件学报》, vol. 30, no. 2, pages 443 - 452 *
陈云: ""基于深度学习的医学影像检测算法"", 《中国优秀硕士学位论文全文数据库信息科技辑第09期》, pages 24 - 45 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667011A (zh) * 2020-06-08 2020-09-15 平安科技(深圳)有限公司 损伤检测模型训练、车损检测方法、装置、设备及介质
CN111860522A (zh) * 2020-07-23 2020-10-30 中国平安人寿保险股份有限公司 身份证图片处理方法、装置、终端及存储介质
CN111860522B (zh) * 2020-07-23 2024-02-02 中国平安人寿保险股份有限公司 身份证图片处理方法、装置、终端及存储介质
CN112966730A (zh) * 2021-03-01 2021-06-15 创新奇智(上海)科技有限公司 车辆伤损识别方法、装置、设备及存储介质
CN113160204A (zh) * 2021-04-30 2021-07-23 聚时科技(上海)有限公司 基于目标检测信息生成缺陷区域的语义分割网络训练方法
CN116503694A (zh) * 2023-06-28 2023-07-28 宁德时代新能源科技股份有限公司 模型训练方法、图像分割方法、装置和计算机设备
CN116503694B (zh) * 2023-06-28 2023-12-08 宁德时代新能源科技股份有限公司 模型训练方法、图像分割方法、装置和计算机设备
CN117593301A (zh) * 2024-01-18 2024-02-23 深圳市奥斯珂科技有限公司 基于机器视觉的内存条损伤快速检测方法及系统
CN117593301B (zh) * 2024-01-18 2024-04-30 深圳市奥斯珂科技有限公司 基于机器视觉的内存条损伤快速检测方法及系统

Also Published As

Publication number Publication date
CN110874594B (zh) 2023-06-30
WO2021056705A1 (zh) 2021-04-01

Similar Documents

Publication Publication Date Title
CN110874594B (zh) 基于语义分割网络的人体外表损伤检测方法及相关设备
CN109961009B (zh) 基于深度学习的行人检测方法、系统、装置及存储介质
CN108765278B (zh) 一种图像处理方法、移动终端及计算机可读存储介质
CN110232311B (zh) 手部图像的分割方法、装置及计算机设备
CN108073910B (zh) 用于生成人脸特征的方法和装置
CN110705583B (zh) 细胞检测模型训练方法、装置、计算机设备及存储介质
US20180204052A1 (en) A method and apparatus for human face image processing
CN108734078B (zh) 图像处理方法、装置、电子设备、存储介质及程序
CN111401318B (zh) 动作识别方法及装置
CN112418216A (zh) 一种复杂自然场景图像中的文字检测方法
CN111553362A (zh) 一种视频处理方法、电子设备和计算机可读存储介质
CN112102929A (zh) 医学图像标注方法、装置、存储介质及电子设备
CN117078790B (zh) 图像生成方法、装置、计算机设备和存储介质
CN113706562B (zh) 图像分割方法、装置、系统及细胞分割方法
CN111199169A (zh) 图像处理方法和装置
CN114648676A (zh) 点云处理模型的训练和点云实例分割方法及装置
CN108805838B (zh) 一种图像处理方法、移动终端及计算机可读存储介质
CN112132750B (zh) 一种视频处理方法与装置
CN112380978B (zh) 基于关键点定位的多人脸检测方法、系统及存储介质
CN113516697A (zh) 图像配准的方法、装置、电子设备及计算机可读存储介质
CN111353325A (zh) 关键点检测模型训练方法及装置
CN113780040A (zh) 唇部关键点的定位方法及装置、存储介质、电子设备
WO2020244076A1 (zh) 人脸识别方法、装置、电子设备及存储介质
CN109816709B (zh) 基于单目摄像头的深度估计方法、装置及设备
CN111968030B (zh) 信息生成方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant