CN114004289A - 一种车辆损伤识别模型建立方法、损伤识别方法及装置 - Google Patents

一种车辆损伤识别模型建立方法、损伤识别方法及装置 Download PDF

Info

Publication number
CN114004289A
CN114004289A CN202111239897.XA CN202111239897A CN114004289A CN 114004289 A CN114004289 A CN 114004289A CN 202111239897 A CN202111239897 A CN 202111239897A CN 114004289 A CN114004289 A CN 114004289A
Authority
CN
China
Prior art keywords
damage
deep
receptive field
field selection
image features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111239897.XA
Other languages
English (en)
Inventor
付晓
殷雨昕
王亚领
刘设伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Original Assignee
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taikang Insurance Group Co Ltd, Taikang Online Property Insurance Co Ltd filed Critical Taikang Insurance Group Co Ltd
Priority to CN202111239897.XA priority Critical patent/CN114004289A/zh
Publication of CN114004289A publication Critical patent/CN114004289A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本文提供了一种车辆损伤识别模型建立方法、损伤识别方法及装置,所述方法包括:确定训练集数据,提取所述历史损伤图片中浅层图像特征和深层图像特征;将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征;将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型,本文能够提高训练模型的高鲁棒性和识别准确性。

Description

一种车辆损伤识别模型建立方法、损伤识别方法及装置
技术领域
本文属于图像处理技术领域,进一步涉及车辆保险损伤识别领域,具体涉及一种车辆损伤模型建立方法、损伤识别方法及装置。
背景技术
车辆损伤事件中,常因意外或人为过错造成车辆表面发生受损,例如车辆刮擦、碰撞等。为了便于车辆维修、保险理赔,需要对车辆损伤进行鉴定。传统对车辆损伤的鉴定过程,需要通过人工现场查勘定损。但是现有的通过人工对车辆定损的过程,不仅需要投入大量的人工,还需要所投入的人工具有较高的损伤鉴定能力,且处理周期较长。
因此,现有技术中也有利用人工智能进行识别车辆损伤,然而,利用人工智能的车辆损伤的识别结果可能因为各种因素造成偏差。比如传统图像识别模型针对边缘明显的目标个体效果更好,而车辆图像上的损伤通常不具备明显的边界,且由于拍摄环境的影响,车身的反光、流线型干扰和脏污往往会造成损伤识别出现误检。
因此如何提高车辆损伤识别的准确性成为目前亟需解决的技术问题。
发明内容
针对现有技术的上述问题,本文的目的在于,提供一种车辆损伤识别模型建立方法、损伤识别方法及装置,能够提高车辆损伤识别的准确性。
为了解决上述技术问题,本文的具体技术方案如下:
一方面,一种车辆损伤识别模型建立方法,所述方法包括:
确定训练集数据,所述训练集数据包括历史损伤图片,所述历史损伤图片具有损伤分割标签,所述损伤分割标签包括至少一种预设损伤类型;
提取所述历史损伤图片中浅层图像特征和深层图像特征;
将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述自适应感受野选择模型用于根据不同损伤分割标签确定深层图像特征对应不同的感受野选择矩阵;
将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;
将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;
根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
进一步地,所述将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,包括:
利用预设空洞卷积核,采用多个扩张率处理所述深层图像特征,得到多个尺寸的深层图像特征;
将多个尺寸的深层图像特征融合处理,得到融合后的深层图像特征;
将所述融合后的深层图像特征输入到自适应感受野选择模型中,得到感受野选择矩阵,所述感受野选择矩阵的通道数与融合后的深层图像特征通道数量一致;
根据所述融合后的深层图像特征和所述感受野选择矩阵,计算得到所述历史损伤图片的深层鲁棒特征。
进一步地,所述深层鲁棒特征通过如下公式得到:
f1=multi_feature×(S+0.5×I),
其中,f1为深层鲁棒特征,multi_feature为融合后的深层图像特征,S为感受野选择矩阵,I为单位矩阵。
进一步地,所述预设损失函数包括设有预设权重的分类损失函数、异常检测损失函数和感受野选择损失函数;
所述异常检测损失函数通过如下步骤得到:
确定所述历史损伤图片所属的车辆部件;
根据所述车辆部件和所述目标图像特征,确定每个车辆部件对应的图像特征;
根据所述车辆部件对应的图像特征,确定每个车辆部件对应的图像特征的聚类中心;
根据所述历史损伤图片对应的损伤分割标签、每个车辆部件对应的图像特征的聚类中心,计算得到所述异常检测损失函数。
进一步地,所述感受野选择损失函数通过如下步骤得到:
确定所述历史损伤图片对应的损伤分割标签中的预设损伤类型,及所述预设损伤类型所在的图片区域;
构建损伤分割标签全零矩阵,所述损伤分割标签全零矩阵的通道与预设损伤类型一一对应;
根据所述预设损伤类型所在的图片区域,依次在与所述预设损伤类型对应通道上的相应区域的像素值置为1,以获得所述历史损伤图片对应的损伤分割标签矩阵;
根据所述损伤分割标签矩阵和所述感受野选择矩阵,利用均方误差函数计算得到所述感受野选择损失函数。
另一方面,本文还提供一种车辆损伤识别方法,所述方法包括:
利用预先构建的残差学习网络处理待识别损伤图片,得到所述待识别损伤图片的浅层图像特征和深层图像特征;
将所述深层图像特征输入到训练完成的自适应感受野选择模型中,得到深层鲁棒特征;
将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述待识别损伤图片的目标图像特征;
将所述目标图像特征输入到通过上述方法建立的车辆损伤识别模型中,得到所述待识别损伤图片的图像分割结果。
另一方面,本文还提供一种车辆损伤识别模型建立装置,所述装置包括:
训练集数据确定模块,用于确定训练集数据,所述训练集数据包括历史损伤图片,所述历史损伤图片具有损伤分割标签,所述损伤分割标签包括至少一种预设损伤类型;
第一提取模块,用于提取所述历史损伤图片中浅层图像特征和深层图像特征;
第一处理模块,用于将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述自适应感受野选择模型用于根据不同损伤分割标签确定深层图像特征对应不同的感受野选择矩阵;
第一融合模块,用于将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;
预测模块,用于将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;
训练模块,用于根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
另一方面,本文还提供一种车辆损伤识别装置,所述装置包括:
第二提取模块,用于利用预先构建的残差学习网络处理待识别损伤图片,得到所述待识别损伤图片的浅层图像特征和深层图像特征;
第二处理模块,用于将所述深层图像特征输入到训练完成的自适应感受野选择模型中,得到深层鲁棒特征;
第二融合模块,用于将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述待识别损伤图片的目标图像特征;
识别模块,用于将所述目标图像特征输入到通过上述方法建立的车辆损伤识别模型中,得到所述待识别损伤图片的图像分割结果。
另一方面,本文还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述所述的方法。
最后,本文还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述所述的方法。
采用上述技术方案,本文所述的一种车辆损伤识别模型建立方法、损伤识别方法及装置,在车辆损伤识别模型训练时,通过获取历史损伤图片中浅层图像特征和深层图像特征,将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型,能够提高训练模型的高鲁棒性和识别准确性。
为让本文的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
为了更清楚地说明本文实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本文的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本文实施例提供的方法的实施环境示意图;
图2示出了本文实施例提供的一种车辆损伤识别模型建立方法的步骤示意图;
图3示出了本文实施例中历史损失图片中损失分割标签示意图;
图4示出了本文实施例中深层鲁棒特征获得步骤示意图;
图5示出了本文实施例中不同损伤类型对应不同尺寸感受野示意图;
图6示出了本文实施例中异常检测损失函数的计算步骤示意图;
图7示出了本文实施例中感受野选择损失函数计算步骤示意图;
图8示出了本文实施例提供的一种车辆损伤识别模型建立装置的结构示意图;
图9示出了本文实施例提供的车辆损伤识别方法的步骤示意图;
图10示出了本文实施例中图像分割结果的计算过程示意图;
图11示出了本文实施例中车辆损伤识别流程示意图;
图12示出了本文实施例提供的车辆损伤识别装置的结构示意图;
图13示出了本文实施例提供的计算机设备结构示意图。
附图符号说明:
10、终端;
20、服务器;
110、训练集数据确定模块;
120、第一提取模块;
130、第一处理模块;
140、第一融合模块;
150、预测模块;
160、训练模块;
210、第二提取模块;
220、第二处理模块;
230、第二融合模块;
240、识别模块;
1302、计算机设备;
1304、处理器;
1306、存储器;
1308、驱动机构;
1310、输入/输出模块;
1312、输入设备;
1314、输出设备;
1316、呈现设备;
1318、图形用户接口;
1320、网络接口;
1322、通信链路;
1324、通信总线。
具体实施方式
下面将结合本文实施例中的附图,对本文实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本文一部分实施例,而不是全部的实施例。基于本文中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文保护的范围。
需要说明的是,本文的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本文的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、装置、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在车辆损伤事件中,涉及车辆损伤的识别和坚定,为了提高识别的效率,现有技术中也有利用人工智能进行识别车辆损伤,然而,利用人工智能的车辆损伤的识别结果可能因为各种因素造成偏差。比如传统图像识别模型针对边缘明显的目标个体效果更好,而车辆图像上的损伤通常不具备明显的边界,且由于拍摄环境的影响,车身的反光、流线型干扰和脏污往往会造成损伤识别出现误检。
为了解决上述问题,本说明书实施例提供一种车辆损伤识别模型建立方法,通过该方法建立的车辆损伤识别模型能够提高了车辆损伤识别的准确性和高鲁棒性。如图1所示,为所述方法的实施环境示意图,可以包括终端10和服务器20,所述终端10与所述服务器20之间建立通信连接,能够实现数据的交互,所述终端10可以采集并存储历史损伤图片,所述历史损伤图片具有损伤分割标签,所述损伤分割标签包括至少一种预设损伤类型;也就是说,所述终端10用于采集训练集数据,并将所述训练集数据发送至所述服务器20中,所述服务器20获取所述终端10发送的训练集数据,通过所述训练集数据训练自适应感受野选择模型以及车辆损伤识别模型,从而获得车辆损伤识别效率高的车辆损伤识别模型,具体训练过程可以为:提取所述历史损伤图片中浅层图像特征和深层图像特征;将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述自适应感受野选择模型用于根据不同损伤分割标签确定深层图像特征对应不同的感受野选择矩阵;将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
在本说明书实施例中,所述服务器20可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content DeliveryNetwork,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
在一个可选的实施例中,终端10可以结合服务器20训练出的自适应感受野选择模型和车辆损伤识别模型进行图像分割处理。具体的,终端10可以包括但不限于智能手机、台式计算机、平板电脑、笔记本电脑、智能音箱、数字助理、增强现实(Augmented Reality,AR)/虚拟现实(Virtual Reality,VR)设备、智能可穿戴设备等类型的电子设备。可选的,电子设备上运行的操作系统可以包括但不限于安卓系统、IOS系统、Linux、Windows等。
此外,需要说明的是,图1所示的仅仅是本公开提供的一种应用环境,在实际应用中,还可以包括其他应用环境,例如自适应感受野选择模型和车辆损伤识别模型的训练,也可以在终端10上实现。
具体地,本文实施例提供了车辆损伤识别模型建立方法,能够提高车辆损伤识别的准确性。图2是本文实施例提供的一种车辆损伤识别模型建立方法的步骤示意图,本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或装置产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行。具体的如图2所示,所述方法可以包括:
S201:确定训练集数据,所述训练集数据包括历史损伤图片,所述历史损伤图片具有损伤分割标签,所述损伤分割标签包括至少一种预设损伤类型;
S202:提取所述历史损伤图片中浅层图像特征和深层图像特征;
S203:将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述自适应感受野选择模型用于根据不同损伤分割标签确定深层图像特征对应不同的感受野选择矩阵;
S204:将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;
S205:将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;
S206:根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
可以理解为,本说明书实施例的执行主体可以为服务器,在对车辆损伤识别模型训练时,通过加入自适应感受野选择模型处理深层图像特征,可以实现对不同损伤类型选择不同的感受野,从而得到合适尺寸的图像特征,然后将其与图像的浅层特征进行融合,可以得到同时具备鲁棒性和合适尺寸信息的车辆损伤特征(即目标图像特征),通过该车辆损伤特征训练车辆损伤识别模型可以提高模型训练的准确性,能够适应复杂的外部环境。
所述浅层图像特征可以历史损伤图片的视觉集合特征,比如图片中的纹理信息、形状信息和颜色信息等,所述深层图像特征则可以为历史损伤图片中语义信息,比如所述深层图像特征代表不同的损伤类型等。
所述损伤分割标签可以为同一损伤图片中不同损伤类型所占的区域,也就是说,同一个损伤图片中可能存在多个不同的损伤类型,如图3所示,在一损伤图片中,A1区域为变形区域,A2区域为擦伤区域,通过划分损伤图片中的损伤分割标签可以针对不同的区域提取相应的图像特征,并通过自适应感受野选择模型根据不同的深层图像特征选择不同的感受野,从而提高了损伤图像特征提取的准确性,进而提高了模型训练的准确性和高鲁棒性。
所述预设损伤类型至少包括擦伤、变形、破裂和破损等,也可以包括其他损伤类型,所述预设损伤类型的全部类型在本说明书实施例中不做限定。
在本说明书实施例中,所述提取所述历史损伤图片中浅层图像特征和深层图像特征,包括:
利用预先构建的残差学习网络处理所述历史损伤图片,得到浅层图像特征和深层图像特征。
比如,可以搭建以ResNet50网络结构为主体的骨干网络,去除其结构中的全连接网络层,输入尺寸为W×H×3的车辆图像时,首先对输入图像进行裁剪满足预设的输入尺寸,然后利用提前搭建的骨干网络处理计算裁剪图,取网络结构中block_1层的输出特征记为图像的浅层特征,取网络结构中block_4层的输出特征记为图像的深层特征。
在本说明书实施例中,如图4所示,所述将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,包括:
S401:利用预设空洞卷积核,采用多个扩张率处理所述深层图像特征,得到多个尺寸的深层图像特征;
S402:将多个尺寸的深层图像特征融合处理,得到融合后的深层图像特征;
S403:将所述融合后的深层图像特征输入到自适应感受野选择模型中,得到感受野选择矩阵,所述感受野选择矩阵的通道数与融合后的深层图像特征通道数量一致;
S404:根据所述融合后的深层图像特征和所述感受野选择矩阵,计算得到所述历史损伤图片的深层鲁棒特征。
可以理解为,通过预设空洞卷积核处理深层图像特征可以得到不同尺寸感受野的图像特征,保证一定的图像分辨率,同时也不需要增加额外的计算资源,采用多个扩张率可以捕获多尺度的图像信息。
由于不同车辆损伤最适合的感受野各不相同(即不同损伤类型占用的尺寸不同,比如变形所占的尺寸要大于破裂所占的尺寸),车辆变形使用的感受野一般需要较大,否则很难看出到变形的确切特征,而车辆破损特征往往存在一些细小裂纹,因此使用较大感受野卷积时会造成目标特征占比较小导致网络无法学习到这部分的特征,导致模型的可靠性降低,示例性地,如图5所示,B1为破损区域,B2位擦伤区域,B1和B2所需的合适感受野明显不同。在通过自适应感受野选择模型可以得到根据不同预设损伤类型自适应的选择相应尺寸的图像特征的感受野选择矩阵,并且所述感受野选择矩阵的通道数与融合后的深层图像特征通道数量一致,从而可以基于感受野选择矩阵确定更精确的深层图像特征。
在本说明书实施例中,所述将多个尺寸的深层图像特征融合处理,得到融合后的深层图像特征之前还可以包括:
从所述多个尺寸的深层图像特征中确定最大尺寸的深层图像特征;
根据所述最大尺寸的深层图像特征,将其余尺寸的深层图像特征扩展至最大尺寸,以使全部深层图像特征统一在相同尺寸;
将统一尺寸后的深层图像特征进行融合处理,得到融合后的深层图像特征。
将多个尺寸的深层图像特征统一尺寸之后,便于特征的融合处理,示例性地,多个尺寸的深层图像特征分别为3X3X1、5X5X1、8X8X1,则可认为8X8X1为最大尺寸的深层图像特征,然后将3X3X1和5X5X1都扩展至8X8的尺寸,具体实施时,可以使用上采样层将上述多个尺寸的深层图像特征的尺寸统一为wk×hk×ck,所述融合处理可以为多个尺寸同一的特征进行通道相连(即通道融合)。
所述自适应感受野选择模型包括卷积层和激活层。
进一步地,所述将所述融合后的深层图像特征输入到自适应感受野选择模型中,得到感受野选择矩阵,包括:
将所述融合后的深层图像特征输入到所述卷积层中进行卷积处理,得到所述融合后的深层图像特征中不同预设损伤类型对应不同尺寸的深层特征图像的特征图;
将所述特征图输入到所述激活层中进行归一化处理,得到感受野选择矩阵,所述感受野选择矩阵的通道数与融合后的深层图像特征通道数量一致。
需要说明的是,所述自适应感受野选择模型除了包括卷积层和激活层,还可以包括上述用于提取多个尺寸的深层图像特征的预设空洞卷积核,相应地,所述适应感受野选择模型则可以包括预设空洞卷积层、卷积层以及激活层,所述预设空洞卷积层、卷积层以及激活层的功能与上述方法一致,本说明书实施例不做赘述。
再次需要说明的是,通过所述自适应感受野选择模型可以为不同的损伤类型分配不同的感受野(即不同的感受野卷积核),但是所述自适应感受野选择模型是需要经过训练才能实现相应的效果,因此还需要在训练集数据中的历史损伤图片中设置感受野选择矩阵标签,便于训练所述自适应感受野选择模型,通过训练后的模型可以确保最终得到的特征中有合适的尺寸(或尺度)信息,相比传统的特征图金字塔网络(Feature PyramidNetworks,FPN)所使用的全部尺度信息更为准确,在特征中不存在较多的冗余尺度信息,另一方面使用这种自适应感受野选择网络只需要4种不同的空洞卷积核参数(即与预设损伤类型数量一致的空洞卷积核参数)与1层卷积网络参数,而使用FPN等堆叠式卷积神经网络将引入庞大的特征计算量与网络参数,对于影像计算的时效性与储存空间有较大挑战,不利于实现轻量化模型前置功能。
示例性地,以擦伤、变形、破裂和破损四种预设损伤类型为例,在得到深层图像特征的基础上,使用核尺寸为3x3,rate大小分别为6、12、18和24的空洞卷积核处理图像深层特征,处理得到4个不同尺寸的图像特征,然后使用上采样层将这些图像特征的特征尺寸统一为wk×hk×ck。
针对自适应感受野选择模型,使用一个常规卷积层处理深层图像特征并用Sigmoid函数使其数值归一化到0与1之间,输出感受野选择矩阵S∈Rwk×hk×ck×4,然后通过如下公式(1)计算获得所述历史损伤图片的深层鲁棒特征:
f1=multi_feature×(S+0.5×I), (1)
其中,f1为深层鲁棒特征,multi_feature为融合后的深层图像特征,S为感受野选择矩阵,I为单位矩阵,所述单位矩阵与所述感受野选择矩阵的尺寸一致。
在一些其他实施例中,所述深层鲁棒特征也可以由其他的计算方式获得,在本说明书实施例中不做限定。
除了对深层图像特征进行处理,本说明书实施例还可以对浅层图像特征进行处理,作为可选地,所述将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征之前还包括:
利用特征增强网络对所述浅层图像特征进行特征增强处理,得到特征增强后的浅层图像特征。
一般情况下,车辆损伤部位与其周围正常部分的区别会体现在纹理与颜色上,通过特征增强网络可以对损伤部位的区域特征进行增强,增加了与周围正常部分的差异性,提高了模型训练的准确性,示例性地,可以通过维度为256的SE_block网络结构处理浅层图像特征,从而对历史损伤图片中损伤部位的区域特征进行增强处理。
在对深层图像特征和浅层图像特征进行处理之后,可以将处理后的特征进行融合处理,即将尺度鲁棒的深层图像特征和增强纹理颜色信息的浅层图像特征进行通道融合,使得用于预测分割结果的融合特征具备丰富的尺度特征,进而在模型训练时可以得到更可靠的训练结果,同时还能够有效区分受损区域与周边区域的差异性。
在本说明书实施例中,所述车辆损伤识别模型可以用于预设的损伤类型(比如n类损伤类型),通过接收融合后的目标图像特征,输出矩阵尺寸应为W×H×n,W时图像宽,H为图像高,即可看做n个与原输入图相同尺寸的概率图,每个概率图对应一个损伤类型,其中第i个概率图上某个像素点位置数值代表原输入图中同样位置处像素点属于第i类损伤的概率值,统计每张概率图中相同位置像素点概率值最大的点作为目标像素点,这样就可以得到一张目标概率图,该目标概率图中像素点的分布(不同损伤类型对应的像素点不同)即为所述模型的车辆损伤预测结果。示例性地,所述车辆损伤识别模型的结构可以为堆叠2层反卷积网络与1层上采样层来实现上述功能,得到车辆损伤分割概率结果。
在本说明书实施例中,所述预设损失函数包括设有预设权重的分类损失函数、异常检测损失函数和感受野选择损失函数。作为可选地,所述预设损伤函数可以通过如下公式(2)得到:
L=λ1Lcls2Ldis3Lsel, (2)
其中,Lcls为分割结果的分类损失,Ldis为融合特征的异常检测损失函数,Lsel为感受野选择损失函数,λ1、λ2和λ3分别表示上述损失函数的权重,λ123=1。
所述分类损失函数可以为根据图像预设分割结果和损伤分割标签计算得到的损失函数,作为可选地,可以为多个二分类的交叉熵损失函数,具体计算过程为损失函数常规计算过程,本说明书实施例不做赘述,当然,所述分类损失函数也可以为其他类型的损失函数,本说明书中不做限定。
所述异常检测损失函数为历史损伤图片中不同融合特征的类间距离,如图6所示,计算过程如下所述:
S601:确定所述历史损伤图片所属的车辆部件;
S602:根据所述车辆部件和所述目标图像特征,确定每个车辆部件对应的图像特征;
S603:根据所述车辆部件对应的图像特征,确定每个车辆部件对应的图像特征的聚类中心;
S604:根据所述历史损伤图片对应的损伤分割标签、每个车辆部件对应的图像特征的聚类中心,计算得到所述异常检测损失函数。
可以理解为,区别于传统异常检测模型使用以异常区域为单位,传统的异常检测模型使用特征聚类或者最大化类间距,主要目的是为了将受损区域与周边区域区别开,本文中的异常检测损失函数是以车辆的不同部件为单位,将不同部件的特征进行分割,计算不同损伤部件之间图像特征之间的类间距离,利用正常车辆部件与异常车辆部件之间的差异最大化,有效解决将车身自带的流线形状被误检的情况,提高受损部位的检测精度。
作为可选地,所述异常检测损失函数通过如下公式(3)得到:
Figure BDA0003318861480000131
其中,
Figure BDA0003318861480000132
代表第i类与第j类车辆部件对应的图像特征的聚类中心的欧氏距离,
Figure BDA0003318861480000133
表示第i类车辆部件对应的图像特征的聚类中心,M表示第i类车辆部件对应的图像特征中像素点的总个数,Ki为第i类车辆部件对应的图像特征的像素点集合,p为第i类车辆部件对应的图像特征中像素点坐标,δ为先验值,比如可以取1.5,Nor表示没有损伤车辆部件集合,AN代表有损伤的车辆部件集合。
在实际训练过程中,需要提前将训练集数据中的历史损伤图片所属车辆部件做标签处理,这样在计算异常检测损失函数时,可以直接输入所述历史损伤图片中部件标签信息,结合上述公式(3)即可得到计算的损失函数的值,通过上述公式(3)可以明显看出当带损伤车辆部件与正常车辆部件的特征聚类中心距离增加时,异常检测损失函数的值会相应降低,因此使用该异常检测损失函数辅助训练可以使带损伤与不带损伤的部件差异最大化,从而使网络在学习训练的过程中,隐式地减少因车辆本身流线型结构导致损伤误检的情况。
在对深层图像特征进行感受野选择处理过程中,需要得到感受野选择矩阵,该矩阵为自适应感受野选择模型的输出结果,为了使所述自适应感受野选择模型达到收敛,则需要对历史损伤图片对应的损伤分割标签进一步设置感受野选择矩阵标签(即损伤分割标签矩阵)作为该模型输出的目标结果,从而可以通过所述感受野选择矩阵标签以及感受野选择矩阵计算所述自适应感受野选择模型的损失函数,进而训练该模型,作为可选地,如图7所示,所述感受野选择损失函数通过如下步骤得到:
S701:确定所述历史损伤图片对应的损伤分割标签中的预设损伤类型,及所述预设损伤类型所在的图片区域;
S702:构建损伤分割标签全零矩阵,所述损伤分割标签全零矩阵的通道与预设损伤类型一一对应;
S703:根据所述预设损伤类型所在的图片区域,依次在与所述预设损伤类型对应通道上的相应区域的像素值置为1,以获得所述历史损伤图片对应的损伤分割标签矩阵;
S704:根据所述损伤分割标签矩阵和所述感受野选择矩阵,利用均方误差函数计算得到所述感受野选择损失函数。
可以理解为,所述损伤分割标签矩阵为将深层图像特征输入到自适应感受野选择模型的目标结果,通过设置与预设损伤类型数量一致的通道数,比如有四种损伤类型,则所述损伤分割标签矩阵有四个通道,每个通道对应一个损伤类型,并且根据损伤类型的适应尺度依次设置通道,第一通道对应所需尺度(或尺寸)最小的损伤类型,第四通道对应所需尺度最大的损伤类型,通过为不同的损伤类型设置对应的感受野选择矩阵标签,促使自适应感受野选择模型为不同损伤类型分配不同的感受野卷积核,进而能够确保特征中有合适的尺度信息,提高特征提取的可靠性和准确性。
示例性地,若车辆损伤识别模型的损伤分割标签矩阵为Label,则该标签矩阵中像素点值为j的区域代表该区域对应第j类车辆损伤。首先生成一个尺寸为wk×hk×4的全零矩阵Z,然后查找全部Label中变形类型区域的全部像素点位置,并在Z第4个通道上将这些位置的像素值置为1,针对破损类型区域同样进行位置查找,然后在Z上的第1个通道讲这些位置的像素值置为1,针对第2通道和第3通道也进行相应的操作,最终构成的损伤分割标签矩阵能够使不同损伤对应的感受野选择趋向性更加明确。
通过上述损伤函数的计算可以得到所述预设损失函数每次训练时的计算结果,进而实现对损伤自适应感受野选择模型和所述车辆损伤识别模型的训练,作为可选地,所述根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型,包括:
根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,通过所述预设损失函数,计算得到损失函数计算值;
判断所述损失函数计算值是否低于损失阈值;
若否,则调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,并回到浅层图像特征和深层图像特征的提取步骤,直到计算得到的损失函数计算值低于所述损失阈值,并获得所述自适应感受野选择模型和所述车辆损伤识别模型最终的网络参数;
若是,则获得所述自适应感受野选择模型和所述车辆损伤识别模型最终的网络参数;
根据所述自适应感受野选择模型和所述车辆损伤识别模型最终的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
可以理解为,本说明书实施例中,通过自适应感受野选择模型对训练集数据进行特征处理,将处理结果作为所述车辆损伤识别模型的输入结果,进而得到图像预测分割结果并通过上述公式计算得到的损失函数进行训练,所述损失阈值可以根据实际情况设置,在本说明书实施例中不做限定。
在进行训练的过程中,可以通过计算得到的所述损失函数计算值反向传播调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,直到该两个模型达到收敛。
本说明书实施例提供的车辆损伤识别模型建立方法,在训练过程中通过提取图像的浅层图像特征和深层图像特征,从图像的深层特征中学习车辆损伤的语义特征,并使用不同尺度的空洞卷积处理该语义特征,然后根据自适应感受野选择模型自适应地选择处理不同尺度图像的感受野卷积结果,最后将具备合适尺度信息的深层语义特征与具备增强的浅层视觉特征进行通道融合,使用融合特征预测输出车身受损部位分割结果,进一步地,车辆损伤识别模型使用的异常检测损伤函数能够有效的对比正常与包含异常区域的车辆部件,从而使网络学习到因复杂环境导致的疑似损伤与真实损伤之间的差异,大幅度缓解损伤识别的误判。另外,根据损伤分割结果反馈调整自适应感受野选择模型,能够更有效地针对不同的损伤类型特点,使用最佳的感受野尺度。通过上述的模型搭建,车辆损伤识别模型对车辆图像的拍摄环境与常见损伤类型具备高鲁棒性与识别准确率。
基于同一发明构思,本说明书实施例还提供一种车辆损伤识别模型建立装置,如图8所示,所述装置包括:
训练集数据确定模块110,用于确定训练集数据,所述训练集数据包括历史损伤图片,所述历史损伤图片具有损伤分割标签,所述损伤分割标签包括至少一种预设损伤类型;
第一提取模块120,用于提取所述历史损伤图片中浅层图像特征和深层图像特征;
第一处理模块130,用于将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述自适应感受野选择模型用于根据不同损伤分割标签确定深层图像特征对应不同的感受野选择矩阵;
第一融合模块140,用于将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;
预测模块150,用于将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;
训练模块160,用于根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
通过上述装置所取得的有益效果和上述方法所取得的有益效果一致,本说明书实施例不做赘述。
在上述提供一种车辆损伤识别模型建立方法的基础上,本说明书实施例还提供一种车辆损伤识别方法,如图9所示,所述方法包括:
S901:利用预先构建的残差学习网络处理待识别损伤图片,得到所述待识别损伤图片的浅层图像特征和深层图像特征;
S902:将所述深层图像特征输入到训练完成的自适应感受野选择模型中,得到深层鲁棒特征;
S903:将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述待识别损伤图片的目标图像特征;
S904:将所述目标图像特征输入到通过上述方法建立的车辆损伤识别模型中,得到所述待识别损伤图片的图像分割结果。
进一步地,如图10所示,所述将所述目标图像特征输入到训练完成的车辆损伤识别模型中,得到所述待识别损伤图片的图像分割结果,包括:
S1001:将所述目标图像特征输入到训练完成的车辆损伤识别模型中,得到识别类型分布矩阵,所述识别类型分布矩阵的通道输出概率图与预设损伤类型一一对应,每个通道输出概率图中像素点的数值表示所述通道输出概率图中像素点的预测概率;
S1002:遍历不同的通道输出概率图中同一位置处的像素点的预测概率,确定同一位置处像素点的最大预测概率,得到所述待识别损伤图片的识别概率图;
S1003:根据所述识别概率图,确定不同预设损伤类型的分布情况;
S1004:根据所述不同预设损伤类型的分布情况,确定所述待识别损伤图片的图像分割结果。
示例性地,如图11所示,为车辆损伤识别流程示意图,将待识别图像输入到以ResNet50网络结构为主体的骨干网络中,得到浅层图像特征和深层图像特征,将浅层图像特征输入到SE增强网络中进行特征增强处理,将深层图像特征输入到自适应感受野选择网络中得到合适尺度的深层图像特征,然后进行特征融合处理得到融合特征,再将融合特征输入到训练完成的车辆损伤识别模型中得到待识别图像的分割结果,本文提供的模型能够提高车辆损伤识别准确率。
基于同一发明构思,本文还提供一种车辆损伤识别装置,如图12所示,所述装置包括:
第二提取模块210,用于利用预先构建的残差学习网络处理待识别损伤图片,得到所述待识别损伤图片的浅层图像特征和深层图像特征;
第二处理模块220,用于将所述深层图像特征输入到训练完成的自适应感受野选择模型中,得到深层鲁棒特征;
第二融合模块230,用于将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述待识别损伤图片的目标图像特征;
识别模块240,用于将所述目标图像特征输入到通过上述方法建立的车辆损伤识别模型中,得到所述待识别损伤图片的图像分割结果。
如图13所示,为本文实施例提供的一种计算机设备,本文中的装置可以为本实施例中的计算机设备,执行上述本文的方法,所述计算机设备1302可以包括一个或多个处理器1304,诸如一个或多个中央处理单元(CPU),每个处理单元可以实现一个或多个硬件线程。计算机设备1302还可以包括任何存储器1306,其用于存储诸如代码、设置、数据等之类的任何种类的信息。非限制性的,比如,存储器1306可以包括以下任一项或多种组合:任何类型的RAM,任何类型的ROM,闪存设备,硬盘,光盘等。更一般地,任何存储器都可以使用任何技术来存储信息。进一步地,任何存储器可以提供信息的易失性或非易失性保留。进一步地,任何存储器可以表示计算机设备1302的固定或可移除部件。在一种情况下,当处理器1304执行被存储在任何存储器或存储器的组合中的相关联的指令时,计算机设备1302可以执行相关联指令的任一操作。计算机设备1302还包括用于与任何存储器交互的一个或多个驱动机构1308,诸如硬盘驱动机构、光盘驱动机构等。
计算机设备1302还可以包括输入/输出模块1310(I/O),其用于接收各种输入(经由输入设备1312)和用于提供各种输出(经由输出设备1314))。一个具体输出机构可以包括呈现设备1316和相关联的图形用户接口(GUI)1318。在其他实施例中,还可以不包括输入/输出模块1310(I/O)、输入设备1312以及输出设备1314,仅作为网络中的一台计算机设备。计算机设备1302还可以包括一个或多个网络接口1320,其用于经由一个或多个通信链路1322与其他设备交换数据。一个或多个通信总线1324将上文所描述的部件耦合在一起。
通信链路1322可以以任何方式实现,例如,通过局域网、广域网(例如,因特网)、点对点连接等、或其任何组合。通信链路1322可以包括由任何协议或协议组合支配的硬连线链路、无线链路、路由器、网关功能、名称服务器等的任何组合。
对应于图2、图4、图6-图7、图9-图10中的方法,本文实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法的步骤。
本文实施例还提供一种计算机可读指令,其中当处理器执行所述指令时,其中的程序使得处理器执行如图2、图4、图6-图7、图9-图10中所示的方法。
应理解,在本文的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本文实施例的实施过程构成任何限定。
还应理解,在本文实施例中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本文的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本文所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本文实施例方案的目的。
另外,在本文各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本文的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本文各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本文中应用了具体实施例对本文的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本文的方法及其核心思想;同时,对于本领域的一般技术人员,依据本文的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本文的限制。

Claims (10)

1.一种车辆损伤识别模型建立方法,其特征在于,所述方法包括:
确定训练集数据,所述训练集数据包括历史损伤图片,所述历史损伤图片具有损伤分割标签,所述损伤分割标签包括至少一种预设损伤类型;
提取所述历史损伤图片中浅层图像特征和深层图像特征;
将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述自适应感受野选择模型用于根据不同损伤分割标签确定深层图像特征对应不同的感受野选择矩阵;
将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;
将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;
根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
2.根据权利要求1所述的方法,其特征在于,所述将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,包括:
利用预设空洞卷积核,采用多个扩张率处理所述深层图像特征,得到多个尺寸的深层图像特征;
将多个尺寸的深层图像特征融合处理,得到融合后的深层图像特征;
将所述融合后的深层图像特征输入到自适应感受野选择模型中,得到感受野选择矩阵,所述感受野选择矩阵的通道数与融合后的深层图像特征通道数量一致;
根据所述融合后的深层图像特征和所述感受野选择矩阵,计算得到所述历史损伤图片的深层鲁棒特征。
3.根据权利要求2所述的方法,其特征在于,所述深层鲁棒特征通过如下公式得到:
f1=multi_feature×(S+0.5×I),
其中,f1为深层鲁棒特征,multi_feature为融合后的深层图像特征,S为感受野选择矩阵,I为单位矩阵。
4.根据权利要求1所述的方法,其特征在于,所述预设损失函数包括设有预设权重的分类损失函数、异常检测损失函数和感受野选择损失函数;
所述异常检测损失函数通过如下步骤得到:
确定所述历史损伤图片所属的车辆部件;
根据所述车辆部件和所述目标图像特征,确定每个车辆部件对应的图像特征;
根据所述车辆部件对应的图像特征,确定每个车辆部件对应的图像特征的聚类中心;
根据所述历史损伤图片对应的损伤分割标签、每个车辆部件对应的图像特征的聚类中心,计算得到所述异常检测损失函数。
5.根据权利要求4所述的方法,其特征在于,所述感受野选择损失函数通过如下步骤得到:
确定所述历史损伤图片对应的损伤分割标签中的预设损伤类型,及所述预设损伤类型所在的图片区域;
构建损伤分割标签全零矩阵,所述损伤分割标签全零矩阵的通道与预设损伤类型一一对应;
根据所述预设损伤类型所在的图片区域,依次在与所述预设损伤类型对应通道上的相应区域的像素值置为1,以获得所述历史损伤图片对应的损伤分割标签矩阵;
根据所述损伤分割标签矩阵和所述感受野选择矩阵,利用均方误差函数计算得到所述感受野选择损失函数。
6.一种车辆损伤识别方法,其特征在于,所述方法包括:
利用预先构建的残差学习网络处理待识别损伤图片,得到所述待识别损伤图片的浅层图像特征和深层图像特征;
将所述深层图像特征输入到训练完成的自适应感受野选择模型中,得到深层鲁棒特征;
将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述待识别损伤图片的目标图像特征;
将所述目标图像特征输入到通过权利要求1至5任一项方法建立的车辆损伤识别模型中,得到所述待识别损伤图片的图像分割结果。
7.一种车辆损伤识别模型建立装置,其特征在于,所述装置包括:
训练集数据确定模块,用于确定训练集数据,所述训练集数据包括历史损伤图片,所述历史损伤图片具有损伤分割标签,所述损伤分割标签包括至少一种预设损伤类型;
第一提取模块,用于提取所述历史损伤图片中浅层图像特征和深层图像特征;
第一处理模块,用于将所述深层图像特征输入到自适应感受野选择模型中,得到深层鲁棒特征,所述自适应感受野选择模型用于根据不同损伤分割标签确定深层图像特征对应不同的感受野选择矩阵;
第一融合模块,用于将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述历史损伤图片的目标图像特征;
预测模块,用于将所述目标图像特征输入到车辆损伤识别模型中,得到图像预测分割结果;
训练模块,用于根据所述图像预测分割结果和所述历史损伤图片对应的损伤分割标签,利用预设损失函数调整所述自适应感受野选择模型和所述车辆损伤识别模型的网络参数,得到训练完成的所述自适应感受野选择模型和所述车辆损伤识别模型。
8.一种车辆损伤识别装置,其特征在于,所述装置包括:
第二提取模块,用于利用预先构建的残差学习网络处理待识别损伤图片,得到所述待识别损伤图片的浅层图像特征和深层图像特征;
第二处理模块,用于将所述深层图像特征输入到训练完成的自适应感受野选择模型中,得到深层鲁棒特征;
第二融合模块,用于将所述深层鲁棒特征和所述浅层图像特征融合处理得到所述待识别损伤图片的目标图像特征;
识别模块,用于将所述目标图像特征输入到通过权利要求1至5任一项方法建立的车辆损伤识别模型中,得到所述待识别损伤图片的图像分割结果。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的方法。
CN202111239897.XA 2021-10-25 2021-10-25 一种车辆损伤识别模型建立方法、损伤识别方法及装置 Pending CN114004289A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111239897.XA CN114004289A (zh) 2021-10-25 2021-10-25 一种车辆损伤识别模型建立方法、损伤识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111239897.XA CN114004289A (zh) 2021-10-25 2021-10-25 一种车辆损伤识别模型建立方法、损伤识别方法及装置

Publications (1)

Publication Number Publication Date
CN114004289A true CN114004289A (zh) 2022-02-01

Family

ID=79923694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111239897.XA Pending CN114004289A (zh) 2021-10-25 2021-10-25 一种车辆损伤识别模型建立方法、损伤识别方法及装置

Country Status (1)

Country Link
CN (1) CN114004289A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116703837A (zh) * 2023-05-24 2023-09-05 北京大学第三医院(北京大学第三临床医学院) 一种基于mri图像的肩袖损伤智能识别方法及装置
CN117789153A (zh) * 2024-02-26 2024-03-29 浙江驿公里智能科技有限公司 基于计算机视觉的汽车油箱外盖定位系统及方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116703837A (zh) * 2023-05-24 2023-09-05 北京大学第三医院(北京大学第三临床医学院) 一种基于mri图像的肩袖损伤智能识别方法及装置
CN116703837B (zh) * 2023-05-24 2024-02-06 北京大学第三医院(北京大学第三临床医学院) 一种基于mri图像的肩袖损伤智能识别方法及装置
CN117789153A (zh) * 2024-02-26 2024-03-29 浙江驿公里智能科技有限公司 基于计算机视觉的汽车油箱外盖定位系统及方法
CN117789153B (zh) * 2024-02-26 2024-05-03 浙江驿公里智能科技有限公司 基于计算机视觉的汽车油箱外盖定位系统及方法

Similar Documents

Publication Publication Date Title
AU2017209231B2 (en) Method, system, device and readable storage medium for realizing insurance claim fraud prevention based on consistency between multiple images
CN108345827B (zh) 识别文档方向的方法、系统和神经网络
JP2020504358A (ja) 画像ベースの車両損害評価方法、装置、およびシステム、ならびに電子デバイス
EP3869385B1 (en) Method for extracting structural data from image, apparatus and device
CN107545241A (zh) 神经网络模型训练及活体检测方法、装置及存储介质
CN111640130A (zh) 表格还原方法及装置
CN113822209B (zh) 高光谱图像识别方法、装置、电子设备及可读存储介质
CN112288723A (zh) 缺陷检测方法、装置、计算机设备及存储介质
CN114004289A (zh) 一种车辆损伤识别模型建立方法、损伤识别方法及装置
CN114445670B (zh) 图像处理模型的训练方法、装置、设备及存储介质
WO2021218238A1 (zh) 图像处理方法和图像处理装置
CN113011144A (zh) 表单信息的获取方法、装置和服务器
CN110647895B (zh) 一种基于登录框图像的钓鱼页面识别方法及相关设备
CN114419363A (zh) 基于无标注样本数据的目标分类模型训练方法及装置
CN113837151A (zh) 表格图像处理方法、装置、计算机设备及可读存储介质
CN112668462A (zh) 车损检测模型训练、车损检测方法、装置、设备及介质
KR20200092450A (ko) 데이터 라벨링을 수행하기 위한 기법
CN116071089A (zh) 一种欺诈识别方法、装置、电子设备及存储介质
CN110119736B (zh) 车牌位置识别方法、装置及电子设备
CN116975828A (zh) 一种人脸融合攻击检测方法、装置、设备及存储介质
CN114882020B (zh) 产品的缺陷检测方法、装置、设备及计算机可读介质
CN114255381B (zh) 图像识别模型的训练方法、图像识别方法、装置及介质
CN113505716B (zh) 静脉识别模型的训练方法、静脉图像的识别方法及装置
CN115880702A (zh) 数据处理方法、装置、设备、程序产品及存储介质
CN113191364A (zh) 车辆外观部件识别方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination