CN106127747B - 基于深度学习的汽车表面损伤分类方法及装置 - Google Patents
基于深度学习的汽车表面损伤分类方法及装置 Download PDFInfo
- Publication number
- CN106127747B CN106127747B CN201610439187.4A CN201610439187A CN106127747B CN 106127747 B CN106127747 B CN 106127747B CN 201610439187 A CN201610439187 A CN 201610439187A CN 106127747 B CN106127747 B CN 106127747B
- Authority
- CN
- China
- Prior art keywords
- image
- candidate region
- automobile
- area
- damaged
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0006—Industrial image inspection using a design-rule based approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像检测领域,尤其是涉及一种基于深度学习的汽车表面损伤分类方法及装置。本发明针对现有技术存在的问题,提供一种分类方法及装置。对输入的待测图像进行特征学习和分类,具体是利用区域选择性搜索算法从每个待测图像上提取a个候选区域并记录各候选区域的位置信息;将所述待测图像输入去掉输出层的特征图提取网络模型中,以提取待测图像各候选区域的特征向量;将各候选区域的特征向量输入到SVM分类器中找到目标特征向量;根据目标特征向量在特征图中的位置找到对应的候选区域在待测图像上的位置,即为待测图像的目标区域;将待测图像的目标区域输入到最优分类网络模型中,输出该区域在各受损等级上的概率。
Description
技术领域
本发明涉及图像检测领域,尤其是涉及一种基于深度学习的汽车表面损伤分类方法及装置。
背景技术
近年来,随着我国城市化建设的不断发展,我国的人均汽车占有量不断增加。调查显示,截止2015年全国的汽车总量已经超过1.7亿辆,与此同时,由汽车带来的安全问题也不断增加。事故发生后,无论是机动车辆之间,还是车辆与固定的物体之间的碰撞都会在车辆上留下痕迹。这些痕迹会严重影响汽车的美观乃至使用,而不同类型的痕迹所需要的维护费用也不尽相同,因此,需要对这些痕迹进行评估。目前,针对汽车外观的擦痕的评估主要依赖定损人员的主观判定,不仅检测时间长,而且易受主观因素的干扰。如果能够通过计算机自动识别检测车辆的外观,就可以极大地提高车辆外观检测的效率。因此,结合计算机视觉技术实现对车辆外观检查,是未来计算机辅助车辆检测及损伤评定的一个重要方向。
深度学习是一种通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示的机器学习理论。其又可分为有监督学习和无监督学习,卷积神经网络就是一种监督学习下的深度学习模型,它是一种非全连接的神经网络结构,可自动地学习含有大量数据的目标特征,对几何变换、形变以及光照都有一定的鲁棒性。汽车的外观擦痕复杂多变,且容易受到光照、遮挡等外界干扰。
发明内容
本发明所要解决的技术问题是:针对现有技术存在的问题,提供一种基于深度学习的汽车表面损伤分类方法及装置。本方法及装置通过建立汽车受损数据库;进行汽车待测区域提取;然后设计深度学习网络结构对输入的样本集进行特征学习和分类,最后得到汽车表面属于喷漆、钣金和更换三种类型,自动化的给出分类结果,帮助车辆定损与检测。
本发明采用的技术方案如下:
一种基于深度学习的汽车表面损伤分类方法包括:
步骤1:手动收集p张汽车外观相同部位的汽车受损图片,采用随机翻转、随机裁剪以及颜色变换对p张汽车受损图片进行样本量扩充,建立汽车受损数据库,得到n张汽车受损图片;其中汽车外观相同部位分别指的是汽车叶子板、车门、保险杠以及车头部分形状相同的汽车,n大于10000;n>p;
步骤2:从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;采用选择性搜索算法从训练样本库中每个受损图像选取a图像块作为候选区域;然后计算各候选区域的面积重合度s,用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作后,得到候选区域的最佳特征图,同时得到训练好的特征图提取网络模型;将该特征图提取网络模型的输出层采用一个SVM分类器替换,训练SVM分类器对目标区域、背景区域和干扰区域的特征向量进行分类操作;通过SVM分类器可找到目标区域的特征向量,并根据特征向量找到对应的候选区域在样本图像中的位置即可作为待测部件区域;其中m<n,所述特征图提取网络模型是使SoftMax分类器代价函数最小的特征图对应的网络模型;SVM分类器的分类依据是根据输入样本上的候选区域与选定区域的面积重合度不同而划分的。当面积重合度大于0.7时,输入样本上的候选区域可视为目标区域,其在最佳特征图中提取的特征向量为目标特征向量;当面积重合度小于0.3时,输入样本上的候选区域可视为背景区域,其在最佳特征图中提取的特征向量为背景特征向量;当面积重合度介于0.3到0.7之间时,输入样本上的候选区域视为干扰区域,其在最佳特征图中提取的特征向量为干扰特征向量。
步骤3:将所述待测部件区域分为训练图像库和验证集图像库,训练图像库、验证集图像库每一个输入样本按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构,计算训练图像库每一个输入样本的擦挂情况属于对应样本标签的概率,并得到分类网络模型;当分类网络模型在验证集区域库中的分类准确性最高时,分类网络模型即为最优分类网络模型;其中训练图像库用于调整各网络层的参数值,进行模型训练,验证集区域库用于验证受损等级标签分类的准确性;受损等级标签反映的是各受损图片的受损等级程度;
步骤4:利用区域选择性搜索算法从每个待测图像上提取a个候选区域并记录各候选区域的位置信息;将所述待测图像输入到步骤2训练好的去掉输出层的特征图提取网络模型中,以提取待测图像各候选区域的特征向量;将各候选区域的特征向量输入到步骤2训练好的SVM分类器中找到目标特征向量;根据目标特征向量在特征图中的位置找到对应的候选区域在待测图像上的位置,即为待测图像的目标区域;将待测图像的目标区域输入到步骤3的最优分类网络模型中,输出该区域在各受损等级上的概率其中概率值最大的受损等级即为该目标区域的受损等级;该目标区域的受损等级反映该汽车图片待测区域的受损程度,其中待测图片指的是需要测试损伤等级的汽车外观图片;a范围是1000到2000。
进一步的,所述步骤1具体实现过程:
步骤11:手动收集p张汽车外观相同部位的汽车受损图片,将所有的汽车受损图片进行镜像数据扩充,即对汽车受损图片进行水平翻转,使得汽车受损图片的数量扩充一倍;
步骤12:对步骤11处理后的汽车受损图片进行次随机裁剪,裁剪后的图片大小为256x256,并且其需包含汽车的受损部件信息;经过随机裁剪使得汽车受损图片的数量扩充一倍;
步骤13:对步骤12处理后的汽车受损图片进行加噪扩充。即把汽车受损图片的每个像素点的值,乘以一个(0.8,1.2)之间的随机数实现汽车受损图片的扩充。经过加噪扩充使得汽车受损图片的数量扩充一倍;
步骤14:对步骤13处理后的汽车受损图片进行颜色变换;变换方法是首先将汽车受损图片转换到HSV颜色空间中,然后将S和V分量乘以一个(0.7,1.4)之间的值得到不同颜色的新汽车受损图片;经过颜色变换使得汽车受损图片的数量扩充一倍;经过上述处理方式,受损汽车受损图片将达到n张,从而建立n张汽车受损数据库,n>10000。
进一步的,所述步骤2中具体过程是:
步骤21:从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;
步骤22:采用选择性搜索算法从训练样本库中每个受损图像选取a图像块作为候选区域,并记录各候选区域的位置为(xi1,yi1,xi2,yi2);其中i表示第i个候选区域,(xi1,yi1)表示第i个候选区域左上角的坐标,(xi2,yi2)表示第i个候选区域右下角的坐标;a范围是1000到2000;
步骤23:采用Alexnet网络的前14层网络结构提取m张汽车受损图片的特征图,得到特征图后,计算步骤22中各个候选区域在特征图中的对应位置:计算公式为:
其中(xi1',yi1',xi2',yi2')表示第i个候选区域在特征图中的坐标位置;st表示Alexnet网络中的前5个卷积层和池化层的strides的乘积,在此st=16;根据各候选区域在特征图中的位置后,对所述特征图中的候选区域进行金字塔空间池化提取出固定长度的特征向量,输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作;通过随机梯度下降算法将分类结果的误差传递到上一层网络结构中,更新各网络层的权值得到新的特征图用于SoftMax分类器的分类,直至分类结果的误差即代价函数SJ达到最小,此时的特征图提取网络模型训练完毕。
步骤24:从步骤1中手动标记选定区域的训练样本库中选取m1个样本用于训练SVM分类器;训练方法如下:按照步骤22从训练样本库中每个受损图像选取a图像块作为候选区域,将训练样本库中每个受损图像输入到步骤23训练得到的特征图提取网络模型中;去除该特征图提取网络模型的输出层,即可输出各候选区域的特征向量,将所述特征向量按照其候选区域与选定区域的面积重合度不同分为目标特征向量、背景特征向量以及干扰特征向量三类;其中,目标特征向量表示该特征向量对应的候选区域与选定区域的面积重合度大于0.7;背景特征向量表示该特征向量对应的候选区域与选定区域的面积重合度小于0.3;干扰特征向量表示该特征向量对应的候选区域与选定区域的面积重合度介于0.3到0.7之间;提取所有用于训练SVM分类器的样本图像的目标特征向量、背景特征向量以及干扰特征向量并建立相应的集合训练SVM分类器;通过训练使SVM分类器有效判断各候选区域的特征向量的类别,从而找到其中的目标特征向量,根据目标特征向量可得到对应的候选区域即为待测部件区域,其中m1<m。
进一步的,所述步骤23中输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作具体过程是:
步骤231:根据步骤22中待受损图片的各候选区域后计算各候选区域的面积重合度s:
其中Sh表示候选区域的面积;Sm表示选定区域的面积;Sc表示二者重合的面积;
步骤232:按照各受损图片的候选区域与选定区域的面积重合度大小将受损图片的候选区域分别表示为目标区域和背景区域;其中,背景区域表示面积重合度大于0.5的候选区域,背景区域表示面积重合度小于0.5的候选区域。
进一步说,所述步骤23中代价函数的计算方法如下:
其中表示第σ个候选区域的输入特征向量;表示第σ个候选区域属于背景区域的概率;表示第σ个候选区域属于目标区域的概率;sσ表示第σ个候选区域的面积重合度;SJ为代价函数;其中分类结果的误差指的是全部介于0和1之间的小数,且和均为特征向量的权值,分别反映特征向量属于背景区域和目标区域的概率分布。
进一步说,所述步骤3具体过程是:
步骤31:将所述待测部件区域分为训练图像库/验证集区域库=(5:1到3:2),训练图像库按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构;
步骤32:通过深度学习网络的隐含层对训练图像库进行特征提取;隐含层包括卷积层,BN层、激活函数层、池化层,全连接层。
其中,表示第θ层第v个训练图像库输出特征图;表示第u个训练图像库输入图像与第v个训练图像库输出图像之间的权重;为第v个训练图像库输出图像的偏置;为BN层操作,即对第θ层第v个神经元进行归一化操作;为激活函数层操作,实现对的非线性响应。
步骤:33:输出层对隐含层提取的训练图像库特征采用Softmax函数进行分类操作,公式如下:
其中,表示第β个训练图像库的输出特征向量;wαβ表示第β个训练图像库的受损类别为α时对应的特征向量的权值;表示第β个训练图像库属于第α类的概率;1{yβ=α}表示受损类别α与受损等级标签值yβ相等时为1,否则为0;J为Softmax函数的代价函数;
步骤34:通过随机梯度下降算法更新各网络层的权值降低代价函数(用于提高Softmax函数的分类准确性),得到分类网络模型,并用验证集图片库检验所述分类网络模型的分类准确性;当分类网络模型在验证集区域库中的分类准确性最高时,分类网络模型即为最优分类网络模型,其中分类准确性指的是分类正确的验证集图片库占待测部件区域的百分比;判断分类正确与否的方法是将验证集图片库中的每幅图像输入到分类网络模型中,通过分类网络模型输出层输出验证集图片库属于各个受损类别α的概率选取最大时对应的受损类别α值作为深度学习网络模型的分类结果,比较此时的α值与受损等级标签值yβ是否相等,若相等则说明深度学习网络模型的分类结果与标签值一致,说明分类正确;,其中α={0,1,...t}。
一种基于深度学习的汽车表面损伤分类装置包括:
样本量扩充模块,用于手动收集p张汽车外观相同部位的汽车受损图片,采用随机翻转、随机裁剪以及颜色变换对p张汽车受损图片进行样本量扩充,建立汽车受损数据库,得到n张汽车受损图片;其中汽车外观相同部位分别指的是汽车叶子板、车门、保险杠以及车头部分形状相同的汽车,n大于10000;n>p;
特征图提取网络模型及SVM分类器建立模块,用于从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;采用选择性搜索算法从训练样本库中每个受损图像选取a图像块作为候选区域;然后计算各候选区域的面积重合度s,用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作后,得到候选区域的最佳特征图,同时得到训练好的特征图提取网络模型;将该特征图提取网络模型的输出层采用一个SVM分类器替换,训练SVM分类器对目标区域、背景区域和干扰区域的特征向量进行分类操作;通过SVM分类器可找到目标区域的特征向量,并根据特征向量找到对应的候选区域在样本图像中的位置即可作为待测部件区域;其中m<n,所述特征图提取网络模型是使SoftMax分类器代价函数最小的特征图对应的网络模型;SVM分类器的分类依据是根据输入样本上的候选区域与选定区域的面积重合度不同而划分的。当面积重合度大于0.7时,输入样本上的候选区域可视为目标区域,其在最佳特征图中提取的特征向量为目标特征向量;当面积重合度小于0.3时,输入样本上的候选区域可视为背景区域,其在最佳特征图中提取的特征向量为背景特征向量;当面积重合度介于0.3到0.7之间时,输入样本上的候选区域视为干扰区域,其在最佳特征图中提取的特征向量为干扰特征向量;
最佳分类网络模型建立模块,用于将所述待测部件区域分为训练图像库和验证集图像库,训练图像库、验证集图像库每一个输入样本按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构,计算训练图像库每一个输入样本的擦挂情况属于对应样本标签的概率,并得到分类网络模型;当分类网络模型在验证集区域库中的分类准确性最高时,分类网络模型即为最优分类网络模型;其中训练图像库用于调整各网络层的参数值,进行模型训练,验证集区域库用于验证受损等级标签分类的准确性;受损等级标签反映的是各受损图片的受损等级程度;
待测图像检测模块,用于利用区域选择性搜索算法从每个待测图像上提取a个候选区域并记录各候选区域的位置信息;将所述待测图像输入到训去掉输出层的特征图提取网络模型中,以提取待测图像各候选区域的特征向量;将各候选区域的特征向量输入到SVM分类器中找到目标特征向量;根据目标特征向量在特征图中的位置找到对应的候选区域在待测图像上的位置,即为待测图像的目标区域;将待测图像的目标区域输入到最优分类网络模型中,输出该区域在各受损等级上的概率其中概率值最大的受损等级即为该目标区域的受损等级;该目标区域的受损等级反映该汽车图片待测区域的受损程度,其中待测图片指的是需要测试损伤等级的汽车外观图片;a范围是1000到2000。
进一步的,所述样本量扩充模块处理过程具体包括:
步骤11:手动收集p张汽车外观相同部位的汽车受损图片,将所有的汽车受损图片进行镜像数据扩充,即对汽车受损图片进行水平翻转,使得汽车受损图片的数量扩充一倍;
步骤12:对步骤11处理后的汽车受损图片进行次随机裁剪,裁剪后的图片大小为256x256,并且其需包含汽车的受损部件信息;经过随机裁剪使得汽车受损图片的数量扩充一倍;
步骤13:对步骤12处理后的汽车受损图片进行加噪扩充。即把汽车受损图片的每个像素点的值,乘以一个(0.8,1.2)之间的随机数实现汽车受损图片的扩充。经过加噪扩充使得汽车受损图片的数量扩充一倍;
步骤14:对步骤13处理后的汽车受损图片进行颜色变换;变换方法是首先将汽车受损图片转换到HSV颜色空间中,然后将S和V分量乘以一个(0.7,1.4)之间的值得到不同颜色的新汽车受损图片;经过颜色变换使得汽车受损图片的数量扩充一倍;经过上述处理方式,受损汽车受损图片将达到n张,从而建立n张汽车受损数据库,n>10000
进一步的,所述特征图提取网络模型及SVM分类器建立模块处理过程具体包括:
步骤21:从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;
步骤22:采用选择性搜索算法从训练样本库中每个受损图像选取a图像块作为候选区域,并记录各候选区域的位置为(xi1,yi1,xi2,yi2);其中i表示第i个候选区域,(xi1,yi1)表示第i个候选区域左上角的坐标,(xi2,yi2)表示第i个候选区域右下角的坐标;a范围是1000到2000;
步骤23:采用Alexnet网络的前14层网络结构提取m张汽车受损图片的特征图,得到特征图后,计算步骤22中各个候选区域在特征图中的对应位置:计算公式为:
其中(xi1',yi1',xi2',yi2')表示第i个候选区域在特征图中的坐标位置;st表示Alexnet网络中的前5个卷积层和池化层的strides的乘积,在此st=16;根据各候选区域在特征图中的位置后,对所述特征图中的候选区域进行金字塔空间池化提取出固定长度的特征向量,输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作;通过随机梯度下降算法将分类结果的误差传递到上一层网络结构中,更新各网络层的权值得到新的特征图用于SoftMax分类器的分类,直至分类结果的误差即代价函数SJ达到最小,此时的特征图提取网络模型训练完毕。
步骤24:从步骤1中手动标记选定区域的训练样本库中选取m1个样本用于训练SVM分类器;训练方法如下:按照步骤22从训练样本库中每个受损图像选取a图像块作为候选区域,将训练样本库中每个受损图像输入到步骤23训练得到的特征图提取网络模型中;去除该特征图提取网络模型的输出层,即可输出各候选区域的特征向量,将所述特征向量按照其候选区域与选定区域的面积重合度不同分为目标特征向量、背景特征向量以及干扰特征向量三类;其中,目标特征向量表示该特征向量对应的候选区域与选定区域的面积重合度大于0.7;背景特征向量表示该特征向量对应的候选区域与选定区域的面积重合度小于0.3;干扰特征向量表示该特征向量对应的候选区域与选定区域的面积重合度介于0.3到0.7之间;提取所有用于训练SVM分类器的样本图像的目标特征向量、背景特征向量以及干扰特征向量并建立相应的集合训练SVM分类器;通过训练使SVM分类器有效判断各候选区域的特征向量的类别,从而找到其中的目标特征向量,根据目标特征向量可得到对应的候选区域即为待测部件区域,其中m1<m;
其中步骤23中输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作具体过程是:
步骤231:根据步骤22中待受损图片的各候选区域后计算各候选区域的面积重合度s:
其中Sh表示候选区域的面积;Sm表示选定区域的面积;Sc表示二者重合的面积;
步骤232:按照各受损图片的候选区域与选定区域的面积重合度大小将受损图片的候选区域分别表示为目标区域和背景区域;其中,背景区域表示面积重合度大于0.5的候选区域,背景区域表示面积重合度小于0.5的候选区域;
步骤23中代价函数的计算方法如下:
其中表示第σ个候选区域的输入特征向量;表示第σ个候选区域属于背景区域的概率;表示第σ个候选区域属于目标区域的概率;sσ表示第σ个候选区域的面积重合度;SJ为代价函数;其中分类结果的误差指的是全部介于0和1之间的小数,且和均为特征向量的权值,分别反映特征向量属于背景区域和目标区域的概率分布。
进一步的,所述最佳分类网络模型建立模块处理过程具体包括:
步骤31:将所述待测部件区域分为训练图像库/验证集区域库=(5:1到3:2),训练图像库按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构;
步骤32:通过深度学习网络的隐含层对训练图像库进行特征提取;隐含层包括卷积层,BN层、激活函数层、池化层,全连接层。
其中,表示第θ层第v个训练图像库输出特征图;表示第u个训练图像库输入图像与第v个训练图像库输出图像之间的权重;为第v个训练图像库输出图像的偏置;为BN层操作,即对第θ层第v个神经元进行归一化操作;为激活函数层操作,实现对的非线性响应。
步骤:33:输出层对隐含层提取的训练图像库特征采用Softmax函数进行分类操作,公式如下:
其中,表示第β个训练图像库的输出特征向量;wαβ表示第β个训练图像库的受损类别为α时对应的特征向量的权值;表示第β个训练图像库属于第α类的概率;1{yβ=α}表示受损类别α与受损等级标签值yβ相等时为1,否则为0;J为Softmax函数的代价函数;
步骤34:通过随机梯度下降算法更新各网络层的权值降低代价函数(用于提高Softmax函数的分类准确性),得到分类网络模型,并用验证集图片库检验所述分类网络模型的分类准确性;当分类网络模型在验证集区域库中的分类准确性最高时,分类网络模型即为最优分类网络模型,其中分类准确性指的是分类正确的验证集图片库占待测部件区域的百分比;判断分类正确与否的方法是将验证集图片库中的每幅图像输入到分类网络模型中,通过分类网络模型输出层输出验证集图片库属于各个受损类别α的概率选取最大时对应的受损类别α值作为深度学习网络模型的分类结果,比较此时的α值与受损等级标签值yβ是否相等,若相等则说明深度学习网络模型的分类结果与标签值一致,说明分类正确;,其中α={0,1,...t}。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
采用卷积神经网络对汽车的外观擦痕进行分类评估具有良好的抗干扰能力。
本专利结合计算机机器视觉技术提出了一种深度学习的汽车表面损伤分类的技术:提取受损汽车表面的擦挂区域建立汽车受损区域样本库,构建一个针对汽车表面损伤识别的网络结构,将样本置入新构建的网络结构中进行训练直至得到一个较好的分类模型,使用该模型对测试样本库中的样本进行测试以验证其有效性,然后对待测图片进行测试分类及定损;
现有的汽车外部损伤分类主要靠汽车定损人员人工检测定损,不仅效率低下,而且极易受到各种主观因素的干扰,导致结果容易出现大的偏差。本发明结合深度学习提出的一种汽车损伤分类技术可有效地对汽车各种测待测部件的外部损伤进行分类,极大地提高了汽车表面定损的效率。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1本发明专利框图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
深度学习是一种通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示的机器学习理论。其又可分为有监督学习和无监督学习,卷积神经网络就是一种监督学习下的深度学习模型,它是一种非全连接的神经网络结构,可自动地学习含有大量数据的目标特征,对几何变换、形变以及光照都有一定的鲁棒性。汽车的外观擦痕复杂多变,且容易受到光照、遮挡等外界干扰。因此,采用卷积神经网络对汽车的外观擦痕进行分类评估具有良好的抗干扰能力。具体工作过程是:
1)建立汽车受损数据库;
具体过程是:本发明收集筛选了数千张汽车叶子板、车门、保险杠、车头等部位形状相同的汽车受损图片用于建立受损汽车库。由于深度学习需要采用大量的样本量,故采用以下方式增加样本量:
1.将所有的样本量进行镜像数据扩充。即对样本进行水平翻转,使得样本的数量扩充一倍。
2.对新的样本进行次随机裁剪,裁剪后的图片大小为256x256,并且图片需包含汽车的受损部件信息。经过随机裁剪使得样本的数量扩充一倍。
3.对样本进行加噪扩充。即把样本图片的每个像素点的值,乘以一个(0.8,1.2)之间的随机数实现样本的扩充。经过加噪扩充使得样本的数量扩充一倍。
4.对样本进行颜色变换。变换方法是首先将样本转换到HSV颜色空间中,然后将S和V分量乘以一个(0.7,1.4)之间的值得到不同颜色的新样本。经过颜色变换使得样本的数量扩充一倍。
经过上述处理方式,受损汽车样本量将达到数万张,采用这些样本建立汽车受损数据库。
2)进行汽车待测区域提取;
具体过程是:
步骤21:从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;
步骤22:采用选择性搜索算法从训练样本库中每个受损图像选取a图像块作为候选区域,并记录各候选区域的位置为(xi1,yi1,xi2,yi2);其中i表示第i个候选区域,(xi1,yi1)表示第i个候选区域左上角的坐标,(xi2,yi2)表示第i个候选区域右下角的坐标;a范围是1000到2000;
步骤23:采用Alexnet网络的前14层网络结构提取m张汽车受损图片的特征图,得到特征图后,计算步骤22中各个候选区域在特征图中的对应位置:计算公式为:
其中(xi1',yi1',xi2',yi2')表示第i个候选区域在特征图中的坐标位置;st表示Alexnet网络中的前5个卷积层和池化层的strides的乘积,在此st=16;根据各候选区域在特征图中的位置后,对所述特征图中的候选区域进行金字塔空间池化提取出固定长度的特征向量,输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作;通过随机梯度下降算法将分类结果的误差传递到上一层网络结构中,更新各网络层的权值得到新的特征图用于SoftMax分类器的分类,直至分类结果的误差即代价函数SJ达到最小,此时的特征图提取网络模型训练完毕。
步骤24:从步骤1中手动标记选定区域的训练样本库中选取m1个样本用于训练SVM分类器;训练方法如下:按照步骤22从训练样本库中每个受损图像选取a图像块作为候选区域,将训练样本库中每个受损图像输入到步骤23训练得到的特征图提取网络模型中;去除该特征图提取网络模型的输出层,即可输出各候选区域的特征向量,将所述特征向量按照其候选区域与选定区域的面积重合度不同分为目标特征向量、背景特征向量以及干扰特征向量三类;其中,目标特征向量表示该特征向量对应的候选区域与选定区域的面积重合度大于0.7;背景特征向量表示该特征向量对应的候选区域与选定区域的面积重合度小于0.3;干扰特征向量表示该特征向量对应的候选区域与选定区域的面积重合度介于0.3到0.7之间;提取所有用于训练SVM分类器的样本图像的目标特征向量、背景特征向量以及干扰特征向量并建立相应的集合训练SVM分类器;通过训练使SVM分类器有效判断各候选区域的特征向量的类别,从而找到其中的目标特征向量,根据目标特征向量可得到对应的候选区域即为待测部件区域,其中m1<m。
3)最优分类网络模型具体过程是:
步骤31:将所述待测部件区域分为训练图像库/验证集区域库=(5:1到3:2),训练图像库按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构;
步骤32:通过深度学习网络的隐含层对训练图像库进行特征提取;隐含层包括卷积层,BN层、激活函数层、池化层,全连接层。
其中,表示第θ层第v个训练图像库输出特征图;表示第u个训练图像库输入图像与第v个训练图像库输出图像之间的权重;为第v个训练图像库输出图像的偏置;为BN层操作,即对第θ层第v个神经元进行归一化操作;为激活函数层操作,实现对的非线性响应。
步骤:33:输出层对隐含层提取的训练图像库特征采用Softmax函数进行分类操作,公式如下:
其中,表示第β个训练图像库的输出特征向量;wαβ表示第β个训练图像库的受损类别为α时对应的特征向量的权值;表示第β个训练图像库属于第α类的概率;1{yβ=α}表示受损类别α与受损等级标签值yβ相等时为1,否则为0;J为Softmax函数的代价函数;
步骤34:通过随机梯度下降算法更新各网络层的权值降低代价函数(用于提高Softmax函数的分类准确性),得到分类网络模型,并用验证集图片库检验所述分类网络模型的分类准确性;当分类网络模型在验证集区域库中的分类准确性最高时,分类网络模型即为最优分类网络模型,其中分类准确性指的是分类正确的验证集图片库占待测部件区域的百分比;判断分类正确与否的方法是将验证集图片库中的每幅图像输入到分类网络模型中,通过分类网络模型输出层输出验证集图片库属于各个受损类别α的概率选取最大时对应的受损类别α值作为深度学习网络模型的分类结果,比较此时的α值与受损等级标签值yβ是否相等,若相等则说明深度学习网络模型的分类结果与标签值一致,说明分类正确;,其中α={0,1,...t}。
4)最后得到汽车表面属于喷漆、钣金和更换三种类型。
具体过程是:利用区域选择性搜索算法从每个待测图像上提取a个候选区域并记录各候选区域的位置信息;将所述待测图像输入到步骤2训练好的去掉输出层的特征图提取网络模型中,以提取待测图像各候选区域的特征向量;将各候选区域的特征向量输入到步骤2训练好的SVM分类器中找到目标特征向量;根据目标特征向量在特征图中的位置找到对应的候选区域在待测图像上的位置,即为待测图像的目标区域;将待测图像的目标区域输入到步骤3的最优分类网络模型中,输出该区域在各受损等级上的概率其中概率值最大的受损等级即为该目标区域的受损等级;该目标区域的受损等级反映该汽车图片待测区域的受损程度,其中待测图片指的是需要测试损伤等级的汽车外观图片。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。
Claims (10)
1.一种基于深度学习的汽车表面损伤分类方法,其特征在于包括:
步骤1:手动收集p张汽车外观相同部位的汽车受损图像,采用随机翻转、随机裁剪以及颜色变换对p张汽车受损图像进行样本量扩充,建立汽车受损图像库,得到n张汽车受损图像;其中汽车外观相同部位分别指的是汽车叶子板、车门、保险杠以及车头部分形状相同的汽车,n大于10000;n>p;
步骤2:从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;采用选择性搜索算法从训练样本库中每个受损图像选取a个图像块作为候选区域;然后计算各候选区域的面积重合度s,用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作后,得到候选区域的最佳特征图,同时得到训练好的特征图提取网络模型;将该特征图提取网络模型的输出层采用一个SVM分类器替换,训练SVM分类器对目标区域、背景区域和干扰区域的特征向量进行分类操作;通过SVM分类器可找到目标区域的特征向量,并根据特征向量找到对应的候选区域在样本图像中的位置即可作为待测部件区域;其中m<n,所述特征图提取网络模型是使SoftMax分类器代价函数最小的特征图对应的网络模型;SVM分类器的分类依据是根据输入样本上的候选区域与选定区域的面积重合度不同而划分的;当面积重合度大于0.7时,输入样本上的候选区域可视为目标区域,其在最佳特征图中提取的特征向量为目标特征向量;当面积重合度小于0.3时,输入样本上的候选区域可视为背景区域,其在最佳特征图中提取的特征向量为背景特征向量;当面积重合度介于0.3到0.7之间时,输入样本上的候选区域视为干扰区域,其在最佳特征图中提取的特征向量为干扰特征向量;
步骤3:将所述待测部件区域分为训练图像库和验证集图像库,训练图像库、验证集图像库每一个输入样本按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构,计算训练图像库每一个输入样本的擦挂情况属于对应样本标签的概率,并得到分类网络模型;当分类网络模型在验证集图像库中的分类准确性最高时,分类网络模型即为最优分类网络模型;其中训练图像库用于调整各网络层的参数值,进行模型训练,验证集图像库用于验证受损等级标签分类的准确性;受损等级标签反映的是各受损图像的受损等级程度;
步骤4:利用区域选择性搜索算法从每个待测图像上提取a个候选区域并记录各候选区域的位置信息;将所述待测图像输入到步骤2训练好的网络模型中,以提取待测图像各候选区域的特征向量;将各候选区域的特征向量输入到步骤2训练好的SVM分类器中找到目标特征向量;根据目标特征向量在特征图中的位置找到对应的候选区域在待测图像上的位置,即为待测图像的目标区域;将待测图像的目标区域输入到步骤3的最优分类网络模型中,输出该区域在各受损等级上的概率其中概率值最大的受损等级即为该目标区域的受损等级;该目标区域的受损等级反映汽车受损图像待测区域的受损程度,其中待测图像指的是需要测试损伤等级的汽车外观图片;a范围是1000到2000。
2.根据权利要求1所述的基于深度学习的汽车表面损伤分类方法,其特征在于步骤1具体实现过程:
步骤11:手动收集p张汽车外观相同部位的汽车受损图像,将所有的汽车受损图像进行镜像数据扩充,即对汽车受损图像进行水平翻转,使得汽车受损图像的数量扩充一倍;
步骤12:对步骤11处理后的汽车受损图像进行随机裁剪,裁剪后的图片大小为256x256,并且其需包含汽车的受损部件信息;经过随机裁剪使得汽车受损图像的数量扩充一倍;
步骤13:对步骤12处理后的汽车受损图像进行加噪扩充;即把汽车受损图像的每个像素点的值,乘以一个(0.8,1.2)之间的随机数实现汽车受损图像的扩充;经过加噪扩充使得汽车受损图像的数量扩充一倍;
步骤14:对步骤13处理后的汽车受损图像进行颜色变换;变换方法是首先将汽车受损图像转换到HSV颜色空间中,然后将S和V分量乘以一个(0.7,1.4)之间的值得到不同颜色的新汽车受损图像;经过颜色变换使得汽车受损图像的数量扩充一倍;受损汽车受损图像将达到n张,从而建立n张汽车受损图像库,n>10000。
3.根据权利要求1所述的基于深度学习的汽车表面损伤分类方法,其特征在于步骤2中具体过程是:
步骤21:从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;
步骤22:采用选择性搜索算法从训练样本库中每个受损图像选取a个图像块作为候选区域,并记录各候选区域的位置为(xi1,yi1,xi2,yi2);其中i表示第i个候选区域,(xi1,yi1)表示第i个候选区域左上角的坐标,(xi2,yi2)表示第i个候选区域右下角的坐标;a范围是1000到2000;
步骤23:采用Alexnet网络的前14层网络结构提取m张汽车受损图像的特征图,得到特征图后,计算步骤22中各个候选区域在特征图中的对应位置:计算公式为:
其中(xi1',yi1',xi2',yi2')表示第i个候选区域在特征图中的坐标位置;st表示Alexnet网络中的前5个卷积层和池化层的strides的乘积,在此st=16;根据各候选区域在特征图中的位置,对所述特征图中的候选区域进行金字塔空间池化提取出固定长度的特征向量,输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作;通过随机梯度下降算法将分类结果的误差传递到上一层网络结构中,更新各网络层的权值得到新的特征图用于SoftMax分类器的分类,直至分类结果的误差即代价函数SJ达到最小,此时的特征图提取网络模型训练完毕;
步骤24:从手动标记选定区域的训练样本库中选取m1个样本用于训练SVM分类器;训练方法如下:按照步骤22从训练样本库中每个受损图像选取a个图像块作为候选区域,将训练样本库中每个受损图像输入到步骤23训练得到的特征图提取网络模型中;去除该特征图提取网络模型的输出层,即可输出各候选区域的特征向量,将所述特征向量按照其候选区域与选定区域的面积重合度不同分为目标特征向量、背景特征向量以及干扰特征向量三类;其中,目标特征向量表示该特征向量对应的候选区域与选定区域的面积重合度大于0.7;背景特征向量表示该特征向量对应的候选区域与选定区域的面积重合度小于0.3;干扰特征向量表示该特征向量对应的候选区域与选定区域的面积重合度介于0.3到0.7之间;提取所有用于训练SVM分类器的样本图像的目标特征向量、背景特征向量以及干扰特征向量并建立相应的集合训练SVM分类器;通过训练使SVM分类器有效判断各候选区域的特征向量的类别,从而找到其中的目标特征向量,根据目标特征向量可得到对应的候选区域即为待测部件区域,其中m1<m。
4.根据权利要求3所述的基于深度学习的汽车表面损伤分类方法,其特征在于步骤23中输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作具体过程是:
步骤231:根据步骤22中受损图像的各候选区域后计算各候选区域的面积重合度s:
其中Sh表示候选区域的面积;Sm表示选定区域的面积;Sc表示二者重合的面积;
步骤232:按照各受损图像的候选区域与选定区域的面积重合度大小将受损图像的候选区域分别表示为目标区域和背景区域;其中,目标区域表示面积重合度大于0.5的候选区域,背景区域表示面积重合度小于0.5的候选区域。
5.根据权利要求3所述的基于深度学习的汽车表面损伤分类方法,其特征在于步骤23中代价函数的计算方法如下:
其中表示第σ个候选区域的输入特征向量;表示第σ个候选区域属于背景区域的概率;表示第σ个候选区域属于目标区域的概率;sσ表示第σ个候选区域的面积重合度;SJ为代价函数;其中分类结果的误差指的是全部介于0和1之间的小数,且 和均为特征向量的权值,分别反映特征向量属于背景区域和目标区域的概率分布。
6.根据权利要求1所述的基于深度学习的汽车表面损伤分类方法,其特征在于步骤3具体过程是:
步骤31:将所述待测部件区域分为训练图像库/验证集图像库范围值是5:1到3:2,训练图像库按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构;
步骤32:通过深度学习网络的隐含层对训练图像库进行特征提取;隐含层包括卷积层,BN层、激活函数层、池化层,全连接层;
其中,Tv θ表示第θ层第v个训练图像库输出特征图;表示第u个训练图像库输入图像与第v个训练图像库输出图像之间的权重;为第v个训练图像库输出图像的偏置;BN(Tv θ)为BN层操作,即对第θ层第v个神经元进行归一化操作;为激活函数层操作,实现对的非线性响应;
步骤33:输出层对隐含层提取的训练图像库特征采用Softmax函数进行分类操作,公式如下:
其中,表示第β个训练图像库的输出特征向量;wαβ表示第β个训练图像库的受损类别为α时对应的特征向量的权值;wlβ表示第β个训练图像库的受损类别为l时对应的特征向量的权值;表示第β个训练图像库属于第α类的概率;1{yβ=α}表示受损类别α与受损等级标签值yβ相等时为1,否则为0;J为Softmax函数的代价函数;
步骤34:通过随机梯度下降算法更新各网络层的权值降低代价函数,得到分类网络模型,并用验证集图像库检验所述分类网络模型的分类准确性;当分类网络模型在验证集图像库中的分类准确性最高时,分类网络模型即为最优分类网络模型,其中分类准确性指的是分类正确的验证集图像库占待测部件区域的百分比;判断分类正确与否的方法是将验证集图像库中的每幅图像输入到分类网络模型中,通过分类网络模型输出层输出验证集图像库属于各个受损类别α的概率选取最大时对应的受损类别α值作为深度学习网络模型的分类结果,比较此时的α值与受损等级标签值yβ是否相等,若相等则说明深度学习网络模型的分类结果与标签值一致,说明分类正确;其中α={0,1,...t}。
7.一种基于深度学习的汽车表面损伤分类装置,其特征在于包括:
样本量扩充模块,用于手动收集p张汽车外观相同部位的汽车受损图像,采用随机翻转、随机裁剪以及颜色变换对p张汽车受损图像进行样本量扩充,建立汽车受损图像库,得到n张汽车受损图像;其中汽车外观相同部位分别指的是汽车叶子板、车门、保险杠以及车头部分形状相同的汽车,n大于10000;n>p;
特征图提取网络模型及SVM分类器建立模块,用于从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;采用选择性搜索算法从训练样本库中每个受损图像选取a个图像块作为候选区域;然后计算各候选区域的面积重合度s,用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作后,得到候选区域的最佳特征图,同时得到训练好的特征图提取网络模型;将该特征图提取网络模型的输出层采用一个SVM分类器替换,训练SVM分类器对目标区域、背景区域和干扰区域的特征向量进行分类操作;通过SVM分类器可找到目标区域的特征向量,并根据特征向量找到对应的候选区域在样本图像中的位置即可作为待测部件区域;其中m<n,所述特征图提取网络模型是使SoftMax分类器代价函数最小的特征图对应的网络模型;SVM分类器的分类依据是根据输入样本上的候选区域与选定区域的面积重合度不同而划分的;当面积重合度大于0.7时,输入样本上的候选区域可视为目标区域,其在最佳特征图中提取的特征向量为目标特征向量;当面积重合度小于0.3时,输入样本上的候选区域可视为背景区域,其在最佳特征图中提取的特征向量为背景特征向量;当面积重合度介于0.3到0.7之间时,输入样本上的候选区域视为干扰区域,其在最佳特征图中提取的特征向量为干扰特征向量;
最佳分类网络模型建立模块,用于将所述待测部件区域分为训练图像库和验证集图像库,训练图像库、验证集图像库每一个输入样本按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构,计算训练图像库每一个输入样本的擦挂情况属于对应样本标签的概率,并得到分类网络模型;当分类网络模型在验证集图像库中的分类准确性最高时,分类网络模型即为最优分类网络模型;其中训练图像库用于调整各网络层的参数值,进行模型训练,验证集图像库用于验证受损等级标签分类的准确性;受损等级标签反映的是各受损图像的受损等级程度;
待测图像检测模块,用于利用区域选择性搜索算法从每个待测图像上提取a个候选区域并记录各候选区域的位置信息;将所述待测图像输入到训练好的网络模型中,以提取待测图像各候选区域的特征向量;将各候选区域的特征向量输入到SVM分类器中找到目标特征向量;根据目标特征向量在特征图中的位置找到对应的候选区域在待测图像上的位置,即为待测图像的目标区域;将待测图像的目标区域输入到最优分类网络模型中,输出该区域在各受损等级上的概率其中概率值最大的受损等级即为该目标区域的受损等级;该目标区域的受损等级反映汽车受损图像待测区域的受损程度,其中待测图像指的是需要测试损伤等级的汽车外观图片;a范围是1000到2000。
8.根据权利要求7所述的基于深度学习的汽车表面损伤分类装置,其特征在于所述样本量扩充模块处理过程具体包括:
步骤11:手动收集p张汽车外观相同部位的汽车受损图像,将所有的汽车受损图像进行镜像数据扩充,即对汽车受损图像进行水平翻转,使得汽车受损图像的数量扩充一倍;
步骤12:对步骤11处理后的汽车受损图像进行随机裁剪,裁剪后的图片大小为256x256,并且其需包含汽车的受损部件信息;经过随机裁剪使得汽车受损图像的数量扩充一倍;
步骤13:对步骤12处理后的汽车受损图像进行加噪扩充;即把汽车受损图像的每个像素点的值,乘以一个(0.8,1.2)之间的随机数实现汽车受损图像的扩充;经过加噪扩充使得汽车受损图像的数量扩充一倍;
步骤14:对步骤13处理后的汽车受损图像进行颜色变换;变换方法是首先将汽车受损图像转换到HSV颜色空间中,然后将S和V分量乘以一个(0.7,1.4)之间的值得到不同颜色的新汽车受损图像;经过颜色变换使得汽车受损图像的数量扩充一倍;受损汽车受损图像将达到n张,从而建立n张汽车受损图像库,n>10000。
9.根据权利要求7所述的基于深度学习的汽车表面损伤分类装置,其特征在于所述特征图提取网络模型及SVM分类器建立模块处理过程具体包括:
步骤21:从汽车受损图像库中随机选取m张受损图像建立训练样本库,手动标定训练样本库中各受损图像的待测部件作为选定区域;
步骤22:采用选择性搜索算法从训练样本库中每个受损图像选取a个图像块作为候选区域,并记录各候选区域的位置为(xi1,yi1,xi2,yi2);其中i表示第i个候选区域,(xi1,yi1)表示第i个候选区域左上角的坐标,(xi2,yi2)表示第i个候选区域右下角的坐标;a范围是1000到2000;
步骤23:采用Alexnet网络的前14层网络结构提取m张汽车受损图像的特征图,得到特征图后,计算步骤22中各个候选区域在特征图中的对应位置:计算公式为:
其中(xi1',yi1',xi2',yi2')表示第i个候选区域在特征图中的坐标位置;st表示Alexnet网络中的前5个卷积层和池化层的strides的乘积,在此st=16;根据各候选区域在特征图中的位置,对所述特征图中的候选区域进行金字塔空间池化提取出固定长度的特征向量,输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作;通过随机梯度下降算法将分类结果的误差传递到上一层网络结构中,更新各网络层的权值得到新的特征图用于SoftMax分类器的分类,直至分类结果的误差即代价函数SJ达到最小,此时的特征图提取网络模型训练完毕;
步骤24:从手动标记选定区域的训练样本库中选取m1个样本用于训练SVM分类器;训练方法如下:按照步骤22从训练样本库中每个受损图像选取a个图像块作为候选区域,将训练样本库中每个受损图像输入到步骤23训练得到的特征图提取网络模型中;去除该特征图提取网络模型的输出层,即可输出各候选区域的特征向量,将所述特征向量按照其候选区域与选定区域的面积重合度不同分为目标特征向量、背景特征向量以及干扰特征向量三类;其中,目标特征向量表示该特征向量对应的候选区域与选定区域的面积重合度大于0.7;背景特征向量表示该特征向量对应的候选区域与选定区域的面积重合度小于0.3;干扰特征向量表示该特征向量对应的候选区域与选定区域的面积重合度介于0.3到0.7之间;提取所有用于训练SVM分类器的样本图像的目标特征向量、背景特征向量以及干扰特征向量并建立相应的集合训练SVM分类器;通过训练使SVM分类器有效判断各候选区域的特征向量的类别,从而找到其中的目标特征向量,根据目标特征向量可得到对应的候选区域即为待测部件区域,其中m1<m;
其中步骤23中输出层采用SoftMax分类器对目标区域和背景区域的特征向量进行分类操作具体过程是:
步骤231:根据步骤22中受损图像的各候选区域后计算各候选区域的面积重合度s:
其中Sh表示候选区域的面积;Sm表示选定区域的面积;Sc表示二者重合的面积;
步骤232:按照各受损图像的候选区域与选定区域的面积重合度大小将受损图像的候选区域分别表示为目标区域和背景区域;其中,目标区域表示面积重合度大于0.5的候选区域,背景区域表示面积重合度小于0.5的候选区域;步骤23中代价函数的计算方法如下:
其中表示第σ个候选区域的输入特征向量;表示第σ个候选区域属于背景区域的概率;表示第σ个候选区域属于目标区域的概率;sσ表示第σ个候选区域的面积重合度;SJ为代价函数;其中分类结果的误差指的是全部介于0和1之间的小数,且 和均为特征向量的权值,分别反映特征向量属于背景区域和目标区域的概率分布。
10.根据权利要求7所述的基于深度学习的汽车表面损伤分类装置,其特征在于所述最佳分类网络模型建立模块处理过程具体包括:
步骤31:将所述待测部件区域分为训练图像库/验证集图像库范围值是5:1到3:2,训练图像库按照受损程度不同依次使用{0,1,...,t}的受损等级标签yβ表示,其中受损等级标签为0时,表示汽车受损程度最轻,t表示汽车受损最严重;将训练图像库及对应的受损等级标签yβ作为输入数据输入到深度卷积网络结构;
步骤32:通过深度学习网络的隐含层对训练图像库进行特征提取;隐含层包括卷积层,BN层、激活函数层、池化层,全连接层;
其中,Tv θ表示第θ层第v个训练图像库输出特征图;表示第u个训练图像库输入图像与第v个训练图像库输出图像之间的权重;为第v个训练图像库输出图像的偏置;BN(Tv θ)为BN层操作,即对第θ层第v个神经元进行归一化操作;为激活函数层操作,实现对的非线性响应;
步骤33:输出层对隐含层提取的训练图像库特征采用Softmax函数进行分类操作,公式如下:
其中,表示第β个训练图像库的输出特征向量;wαβ表示第β个训练图像库的受损类别为α时对应的特征向量的权值;wlβ表示第β个训练图像库的受损类别为l时对应的特征向量的权值;表示第β个训练图像库属于第α类的概率;1{yβ=α}表示受损类别α与受损等级标签值yβ相等时为1,否则为0;J为Softmax函数的代价函数;
步骤34:通过随机梯度下降算法更新各网络层的权值降低代价函数,得到分类网络模型,并用验证集图像库检验所述分类网络模型的分类准确性;当分类网络模型在验证集图像库中的分类准确性最高时,分类网络模型即为最优分类网络模型,其中分类准确性指的是分类正确的验证集图像库占待测部件区域的百分比;判断分类正确与否的方法是将验证集图像库中的每幅图像输入到分类网络模型中,通过分类网络模型输出层输出验证集图像库属于各个受损类别α的概率选取最大时对应的受损类别α值作为深度学习网络模型的分类结果,比较此时的α值与受损等级标签值yβ是否相等,若相等则说明深度学习网络模型的分类结果与标签值一致,说明分类正确;其中α={0,1,...t}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610439187.4A CN106127747B (zh) | 2016-06-17 | 2016-06-17 | 基于深度学习的汽车表面损伤分类方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610439187.4A CN106127747B (zh) | 2016-06-17 | 2016-06-17 | 基于深度学习的汽车表面损伤分类方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106127747A CN106127747A (zh) | 2016-11-16 |
CN106127747B true CN106127747B (zh) | 2018-10-16 |
Family
ID=57469851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610439187.4A Active CN106127747B (zh) | 2016-06-17 | 2016-06-17 | 基于深度学习的汽车表面损伤分类方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106127747B (zh) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778740A (zh) * | 2016-12-06 | 2017-05-31 | 北京航空航天大学 | 一种基于深度学习的tfds非故障图像检测方法 |
CN106504248B (zh) * | 2016-12-06 | 2021-02-26 | 成都通甲优博科技有限责任公司 | 基于计算机视觉的车辆损伤判别方法 |
CN106815596A (zh) * | 2016-12-08 | 2017-06-09 | 中国银联股份有限公司 | 一种图像分类器建立方法及装置 |
CN106650831B (zh) * | 2017-01-10 | 2020-04-28 | 北京邮电大学 | 基于特征融合的损伤检测方法及装置 |
CN106815835A (zh) * | 2017-01-10 | 2017-06-09 | 北京邮电大学 | 损伤识别方法及装置 |
CN106919930A (zh) * | 2017-03-10 | 2017-07-04 | 成都智锗科技有限公司 | 一种低分辨率红外图像睡眠异常情况判断方法 |
CN107392218B (zh) | 2017-04-11 | 2020-08-04 | 创新先进技术有限公司 | 一种基于图像的车辆定损方法、装置及电子设备 |
CN112435215B (zh) | 2017-04-11 | 2024-02-13 | 创新先进技术有限公司 | 一种基于图像的车辆定损方法、移动终端、服务器 |
CN107194323B (zh) * | 2017-04-28 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 车辆定损图像获取方法、装置、服务器和终端设备 |
US10262236B2 (en) * | 2017-05-02 | 2019-04-16 | General Electric Company | Neural network training image generation system |
CN107194398B (zh) * | 2017-05-10 | 2018-09-25 | 平安科技(深圳)有限公司 | 车损部位的识别方法及系统 |
CN107203780A (zh) * | 2017-05-11 | 2017-09-26 | 南京瑞麒凰电子科技有限公司 | 基于深度学习的玻璃清洁度的检测方法及装置 |
CN107301417A (zh) * | 2017-06-28 | 2017-10-27 | 广东工业大学 | 一种无监督多层神经网络的车辆品牌识别的方法及装置 |
CN107633061B (zh) * | 2017-09-21 | 2020-08-21 | 天时汇(北京)电子商务有限公司 | 一种腕表识别系统 |
CN108090838B (zh) * | 2017-11-21 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 识别车辆受损部件的方法、装置、服务器、客户端及系统 |
CN108154169A (zh) * | 2017-12-11 | 2018-06-12 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN108122001B (zh) * | 2017-12-13 | 2022-03-11 | 北京小米移动软件有限公司 | 图像识别方法及装置 |
DE102017222964A1 (de) * | 2017-12-15 | 2019-06-19 | Zf Friedrichshafen Ag | Verfahren und System zur Schadenserkennung eines Bauteils |
CN108257114A (zh) * | 2017-12-29 | 2018-07-06 | 天津市万贸科技有限公司 | 一种基于深度学习的输电设备缺陷自动识别方法 |
US10643332B2 (en) * | 2018-03-29 | 2020-05-05 | Uveye Ltd. | Method of vehicle image comparison and system thereof |
US10650530B2 (en) | 2018-03-29 | 2020-05-12 | Uveye Ltd. | Method of vehicle image comparison and system thereof |
CN108491821A (zh) * | 2018-04-02 | 2018-09-04 | 深圳市亚来科技有限公司 | 基于图像处理和深度学习的车险事故鉴别方法、系统及存储介质 |
CN108593260B (zh) * | 2018-04-24 | 2020-01-31 | 国家电网公司 | 光缆线路故障定位和检测方法及终端设备 |
CN108510739A (zh) * | 2018-04-28 | 2018-09-07 | 重庆交通大学 | 一种道路交通状态识别方法、系统及存储介质 |
CN108875648A (zh) * | 2018-06-22 | 2018-11-23 | 深源恒际科技有限公司 | 一种基于手机视频流的实时车辆损伤和部件检测的方法 |
CN110569692B (zh) * | 2018-08-16 | 2023-05-12 | 创新先进技术有限公司 | 多车识别方法、装置及设备 |
CN110570389B (zh) * | 2018-09-18 | 2020-07-17 | 阿里巴巴集团控股有限公司 | 车辆损伤识别方法及装置 |
CN109359542A (zh) * | 2018-09-18 | 2019-02-19 | 平安科技(深圳)有限公司 | 基于神经网络的车辆损伤级别的确定方法及终端设备 |
CN109410218B (zh) * | 2018-10-08 | 2020-08-11 | 百度在线网络技术(北京)有限公司 | 用于生成车辆损伤信息的方法和装置 |
WO2020073510A1 (zh) * | 2018-10-11 | 2020-04-16 | 平安科技(深圳)有限公司 | 一种基于神经网络的车辆定损方法、服务器及介质 |
CN109447174A (zh) * | 2018-11-07 | 2019-03-08 | 金瓜子科技发展(北京)有限公司 | 一种漆面识别方法、装置、存储介质及电子设备 |
CN109583489B (zh) * | 2018-11-22 | 2021-01-15 | 中国科学院自动化研究所 | 缺陷分类识别方法、装置、计算机设备和存储介质 |
CN109658396A (zh) * | 2018-12-06 | 2019-04-19 | 华中科技大学 | 一种基于选择性搜索与cnn的铸件x光图像缺陷识别方法 |
CN109657716B (zh) * | 2018-12-12 | 2020-12-29 | 中汽数据(天津)有限公司 | 一种基于深度学习的车辆外观损伤识别方法 |
CN109684956A (zh) * | 2018-12-14 | 2019-04-26 | 深源恒际科技有限公司 | 一种基于深度神经网络的车辆损伤检测方法及系统 |
CN109766819A (zh) * | 2019-01-04 | 2019-05-17 | 北京博宇通达科技有限公司 | 车辆身份识别方法及装置 |
CN110164231B (zh) * | 2019-06-04 | 2020-12-25 | 合肥博仕达汽车技术服务有限公司 | 一种应用于汽车喷漆教学多功能实训台架及汽车喷漆教学方法 |
CN110223293A (zh) * | 2019-06-21 | 2019-09-10 | 中国神华能源股份有限公司 | 列车车体破损的智能识别方法及识别装置 |
GB201909578D0 (en) * | 2019-07-03 | 2019-08-14 | Ocado Innovation Ltd | A damage detection apparatus and method |
CN110458301A (zh) * | 2019-07-11 | 2019-11-15 | 深圳壹账通智能科技有限公司 | 一种车辆部件的定损方法、装置、计算机设备及存储介质 |
CN110333325B (zh) * | 2019-08-02 | 2021-09-17 | 中南大学 | 一种大气污染环境下列车运行防护方法及系统 |
CN110728236B (zh) * | 2019-10-12 | 2020-12-04 | 创新奇智(重庆)科技有限公司 | 车辆定损方法及其专用设备 |
CN110827259B (zh) * | 2019-11-04 | 2021-05-14 | 上海芯翌智能科技有限公司 | 一种用于目标关键点检测的样本增广的方法与设备 |
CN111123853B (zh) * | 2019-11-25 | 2021-05-14 | 浙江明泉工业涂装有限公司 | 一种对汽车内表面喷涂检测与补救的机器人的控制方法 |
CN111401438B (zh) * | 2020-03-13 | 2023-08-25 | 德联易控科技(北京)有限公司 | 图像分拣方法、装置及系统 |
US11971953B2 (en) | 2021-02-02 | 2024-04-30 | Inait Sa | Machine annotation of photographic images |
JP2024506691A (ja) | 2021-02-18 | 2024-02-14 | アイエヌエイアイティ エスエイ | 2d画像において視認可能な使用形跡を使用した3dモデルの注釈付け |
US11544914B2 (en) | 2021-02-18 | 2023-01-03 | Inait Sa | Annotation of 3D models with signs of use visible in 2D images |
CN115063323B (zh) * | 2022-08-16 | 2022-11-15 | 威海凯思信息科技有限公司 | 一种基于自适应网络的图像处理方法及装置 |
CN116883444B (zh) * | 2023-08-02 | 2024-01-12 | 武汉理工大学 | 基于机器视觉和图像扫描的汽车损伤检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834943A (zh) * | 2015-05-25 | 2015-08-12 | 电子科技大学 | 一种基于深度学习的脑肿瘤分类方法 |
CN104866524A (zh) * | 2015-04-10 | 2015-08-26 | 大连交通大学 | 一种商品图像精细分类方法 |
CN105046272A (zh) * | 2015-06-29 | 2015-11-11 | 电子科技大学 | 一种基于简洁非监督式卷积网络的图像分类方法 |
CN105488517A (zh) * | 2015-11-30 | 2016-04-13 | 杭州全实鹰科技有限公司 | 一种基于深度学习的车辆品牌型号识别方法 |
-
2016
- 2016-06-17 CN CN201610439187.4A patent/CN106127747B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104866524A (zh) * | 2015-04-10 | 2015-08-26 | 大连交通大学 | 一种商品图像精细分类方法 |
CN104834943A (zh) * | 2015-05-25 | 2015-08-12 | 电子科技大学 | 一种基于深度学习的脑肿瘤分类方法 |
CN105046272A (zh) * | 2015-06-29 | 2015-11-11 | 电子科技大学 | 一种基于简洁非监督式卷积网络的图像分类方法 |
CN105488517A (zh) * | 2015-11-30 | 2016-04-13 | 杭州全实鹰科技有限公司 | 一种基于深度学习的车辆品牌型号识别方法 |
Non-Patent Citations (1)
Title |
---|
Deep Learning for Multi-label Classification;Read J 等;《 Machine Learning》;20141231;第85卷(第3期);第333-359页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106127747A (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106127747B (zh) | 基于深度学习的汽车表面损伤分类方法及装置 | |
CN106407931B (zh) | 一种深度卷积神经网络运动车辆检测方法 | |
CN109816024B (zh) | 一种基于多尺度特征融合与dcnn的实时车标检测方法 | |
CN101859382B (zh) | 一种基于最大稳定极值区域的车牌检测与识别的方法 | |
CN106778595B (zh) | 基于高斯混合模型的人群中异常行为的检测方法 | |
CN111898523A (zh) | 一种基于迁移学习的遥感图像特种车辆目标检测方法 | |
Nguyen et al. | Pavement crack detection using convolutional neural network | |
CN103903005A (zh) | 车牌影像辨识系统及方法 | |
CN103971106B (zh) | 多视角人脸图像性别识别方法及装置 | |
CN110378236A (zh) | 基于深度学习的车辆身份识别模型构建、识别方法和系统 | |
CN106372666B (zh) | 一种目标识别方法及装置 | |
CN105335710A (zh) | 一种基于多级分类器的精细车辆型号识别方法 | |
CN109359666A (zh) | 一种基于多特征融合神经网络的车型识别方法及处理终端 | |
CN108090429A (zh) | 一种分级前脸卡口车型识别方法 | |
CN108681693A (zh) | 基于可信区域的车牌识别方法 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN102855500A (zh) | 一种基于Haar和HoG特征的前车检测方法 | |
CN110751099A (zh) | 一种基于深度学习的无人机航拍视频轨迹高精度提取方法 | |
CN103679205B (zh) | 基于阴影假设和分层hog对称特征验证的前车检测方法 | |
CN107273852A (zh) | 基于机器视觉的手扶电梯楼层板物件及乘客行为检测算法 | |
CN109886147A (zh) | 一种基于单网络多任务学习的车辆多属性检测方法 | |
CN105139429B (zh) | 一种基于火焰显著图和空间金字塔直方图的火灾检测方法 | |
CN113920107A (zh) | 一种基于改进yolov5算法的绝缘子破损检测方法 | |
CN108596211A (zh) | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 | |
CN106446834A (zh) | 一种基于图像的车型识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20211215 Address after: 230000 No. 67, Jiatang village north, Dayang Town, Luyang District, Hefei City, Anhui Province Patentee after: Gao Qianwen Address before: 610000 room 507, block F, building 9, Incubation Park, No. 1480, Tianfu Avenue, high tech Zone, Chengdu, Sichuan Patentee before: Shi Fang |
|
TR01 | Transfer of patent right |