CN112270370A - 一种车辆表观毁伤评估方法 - Google Patents
一种车辆表观毁伤评估方法 Download PDFInfo
- Publication number
- CN112270370A CN112270370A CN202011226859.6A CN202011226859A CN112270370A CN 112270370 A CN112270370 A CN 112270370A CN 202011226859 A CN202011226859 A CN 202011226859A CN 112270370 A CN112270370 A CN 112270370A
- Authority
- CN
- China
- Prior art keywords
- target
- vehicle
- apparent damage
- image
- damage assessment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种车辆表观毁伤评估方法、计算机设备及计算机可读存储介质,该方法包括:进行尺寸归一化处理;分两路进行灰度化,一路直接进行灰度化处理,得到含目标及背景的灰度图像,另一路先利用目标语义分割模型进行像素级分割,分割出目标区域,再对分割得到的图像进行灰度化处理,得到只含目标的灰度图像;基于卷积神经网络构建特征提取模型,对得到的含目标及背景的灰度图像和只含目标的灰度图像分别进行高维特征提取;对得到的两路目标高维卷积特征进行特征融合;利用全连接网络对最终目标融合特征进行回归计算,并输出一个0~1范围内的连续值,作为车辆目标表观毁伤程度评估值。本发明能够实现车辆表观毁伤的快速量化评估。
Description
技术领域
本发明涉及目标毁伤评估技术领域,尤其涉及一种车辆表观毁伤评估方法、计算机设备及计算机可读存储介质。
背景技术
目前,在目标毁伤评估中物理毁伤评估领域,基于光学图像的车辆目标的表观毁伤评估主要分主观评估方法和客观评估方法:主观评估方法,即人工判读方法,由判读人员通过目视观测车辆目标表观毁伤状态,对其毁伤程度进行直接评估;客观评估方法,即采用一定的计算方法、规则对目标表观毁伤程度进行评估,例如变化检测法等。主观评估方法工作量大,需要耗费大量的人力,受判读员主观意识影响较大,且难以量化毁伤程度,客观评估方法则往往需要具备同一目标相同/近状态下毁伤前后图像,且需要配准、对标等工作,操作繁琐、局限性大。
因此,针对以上不足,需要提供一种更为有效、快捷且准确的车辆目标表观毁伤评估方法。
发明内容
本发明的目的是针对上述至少一部分不足之处,提供一种基于人工智能计算的车辆目标表观毁伤评估方法,以解决车辆目标表观毁伤评估中存在的人工判断短板、变化检测评估局限等问题,并满足车辆表观毁伤程度有效评估以及毁伤程度量化的需求。
为了实现上述目的,本发明提供了一种车辆表观毁伤评估方法,该方法包括如下步骤:
S1、对输入的车辆图像进行尺寸归一化处理;
S2、对归一化处理后的图像,分两路进行灰度化,一路直接进行灰度化处理,得到含目标及背景的灰度图像,另一路先利用训练好的目标语义分割模型进行像素级分割,分割出目标区域,再对分割得到的图像进行灰度化处理,得到只含目标的灰度图像;
S3、基于卷积神经网络构建特征提取模型,对得到的含目标及背景的灰度图像和只含目标的灰度图像分别进行高维特征提取,获得各自对应的目标高维卷积特征;
S4、对得到的两路目标高维卷积特征进行特征融合,将融合后的新特征作为最终目标的融合特征;
S5、搭建并训练全连接网络对最终目标的融合特征进行回归计算,全连接网络包括全连接层和回归计算模块,并输出一个0~1范围内的连续值,作为车辆目标表观毁伤程度评估值。
优选地,所述步骤S1中进行尺寸归一化处理时,对输入的车辆图像,以长边为基准进行宽高等比缩放,并对缺失部分进行黑色填充,得到预定尺寸的图像。
优选地,所述步骤S2中进行灰度化处理时,利用Gray函数对三通道数据进行加权处理,Gray函数的浮点计算式为:
Gray=0.1140×B+0.5870×G+0.2989×R
其中,B代表三通道数据中的蓝色通道数值,G代表三通道数据中的绿色通道数值,R代表三通道数据中的红色通道数值。
优选地,所述步骤S2中的目标语义分割模型基于扩张卷积网络构建,通过相应的车辆目标数据集进行训练。
优选地,所述步骤S3中构建的卷积神经网络包括16个卷积层、5个池化层和1个全连接层,激活函数是Relu函数。
优选地,所述步骤S4中对得到的两路目标高维卷积特征进行特征融合时,采用扩维融合方式,不改变两路目标高维卷积特征各自的值,仅将特征的维度翻倍。
优选地,所述步骤S5中,通过带有标签真值的测试样本训练全连接网络,训练时,将测试样本对应的最终目标的融合特征输入搭建好的全连接网络中,根据相应的标签真值,通过前向传播和反向传播修正全连接网络的权重,直至完成全连接网络的训练,其中,回归计算模块的激活函数采用sigmoid函数,反向传播计算回归损失的损失函数采用欧式距离函数。
优选地,回归计算模块的激活函数sigmoid函数的表达式为:
其中,x表示全连接网络中的全连接层提取的卷积特征,作为激活函数的输入;
损失函数的表达式为:
其中,n表示维度,a表示n维的特征标签向量,来自于测试样本对应的标签真值,b表示n维的实际提取向量,来自于全连接网络中的全连接层实际提取的卷积特征,x1k表示向量a中的第k个特征标签值,x2k表示向量b中的第k个实际提取值。
本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述车辆表观毁伤评估方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述车辆表观毁伤评估方法的步骤。
本发明的上述技术方案具有如下优点:本发明提供了一种车辆表观毁伤评估方法、计算机设备及计算机可读存储介质,该方法将含目标及背景的图像和只含目标的图像分别进行灰度化处理,并搭建卷积神经网络分别提取高维特征进行特征融合,利用全连接网络对融合特征进行回归计算,实现对每个输入的车辆图像输出一个0~1范围内量化的毁伤程度评估值。该方法基于智能回归计算,可有效实现车辆表观毁伤量化评估,能够节省人力,且无需具备同一目标相同/近状态下毁伤前后图像,无需配置、对标等工作,易于实现,处理速度快。
附图说明
图1是本发明实施例中一种车辆表观毁伤评估方法步骤图;
图2是本发明实施例中一种车辆表观毁伤评估方法流程图;
图3是本发明实施例中图像预处理流程及效果示意图;
图4是本发明实施例中基于卷积神经网络构建特征提取模型的结构示意图;
图5是本发明实施例中训练全连接网络示意图;
图6是本发明实施例中一种车辆表观毁伤评估方法得到的车辆目标表观毁伤评估效果可视化图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1至图6所示,本发明实施例提供的一种车辆表观毁伤评估方法,包括如下步骤:
S1、图像尺寸处理:对输入的车辆图像进行尺寸归一化处理。
为满足后续神经网络对于目标特征尺寸要求,首先将输入的、待评估车辆图像尺寸进行归一化。优选地,可将车辆图像的尺寸归一化处理为224×224(像素)。
S2、图像像素分割及灰度化处理:对归一化处理后的图像,分两路进行灰度化,一路直接进行灰度化处理,得到含目标及背景的灰度图像,另一路先利用训练好的目标语义分割模型对归一化处理后的图像进行像素级分割,分割出图像中的目标区域,再对分割得到的(目标区域)图像进行灰度化处理,得到只含目标的灰度图像。
目标语义分割模型的功能是语义分割,使得目标与背景分离,从而得到图像中目标区域。目标语义分割模型可采用现有技术实现,优选地,步骤S2中的目标语义分割模型可基于扩张卷积网络构建,通过收集相应的车辆目标数据集,构成训练集进行训练。进一步地,Mask RCNN等网络也可以实现该功能。该目标语义分割模型可以永久用于车辆目标分割,也可以根据需求进行模型版本的升级、更新,在此不再进一步限定。目标语义分割效果如图3中标注的语义分割图像所示。
如图2和图3所示(图3中在进行图像灰度化之前,车辆图像为彩色图像),步骤S1和步骤S2对于图像的归一化处理和图像灰度化处理,可以视为对待评估的车辆图像的预处理,预处理后获取两路图像数据,一路为含目标及背景的图像数据,另一路为只含目标的灰度图像数据。
S3、目标特征提取:基于卷积神经网络构建特征提取模型,对得到的含目标及背景的灰度图像和只含目标的灰度图像分别进行高维特征提取,分别获得两路图像各自对应的目标高维卷积特征。
S4、特征融合:对步骤S3得到的、两路各自对应的目标高维卷积特征进行特征融合,将融合后的新特征作为最终目标的融合特征。
S5、融合特征回归计算:搭建并训练全连接网络对最终目标的融合特征进行回归计算,全连接网络包括全连接层和回归计算模块,输出一个0~1范围内的连续值,即,全连接网络中全连接层的输入为步骤S4得到的最终目标的融合特征,该全连接层的输出为回归计算模块的输入,回归计算模块输出一个0~1范围内的连续值,作为车辆目标表观毁伤程度评估值,完成车辆表观毁伤评估。
为避免图像归一化过程中目标畸变,优选地,步骤S1中进行尺寸归一化处理时,对输入的车辆图像,以长边为基准进行宽高等比缩放,并对缺失部分进行黑色填充(padding),得到预定尺寸的图像。如图3所示,将输入的车辆图像处理为224×224时,对于宽高比为1:1的图像完成等比缩放处理即可,对于宽高比不是1:1的图像,则以宽、高中的长边为基准进行缩放,短边因过度缩放缺失部分采用黑色padding进行填充,以获得预定尺寸的图像。
优选地,步骤S2中利用Gray函数实现图像灰度化,即一路直接利用Gray函数对归一化后的图像进行灰度化处理,另一路先通过目标语义分割模型分割出归一化后的图像中的目标区域,然后对像素分割后的图像利用Gray函数进行灰度化处理。
进一步地,步骤S2中进行灰度化处理时,利用Gray函数对归一化处理后的图像的三通道数据进行加权处理,Gray函数的浮点计算式为:
Gray=0.1140×B+0.5870×G+0.2989×R
其中,B代表三通道数据中的蓝色通道数值,G代表三通道数据中的绿色通道数值,R代表三通道数据中的红色通道数值。
优选地,步骤S3中构建的卷积神经网络包括16个卷积层、5个池化层和1个全连接层,激活函数是Relu函数。图像卷积目标图像经由卷积层和池化层不断进行卷积和下采样操作,卷积之后的特征通过全连接层处理,获得该卷积神经网络最终的特征图像尺度信息为224×224×3,单幅图像特征信息为4096维。具体地,如图4所示,16个卷积层Conv1-1至Conv5-4可分为五组,图像输入第一组的2个卷积层Conv1-1、Conv1-2,然后依次输入第一个池化层pool1,第二组的2个卷积层Conv2-1、Conv2-2,第二个池化层pool2,第三组的4个卷积层Conv3-1、Conv3-2、Conv3-3、Conv3-4,第三个池化层pool3,第四组的4个卷积层Conv4-1、Conv4-2、Conv4-3、Conv4-4,第四个池化层pool4,第五组的4个卷积层Conv5-1、Conv5-2、Conv5-3、Conv5-4,第五个池化层pool5,以及1个全连接层FC6,最终输出单幅图像特征信息,也即一路目标高维卷积特征。
针对两路特征,可通过特征加权融合和扩维融合两种处理方式得到融合特征。其中,加权融合需要对两路特征分配权重,然后进行融合,特征维度不会改变、尺度也不变,加权融合示意表达式为:
fea(4096)=a×fea1(4096)+b×fea2(4096),a+b=1
其中,fea(4096)表示(64×64特征矩阵归一化为4096×1特征矩阵)加权融合后特征,fea1(4096)表示一路特征,fea2(4096)表示另一路特征,a、b代表权值。
扩维融合则不改变两路中各自特征的值,只是使得特征维度翻倍,扩维融合示意表达式为:
fea(4096,2)=dstack(fea1(4096),fea2(4096))
其中,fea(4096)表示(64×64特征矩阵归一化为4096×1特征矩阵)扩维融合后特征,dstack()为拼接函数。
本发明进行了特征加权融合和扩维融合两种方式的研究与实验,通过比较实验效果,扩维融合对于毁伤评估的结果更精准,并最终确定采用扩维融合处理方式对两路目标高维卷积特征进行融合。即,优选地,步骤S4中对得到的两路目标高维卷积特征进行特征融合时,采用扩维融合方式,扩维融合不改变两路目标高维卷积特征各自的值,仅将特征的维度翻倍,使得毁伤评估更加精准。
步骤S5中,通过带有标签真值的测试样本对全连接网络进行训练,测试样本为车辆图像,标签真值包括毁伤度和特征标签向量,毁伤度为0~1之间的数值,对应车辆表观毁伤程度,毁伤度为0代表车辆表观无毁伤,为1代表车辆表观完全毁伤,特征标签向量对应全连接网络中全连接层提取的卷积特征输出。进一步地,训练全连接网络时,按照步骤S1至步骤S4的方式处理测试样本,得到相应的最终目标融合特征,然后将测试样品对应的最终目标融合特征输入搭建好的全连接网络中,根据相应的标签真值,通过前向传播和反向传播修正全连接网络的权重,直至模型收敛完成全连接网络的训练,如图5所示。训练全连接网络时,回归计算模块的所需的激活函数采用sigmoid函数,反向传播计算回归损失的损失函数采用欧式距离函数。
进一步地,训练全连接网络时,回归计算模块的激活函数sigmoid函数的表达式为:
其中,x表示全连接网络中的全连接层提取的卷积特征,作为激活函数的输入;
反向传播计算回归损失的损失函数的表达式为:
其中,n表示维度,a表示n维的特征标签向量,来自于测试样本对应的标签真值,b表示n维的实际提取向量,来自于全连接网络中的全连接层实际提取的卷积特征,即a=a(x11,x12,...,x1n),b=b(x21,x22,...,x2n),x1k表示向量a中的第k个特征标签值,x2k表示向量b中的第k个实际提取值,k=1,...,n。
本发明还基于如图6中所示的测试样本进行了测试并给出了可视化结果,由图6中各测试样本对应的预测值(即本发明的方法中步骤S5给出的车辆目标表观毁伤程度评估值)及偏差可知,本发明所提供的基于智能回归计算的车辆表观毁伤评估方法可有效实现车辆目标表观毁伤全流程一体化评估,且可实现目标表观毁伤的量化评估,评估的偏差在可接受的范围之内。
特别地,在本发明一些优选的实施方式中,还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一实施方式中所述车辆表观毁伤评估方法的步骤。
在本发明另一些优选的实施方式中,还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任一实施方式中所述车辆表观毁伤评估方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述车辆表观毁伤评估方法实施例的流程,在此不再重复说明。
综上,本发明提供了一种车辆表观毁伤评估方法、计算机设备和计算机可读存储介质,本发明可覆盖车辆目标表观毁伤评估的全流程,只需用户提供待评估的车辆图像,即可得到车辆表观毁伤评估值。并且,该方法可客观地实现车辆表观毁伤评估,并实现毁伤评估的连续量化,能够辅助人工进行车辆表观毁伤评估,弥补人工工作量大、一定程度不够客观的短板,同时也极大地削减了诸如变化检测等评估方法的局限性。同时,本发明提供的方法也可拓展至其他目标、领域,可用于战争、自然灾害中车辆表观毁伤评估,也可用于车企、车辆维修和服务机构,具有较好的应用前景与经济效益。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种车辆表观毁伤评估方法,其特征在于,包括如下步骤:
S1、对输入的车辆图像进行尺寸归一化处理;
S2、对归一化处理后的图像,分两路进行灰度化,一路直接进行灰度化处理,得到含目标及背景的灰度图像,另一路先利用训练好的目标语义分割模型进行像素级分割,分割出目标区域,再对分割得到的图像进行灰度化处理,得到只含目标的灰度图像;
S3、基于卷积神经网络构建特征提取模型,对得到的含目标及背景的灰度图像和只含目标的灰度图像分别进行高维特征提取,获得各自对应的目标高维卷积特征;
S4、对得到的两路目标高维卷积特征进行特征融合,将融合后的新特征作为最终目标的融合特征;
S5、搭建并训练全连接网络对最终目标的融合特征进行回归计算,全连接网络包括全连接层和回归计算模块,输出一个0~1范围内的连续值,作为车辆目标表观毁伤程度评估值。
2.根据权利要求1所述的车辆表观毁伤评估方法,其特征在于:所述步骤S1中进行尺寸归一化处理时,对输入的车辆图像,以长边为基准进行宽高等比缩放,并对缺失部分进行黑色填充,得到预定尺寸的图像。
3.根据权利要求1所述的车辆表观毁伤评估方法,其特征在于:所述步骤S2中进行灰度化处理时,利用Gray函数对三通道数据进行加权处理,Gray函数的浮点计算式为:
Gray=0.1140×B+0.5870×G+0.2989×R
其中,B代表三通道数据中的蓝色通道数值,G代表三通道数据中的绿色通道数值,R代表三通道数据中的红色通道数值。
4.根据权利要求1所述的车辆表观毁伤评估方法,其特征在于:所述步骤S2中的目标语义分割模型基于扩张卷积网络构建,通过相应的车辆目标数据集进行训练。
5.根据权利要求1所述的车辆表观毁伤评估方法,其特征在于:所述步骤S3中构建的卷积神经网络包括16个卷积层、5个池化层和1个全连接层,激活函数是Relu函数。
6.根据权利要求1所述的车辆表观毁伤评估方法,其特征在于:所述步骤S4中对得到的两路目标高维卷积特征进行特征融合时,采用扩维融合方式,不改变两路目标高维卷积特征各自的值,仅将特征的维度翻倍。
7.根据权利要求1所述的车辆表观毁伤评估方法,其特征在于:所述步骤S5中,通过带有标签真值的测试样本训练全连接网络,训练时将测试样本对应的最终目标的融合特征输入搭建好的全连接网络中,根据相应的标签真值,通过前向传播和反向传播修正全连接网络的权重,直至完成全连接网络的训练,其中,回归计算模块的激活函数采用sigmoid函数,反向传播计算回归损失的损失函数采用欧式距离函数。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述车辆表观毁伤评估方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述车辆表观毁伤评估方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011226859.6A CN112270370B (zh) | 2020-11-06 | 2020-11-06 | 一种车辆表观毁伤评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011226859.6A CN112270370B (zh) | 2020-11-06 | 2020-11-06 | 一种车辆表观毁伤评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112270370A true CN112270370A (zh) | 2021-01-26 |
CN112270370B CN112270370B (zh) | 2023-06-02 |
Family
ID=74346116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011226859.6A Active CN112270370B (zh) | 2020-11-06 | 2020-11-06 | 一种车辆表观毁伤评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112270370B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283280A (zh) * | 2021-02-22 | 2021-08-20 | 西北工业大学 | 基于可见光图像处理的地面目标云模型毁伤效果评估方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103345747A (zh) * | 2013-06-26 | 2013-10-09 | 公安部第三研究所 | 一种基于平面坐标优化的图像形状特征提取和结构化描述装置以及方法 |
US20170147991A1 (en) * | 2015-11-23 | 2017-05-25 | CSI Holdings I LLC | Vehicle damage report |
CN107808381A (zh) * | 2017-09-25 | 2018-03-16 | 哈尔滨理工大学 | 一种单细胞图像分割方法 |
CN107886035A (zh) * | 2016-09-30 | 2018-04-06 | 比亚迪股份有限公司 | 识别箭头交通灯的方法、装置及车辆 |
CN108171243A (zh) * | 2017-12-18 | 2018-06-15 | 广州七乐康药业连锁有限公司 | 一种基于深度神经网络的医疗图像信息识别方法及系统 |
CN108985343A (zh) * | 2018-06-22 | 2018-12-11 | 深源恒际科技有限公司 | 基于深度神经网络的汽车损伤检测方法和系统 |
CN110287851A (zh) * | 2019-06-20 | 2019-09-27 | 厦门市美亚柏科信息股份有限公司 | 一种目标图像定位方法、装置、系统及存储介质 |
WO2019192397A1 (zh) * | 2018-04-04 | 2019-10-10 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN110390251A (zh) * | 2019-05-15 | 2019-10-29 | 上海海事大学 | 一种基于多神经网络模型融合处理的图像文字语义分割方法 |
CN110472632A (zh) * | 2019-07-31 | 2019-11-19 | 上海海事大学 | 基于字符特征的字符分割方法、装置及计算机存储介质 |
CN110728236A (zh) * | 2019-10-12 | 2020-01-24 | 创新奇智(重庆)科技有限公司 | 车辆定损方法及其专用设备 |
CN111861978A (zh) * | 2020-05-29 | 2020-10-30 | 陕西师范大学 | 基于Faster R-CNN的桥梁裂缝实例分割方法 |
-
2020
- 2020-11-06 CN CN202011226859.6A patent/CN112270370B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103345747A (zh) * | 2013-06-26 | 2013-10-09 | 公安部第三研究所 | 一种基于平面坐标优化的图像形状特征提取和结构化描述装置以及方法 |
US20170147991A1 (en) * | 2015-11-23 | 2017-05-25 | CSI Holdings I LLC | Vehicle damage report |
CN107886035A (zh) * | 2016-09-30 | 2018-04-06 | 比亚迪股份有限公司 | 识别箭头交通灯的方法、装置及车辆 |
CN107808381A (zh) * | 2017-09-25 | 2018-03-16 | 哈尔滨理工大学 | 一种单细胞图像分割方法 |
CN108171243A (zh) * | 2017-12-18 | 2018-06-15 | 广州七乐康药业连锁有限公司 | 一种基于深度神经网络的医疗图像信息识别方法及系统 |
WO2019192397A1 (zh) * | 2018-04-04 | 2019-10-10 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN108985343A (zh) * | 2018-06-22 | 2018-12-11 | 深源恒际科技有限公司 | 基于深度神经网络的汽车损伤检测方法和系统 |
CN110390251A (zh) * | 2019-05-15 | 2019-10-29 | 上海海事大学 | 一种基于多神经网络模型融合处理的图像文字语义分割方法 |
CN110287851A (zh) * | 2019-06-20 | 2019-09-27 | 厦门市美亚柏科信息股份有限公司 | 一种目标图像定位方法、装置、系统及存储介质 |
CN110472632A (zh) * | 2019-07-31 | 2019-11-19 | 上海海事大学 | 基于字符特征的字符分割方法、装置及计算机存储介质 |
CN110728236A (zh) * | 2019-10-12 | 2020-01-24 | 创新奇智(重庆)科技有限公司 | 车辆定损方法及其专用设备 |
CN111861978A (zh) * | 2020-05-29 | 2020-10-30 | 陕西师范大学 | 基于Faster R-CNN的桥梁裂缝实例分割方法 |
Non-Patent Citations (3)
Title |
---|
CHEN FENG等: "Research on vehicle apparent damage assessment technology based on intelligent regression calculation", 《PROCEDIA COMPUTER SCIENCE》, vol. 187, pages 71 - 76, XP086617836, DOI: 10.1016/j.procs.2021.04.034 * |
QINGHUI ZHANG等: "Vehicle-Damage-Detection Segmentation Algorithm Based on Improved Mask RCNN", 《IEEE ACCESS》, pages 1 - 9 * |
仇梓峰: "基于计算机视觉的风机叶片表面损伤检测研究", 《中国优秀硕士学位论文_工程科技Ⅱ辑》, pages 042 - 442 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283280A (zh) * | 2021-02-22 | 2021-08-20 | 西北工业大学 | 基于可见光图像处理的地面目标云模型毁伤效果评估方法 |
CN113283280B (zh) * | 2021-02-22 | 2023-05-02 | 西北工业大学 | 基于可见光图像处理的地面目标云模型毁伤效果评估方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112270370B (zh) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110532900B (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN109255364B (zh) | 一种基于深度卷积生成对抗网络的场景识别方法 | |
CN110705425B (zh) | 一种基于图卷积网络的舌象多标签分类方法 | |
CN111739075A (zh) | 一种结合多尺度注意力的深层网络肺部纹理识别方法 | |
CN109285139A (zh) | 一种基于深度学习的x射线成像焊缝检测方法 | |
CN108510194A (zh) | 风控模型训练方法、风险识别方法、装置、设备及介质 | |
CN110660478A (zh) | 一种基于迁移学习的癌症图像预测判别方法和系统 | |
CN112102229A (zh) | 一种基于深度学习的工业ct检测缺陷的智能识别方法 | |
CN111582337A (zh) | 基于小样本细粒度图像分析的草莓畸形状态检测方法 | |
CN114092760A (zh) | 卷积神经网络中自适应特征融合方法及系统 | |
CN112364747B (zh) | 一种有限样本下的目标检测方法 | |
CN113449806A (zh) | 基于层次结构的二阶段林业害虫识别与检测系统及方法 | |
CN110363072A (zh) | 舌象识别方法、装置、计算机设备及计算机可读存储介质 | |
CN112270370A (zh) | 一种车辆表观毁伤评估方法 | |
CN117253192A (zh) | 用于桑蚕养殖的智能系统及方法 | |
CN112800979A (zh) | 一种基于表征流嵌入网络的动态表情识别方法及系统 | |
CN117058079A (zh) | 基于改进ResNet模型的甲状腺显像图像自动诊断方法 | |
CN111178174B (zh) | 基于深度卷积神经网络的尿液有形成分图像识别方法 | |
CN116012903A (zh) | 一种人脸表情自动标注的方法及系统 | |
Mao et al. | Attention-relation network for mobile phone screen defect classification via a few samples | |
CN113160115A (zh) | 一种基于改进深度残差网络的农作物病害识别方法及系统 | |
CN113313678A (zh) | 一种基于多尺度特征融合的精子形态学自动分析方法 | |
CN114998195B (zh) | 基于深度回归网络的猪b超图像脂肪含量检测方法 | |
CN117611599B (zh) | 融合中心线图和增强对比度网络的血管分割方法及其系统 | |
CN113469190B (zh) | 基于域适应的单阶段目标检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |