CN111695609A - 目标物损伤程度判定方法、装置、电子设备及存储介质 - Google Patents
目标物损伤程度判定方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111695609A CN111695609A CN202010458345.7A CN202010458345A CN111695609A CN 111695609 A CN111695609 A CN 111695609A CN 202010458345 A CN202010458345 A CN 202010458345A CN 111695609 A CN111695609 A CN 111695609A
- Authority
- CN
- China
- Prior art keywords
- frame
- network
- damage degree
- standard
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006378 damage Effects 0.000 title claims abstract description 139
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 81
- 238000013145 classification model Methods 0.000 claims abstract description 58
- 230000006870 function Effects 0.000 claims description 47
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000013459 approach Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种目标物损伤程度判定方法,包括:通过标签对获取的原始图片训练集进行分类,得到标准图片训练集,构建包括分类子网络和边框回归子网络的目标物损伤程度分类模型,利用所述分类子网络生成所述标准图片训练集中每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型,利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。此外,本发明还涉及区块链技术,模型训练所需的数据可存储在区块链中的节点。本发明可以提高识别目标物损伤程度的精度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种目标物损伤程度判定的方法、装置及计算机可读存储介质。
背景技术
车辆等物体的损伤程度的判断通常有两种方式:一是由人工判断,但每个人的判断标准以及经验丰富程度存在差异,导致损伤程度的判断结果的主观性较大且准确性不足;二是运用计算机视觉技术进行损伤程度的判定。所述计算机视觉技术一般为二阶段检测算法。所述二阶段检测算法是利用RoI Pooling(Region of Interest pooling,感兴趣区域池)等网络层提取物体的特征图,并将所述特征图送入不同分支完成分类和位置回归,输出一组真实框。所述二阶段检测算法需要定义一系列稠密均匀分布的锚框,这些锚框会根据其尺寸大小和不同的特征图联系起来,锚框与真实框匹配的过程隐式地决定了真实框由哪层特征图负责预测,匹配完成得到损伤程度的判定结果。
基于以上的物体损伤程度的两种判断方式存在下述缺陷:1、依靠人工进行定损需要耗费大量人力成本、耗时较长且准确率较低;2、二阶段检测算法虽然可以提高准确率,但缺乏理论依据,所述锚框与真实框匹配的过程是未知的,因此识别精度不够。
发明内容
本发明提供一种目标物损伤程度判定方法、装置及计算机可读存储介质,其主要目的在于设定锚框与真实框匹配的过程,解决识别精度不够的
为实现上述目的,本发明提供的一种基于图片的目标物损伤程度判定方法,包括:
获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集;
构建目标物损伤程度分类模型,其中,所述目标物损伤程度分类模型包括全卷积神经网络,所述全卷积神经网络包括分类子网络和边框回归子网络;
将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型;
利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
可选地,所述根据所述预测损失值集得到标准目标物损伤程度分类模型,包括:
在所述预测损失值集不满足预设损失要求时,调整边框回归子网络中预设的损失函数的系数后重新通过所述边框回归子网络对所述锚框与真实框进行边框回归,直到所述预测损失值集满足所述预设损失要求,根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
可选地,所述在所述预测损失值集不满足预设损失要求时,该方法还包括:
将所述预测损失值集中内每个损失值与预设的损失值阈值进行比较;
计算大于所述预设的损失值阈值的损失值的数量与小于或者等于所述预设的损失值阈值的损失值的数量之间的比例值;
在所述比例值大于预设的比例阈值时,执行所述调整边框回归子网络中预设的损失函数的系数;
在所述比例值小于或者等于所述预设的比例阈值时,直接根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
可选地,所述利用所述分类子网络生成所述标准图片训练集内每个图片的锚框,包括:
在所述分类子网络中获取所述标准图片训练集内的图片,检测所述图片中的目标物得到真实框,并对所述图片中的所有像素点进行随机采样,得到一系列以像素点为中心的锚框。
可选地,所述通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,包括:
利用所述边框回归子网络中预设的损失函数对所述图片中的一系列锚框与真实框进行边框回归,使所述锚框向所述真实框不断逼近,得到所述锚框与所述真实框的交并比,根据所述交并比得到所述预测损失值集。
为了解决上述问题,本发明还提供一种目标物损伤程度判定装置,所述装置包括:
分类模块,用于获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集;
边框回归模块,用于将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型;
鉴定模块,用于利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
可选地,所述边框回归模块通过下述操作得到标准目标物损伤程度分类模型::
将所述预测损失值集中内每个损失值与预设的损失值阈值进行比较;
计算大于所述预设的损失值阈值的损失值的数量与小于或者等于所述预设的损失值阈值的损失值的数量之间的比例值;
在所述比例值大于预设的比例阈值时,执行所述调整边框回归子网络中预设的损失函数的系数;
在所述比例值小于或者等于所述预设的比例阈值时,直接根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
优选地,所述边框回归模块通过执行下述操作得到所述预测损失值集:
利用所述边框回归子网络中预设的损失函数对所述图片中的一系列锚框及真实框进行边框回归,使所述锚框向所述真实框不断逼近,得到所述锚框与所述真实框的交并比,根据所述交并比得到所述预测损失值集。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的目标物损伤程度判定方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的目标物损伤程度判定方法。
本发明将原始图片训练集中的图片按照标签进行分类,得到标准图片训练集,通过所述标准图片训练集训练预构建的目标物损伤程度分类模型,其中,所述预构建的目标物损伤程度分类模型中包括分类子网络和边框回归子网络,所述标准图片训练集的图片经过所述分类子网络生成真实框和一系列锚框后,可通过所述边框回归子网络进行边框回归,所以锚框与真实框匹配的过程是可设定的,因此本发明提出的目标物损伤程度判定方法、装置及计算机可读存储介质,可以提高识别精度。
附图说明
图1为本发明一实施例提供的目标物损伤程度判定方法的流程示意图;
图2为本发明一实施例提供的边框回归方法的流程示意图;
图3为本发明一实施例提供的目标物损伤程度判定装置的内部结构示意图;
图4为本发明一实施例提供的目标物损伤程度判定装置中目标物损伤程度判定程序的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种目标物损伤程度判定方法。参照图1所示,为本发明一实施例提供的基于图片的目标物损伤程度判定方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,基于图片的目标物损伤程度判定方法包括:
S1、获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集。
较佳地,本发明实施例所述原始图片训练集包括海量物体损伤图片。所述标签集是指提取所述原始图片训练集中所有图片的预设种类的特征,并根据所述相同特征生成的。本发明实施例中,所述预设种类的特征包括图片视角、损伤程度等。例如,图片视角特征包括正视图、俯视图、仰视图、左侧视图和右侧视图5种不同的标签;所述损伤程度包括级别A、级别B、级别C、级别D、级别E五个级别的标签等。
本发明实施例将所述原始图片训练集中的图片按照对应标签进行分类,形成标准图片训练集。例如,所述原始图片训练集中的一张图片属于正视视角,损失级别为B,则将其分类到正视集合的B等级图片集内,以此类推。
S2、构建目标物损伤程度分类模型,其中,所述目标物损伤程度分类模型包括全卷积神经网络,所述全卷积神经网络包括分类子网络和边框回归子网络。
详细地,所述全卷积神经网络包括输入层、多x多卷积层、池化层及1x1卷积层,可以对图片进行像素级的分类,进而达到识别图片中特定部分的目的。
其中,所述输入层用于接收输入的图片并对接收的输入的图片进行标准化处理,如将输入的图片中的像素的像素值由[0,255]的范围归一化至[0,1]区间。
所述多x多卷积层包括卷积核、卷积步长和填充,用于对输入的图片进行特征提取得到特征图。其中,所述卷积核越大,可提取的图片的特征越复杂;所述卷积步长定义了卷积核相邻两次扫过所述图片时位置的距离,如卷积步长为1时,卷积核会逐个扫过输入的所述图片的像素,步长为n时会在下一次扫描跳过n-1个像素。所述填充用于在输入的所述图片通过卷积核之前,增大其尺寸以抵消计算中尺寸收缩产生的影响,如16×16的图片在经过单位步长的5×5的卷积核之前先进行相同填充,则会在水平和垂直方向填充两层,即两侧各增加2个像素变为20×20大小的图像,通过卷积核后,输出的特征图尺寸为16×16,保持了原本的尺寸。
所述池化层用于对所述多x多卷积层提取的特征进行进一步地特征选择和过滤。
所述1×1卷积层用于将图片调整为任意大小尺寸并输出。
进一步地,本发明优选实施例中所述原始目标物损伤程度分类模型中的全卷积神经网络还包含分类子网络和边框回归子网络。其中,所述分类自网络用于检测所述图片中的目标物得到真实框和一系列锚框,及所述边框回归子网络用于对所述图片中的一系列锚框与真实框进行边框回归。所述分类子网络和边框回归子网络均由1个有锚框分支和1个无锚框分支构成,每个有锚框分支分别由4层卷积层组成。所述分类子网络中的有锚框分支输出的特征图数量为类别数与锚框数的乘积,所述边框回归子网络中的有锚框分支输出的特征图数量为锚框数的4倍。其中,所述锚框是指,以像素点为中心,在输入图片中采集大量的区域,产生的预测边界框;所述边框回归是指目标检测过程中对产生的所述预测边界框以标注好的所述真实边界框为目标进行逼近的过程,然后判断这些所述预测边界框中是否包含目标,并调整所述预测边界框边缘从而更准确预测目标。
较佳地,本发明实施例所述分类子网络和边框回归子网络包括损失函数。
所述损失函数是指全卷积神经网络中每次迭代的前向计算结果与真实值的差距,从而指导下一步的训练向正确的方向进行的函数。本发明实施例中,所述损失函数包括焦点损失函数(Focal Loss)和交并比损失函数(IoU Loss),公式分别为:
其中,所述Focal Loss和IoU Loss分别为所述分类子网络的和边框回归子网络的损失函数。其中,表示分类子网络的损失函数,表示为边框回归子网络的损失函数,l表示为卷积层数,i表示类别数,j表示锚框数,表示为损失系数。
S3、将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型。
详细地,参照图2所示,所述S3包括:
S31:将所述标准图片训练集输入至所述分类子网络得到图片特征集,所述图片特征集中的图片包括真实框与一系列锚框;
S32:将所述图片特征集输入至边框回归子网络,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到所述锚框与所述真实框的交并比;
S33:将所述锚框与所述真实框的交并比,通过非极大值抑制得到预测损失值集,所述预测损失值集可存储在区块链中的节点;
S34:判断所述预测损失值集是否满足预设损失要求。
在所述预测损失值集不满足预设损失要求时,调整边框回归子网络中的损失函数的系数后,返回S31;
S35:在所述预测损失值集满足预设损失要求,得到并输出所述标准目标物损伤程度分类模型。
具体地,所述S31包括:
在所述分类子网络中获取所述标准图片训练集内的图片,检测所述图片中的目标物得到真实框,并对所述图片中的所有像素点进行随机采样,得到一系列以像素点为中心的锚框,得到所述图片特征集。
详细地,所述S32包括:
将所述图片特征集输入至边框回归子网络;
利用所述边框回归子网络中的损失函数对所述图片中的一系列锚框与真实框进行边框回归,使得锚框向真实框不断逼近,得到所述锚框及真实框的交并比,从而得到所述目标物损伤程度预测损失值集。
其中,所述交并比为所述锚框及真实框相交面积和相并面积之比。
进一步地,本发明其他较佳实施例中,在所述预测损失值集不满足预设损失要求,该方法还包括:
将所述预测损失值集中内每个损失值与预设的损失值阈值进行比较;
计算大于所述预设的损失值阈值的损失值的数量和小于或者等于所述预设的损失值阈值的损失值的数量的比例值;
在所述比例值大于预设的比例阈值时,调整边框回归子网络中预设的损失函数的系数;
在所述比例值小于或者等于所述预设的比例阈值时,根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
S4、利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
本发明实施例接收所述目标物的受损图像集,并对所述受损图像集进行预处理后传输至所述标准目标物损伤程度分类模型中,得到目标物损伤程度鉴定结果。
详细地,本发明实施例中所述预处理包括:提取所述受损图像集中所有图片的预设种类的特征,如,提取所述预设种类的图片视角,包括正视图、俯视图、仰视图、左侧视图和右侧视图。
进一步地,本发明实施例将所述受损图像集传输至所述标准目标物损伤程度分类模型中,得到多个目标物损伤程度鉴定结果,并根据所述多个目标物损伤程度鉴定结果,得到最终的目标物损伤程度鉴定结果。
例如,本发明实施例将目标物,如车辆,的同一受损部位的正视、俯视、仰视、左侧视和右侧视图图片输入至所述标准目标物损伤程度分类模型,利用所述标准目标物损伤程度分类模型分析得到同一受损部位的每种图片视角对应的损伤程度鉴定结果,组成目标物损伤程度鉴定结果集。在所述目标物损伤程度鉴定结果集判断是否有一种鉴定结果的比例超过预设比例值,若鉴定结果的比例超过预设比例值,则此次的损伤程度鉴定成功,最终的目标物损伤程度鉴定结果为超过预设比例值鉴定结果。若在所述目标物损伤程度鉴定结果集中没有一种鉴定结果的比例超过预设比例值,则此次的损伤程度鉴定失败。
例如,预设比例值为60%,用户将受损车辆的同一受损部位的正视图、俯视图、仰视图、左侧视图和右侧视图输入至所述标准目标物损伤程度分类模型中,输出的目标物损伤程度鉴定结果集如下:正视图、损伤级别B,俯视、损伤级别B,仰视图、损伤级别B,左侧视图、损伤级别C,右侧视图,损伤级别B,同一鉴定结果的比例为80%,大于预设比例值,则输出鉴定结果为损伤级别B。
本发明将原始图片训练集中的图片按照标签进行分类,得到标准图片训练集,通过所述标准图片训练集训练预构建的目标物损伤程度分类模型,其中,所述预构建的目标物损伤程度分类模型中包括分类子网络和边框回归子网络,所述标准图片训练集的图片经过所述分类子网络生成真实框和一系列锚框后,可通过所述边框回归子网络进行边框回归,所以锚框与真实框匹配的过程是可设定的,因此本发明提出的目标物损伤程度判定方法、装置及计算机可读存储介质,可以提高识别精度。
如图3所示,是本发明的目标物损伤程度判定装置的功能模块图。
本发明所述目标物损伤程度判定装置100可以安装于电子设备中。根据实现的功能,所述目标物损伤程度判定装置可以包括分类模块101、边框回归模块102、鉴定模块103。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述分类模块101,用于获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集;
所述边框回归模块102,用于将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型;
所述鉴定模块103,用于利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
详细地,所述目标物损伤程度判定装置各模块的具体实施步骤如下:
所述分类模块101获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集。
本发明实施例所述原始图片训练集包括海量物体损伤图片。所述标签集是指提取所述原始图片训练集中所有图片的预设种类的特征,并根据所述相同特征生成的。本发明实施例中,所述预设种类的特征包括图片视角、损伤程度等。例如,图片视角特征包括正视图、俯视图、仰视图、左侧视图和右侧视图5种不同的标签;所述损伤程度包括级别A、级别B、级别C、级别D、级别E五个级别的标签等。
本发明实施例所述分类模块101将所述原始图片训练集中的图片按照对应标签进行分类,形成标准图片训练集。例如,所述原始图片训练集中的一张图片属于正视视角,损失级别为B,则将其分类到正视集合的B等级图片集内,以此类推。
所述边框回归模块102将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型。
详细地,所述边框回归模块102具体执行下述操作:
将所述标准图片训练集输入至所述分类子网络得到图片特征集,所述图片特征集中的图片包括真实框与一系列锚框;
将所述图片特征集输入至边框回归子网络,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到所述锚框与所述真实框的交并比;
将所述锚框与所述真实框的交并比,通过非极大值抑制得到预测损失值集,所述预测损失值集可存储在区块链中的节点;
判断所述预测损失值集是否满足预设损失要求;
在所述预测损失值集不满足预设损失要求时,调整边框回归子网络中的损失函数的系数,继续对所述锚框及真实框进行边框回归,得到所述锚框与所述真实框的交并比;
在所述预测损失值集满足预设损失要求,得到并输出所述标准目标物损伤程度分类模型。
详细地,所述全卷积神经网络包括输入层、多x多卷积层、池化层及1x1卷积层,可以对图片进行像素级的分类,进而达到识别图片中特定部分的目的。
其中,所述输入层用于接收输入的图片并对接收的输入的图片进行标准化处理,如将输入的图片中的像素的像素值由[0,255]的范围归一化至[0,1]区间。
所述多x多卷积层包括卷积核、卷积步长和填充,用于对输入的图片进行特征提取得到特征图。其中,所述卷积核越大,可提取的图片的特征越复杂;所述卷积步长定义了卷积核相邻两次扫过所述图片时位置的距离,如卷积步长为1时,卷积核会逐个扫过输入的所述图片的像素,步长为n时会在下一次扫描跳过n-1个像素。所述填充用于在输入的所述图片通过卷积核之前,增大其尺寸以抵消计算中尺寸收缩产生的影响,如16×16的图片在经过单位步长的5×5的卷积核之前先进行相同填充,则会在水平和垂直方向填充两层,即两侧各增加2个像素变为20×20大小的图像,通过卷积核后,输出的特征图尺寸为16×16,保持了原本的尺寸。
所述池化层用于对所述多x多卷积层提取的特征进行进一步地特征选择和过滤。
所述1×1卷积层用于将图片调整为任意大小尺寸并输出。
进一步地,本发明优选实施例中所述原始目标物损伤程度分类模型中的全卷积神经网络还包含分类子网络和边框回归子网络。其中,所述分类自网络用于检测所述图片中的目标物得到真实框和一系列锚框,及所述边框回归子网络用于对所述图片中的一系列锚框与真实框进行边框回归。所述分类子网络和边框回归子网络均由1个有锚框分支和1个无锚框分支构成,每个有锚框分支分别由4层卷积层组成。所述分类子网络中的有锚框分支输出的特征图数量为类别数与锚框数的乘积,所述边框回归子网络中的有锚框分支输出的特征图数量为锚框数的4倍。其中,所述锚框是指,以像素点为中心,在输入图片中采集大量的区域,产生的预测边界框;所述边框回归是指目标检测过程中对产生的所述预测边界框以标注好的所述真实边界框为目标进行逼近的过程,然后判断这些所述预测边界框中是否包含目标,并调整所述预测边界框边缘从而更准确预测目标。
较佳地,本发明实施例所述分类子网络和边框回归子网络包括损失函数。
所述损失函数是指全卷积神经网络中每次迭代的前向计算结果与真实值的差距,从而指导下一步的训练向正确的方向进行的函数。本发明实施例中,所述损失函数包括焦点损失函数(Focal Loss)和交并比损失函数(IoU Loss),公式分别为:
其中,所述Focal Loss和IoU Loss分别为所述分类子网络的和边框回归子网络的损失函数。其中,表示分类子网络的损失函数,表示为边框回归子网络的损失函数,l表示为卷积层数,i表示类别数,j表示锚框数,表示为损失系数。
优选地,本发明边框回归模块102通过下述操作得到标准目标物损伤程度分类模型:将所述预测损失值集中内每个损失值与预设的损失值阈值进行比较;计算大于所述预设的损失值阈值的损失值的数量及小于或者等于所述预设的损失值阈值的损失值的数量的比例值;在所述比例值大于预设的比例阈值时,执行所述调整边框回归子网络中预设的损失函数的系数;在所述比例值小于或者等于所述预设的比例阈值时,直接根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
所述鉴定模块103利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
本发明实施例接收所述目标物的受损图像集,并对所述受损图像集进行预处理后传输至所述标准目标物损伤程度分类模型中,得到目标物损伤程度鉴定结果。
详细地,本发明实施例中所述预处理包括:提取所述受损图像集中所有图片的预设种类的特征,如,提取所述预设种类的图片视角,包括正视图、俯视图、仰视图、左侧视图和右侧视图。
进一步地,本发明实施例将所述受损图像集传输至所述标准目标物损伤程度分类模型中,得到多个目标物损伤程度鉴定结果,并根据所述多个目标物损伤程度鉴定结果,得到最终的目标物损伤程度鉴定结果。
例如,本发明实施例将目标物,如车辆的同一受损部位的正视、俯视、仰视、左侧视和右侧视图图片输入至所述标准目标物损伤程度分类模型,利用所述标准目标物损伤程度分类模型分析得到同一受损部位的每种图片视角对应的损伤程度鉴定结果,组成目标物损伤程度鉴定结果集。在所述目标物损伤程度鉴定结果集判断是否有一种鉴定结果的比例超过预设比例值,若鉴定结果的比例超过预设比例值,则此次的损伤程度鉴定成功,最终的目标物损伤程度鉴定结果为超过预设比例值鉴定结果。若在所述目标物损伤程度鉴定结果集中没有一种鉴定结果的比例超过预设比例值,则此次的损伤程度鉴定失败。
例如,预设比例值为60%,用户将受损车辆的同一受损部位的正视图、俯视图、仰视图、左侧视图和右侧视图输入至所述标准目标物损伤程度分类模型中,输出的目标物损伤程度鉴定结果集如下:正视图、损伤级别B,俯视、损伤级别B,仰视图、损伤级别B,左侧视图、损伤级别C,右侧视图,损伤级别B,同一鉴定结果的比例为80%,大于预设比例值,则输出鉴定结果为损伤级别B。
如图4所示,是本发明实现目标物损伤程度鉴定方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于图片的目标识别程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于图片的目标识别程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于图片的目标识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于图片的目标识别程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集;
构建目标物损伤程度分类模型,其中,所述目标物损伤程度分类模型包括全卷积神经网络,所述全卷积神经网络包括分类子网络和边框回归子网络;
将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型;
利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种目标物损伤程度鉴定方法,其特征在于,所述方法包括:
获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集;
构建目标物损伤程度分类模型,其中,所述目标物损伤程度分类模型包括全卷积神经网络,所述全卷积神经网络包括分类子网络和边框回归子网络;
将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型;
利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
2.如权利要求1所述的目标物损伤程度判定方法,其特征在于,所述根据所述预测损失值集得到标准目标物损伤程度分类模型,包括:
在所述预测损失值集不满足预设损失要求时,调整边框回归子网络中预设的损失函数的系数后重新通过所述边框回归子网络对所述锚框与真实框进行边框回归,直到所述预测损失值集满足所述预设损失要求,根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
3.如权利要求2所述的目标物损伤程度判定方法,其特征在于,所述在所述预测损失值集不满足预设损失要求时,该方法还包括:
将所述预测损失值集中内每个损失值与预设的损失值阈值进行比较;
计算大于所述预设的损失值阈值的损失值的数量与小于或者等于所述预设的损失值阈值的损失值的数量之间的比例值;
在所述比例值大于预设的比例阈值时,执行所述调整边框回归子网络中预设的损失函数的系数;
在所述比例值小于或者等于所述预设的比例阈值时,直接根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
4.如权利要求1所述的目标物损伤程度判定方法,其特征在于,所述利用所述分类子网络生成所述标准图片训练集内每个图片的锚框,包括:
在所述分类子网络中获取所述标准图片训练集内的图片,检测所述图片中的目标物得到真实框,并对所述图片中的所有像素点进行随机采样,得到一系列以像素点为中心的锚框。
5.如权利要求3所述的目标物损伤程度判定方法,其特征在于,所述通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,包括:
利用所述边框回归子网络中预设的损失函数对所述图片中的一系列锚框与真实框进行边框回归,使所述锚框向所述真实框不断逼近,得到所述锚框与所述真实框的交并比,根据所述交并比得到所述预测损失值集。
6.一种目标物损伤程度判定装置,其特征在于,所述装置包括:
分类模块,用于获取原始图片训练集及所述原始图片训练集对应的标签集,将所述原始图片训练集中的图片按照对应标签进行分类,得到标准图片训练集;
边框回归模块,用于将所述标准图片训练集输入至所述全卷积神经网络,并利用所述分类子网络生成所述标准图片训练集内每个图片的锚框及真实框,通过所述边框回归子网络对所述锚框与真实框进行边框回归,得到预测损失值集,根据所述预测损失值集得到标准目标物损伤程度分类模型;
鉴定模块,用于利用所述标准目标物损伤程度分类模型对目标物的受损图像集进行分析,得到目标物损伤程度鉴定结果。
7.如权利要求6所述的目标物损伤程度判定装置,其特征在于,所述边框回归模块通过下述操作得到标准目标物损伤程度分类模型:
将所述预测损失值集中内每个损失值与预设的损失值阈值进行比较;
计算大于所述预设的损失值阈值的损失值的数量与小于或者等于所述预设的损失值阈值的损失值的数量之间的比例值;
在所述比例值大于预设的比例阈值时,执行所述调整边框回归子网络中预设的损失函数的系数;
在所述比例值小于或者等于所述预设的比例阈值时,直接根据边框回归子网络中当前的损失函数的系数,得到所述标准目标物损伤程度分类模型。
8.如权利要求6所述的目标物损伤程度判定装置,其特征在于,所述边框回归模块通过执行下述操作得到所述预测损失值集:
利用所述边框回归子网络中预设的损失函数对所述图片中的一系列锚框及真实框进行边框回归,使所述锚框向所述真实框不断逼近,得到所述锚框与所述真实框的交并比,根据所述交并比得到所述预测损失值集。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任意一项所述的基于图片的目标识别方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任意一项所述的目标物损伤程度判定方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010458345.7A CN111695609A (zh) | 2020-05-26 | 2020-05-26 | 目标物损伤程度判定方法、装置、电子设备及存储介质 |
PCT/CN2020/098985 WO2021151277A1 (zh) | 2020-05-26 | 2020-06-29 | 目标物损伤程度判定方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010458345.7A CN111695609A (zh) | 2020-05-26 | 2020-05-26 | 目标物损伤程度判定方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111695609A true CN111695609A (zh) | 2020-09-22 |
Family
ID=72478395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010458345.7A Pending CN111695609A (zh) | 2020-05-26 | 2020-05-26 | 目标物损伤程度判定方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111695609A (zh) |
WO (1) | WO2021151277A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329596A (zh) * | 2020-11-02 | 2021-02-05 | 中国平安财产保险股份有限公司 | 目标物定损方法、装置、电子设备及计算机可读存储介质 |
CN114120122A (zh) * | 2021-11-29 | 2022-03-01 | 中国平安财产保险股份有限公司 | 基于遥感影像的灾损识别方法、装置、设备及存储介质 |
CN114581652A (zh) * | 2020-12-01 | 2022-06-03 | 北京四维图新科技股份有限公司 | 目标对象的检测方法、装置、电子设备以及存储介质 |
CN116630716A (zh) * | 2023-06-06 | 2023-08-22 | 云途信息科技(杭州)有限公司 | 道路绿化破损识别方法、装置、计算机设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887455B (zh) * | 2021-10-11 | 2024-05-28 | 东北大学 | 一种基于改进fcos的人脸口罩检测系统及方法 |
CN113837316B (zh) * | 2021-10-13 | 2023-12-26 | 山东德普检测技术有限公司 | 一种基于农产品的异常区域检测方法、装置、设备及介质 |
CN113963167B (zh) * | 2021-10-29 | 2022-05-27 | 北京百度网讯科技有限公司 | 应用于目标检测的方法、装置及计算机程序产品 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117831A (zh) * | 2018-09-30 | 2019-01-01 | 北京字节跳动网络技术有限公司 | 物体检测网络的训练方法和装置 |
CN109657716A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观损伤识别方法 |
CN109684956A (zh) * | 2018-12-14 | 2019-04-26 | 深源恒际科技有限公司 | 一种基于深度神经网络的车辆损伤检测方法及系统 |
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN110399884A (zh) * | 2019-07-10 | 2019-11-01 | 浙江理工大学 | 一种特征融合自适应锚框模型车辆检测方法 |
CN110570316A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 训练损伤识别模型的方法及装置 |
CN110942000A (zh) * | 2019-11-13 | 2020-03-31 | 南京理工大学 | 一种基于深度学习的无人驾驶车辆目标检测方法 |
CN111027547A (zh) * | 2019-12-06 | 2020-04-17 | 南京大学 | 一种针对二维图像中的多尺度多形态目标的自动检测方法 |
CN111062413A (zh) * | 2019-11-08 | 2020-04-24 | 深兰科技(上海)有限公司 | 一种道路目标检测方法、装置、电子设备及存储介质 |
CN111091105A (zh) * | 2019-12-23 | 2020-05-01 | 郑州轻工业大学 | 基于新的边框回归损失函数的遥感图像目标检测方法 |
CN111160379A (zh) * | 2018-11-07 | 2020-05-15 | 北京嘀嘀无限科技发展有限公司 | 图像检测模型的训练方法及装置、目标检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7166784B2 (ja) * | 2018-04-26 | 2022-11-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2020
- 2020-05-26 CN CN202010458345.7A patent/CN111695609A/zh active Pending
- 2020-06-29 WO PCT/CN2020/098985 patent/WO2021151277A1/zh active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN110570316A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 训练损伤识别模型的方法及装置 |
CN109117831A (zh) * | 2018-09-30 | 2019-01-01 | 北京字节跳动网络技术有限公司 | 物体检测网络的训练方法和装置 |
CN111160379A (zh) * | 2018-11-07 | 2020-05-15 | 北京嘀嘀无限科技发展有限公司 | 图像检测模型的训练方法及装置、目标检测方法及装置 |
CN109657716A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观损伤识别方法 |
CN109684956A (zh) * | 2018-12-14 | 2019-04-26 | 深源恒际科技有限公司 | 一种基于深度神经网络的车辆损伤检测方法及系统 |
CN110399884A (zh) * | 2019-07-10 | 2019-11-01 | 浙江理工大学 | 一种特征融合自适应锚框模型车辆检测方法 |
CN111062413A (zh) * | 2019-11-08 | 2020-04-24 | 深兰科技(上海)有限公司 | 一种道路目标检测方法、装置、电子设备及存储介质 |
CN110942000A (zh) * | 2019-11-13 | 2020-03-31 | 南京理工大学 | 一种基于深度学习的无人驾驶车辆目标检测方法 |
CN111027547A (zh) * | 2019-12-06 | 2020-04-17 | 南京大学 | 一种针对二维图像中的多尺度多形态目标的自动检测方法 |
CN111091105A (zh) * | 2019-12-23 | 2020-05-01 | 郑州轻工业大学 | 基于新的边框回归损失函数的遥感图像目标检测方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329596A (zh) * | 2020-11-02 | 2021-02-05 | 中国平安财产保险股份有限公司 | 目标物定损方法、装置、电子设备及计算机可读存储介质 |
CN112329596B (zh) * | 2020-11-02 | 2021-08-24 | 中国平安财产保险股份有限公司 | 目标物定损方法、装置、电子设备及计算机可读存储介质 |
CN114581652A (zh) * | 2020-12-01 | 2022-06-03 | 北京四维图新科技股份有限公司 | 目标对象的检测方法、装置、电子设备以及存储介质 |
CN114120122A (zh) * | 2021-11-29 | 2022-03-01 | 中国平安财产保险股份有限公司 | 基于遥感影像的灾损识别方法、装置、设备及存储介质 |
CN114120122B (zh) * | 2021-11-29 | 2024-04-30 | 中国平安财产保险股份有限公司 | 基于遥感影像的灾损识别方法、装置、设备及存储介质 |
CN116630716A (zh) * | 2023-06-06 | 2023-08-22 | 云途信息科技(杭州)有限公司 | 道路绿化破损识别方法、装置、计算机设备及存储介质 |
CN116630716B (zh) * | 2023-06-06 | 2024-05-24 | 云途信息科技(杭州)有限公司 | 道路绿化破损识别方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021151277A1 (zh) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695609A (zh) | 目标物损伤程度判定方法、装置、电子设备及存储介质 | |
CN112395978A (zh) | 行为检测方法、装置及计算机可读存储介质 | |
CN112699775A (zh) | 基于深度学习的证件识别方法、装置、设备及存储介质 | |
CN112100425B (zh) | 基于人工智能的标签标注方法、装置、电子设备及介质 | |
CN113283446A (zh) | 图像中目标物识别方法、装置、电子设备及存储介质 | |
CN112137591B (zh) | 基于视频流的目标物位置检测方法、装置、设备及介质 | |
CN112749653A (zh) | 行人检测方法、装置、电子设备及存储介质 | |
CN113554008B (zh) | 静态物体区域内检测方法、装置、电子设备及存储介质 | |
CN113705462A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN111985449A (zh) | 救援现场图像的识别方法、装置、设备及计算机介质 | |
CN113705461A (zh) | 人脸清晰度检测方法、装置、设备及存储介质 | |
CN112132812A (zh) | 证件校验方法、装置、电子设备及介质 | |
CN114723636A (zh) | 基于多特征融合的模型生成方法、装置、设备及存储介质 | |
CN112906671B (zh) | 面审虚假图片识别方法、装置、电子设备及存储介质 | |
CN114049568A (zh) | 基于图像比对的标的物形变检测方法、装置、设备及介质 | |
CN113887439A (zh) | 基于图像识别的自动预警方法、装置、设备及存储介质 | |
CN113065607A (zh) | 图像检测方法、装置、电子设备及介质 | |
CN114463685A (zh) | 行为识别方法、装置、电子设备及存储介质 | |
CN114783042A (zh) | 基于多移动目标的人脸识别方法、装置、设备及存储介质 | |
CN113627394A (zh) | 人脸提取方法、装置、电子设备及可读存储介质 | |
CN113792671A (zh) | 人脸合成图像的检测方法、装置、电子设备及介质 | |
CN114187476A (zh) | 基于图像分析的车险信息核对方法、装置、设备及介质 | |
CN114049676A (zh) | 疲劳状态检测方法、装置、设备及存储介质 | |
CN113657316A (zh) | 移动交通违章监测方法、系统、电子设备及存储介质 | |
CN112561893A (zh) | 图片匹配方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40031432 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |