CN110570389B - 车辆损伤识别方法及装置 - Google Patents

车辆损伤识别方法及装置 Download PDF

Info

Publication number
CN110570389B
CN110570389B CN201811089438.6A CN201811089438A CN110570389B CN 110570389 B CN110570389 B CN 110570389B CN 201811089438 A CN201811089438 A CN 201811089438A CN 110570389 B CN110570389 B CN 110570389B
Authority
CN
China
Prior art keywords
frame
candidate
alternative
determining
bounding box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811089438.6A
Other languages
English (en)
Other versions
CN110570389A (zh
Inventor
徐娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201811089438.6A priority Critical patent/CN110570389B/zh
Priority to TW108122538A priority patent/TWI703510B/zh
Priority to EP19779295.5A priority patent/EP3776408A1/en
Priority to SG11202011149SA priority patent/SG11202011149SA/en
Priority to PCT/US2019/051229 priority patent/WO2020060895A1/en
Priority to US16/572,928 priority patent/US10853699B2/en
Publication of CN110570389A publication Critical patent/CN110570389A/zh
Priority to US16/776,549 priority patent/US10691982B2/en
Application granted granted Critical
Publication of CN110570389B publication Critical patent/CN110570389B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

本说明书实施例提供一种计算机执行的车辆损伤识别方法和装置,方法包括,首先获取待识别的车辆损伤图片,将该图片分别输入预先训练的多个目标检测模型,从其中分别获得对应的多组检测结果。多组检测结果构成检测结果集合,其中包括N个备选边框,以及各个备选边框的类别预测结果。对于N个备选边框中任意的第一备选边框,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量。其中上述关联关系至少包括边框内容关联关系、位置关联关系和类别预测结果关联关系中的一项或多项。然后,将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化检测结果集合。

Description

车辆损伤识别方法及装置
技术领域
本说明书一个或多个实施例涉及机器学习领域,尤其涉及利用机器学习进行车辆损伤识别的方法和装置。
背景技术
在传统车险理赔场景中,保险公司需要派出专业的查勘定损人员到事故现场进行现场查勘定损,给出车辆的维修方案和赔偿金额,并拍摄现场照片,定损照片留档以供后台核查人员核损核价。由于需要人工查勘定损,保险公司需要投入大量的人力成本,和专业知识的培训成本。从普通用户的体验来说,理赔流程由于等待人工查勘员现场拍照、定损员在维修地点定损、核损人员在后台核损,理赔周期长达1-3天,用户的等待时间较长,体验较差。
针对需求背景中提到的这一人工成本巨大的行业痛点,开始设想将人工智能和机器学习应用到车辆定损的场景中,希望能够利用人工智能领域计算机视觉图像识别技术,根据普通用户拍摄的现场损失图片,自动识别图片中反映的车损状况,并自动给出维修方案。如此,无需人工查勘定损核损,大大减少了保险公司的成本,提升了普通用户的车险理赔体验。
不过,目前的智能定损方案,损伤识别的准确度还有待进一步提高。因此,希望能有改进的方案,能够对车辆的损伤检测结果进行进一步优化,提高识别准确度。
发明内容
本说明书一个或多个实施例描述了一种车辆损伤识别方法和装置,其中利用多个目标检测模型对待识别图片进行检测,得到多个备选边框,然后基于各个备选边框之间的关联关系,对检测结果进行优化,提高损伤识别准确度。
根据第一方面,提供了一种计算机执行的车辆损伤识别方法,包括:
获取待识别的车辆损伤图片;
将所述车辆损伤图片分别输入预先训练的多个目标检测模型,从该多个目标检测模型分别获得对应的多组检测结果,该多组检测结果构成检测结果集合,所述检测结果集合中包括,所述多个目标检测模型检测出的N个备选边框,以及各个备选边框的类别预测结果;
对于所述N个备选边框中任意的第一备选边框,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量,所述关联关系至少包括边框内容关联关系、位置关联关系和类别预测结果关联关系中的一项或多项;
将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化所述检测结果集合。
根据一种可能的实施方式,上述其他备选边框包括第二备选边框,所述关联关系包括边框内容关联关系;在这样的情况下,如下确定该第一备选边框的综合特征向量:
获取各个备选边框的卷积特征向量,该卷积特征向量用于表征对应边框中的图片内容特征;
基于所述第一备选边框对应的第一卷积特征向量,和所述第二备选边框对应的第二卷积特征向量,确定第一备选边框与第二备选边框的内容关联特征;
至少根据所述内容关联特征,确定该第一备选边框的综合特征向量。
进一步地,在一个实施例中,通过以下方式确定第一备选边框与第二备选边框的内容关联特征:
计算所述第一卷积特征向量和第二卷积特征向量的点积,基于点积结果确定所述内容关联特征;和/或
计算所述第一卷积特征向量和第二卷积特征向量的距离,基于所述距离确定所述内容关联特征,其中所述距离包括余弦距离或欧式距离。
根据一种可能的实施方式,上述其他备选边框包括第二备选边框,且所述关联关系包括位置关联关系;在这样的情况下,如下确定该第一备选边框的综合特征向量:
基于所述第一备选边框的位置参数和第二备选边框的位置参数,确定第一备选边框与第二备选边框之间的位置关联特征;
至少根据所述位置关联特征,确定该第一备选边框的综合特征向量。
进一步地,在一个实施例中,所述位置关联特征包括以下中的一项或多项:中心距离、交并比、面积比、包含关系。
根据另一种可能的实施方式,其他备选边框包括第二备选边框,且所述关联关系包括类别预测结果关联关系;在这样的情况下,如下确定该第一备选边框的综合特征向量:
基于所述第一备选边框对应的第一预测结果和第二备选边框对应的第二预测结果,确定第一备选边框与第二备选边框之间的预测结果关联特征;
至少根据所述预测结果关联特征,确定该第一备选边框的综合特征向量。
进一步地,在一个实施例中,所述第一预测结果包括第一类别和第一置信度,所述第二预测结果包括第二类别和第二置信度,所述预测结果关联特征包括:第一类别和第二类别的异同,以及,第一置信度和第二置信度的差值。
根据一种可能的设计,上述其他备选边框包括以下中的一项或多项:与所述第一备选边框的中心距离在预定阈值之内的备选边框,与所述第一备选边框的中心距离排序在预定数目之内的备选边框。
在一种实施方式中,上述分类模型包括以下之一:GBDT模型、SVM模型、基于深度神经网络DNN的分类模型。
根据一种可能的实施方式,通过以下方式优化所述检测结果集合:在所述分类模型针对所述第一备选边框的输出结果为异常边框的情况下,将所述第一备选边框从所述检测结果集合中剔除。
根据第二方面,提供一种车辆损伤识别装置,包括:
获取单元,配置为获取待识别的车辆损伤图片;
检测单元,配置为将所述车辆损伤图片分别输入预先训练的多个目标检测模型,从该多个目标检测模型分别获得对应的多组检测结果,该多组检测结果构成检测结果集合,所述检测结果集合中包括,所述多个目标检测模型检测出的N个备选边框,以及各个备选边框的类别预测结果;
综合单元,配置为对于所述N个备选边框中任意的第一备选边框,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量,所述关联关系至少包括边框内容关联关系、位置关联关系和类别预测结果关联关系中的一项或多项;
优化单元,配置为将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化所述检测结果集合。
根据第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面的方法。
根据第四方面,提供了一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面的方法。
根据本说明书实施例提供的方法和装置,一方面,同时采用多个目标检测模型对车辆损伤图片进行损伤识别和检测,这使得生成的检测结果互相补充,最大程度排除了漏检测的可能。进一步地,对于多个目标检测模型得到的N个备选边框,基于各个备选边框与其他备选边框的关联关系,在备选边框之间建立联结,基于这样的联结结果,用训练的分类模型进一步判断各个备选边框的准确度,以此排除误检测的边框,进一步优化损伤识别结果。如此,全面提升损伤识别的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出本说明书披露的一个实施例的实施场景示意图;
图2示出根据一个实施例的车辆损伤识别方法的流程图;
图3a示出车辆损伤图片的一个示例;
图3b示出多个目标检测模型检测出的多个备选边框的例子;
图3c示出经过优化的检测结果;
图4示出在一个实施例中确定综合特征向量的步骤;
图5示出根据一个实施例的识别装置的示意性框图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
为了对车辆定损图片中的损伤状况进行识别,业界普遍采用的方法是,通过与海量历史数据库进行比对得到相似的图片,来决定图片上的损伤部件及其程度。然而,这样的方式损伤识别准确率不够理想。
此外,还采用样本标注的方式训练一些目标检测模型,这些目标检测模型被训练为以车辆损伤为检测对象进行检测,从而进行损伤识别。在进行损伤识别过程中,反光和污渍干扰是两大难点。在识别的结果中往往会出现真正的损伤能够正确检测,而同时少量反光或污渍也会被检测成损伤的情况,从而出现误检测。
为了提高损伤识别的准确度,在本说明书公开的实施例中,创造性提出了损伤检测结果优化方案。图1为本说明书披露的一个实施例的实施场景示意图。如图1所示,在获取到车辆损伤图片之后,将其输入到多个目标检测模型。上述多个目标检测模型各自独立地进行损伤识别,各自输出其损伤检测结果。一般地,损伤检测结果包括识别出的一组损伤边框,以及对应的类别预测结果。接着,将多个目标检测模型输出的多组损伤边框作为候选边框,确定各个候选边框之间的关联关系,从而建立各个候选边框之间的联结。根据具体实施例,上述关联关系可以包括,边框内容方面的关联关系、位置的关联关系、类别预测结果的关联关系中的一种或多种。基于这样的关联关系,利用训练好的分类模型对损伤检测结果进行优化,得到更为准确的损伤检测结果。下面描述优化损伤检测结果的具体实现过程。
图2示出根据一个实施例的车辆损伤识别方法的流程图。该方法可以通过任何具有计算、处理能力的装置、设备、平台和设备集群来执行。如图2所示,该方法包括,步骤21,获取待识别的车辆损伤图片;步骤22,将车辆损伤图片分别输入预先训练的多个目标检测模型,从该多个目标检测模型分别获得对应的多组检测结果;该多组检测结果构成检测结果集合,其中包括,多个目标检测模型检测出的N个备选边框,以及各个备选边框的类别预测结果;步骤23,对于N个备选边框中任意的第一备选边框,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量,所述关联关系至少包括边框内容关联关系、位置关联关系和类别预测结果关联关系中的一项或多项;以及步骤24,将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化所述检测结果集合。下面描述以上各个步骤的执行方式。
首先,在步骤21,获取车辆损伤图片。可以理解,该图片可以是普通用户拍摄的车损现场的图片,是有待进行损伤识别的图片。
图3a示出车辆损伤图片的一个示例。该图片是普通用户拍摄的未经处理的现场图片。
接着在步骤22,将车辆损伤图片分别输入预先训练的多个目标检测模型,从该多个目标检测模型分别获得对应的多组检测结果。
可以理解,目标检测模型用于从图片中识别出特定的目标对象,并对目标对象进行分类。为了利用目标检测模型进行车辆损伤的识别,可以利用大量已经标注出损伤对象的标注图片作为训练样本,训练目标检测模型,从而使得训练好的目标检测模型可以用于从图片中识别损伤对象。
已经基于各种网络结构和各种检测算法提出了各种各样的目标检测模型。例如,单阶段(one stage)检测模型可以从图片中直接确定出目标对象的类别概率和位置坐标,也就是直接识别出目标对象。单阶段检测模型的典型例子包括SSD模型、Yolo模型等。两阶段(two stage)的检测模型首先在图片中生成候选区域,或称为兴趣区域ROI,然后在候选区域中进行目标识别和边框回归。两阶段的检测模型的典型例子包括R-CNN模型、Fast R-CNN模型、 Faster R-CNN模型等。还提出有其他目标检测模型。
可以从以上的各种目标检测模型中进行选择,选出多个目标检测模型,在步骤22中对车辆损伤图片进行目标检测。选择出的多个目标检测模型可以并行地、独立地,各自对车辆损伤图片进行检测。
可以理解,每个目标检测模型会输出一组检测结果。一般地,目标检测模型输出的检测结果包括,包含目标对象的边框(bounding box)和该边框中目标对象的类别。在将目标检测算法应用于损伤识别时,将会得到损伤对象的区域边框和损伤对象的损伤类别。相应地,多个目标检测模型会对应输出多组检测结果,该多组检测结果构成检测结果集。因此,该检测结果集中包括,多个目标检测模型检测出的共计N个损伤边框,以及对应的损伤类别预测。图3b示意性示出,多个目标检测模型输出的检测结果集中包括的多个损伤边框,以及对应的损伤类别(每个边框左上角的数字)。
接下来,将目标检测模型检测出的损伤边框作为备选边框,对这N个备选边框进行进一步优化处理。
在步骤23,对于上述N个备选边框,确定各个备选边框与其他备选边框的关联关系,从而建立边框之间的联结,用以进行结果优化。下面以某个备选边框,此处称为第一备选边框为例进行说明。需要理解,此处的第一备选边框是N个备选边框中任意的一个边框,其中的“第一”仅仅表示区分,而不具有其他限定作用。
对于上述任意的第一备选边框,在步骤23,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量。在一个实施例中,第一备选边框的综合特征向量包括第一部分和第二部分,第一部分是仅与该备选边框自身相关的特征部分,第二部分是基于与其他备选边框的关联关系而得到的特征部分。在另一实施例中,上述综合特征向量也可以仅包括第二部分。
根据本说明书的实施例,上述的关联关系可以是,边框内容方面的关联关系,边框位置方面的关联关系和边框类别预测结果方面的关联关系。
更具体地,在一个实施例中,上述关联关系包括边框内容关联关系,也就是边框内图像特征之间的关联关系。在这样的情况下,可以确定上述第一备选边框与其他备选边框在内容上的关联关系,据此确定其综合特征向量。为了描述的清楚和简单,假定上述其他备选边框包括第二备选边框,下面以第一备选边框和第二备选边框为例,描述步骤23的执行方式。
图4示出在一个实施例中确定综合特征向量的步骤,即步骤23的子步骤。如图4所示,首先在步骤231,获取各个备选边框的卷积特征向量,该卷积特征向量用于表征对应边框中的图片内容特征。
可以理解,当前的多数目标检测模型都是基于卷积神经网络CNN的模型。在卷积神经网络CNN中,首先会对待识别图片进行卷积处理,得到卷积特征图(feature map),该卷积特征图反映图片内容的抽象特征。然后目标检测模型基于卷积特征图进行目标分类和边框回归。相应地,目标检测模型输出的各个备选边框可以对应到卷积特征图中的子区域。通过对各个子区域进行特征提取,可以得到各个备选边框对应的卷积特征向量。假定第一备选边框对应于第一卷积特征向量F1,第二备选边框对应于第二卷积特征向量F2
接着,在步骤232,基于第一卷积特征向量F1和第二卷积特征向量F2,确定第一备选边框与第二备选边框关于图片内容的关联特征A1-2
在一个实施例中,可以计算第一卷积特征向量F1和第二卷积特征向量F2之间的差值,基于该差值确定第一备选边框与第二备选边框关于图片内容的关联特征A1-2
在另一实施例中,可以计算第一卷积特征向量F1和第二卷积特征向量F2之间的点积,基于点积结果确定第一备选边框与第二备选边框关于图片内容的关联特征A1-2
具体地,假定F1=(a1,a2,…,an);F2=(b1,b2,…,bn),
根据上述示例,可以将其内容关联特征A1-2定义为:
A1-2=(a1*b1,a2*b2,…,an*bn)。
如此计算的内容关联特征A1-2是一个向量。
在又一实施例中,可以计算F1和F2之间的点乘,基于点乘结果确定第一备选边框与第二备选边框关于图片内容的关联特征A1-2
即A1-2=a1*b1+a2*b2+…+an*bn,如此计算的内容关联特征A1-2是一个标量。
在另一实施例中,可以计算第一卷积特征向量F1和第二卷积特征向量F2的距离D,基于所述距离D确定内容关联特征。更具体地,可以计算F1和F2之间的余弦距离或欧式距离作为上述距离D。
在其他实施例中,还可以基于这两个卷积特征向量进行其他数学运算,得出对应的第一备选边框和第二备选边框在图片内容上的关联特征。
于是,在步骤233,至少根据所述内容关联特征A1-2,确定该第一备选边框的综合特征向量。可以理解,上述内容关联特征A1-2表征第一备选边框与不特定的某个其他备选边框(第二备选边框)之间在内容上的相似度。在该内容关联特征是向量的情况下,可以将其作为第一备选边框的综合特征向量的一部分;在该内容关联特征是标量的情况下,可以将其作为第一备选边框的综合特征向量的一个向量元素。
以上结合某个其他备选边框(第二备选边框)描述了计算内容关联特征的过程,可以理解,该过程可以适用于计算第一备选边框和任意的其他备选边框的内容关联特征。
如前所述,除了图片内容方面的关联,边框之间的关联关系还可以包括位置关联关系。下面仍以第一备选边框和第二备选边框为例进行描述说明。
在一个实施例中,为了确定第一备选边框的综合特征向量,首先获取第一备选边框的位置参数和第二备选边框的位置参数。可以理解,目标检测模型在输出的检测结果中会包含各个备选边框的位置参数。一般地,备选边框的位置参数常常采用(x,y,w,h)的形式,其中(x,y)表示备选边框的中心坐标,w为边框的宽,h为边框的高。因此,可以很容易地从检测结果集合中提取出第一备选边框的位置参数和第二备选边框的位置参数。
接着,基于第一备选边框的位置参数和第二备选边框的位置参数,确定第一备选边框与第二备选边框之间的位置关联特征。
根据不同的实施例,位置关联特征可以包括以下中的一项或多项:中心距离、交并比、面积比、包含关系,等等。其中,交并比(IoU)表示两个备选边框交叠区域的面积与合并区域的面积的比值;包含关系可以是,第一备选边框包含/不包含第二备选边框,或者第二备选边框包含/不包含第一备选边框,等等。
然后,至少根据上述位置关联特征,确定该第一备选边框的综合特征向量。类似的,可以将以上确定出的第一备选边框和第二备选边框之间的位置关联特征,作为第一备选边框的综合特征向量的一部分向量元素。
可以理解,以上结合某个其他备选边框(第二备选边框)描述了计算位置关联特征的过程,可以理解,该过程可以适用于计算第一备选边框和任意的其他备选边框的位置关联特征。
此外,根据一种实施方式,边框之间的关联关系还可以包括类别预测结果的关联关系。下面仍以第一备选边框和第二备选边框为例进行描述说明。
在一个实施例中,为了确定第一备选边框的综合特征向量,首先获取第一备选边框和第二备选边框各自的类别预测结果,分别记为第一预测结果和第二预测结果,然后基于该第一预测结果和第二预测结果,确定第一备选边框与第二备选边框之间的预测结果关联特征。
一般地,类别预测结果至少包括预测的目标类别。例如在图3b中,每个备选边框左上角都标有一个数字,表示预测的目标类别,例如12表示刮擦损伤,其他数字代表其他类型的损伤。相应地,第一预测结果中包含第一类别,第二预测结果中包含第二类别,基于此确定的预测结果关联特征可以包括,第一类别与第二类别的比较结果,即相同或不相同。
在一些情况下,预测的目标类别按照层级结构整理。例如,类别A为刮擦,其中A1,A2和A3分别表示轻度、重度和严重刮擦。在这样的情况下,第一备选边框与第二备选边框之间的预测结果关联特征还可以包括,第一类别与第二类别所共同归属的上级类别。
在一个实施例中,目标检测模型在输出备选边框的预测类别的同时,还输出预测的置信度。即,上述第一预测结果包括第一类别和第一置信度,第二预测结果包括第二类别和第二置信度。在这样的情况下,第一备选边框和第二备选边框的预测结果关联特征可以包括,第一类别和第二类别的异同,以及第一置信度和第二置信度的差值。
以上结合第一备选边框和一个特定的其他备选边框(第二备选边框)分别描述了计算关联特征的过程,所述关联特征可以包括内容关联特征、 位置关联特征,以及预测结果关联特征中的一种或多种。这样的关联特征可以作为确定第一备选边框的综合特征向量的基础。
关于上述的其他备选边框,在不同实施例中也可以有不同的选择。在一个实施例中,对于第一备选边框,可以分别确定该第一备选边框与N个备选边框中每一个其他备选边框的关联关系,基于此确定其综合特征向量。例如,在一个具体例子中,采用4个目标检测模型,共检测出100个备选边框 (N=100)。那么对于其中任意的第一备选边框,比如第1个备选边框,可以分别计算该备选边框与其他99个备选边框的99组关联特征,将这99组关联特征拼接或整合在一起,得到第一备选边框的综合特征向量。
在一个实施例中,为了使得每次获得的综合特征向量具有相同的长度,可以在分别计算与各个其他备选边框的各组关联特征之后,对这些关联特征进行统计、合并。例如,计算各组关联特征的平均值,获取其最大值,最小值,等等,将这些统计值作为综合特征向量的向量元素。
在另一实施例中,可以从所有的其他备选边框中选出一部分,来计算关联特征。例如,在一个例子中,选择与第一备选边框的中心距离在预定阈值之内的备选边框,计算这些备选边框与第一备选边框的关联特征。在另一例子中,选择与第一备选边框的中心距离排序在预定数目之内的备选边框,换而言之,选择与第一备选边框的中心距离最近的预定数目个(例如10个)备选边框,计算这些备选边框与第一备选边框的关联特征。如此,仅考虑第一备选边框与其周围的一些备选边框的关联关系,而忽略距离较远的备选边框,从而减少计算量,提高效率。
以上,根据第一备选边框与其他备选边框的关联关系,确定出第一备选边框的综合特征向量。可以理解,对于N个备选边框中的各个备选边框,都可以执行上述过程,如此得到各个备选边框对应的综合特征向量。
接着,回到图2,在步骤24,将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化所述检测结果集合。
上述分类模型可以采用多种模型结构和模型算法实现分类预测。例如,上述分类模型可以是GBDT(梯度提升决策树)模型、SVM(支持向量机)模型,还可以是基于深度神经网络DNN的模型,等等。
在一个实施例中,上述分类模型通过正样本和负样本进行预先训练,正样本例如包括,多个标注为真实损伤的损伤区域,所述负样本包括,多个标注为真实损伤的损伤区域和至少一个标注为非损伤的区域,以便分类模型从正样本中学习到,多个真实损伤区域之间的关联特征的特点,并从负样本中学习,非损伤区域与真实损伤区域之间的关联特征的特点。
如前所述,在步骤22,采用多个目标检测模型对车辆损伤图片进行识别,得出初步的检测结果。这些目标检测需要同样需要利用大量标注图片作为训练样本集进行训练,这些标注图片通过人工标注,标示出真实损伤对象。通常,训练样本集也会包含一些负样本,也就是非损伤区域的图片。因此,分类模型可以复用上述训练样本集进行训练,也就是从中获取多个标注为真实损伤的损伤区域作为正样本,获取多个标注为真实损伤的损伤区域和至少一个标注为非损伤的区域作为负样本,利用正样本和负样本训练分类模型。这特别适合于二分类模型的训练。
训练好的分类模型基于输入的综合特征向量对相应的备选边框进行分类预测。典型的,分类结果可以是二分类,例如对应备选边框是否为真实准确的损伤边框。在一种实施例中,分类结果还可以是多分类,例如类别1对应于边框位置和损伤类别预测均准确,类别2对应于边框中包含损伤,但损伤类别预测不准确,类别3对应于非真实损伤的边框,等等。
基于分类模型的输出结果,可以对检测结果进行优化。
在一个实施例中,在分类结果提示某个备选边框的损伤类别预测不准确 (例如对应于多分类中的类别2)的情况下,可以将该备选边框标注为待定区域,发送给人工平台进行复核。
在另一例子中,也可以采用进一步的模型算法对该预测不准确的备选边框进行修正。例如,参考距离该备选边框最近,且分类结果提示预测准确的其他备选边框的预测结果,修正该备选边框的预测结果。比如,备选边框1与备选边框2,3,4的中心距离都在预设范围之内,距离较近。而备选边框2,3,4 对损伤类别的预测结果都是类别12-刮擦损伤,且分类模型对其的分类结果提示预测结果准确。然而,备选边框1的预测结果为类别11-变形,且分类模型对其的分类结果提示预测结果不准确。考虑到损伤对象的连续性,可以参考备选边框2,3,4的预测结果来修正备选边框1的预测结果,以此优化检测结果集合。
在另一实施例中,分类模型基于第一备选边框的综合特征向量,输出的分类结果为,第一备选边框为异常边框,即,不是真实准确的损伤边框。那么,可以将该第一备选边框从检测结果集合中剔除,以此优化损伤检测结果。
在一个具体例子中,对于图3b示出的多个备选边框,根据步骤23到步骤 24,计算各个备选边框与其他备选边框的关联特征,并输入到分类模型,以确定各个备选边框的检测结果的准确性。假定分类模型输出显示,最右边的备选边框为异常边框,那么可以将最右边的备选边框从检测结果中剔除,得到图3c示出的优化的损伤检测结果。可以发现,最右边的备选边框实际上为地面反光,而其他备选边框包含连续的刮擦,这使得针对最右边的备选边框计算的与其他备选边框的关联关系表现出异常的特征,进而体现在综合特征向量中。于是,分类模型基于综合特征向量给出该备选边框存在异常的分类结果。
回顾以上的损伤识别过程,一方面,同时采用多个目标检测模型对车辆损伤图片进行损伤识别和检测,这使得生成的检测结果互相补充,最大程度排除了漏检测的可能。进一步地,对于多个目标检测模型得到的N个备选边框,基于各个备选边框与其他备选边框的关联关系,在备选边框之间建立联结,基于这样的联结结果,用训练的模型进一步判断各个备选边框的准确度,以此排除误检测的边框,进一步优化损伤识别结果。如此,全面提升损伤识别的准确性。
根据另一方面的实施例,还提供一种车辆损伤识别装置。图5示出根据一个实施例的识别装置的示意性框图。可以理解,该装置可以通过任何具有计算、处理能力的装置、设备、平台和设备集群来实现。如图5所示,该装置500包括:获取单元51,配置为获取待识别的车辆损伤图片;检测单元52,配置为将所述车辆损伤图片分别输入预先训练的多个目标检测模型,从该多个目标检测模型分别获得对应的多组检测结果,该多组检测结果构成检测结果集合,所述检测结果集合中包括,所述多个目标检测模型检测出的N个备选边框,以及各个备选边框的类别预测结果;综合单元53,配置为对于所述 N个备选边框中任意的第一备选边框,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量,所述关联关系至少包括边框内容关联关系、位置关联关系和类别预测结果关联关系中的一项或多项;优化单元54,配置为将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化所述检测结果集合。
下面结合上述其他备选边框包括第二备选边框的实施方式进行描述。
根据一种可能的实施方式,上述关联关系包括边框内容关联关系。在这样的情况下,综合单元53可以进一步包括(未示出):
卷积特征获取模块,配置为获取各个备选边框的卷积特征向量,该卷积特征向量用于表征对应边框中的图片内容特征;
关联特征确定模块,配置为基于所述第一备选边框对应的第一卷积特征向量,和所述第二备选边框对应的第二卷积特征向量,确定第一备选边框与第二备选边框的内容关联特征;
综合特征确定模块,配置为至少根据所述内容关联特征,确定该第一备选边框的综合特征向量。
进一步地,在一个实施例中,上述关联特征确定模块可以配置为执行以下中的至少一项:
计算所述第一卷积特征向量和第二卷积特征向量的点积,基于点积结果确定所述内容关联特征;
计算所述第一卷积特征向量和第二卷积特征向量的距离,基于所述距离确定所述内容关联特征,其中所述距离包括余弦距离或欧式距离。
根据一种可能的实施方式,上述关联关系包括位置关联关系。在这样的情况下,综合单元53可以配置为:
基于所述第一备选边框的位置参数和第二备选边框的位置参数,确定第一备选边框与第二备选边框之间的位置关联特征;
至少根据所述位置关联特征,确定该第一备选边框的综合特征向量。
进一步地,在一个实施例中,所述位置关联特征包括以下中的一项或多项:中心距离、交并比、面积比、包含关系。
根据一种可能的实施方式,上述关联关系包括类别预测结果关联关系。在这样的情况下,所述综合单元53可以配置为:
基于所述第一备选边框对应的第一预测结果和第二备选边框对应的第二预测结果,确定第一备选边框与第二备选边框之间的预测结果关联特征;
至少根据所述预测结果关联特征,确定该第一备选边框的综合特征向量。
进一步地,在一个实施例中,所述第一预测结果包括第一类别和第一置信度,所述第二预测结果包括第二类别和第二置信度,所述预测结果关联特征包括:第一类别和第二类别的异同,以及,第一置信度和第二置信度的差值。
在一种可能的设计中,上述其他备选边框包括以下中的一项或多项:与所述第一备选边框的中心距离在预定阈值之内的备选边框,与所述第一备选边框的中心距离排序在预定数目之内的备选边框。
在一个实施例中,上述分类模型包括以下之一:GBDT模型、SVM模型、基于深度神经网络DNN的分类模型。
在一个具体实施例中,上述优化单元54配置为:在所述分类模型针对所述第一备选边框的输出结果为异常边框的情况下,将所述第一备选边框从所述检测结果集合中剔除。
如此,通过以上装置500,实现车辆损伤的高效、准确识别。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图2 所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图2所述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (21)

1.一种计算机执行的车辆损伤识别方法,包括:
获取待识别的车辆损伤图片;
将所述车辆损伤图片分别输入预先训练的多个目标检测模型,从该多个目标检测模型分别获得对应的多组检测结果,该多组检测结果构成检测结果集合,所述检测结果集合中包括,所述多个目标检测模型检测出的N个备选边框,以及各个备选边框的类别预测结果;
对于所述N个备选边框中任意的第一备选边框,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量,所述关联关系至少包括边框内容关联关系、位置关联关系和类别预测结果关联关系中的一项或多项;
将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化所述检测结果集合。
2.根据权利要求1所述的方法,其中所述其他备选边框包括第二备选边框,所述关联关系包括边框内容关联关系;
所述确定该第一备选边框的综合特征向量包括:
获取各个备选边框的卷积特征向量,该卷积特征向量用于表征对应边框中的图片内容特征;
基于所述第一备选边框对应的第一卷积特征向量,和所述第二备选边框对应的第二卷积特征向量,确定第一备选边框与第二备选边框的内容关联特征;
至少根据所述内容关联特征,确定该第一备选边框的综合特征向量。
3.根据权利要求2所述的方法,其中确定第一备选边框与第二备选边框的内容关联特征包括以下中的至少一项:
计算所述第一卷积特征向量和第二卷积特征向量的点积,基于点积结果确定所述内容关联特征;
计算所述第一卷积特征向量和第二卷积特征向量的距离,基于所述距离确定所述内容关联特征,其中所述距离包括余弦距离或欧式距离。
4.根据权利要求1所述的方法,其中所述其他备选边框包括第二备选边框,所述关联关系包括位置关联关系;
所述确定该第一备选边框的综合特征向量包括:
基于所述第一备选边框的位置参数和第二备选边框的位置参数,确定第一备选边框与第二备选边框之间的位置关联特征;
至少根据所述位置关联特征,确定该第一备选边框的综合特征向量。
5.根据权利要求4所述的方法,其中所述位置关联特征包括以下中的一项或多项:中心距离、交并比、面积比、包含关系。
6.根据权利要求1所述的方法,其中所述其他备选边框包括第二备选边框,所述关联关系包括类别预测结果关联关系;
所述确定该第一备选边框的综合特征向量包括:
基于所述第一备选边框对应的第一预测结果和第二备选边框对应的第二预测结果,确定第一备选边框与第二备选边框之间的预测结果关联特征;
至少根据所述预测结果关联特征,确定该第一备选边框的综合特征向量。
7.根据权利要求6所述的方法,其中所述第一预测结果包括第一类别和第一置信度,所述第二预测结果包括第二类别和第二置信度,所述预测结果关联特征包括:第一类别和第二类别的异同,以及,第一置信度和第二置信度的差值。
8.根据权利要求1所述的方法,其中所述其他备选边框包括以下中的一项或多项:与所述第一备选边框的中心距离在预定阈值之内的备选边框,与所述第一备选边框的中心距离排序在预定数目之内的备选边框。
9.根据权利要求1所述的方法,其中所述分类模型包括以下之一:GBDT模型、SVM模型、基于深度神经网络DNN的分类模型。
10.根据权利要求1所述的方法,所述根据分类模型的输出结果,优化所述检测结果集合包括:
在所述分类模型针对所述第一备选边框的输出结果为异常边框的情况下,将所述第一备选边框从所述检测结果集合中剔除。
11.一种车辆损伤识别装置,包括:
获取单元,配置为获取待识别的车辆损伤图片;
检测单元,配置为将所述车辆损伤图片分别输入预先训练的多个目标检测模型,从该多个目标检测模型分别获得对应的多组检测结果,该多组检测结果构成检测结果集合,所述检测结果集合中包括,所述多个目标检测模型检测出的N个备选边框,以及各个备选边框的类别预测结果;
综合单元,配置为对于所述N个备选边框中任意的第一备选边框,至少根据该第一备选边框与其他备选边框的关联关系,确定该第一备选边框的综合特征向量,所述关联关系至少包括边框内容关联关系、位置关联关系和类别预测结果关联关系中的一项或多项;
优化单元,配置为将各个备选边框对应的综合特征向量分别输入预先训练的分类模型,根据分类模型的输出结果,优化所述检测结果集合。
12.根据权利要求11所述的装置,其中所述其他备选边框包括第二备选边框,所述关联关系包括边框内容关联关系;
所述综合单元进一步包括:
卷积特征获取模块,配置为获取各个备选边框的卷积特征向量,该卷积特征向量用于表征对应边框中的图片内容特征;
关联特征确定模块,配置为基于所述第一备选边框对应的第一卷积特征向量,和所述第二备选边框对应的第二卷积特征向量,确定第一备选边框与第二备选边框的内容关联特征;
综合特征确定模块,配置为至少根据所述内容关联特征,确定该第一备选边框的综合特征向量。
13.根据权利要求12所述的装置,其中所述关联特征确定模块配置为执行以下中的至少一项:
计算所述第一卷积特征向量和第二卷积特征向量的点积,基于点积结果确定所述内容关联特征;
计算所述第一卷积特征向量和第二卷积特征向量的距离,基于所述距离确定所述内容关联特征,其中所述距离包括余弦距离或欧式距离。
14.根据权利要求11所述的装置,其中所述其他备选边框包括第二备选边框,所述关联关系包括位置关联关系;
所述综合单元配置为:
基于所述第一备选边框的位置参数和第二备选边框的位置参数,确定第一备选边框与第二备选边框之间的位置关联特征;
至少根据所述位置关联特征,确定该第一备选边框的综合特征向量。
15.根据权利要求14所述的装置,其中所述位置关联特征包括以下中的一项或多项:中心距离、交并比、面积比、包含关系。
16.根据权利要求11所述的装置,其中所述其他备选边框包括第二备选边框,所述关联关系包括类别预测结果关联关系;
所述综合单元配置为:
基于所述第一备选边框对应的第一预测结果和第二备选边框对应的第二预测结果,确定第一备选边框与第二备选边框之间的预测结果关联特征;
至少根据所述预测结果关联特征,确定该第一备选边框的综合特征向量。
17.根据权利要求16所述的装置,其中所述第一预测结果包括第一类别和第一置信度,所述第二预测结果包括第二类别和第二置信度,所述预测结果关联特征包括:第一类别和第二类别的异同,以及,第一置信度和第二置信度的差值。
18.根据权利要求11所述的装置,其中所述其他备选边框包括以下中的一项或多项:与所述第一备选边框的中心距离在预定阈值之内的备选边框,与所述第一备选边框的中心距离排序在预定数目之内的备选边框。
19.根据权利要求11所述的装置,其中所述分类模型包括以下之一:GBDT模型、SVM模型、基于深度神经网络DNN的分类模型。
20.根据权利要求11所述的装置,所述优化单元配置为:
在所述分类模型针对所述第一备选边框的输出结果为异常边框的情况下,将所述第一备选边框从所述检测结果集合中剔除。
21.一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-10中任一项所述的方法。
CN201811089438.6A 2018-09-18 2018-09-18 车辆损伤识别方法及装置 Active CN110570389B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201811089438.6A CN110570389B (zh) 2018-09-18 2018-09-18 车辆损伤识别方法及装置
TW108122538A TWI703510B (zh) 2018-09-18 2019-06-27 車輛損壞識別方法、裝置及計算設備
SG11202011149SA SG11202011149SA (en) 2018-09-18 2019-09-16 Method and apparatus for vehicle damage identification
PCT/US2019/051229 WO2020060895A1 (en) 2018-09-18 2019-09-16 Method and apparatus for vehicle damage identification
EP19779295.5A EP3776408A1 (en) 2018-09-18 2019-09-16 Method and apparatus for vehicle damage identification
US16/572,928 US10853699B2 (en) 2018-09-18 2019-09-17 Method and apparatus for vehicle damage identification
US16/776,549 US10691982B2 (en) 2018-09-18 2020-01-30 Method and apparatus for vehicle damage identification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811089438.6A CN110570389B (zh) 2018-09-18 2018-09-18 车辆损伤识别方法及装置

Publications (2)

Publication Number Publication Date
CN110570389A CN110570389A (zh) 2019-12-13
CN110570389B true CN110570389B (zh) 2020-07-17

Family

ID=68073219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811089438.6A Active CN110570389B (zh) 2018-09-18 2018-09-18 车辆损伤识别方法及装置

Country Status (6)

Country Link
US (2) US10853699B2 (zh)
EP (1) EP3776408A1 (zh)
CN (1) CN110570389B (zh)
SG (1) SG11202011149SA (zh)
TW (1) TWI703510B (zh)
WO (1) WO2020060895A1 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164329B2 (en) * 2018-11-01 2021-11-02 Inpixon Multi-channel spatial positioning system
CN111666960B (zh) * 2019-03-06 2024-01-19 南京地平线机器人技术有限公司 图像识别方法、装置、电子设备及可读存储介质
US11574366B1 (en) * 2019-04-17 2023-02-07 State Farm Mutual Automobile Insurance Company Method and system for early identification and settlement of total loss claims
US11120308B2 (en) * 2019-12-24 2021-09-14 Ping An Technology (Shenzhen) Co., Ltd. Vehicle damage detection method based on image analysis, electronic device and storage medium
CN111444828B (zh) * 2020-03-25 2023-06-20 腾讯科技(深圳)有限公司 一种模型训练的方法、目标检测的方法、装置及存储介质
CN113569878B (zh) * 2020-04-28 2024-03-01 南京行者易智能交通科技有限公司 一种基于分数图的目标检测模型训练方法及目标检测方法
CN111652137A (zh) * 2020-06-03 2020-09-11 上海眼控科技股份有限公司 违法车辆检测方法、装置、计算机设备和存储介质
CN112001247A (zh) * 2020-07-17 2020-11-27 浙江大华技术股份有限公司 多目标检测方法、设备及存储装置
CN112329772B (zh) * 2020-11-06 2024-03-05 浙江大搜车软件技术有限公司 车辆部件识别方法、装置、电子装置和存储介质
CN113221754A (zh) * 2021-05-14 2021-08-06 深圳前海百递网络有限公司 快递单图像检测方法、装置、计算机设备和存储介质
CN113255826B (zh) * 2021-06-17 2021-09-24 广东电网有限责任公司中山供电局 一种基于改进yolov3的安全帽佩戴检测方法及系统
CN113313063A (zh) * 2021-06-21 2021-08-27 暨南大学 麦穗检测方法、电子装置和存储介质
GB2620378A (en) * 2022-06-30 2024-01-10 Continental Automotive Tech Gmbh Method and system of selecting one or more images for human labelling
CN116363056B (zh) * 2023-01-16 2023-09-05 北京医准智能科技有限公司 胸部ct骨折检测优化的方法、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127747A (zh) * 2016-06-17 2016-11-16 史方 基于深度学习的汽车表面损伤分类方法及装置
CN106504248A (zh) * 2016-12-06 2017-03-15 成都通甲优博科技有限责任公司 基于计算机视觉的车辆损伤判别方法
CN107358596A (zh) * 2017-04-11 2017-11-17 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置、电子设备及系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140229207A1 (en) * 2011-09-29 2014-08-14 Tata Consultancy Services Limited Damage assessment of an object
US20150154463A1 (en) * 2013-12-04 2015-06-04 Irida Labs S.A. System and a method for the detection of multiple number-plates of moving cars in a series of 2-d images
CN103679214B (zh) * 2013-12-20 2017-10-20 华南理工大学 基于在线面积估计和多特征决策融合的车辆检测方法
US9633050B2 (en) * 2014-02-21 2017-04-25 Wipro Limited Methods for assessing image change and devices thereof
WO2016037300A1 (en) * 2014-09-10 2016-03-17 Xiaoou Tang Method and system for multi-class object detection
US10489903B2 (en) * 2015-04-27 2019-11-26 Wuhan Wuda Zoyon Science And Technology Co., Ltd. Stepwise refinement detection method for pavement cracks
JP6132412B2 (ja) * 2015-09-24 2017-05-24 株式会社Subaru 車外環境認識装置
CN108475339B (zh) * 2015-11-13 2022-08-02 北京市商汤科技开发有限公司 用于对图像中的对象分类的方法和系统
US10102434B2 (en) * 2015-12-22 2018-10-16 Omnivision Technologies, Inc. Lane detection system and method
US10692050B2 (en) * 2016-04-06 2020-06-23 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
US11144889B2 (en) * 2016-04-06 2021-10-12 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
GB2554361B8 (en) * 2016-09-21 2022-07-06 Emergent Network Intelligence Ltd Automatic image based object damage assessment
US10346723B2 (en) * 2016-11-01 2019-07-09 Snap Inc. Neural network for object detection in images
CN106886795B (zh) * 2017-02-17 2021-01-15 北京一维弦科技有限责任公司 基于图像中的显著物体的物体识别方法
CN106960214B (zh) * 2017-02-17 2020-11-20 北京一维弦科技有限责任公司 基于图像的物体识别方法
CN107392218B (zh) * 2017-04-11 2020-08-04 创新先进技术有限公司 一种基于图像的车辆定损方法、装置及电子设备
US20190095877A1 (en) * 2017-09-26 2019-03-28 Panton, Inc. Image recognition system for rental vehicle damage detection and management
US20190130189A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Suppressing duplicated bounding boxes from object detection in a video analytics system
US10540554B2 (en) * 2018-03-29 2020-01-21 Toyota Jidosha Kabushiki Kaisha Real-time detection of traffic situation
US10733480B2 (en) * 2018-07-18 2020-08-04 Adobe Inc. Custom Auto Tagging of Multiple Objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127747A (zh) * 2016-06-17 2016-11-16 史方 基于深度学习的汽车表面损伤分类方法及装置
CN106504248A (zh) * 2016-12-06 2017-03-15 成都通甲优博科技有限责任公司 基于计算机视觉的车辆损伤判别方法
CN107358596A (zh) * 2017-04-11 2017-11-17 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置、电子设备及系统

Also Published As

Publication number Publication date
US10691982B2 (en) 2020-06-23
SG11202011149SA (en) 2020-12-30
TW202013248A (zh) 2020-04-01
CN110570389A (zh) 2019-12-13
US10853699B2 (en) 2020-12-01
EP3776408A1 (en) 2021-02-17
WO2020060895A1 (en) 2020-03-26
US20200089990A1 (en) 2020-03-19
TWI703510B (zh) 2020-09-01
US20200167594A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
CN110570389B (zh) 车辆损伤识别方法及装置
CN110569701B (zh) 计算机执行的车辆定损方法及装置
CN110569837B (zh) 优化损伤检测结果的方法及装置
CN107358596B (zh) 一种基于图像的车辆定损方法、装置、电子设备及系统
JP6941123B2 (ja) 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム
CN108734162B (zh) 商品图像中目标识别方法、系统、设备及存储介质
US11080839B2 (en) System and method for training a damage identification model
US20180260793A1 (en) Automatic assessment of damage and repair costs in vehicles
EP3844669A1 (en) Method and system for facilitating recognition of vehicle parts based on a neural network
CN110264444B (zh) 基于弱分割的损伤检测方法及装置
US11308714B1 (en) Artificial intelligence system for identifying and assessing attributes of a property shown in aerial imagery
CA2914799A1 (en) Method for detecting a plurality of instances of an object
US20200410709A1 (en) Location determination apparatus, location determination method and computer program
CN114255377A (zh) 一种智能货柜的差异商品检测分类方法
CN114743048A (zh) 检测异常秸秆图片的方法和检测装置
CN113205067A (zh) 作业人员监控方法、装置、电子设备和存储介质
US11847175B2 (en) Table row identification using machine learning
US20230245240A1 (en) Assessing damages on vehicles
CN113111949A (zh) 检测重复业务的方法和装置
CN117151138A (zh) 一种破损码的生成方法、装置及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40018751

Country of ref document: HK

TR01 Transfer of patent right

Effective date of registration: 20201010

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201010

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Patentee before: Alibaba Group Holding Ltd.

TR01 Transfer of patent right