CN111488925A - 一种数据标注方法、装置、电子设备及存储介质 - Google Patents
一种数据标注方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111488925A CN111488925A CN202010265588.9A CN202010265588A CN111488925A CN 111488925 A CN111488925 A CN 111488925A CN 202010265588 A CN202010265588 A CN 202010265588A CN 111488925 A CN111488925 A CN 111488925A
- Authority
- CN
- China
- Prior art keywords
- prediction model
- period
- training
- current
- labeling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 278
- 238000012549 training Methods 0.000 claims abstract description 250
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000012937 correction Methods 0.000 claims description 124
- 239000011159 matrix material Substances 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 18
- 230000009467 reduction Effects 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种数据标注方法、装置、电子设备及存储介质,涉及人工智能技术,进一步涉及云计算领域。具体实现方案为:将各个待标注数据输入至当前更新周期的预测模型中;通过预测模型输出各个标注结果;若获取到的标注结果中存在不满足标注要求的待修正标注结果,则对各个待修正标注结果进行修正,获取到各个修正标注结果;基于预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将下一个更新周期的预测模型替换掉该预测模型,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。本申请实施例不仅可以有效地提高标注速度、节省标注成本,而且标注结果还可以随着时间进行迭代优化。
Description
技术领域
本申请涉及计算机应用技术领域,进一步涉及人工智能技术,尤其是一种数据标注方法、装置、电子设备及存储介质。
背景技术
在深度学习的模型训练过程中,需要大量优质的训练数据,使深度学习模型可以用于学习,从而成为更好的模型,变得更加智能化。在将图像数据输入至训练模型之前,需要对图像数据进行标注。具体地,数据标注是指使用工具通过分类、画框、注释等等对收集来的数据进行标记以形成可供计算机识别分析的优质数据的过程。现有的图像数据标注方法主要包括以下两种:第一、采用人工方式进行标注:这种方式需要标注人员通过对每一张图像都做精细标注,才能使得该图像成为一个合格的模型训练数据。这种方式的缺点是标注速度慢、标注成本高,而且需要培训大量标注人员才能满足标注需求。第二、采用预训练模型的方式进行标注:首先使用少量的标注数据训练一个简单的深度学习模型,后续对大规模数据进行标注时,使用已经训练好的深度学习模型做一次前向推理,以深度学习模型的输出结果为基准,再使用人工方式进行修正与完善。这种方式的缺点是标注速度和成本并没有显著的提升,标注结果可能不够准确;而且标注结果无法随着时间进行迭代优化。
发明内容
有鉴于此,本申请提出实施例提供一种数据标注方法、装置、电子设备及存储介质,不仅可以有效地提高标注速度、节省标注成本,而且标注结果还可以随着时间进行迭代优化。
第一方面,本申请实施例提供了一种数据标注方法,所述方法包括:
将各个待标注数据输入至当前更新周期的预测模型中;通过所述当前更新周期的预测模型输出各个待标注数据对应的标注结果;
若所述当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;
基于所述当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将所述下一个更新周期的预测模型替换掉所述当前更新周期的预测模型,将下一个更新周期作为所述当前更新周期,重复执行上述操作,直到所述当前更新周期的预测模型输出的各个待标注数据的标注结果均满足所述标注要求。
上述实施例具有如下优点或有益效果:上述实施例中的预测模型是可以随着时间进行迭代优化的,随着预测模型的不断优化,需要人工修正的待标注数据就会越来越少,从而达到提高标注速度和节省人工成本的目的。而在现有的数据标注方法中,通常采用人工方式进行标注或者采用预训练模型的方式进行标注,标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化。因为本申请采用了通过预测模型对各个待标注数据进行标注以及迭代优化预测模型的技术手段,克服了现有技术中标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化的技术问题,进而达到了有效地提高标注速度、节省标注成本,而且标注结果还可以随着时间进行迭代优化的技术效果。
在上述实施例中,所述基于所述当前更新周期的预测模型,使用各个经修正后满足所述标注要求的标注结果训练出下一个更新周期的预测模型,包括:
将所述当前更新周期的预测模型作为当前训练周期的预测模型;
在所述当前更新周期内的修正标注结果中获取所述当前训练周期内的修正标注结果;
使用所述当前训练周期内的修正标注结果对所述当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将所述下一个训练周期的预测模型替换掉所述当前训练周期的预测模型,将所述下一个训练周期作为所述当前训练周期,重复执行上述训练所述当前训练周期的预测模型的操作,直到训练出所述下一个更新周期的预测模型。
上述实施例具有如下优点或有益效果:上述实施例可以使用当前训练周期内的修正标注结果对当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型。这样随着预测模型的不断使用,需要人工修正的图像会越来越少,人工成本就会逐渐降低。
在上述实施例中,所述在所述当前更新周期内的修正标注结果中获取所述当前训练周期内的修正标注结果,包括:
将所述当前更新周期内的修正标注结果保存至训练数据库中;
通过控制台在所述训练数据库中提取出所述当前训练周期内的修正标注结果。
上述实施例具有如下优点或有益效果:上述实施例可以先将当前更新周期内的修正标注结果保存至训练数据库中;然后通过控制台在训练数据库中提取出当前训练周期内的修正标注结果。这样就可以通过控制台对当前训练周期内的修正标注结果进行控制,从而可以使用当前训练周期内的修正标注结果对当前训练周期的预测模型进行训练。
在上述实施例中,所述通过控制台在所述训练数据库中提取出所述当前训练周期内的修正标注结果,包括:
若所述训练数据库中的修正标注结果的数量大于或者等于预设阈值,则通过所述控制台在所述训练数据库中提取出预定数量的修正标注结果,作为所述当前训练周期内的修正标注结果;
若所述训练数据库中的修正标注结果的数量小于所述预设阈值,则通过所述控制台在所述训练数据库中提取出全部的修正标注结果,作为所述当前训练周期内的修正标注结果。
上述实施例具有如下优点或有益效果:上述实施例可以根据训练数据库中的修正标注结果的数量,通过控制台在训练数据中提取出当前训练周期内的修正标注结果,从而可以使用当前训练周期内的修正标注结果对当前训练周期的预测模型进行训练。
在上述实施例中,所述使用所述当前训练周期内的修正标注结果对所述当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,包括:
将所述当前训练周期内的各个修正标注结果输入至所述当前更新周期的预测模型的卷积层;通过所述卷积层提取各个修正标注结果的特征,并向所述池化层输出各个修正标注结果的特征矩阵;通过所述池化层对接收到的各个修正标注结果的特征矩阵进行降维操作,向所述全连接层输出各个修正标注结果经降维操作后的特征矩阵;通过所述全连接层对接收到的各个修正标注结果经降维操作后的特征矩阵进行处理,向所述分类器层输出获得的各个修正标注结果的一维特征矩阵;通过所述分类器层对各个修正标注结果的一维特征矩阵进行分类,获得各个修正标注结果的分类结果,根据各个修正标注结果的分类结果对所述卷积神经网络进行反向传播以逐层调整层级权重直至获取到所述下一个训练周期的预测模型。
上述实施例具有如下优点或有益效果:上述实施例可以使用当前训练周期内的修正标注结果对当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,然后将下一个更新周期的预测模型替换掉当前更新周期的预测模型,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。
在上述实施例中,所述待标注数据为图像数据;所述预测模型为实例分割模型Mask RCNN。
第二方面,本申请还提供了一种数据标注装置,所述装置包括:标注模块、修正模块和训练模块;其中,
所述标注模块,用于将各个待标注数据输入至当前更新周期的预测模型中;通过所述当前更新周期的预测模型输出各个待标注数据对应的标注结果;
所述修正模块,用于若所述当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;
所述训练模块,用于基于所述当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将所述下一个更新周期的预测模型替换掉所述当前更新周期的预测模型,将下一个更新周期作为所述当前更新周期,重复执行上述操作,直到所述当前更新周期的预测模型输出的各个待标注数据的标注结果均满足所述标注要求。
在上述实施例中,所述训练模块包括:设置子模块、获取子模块和训练子模块;其中,
所述设置子模块,用于将所述当前更新周期的预测模型作为当前训练周期的预测模型;
所述获取子模块,用于在所述当前更新周期内的修正标注结果中获取所述当前训练周期内的修正标注结果;
所述训练子模块,用于使用所述当前训练周期内的修正标注结果对所述当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将所述下一个训练周期的预测模型替换掉所述当前训练周期的预测模型,将所述下一个训练周期作为所述当前训练周期,重复执行上述训练所述当前训练周期的预测模型的操作,直到训练出所述下一个更新周期的预测模型。
在上述实施例中,所述获取子模块,具体用于将所述当前更新周期内的修正标注结果保存至训练数据库中;通过控制台在所述训练数据库中提取出所述当前训练周期内的修正标注结果。
在上述实施例中,所述获取子模块,具体用于若所述训练数据库中的修正标注结果的数量大于或者等于预设阈值,则通过所述控制台在所述训练数据库中提取出预定数量的修正标注结果,作为所述当前训练周期内的修正标注结果;若所述训练数据库中的修正标注结果的数量小于所述预设阈值,则通过所述控制台在所述训练数据库中提取出全部的修正标注结果,作为所述当前训练周期内的修正标注结果。
在上述实施例中,所述训练子模块,具体用于将所述当前训练周期内的各个修正标注结果输入至所述当前更新周期的预测模型的卷积层;通过所述卷积层提取各个修正标注结果的特征,并向所述池化层输出各个修正标注结果的特征矩阵;通过所述池化层对接收到的各个修正标注结果的特征矩阵进行降维操作,向所述全连接层输出各个修正标注结果经降维操作后的特征矩阵;通过所述全连接层对接收到的各个修正标注结果经降维操作后的特征矩阵进行处理,向所述分类器层输出获得的各个修正标注结果的一维特征矩阵;通过所述分类器层对各个修正标注结果的一维特征矩阵进行分类,获得各个修正标注结果的分类结果,根据各个修正标注结果的分类结果对所述卷积神经网络进行反向传播以逐层调整层级权重直至获取到所述下一个训练周期的预测模型。
在上述实施例中,所述待标注数据为图像数据;所述预测模型为Mask RCNN。
第三方面,本申请实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本申请任意实施例所述的数据标注方法。
第四方面,本申请实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请任意实施例所述的数据标注方法。
上述申请中的一个实施例具有如下优点或有益效果:本申请提出的数据标注方法、装置、电子设备及存储介质,先将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果;若当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;然后基于当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。也就是说,本申请中的预测模型是可以随着时间进行迭代优化的,随着预测模型的不断优化,需要人工修正的待标注数据就会越来越少,从而达到提高标注速度和节省人工成本的目的。而在现有的数据标注方法中,通常采用人工方式进行标注或者采用预训练模型的方式进行标注,标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化。因为本申请采用了通过预测模型对各个待标注数据进行标注以及迭代优化预测模型的技术手段,克服了现有技术中标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化的技术问题,进而达到了有效地提高标注速度、节省标注成本,而且标注结果还可以随着时间进行迭代优化的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例一提供的数据标注方法的流程示意图;
图2是本申请实施例二提供的数据标注方法的流程示意图;
图3是本申请实施例三提供的数据标注装置的结构示意图;
图4是本申请实施例三提供的训练模块的结构示意图;
图5是用来实现本申请实施例的数据标注方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
实施例一
图1是本申请实施例一提供的数据标注方法的流程示意图,该方法可以由数据标注装置或者电子设备来执行,该装置或者电子设备可以由软件和/或硬件的方式实现,该装置或者电子设备可以集成在任何具有网络通信功能的智能设备中。如图1所示,数据标注方法可以包括以下步骤:
S101、将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果。
在本申请的具体实施例中,电子设备可以将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果。较佳地,本申请中的标注数据可以是图片数据;预测模型可以是Mask RCNN模型。Mask RCNN能够确定图片中各个目标的位置和类别,给出像素级预测。所谓“实例分割”,指的是对场景内的每种兴趣对象进行分割,无论它们是否属于同一类别,例如该模型可以从街景视频中识别出车辆、人员等单个目标。Mask RCNN算法是一个两阶段的框架,第一个阶段扫描图像并生成提议(proposals,即有可能包含一个目标的区域),第二阶段分类提议并生成边界框和掩码。Mask RCNN扩展自Faster RCNN,Faster RCNN是一个流行的目标检测框架,Mask RCNN将其扩展为实例分割框架。Mask RCNN是基于Faster RCNN架构提出的新的卷积网络,一举完成了实例分割,该方法在有效地目标的同时完成了高质量的实例分割。Mask RCNN算法主要是把原有的Faster RCNN进行扩展,添加一个分支使用现有的检测对目标进行并行预测。同时,这个网络结构比较容易实现和训练,可以很方便的应用到其他的领域,例如目标检测,分割,和人物关键点检测等。具体地,Mask RCNN算法首先通过特征提取层提取特征图,例如利用分类模型作为基础网络,利用基础网络的卷积操作得到其特征图。然后利用候选区域网络(Region Proposal Network,简称RPN)计算原图的某一区域内是否包含特定的物体:如果包含物体再利用兴趣点区域(Region of Interest,简称ROI)池化层进行特征提取,然后通过分类回归层预测其物体类别和边界盒子(bounding box);如果不包含物体则不进行分类。这样,将三个网络分支的损失结合到一起,做组合训练(joint training),优化模型参数。当模型的输出与真实值之间的误差值小于一定阈值时,停止训练。较佳地,特征提取层的基础网络可以是AlexNet、VGG、GoogleNet、ResNet等网络。RPN网络主要用于生成region proposals(区域推荐),首先生成一堆Anchor box(锚点盒子),对其进行裁剪过滤后通过softmax判断Anchors属于前景(foreground)或者后景(background),即“是物体”或“不是物体”,所以这是一个二分类。同时,另一分支bounding box regression(边界盒子回归)修正anchor box,形成较精确的region proposals。ROI Align(ROI对齐)层利用RPN生成的region proposals和特征提取层中最后一层得到的feature map(特征图),得到固定大小的proposal feature map(推荐特征图),进入到后面可利用全连接操作来进行目标识别和定位。引入了RoI Align代替Faster RCNN中的RoI Pooling(ROI池化)。因为RoIPooling并不是按照像素一一对齐的(pixel-to-pixel alignment),这对于mask的精度有很大影响。使用RoI Align后mask的精度从10%显著提高到50%。分类回归层会将ROI对齐层形成固定大小的feature map进行全连接操作,利用Softmax进行具体类别的分类,同时,利用FC layer1的损失值完成bounding box regression回归操作,获得物体的精确位置。Mask RCNN算法在Faster RCNN算计基础上,增加了实例分割的网络分支。该分支通过基础网络提取出特征图,利用基于二分插值的算法将特征图还原到原图大小,对每一个像素进行预测其所属的实例。对于每个元素的预测结果,与真实值做交叉熵运算,得到其损失。然后将该损失与Faster RCNN的损失结合到一起,做组合训练,优化网络模型参数。
S102、若当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果。
在本申请的具体实施例中,若获取到的标注结果中存在不满足标注要求的待修正标注结果,则电子设备可以采用预设方式对各个不满足标注要求的待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;各个修正标注结果满足标注要求。具体地,若在当前更新周期内获取到的标注结果中存在至少一个不满足标注要求的待修正标注结果,则电子设备采用人工方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果。
S103、基于当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。
在本申请的具体实施例中,电子设备可以基于当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。例如,假设更新周期为一天,电子设备可以先将各个待标注数据输入至第一天的预测模型中;通过第一天的预测模型输出各个待标注数据对应的标注结果;若第一天获取到的标注结果中存在不满足标注要求的待修正标注结果,则电子设备可以采用预设方式对第一天获取到的各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;然后基于第一天的预测模型,使用各个修正标注结果训练出第二天的预测模型,并将第二天的更新周期的预测模型替换掉第一天的预测模型;以此类推,直到某一天预测模型输出的各个待标注数据的标注结果均满足标注要求。
在本申请的具体实施例中,电子设备可以通过训练引擎按照预设周期对预测模型进行训练。具体地,电子设备可以先将当前更新周期的预测模型作为当前训练周期的预测模型;然后在当前更新周期内的修正标注结果中获取当前训练周期内的修正标注结果;再使用当前训练周期内的修正标注结果对当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将下一个训练周期的预测模型替换掉当前训练周期的预测模型,将下一个训练周期作为当前训练周期,重复执行上述训练当前训练周期的预测模型的操作,直到训练出下一个更新周期的预测模型。例如,假设更新周期为1天,训练周期为1小时,电子设备可以将第一天的预测模型作为第一小时的预测模型;然后在第一天的修正标注结果中获取第一小时的修正标注结果;再使用第一小时内的各个修正标注结果对第一小时的预测模型进行训练,获取到第二小时的预测模型,并将第二小时的预测模型替换掉第一小时的预测模型,以此类推,直到训练出第二天的预测模型。
需要说明的是,本申请中的训练引擎所使用的输入数据和现有技术中的MaskRCNN模型的输入数据有所不同,现有技术中的Mask RCNN在训练的时候是把一个RGB三通道的图像和人工标注的掩膜输入至预测模型;而本申请除了将RGB三通道的图像和人工标注的掩膜输入至预测模型以外,还会将人工修正的一些操作作为图像的第四通道作为输入至预测模型加以学习。这些操作具体来说就是在图像上的鼠标点击操作,例如,如果当前更新周期的预测模型自动给出的结果不够精细,需要人工的添加一部分掩膜或者删除一部分掩膜,在做添加和删除操作时鼠标在图片上点击的位置就是第四通道作为输入。
本申请实施例提出的数据标注方法,先将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果;若当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;然后基于当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。也就是说,本申请中的预测模型是可以随着时间进行迭代优化的,随着预测模型的不断优化,需要人工修正的待标注数据就会越来越少,从而达到提高标注速度和节省人工成本的目的。而在现有的数据标注方法中,通常采用人工方式进行标注或者采用预训练模型的方式进行标注,标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化。因为本申请采用了通过预测模型对各个待标注数据进行标注以及迭代优化预测模型的技术手段,克服了现有技术中标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化的技术问题,进而达到了有效地提高标注速度、节省标注成本,而且标注结果还可以随着时间进行迭代优化的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图2是本申请实施例二提供的数据标注方法的流程示意图。如图2所示,数据标注方法可以包括以下步骤:
S201、将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果。
在本申请的具体实施例中,电子设备可以将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果。较佳地,本申请中的标注数据可以是图片数据;预测模型可以是Mask RCNN模型。
S202、若当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果。
在本申请的具体实施例中,若获取到的标注结果中存在不满足标注要求的待修正标注结果,则电子设备可以采用预设方式对各个不满足标注要求的待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;各个修正标注结果满足标注要求。具体地,若在当前更新周期内获取到的标注结果中存在至少一个不满足标注要求的待修正标注结果,则电子设备采用人工方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果。
S203、将当前更新周期的预测模型作为当前训练周期的预测模型。
在本步骤中,电子设备可以将当前更新周期的预测模型作为当前训练周期的预测模型。例如,假设更新周期为1天,训练周期为1小时,电子设备在对第一天的预测模型进行训练时,可以先将第一天的预测模型作为第一小时的预测模型;然后使用第一小时的修正标注结果对第一小时的预测模型进行训练,获取到第二小时的预测模型;再使用第二小时的修正标注结果对第二小时的预测模型进行训练,获取到第三小时的预测模型;以此类推。
S204、在当前更新周期内的修正标注结果中获取当前训练周期内的修正标注结果。
在本申请的具体实施例中,电子设备可以在当前更新周期内的修正标注结果中获取当前训练周期内的修正标注结果。具体地,电子设备可以先将当前更新周期内的修正标注结果保存至训练数据库中;然后通过控制台在训练数据库中提取出当前训练周期内的修正标注结果。具体地,若训练数据库中的修正标注结果的数量大于或者等于预设阈值,则电子设备可以通过控制台在训练数据库中提取出预定数量的修正标注结果,作为当前训练周期内的修正标注结果;若述训练数据库中的修正标注结果的数量小于预设阈值,则电子设备可以通过控制台在训练数据库中提取出全部的修正标注结果,作为当前训练周期内的修正标注结果。
S205、使用当前训练周期内的修正标注结果对当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将下一个训练周期的预测模型替换掉当前训练周期的预测模型,将下一个训练周期作为当前训练周期,重复执行上述训练当前训练周期的预测模型的操作,直到训练出下一个更新周期的预测模型。
在本申请的具体实施例中,电子设备可以使用当前训练周期内的修正标注结果对当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将下一个训练周期的预测模型替换掉当前训练周期的预测模型,将下一个训练周期作为当前训练周期,重复执行上述训练当前训练周期的预测模型的操作,直到训练出下一个更新周期的预测模型。具体地,电子设备可以将当前训练周期内的各个修正标注结果输入至当前更新周期的预测模型的卷积层;通过卷积层提取各个修正标注结果的特征,并向池化层输出各个修正标注结果的特征矩阵;通过池化层对接收到的各个修正标注结果的特征矩阵进行降维操作,向全连接层输出各个修正标注结果经降维操作后的特征矩阵;通过全连接层对接收到的各个修正标注结果经降维操作后的特征矩阵进行处理,向分类器层输出获得的各个修正标注结果的一维特征矩阵;通过分类器层对各个修正标注结果的一维特征矩阵进行分类,获得各个修正标注结果的分类结果,根据各个修正标注结果的分类结果对卷积神经网络进行反向传播以逐层调整层级权重直至获取到下一个训练周期的预测模型。例如,假设更新周期为1天,训练周期为1小时,电子设备在对第一天的预测模型进行训练时,可以先将第一天的预测模型作为第一小时的预测模型;然后使用第一小时的修正标注结果对第一小时的预测模型进行训练,获取到第二小时的预测模型;再使用第二小时的修正标注结果对第二小时的预测模型进行训练,获取到第三小时的预测模型;以此类推,直到训练出第二天的预测模型。
S206、将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。
在本申请的具体实施例中,电子设备可以将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。例如,假设更新周期为一天,电子设备在训练出第二天的预测模型之后,可以将第二天的预测模型替换掉第一天的预测模型;电子设备在训练出第三天的预测模型之后,可以将第三天的预测模型替换掉第二天的预测模型,以此类推,直到某一天的预测模型输出的各个待标注数据的标注结果均满足标注要求。
本申请实施例提出的数据标注方法,先将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果;若当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;然后基于当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。也就是说,本申请中的预测模型是可以随着时间进行迭代优化的,随着预测模型的不断优化,需要人工修正的待标注数据就会越来越少,从而达到提高标注速度和节省人工成本的目的。而在现有的数据标注方法中,通常采用人工方式进行标注或者采用预训练模型的方式进行标注,标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化。因为本申请采用了通过预测模型对各个待标注数据进行标注以及迭代优化预测模型的技术手段,克服了现有技术中标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化的技术问题,进而达到了有效地提高标注速度、节省标注成本,而且标注结果还可以随着时间进行迭代优化的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例三
图3是本申请实施例三提供的数据标注装置的结构示意图。如图3所示,所述装置300包括:标注模块301、修正模块302和训练模块303;其中,
所述标注模块301,用于将各个待标注数据输入至当前更新周期的预测模型中;通过所述当前更新周期的预测模型输出各个待标注数据对应的标注结果;
所述修正模块302,用于若所述当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;
所述训练模块303,用于基于所述当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将所述下一个更新周期的预测模型替换掉所述当前更新周期的预测模型,将下一个更新周期作为所述当前更新周期,重复执行上述操作,直到所述当前更新周期的预测模型输出的各个待标注数据的标注结果均满足所述标注要求。
图4是本申请实施例三提供的训练模块的结构示意图。如图4所示,所述训练模块303包括:设置子模块3031、获取子模块3032和训练子模块3033;其中,
所述设置子模块3031,用于将所述当前更新周期的预测模型作为当前训练周期的预测模型;
所述获取子模块3032,用于在所述当前更新周期内的修正标注结果中获取所述当前训练周期内的修正标注结果;
所述训练子模块3033,用于使用所述当前训练周期内的修正标注结果对所述当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将所述下一个训练周期的预测模型替换掉所述当前训练周期的预测模型,将所述下一个训练周期作为所述当前训练周期,重复执行上述训练所述当前训练周期的预测模型的操作,直到训练出所述下一个更新周期的预测模型。
进一步的,所述获取子模块3032,具体用于将所述当前更新周期内的修正标注结果保存至训练数据库中;通过控制台在所述训练数据库中提取出所述当前训练周期内的修正标注结果。
进一步的,所述获取子模块3032,具体用于若所述训练数据库中的修正标注结果的数量大于或者等于预设阈值,则通过所述控制台在所述训练数据库中提取出预定数量的修正标注结果,作为所述当前训练周期内的修正标注结果;若所述训练数据库中的修正标注结果的数量小于所述预设阈值,则通过所述控制台在所述训练数据库中提取出全部的修正标注结果,作为所述当前训练周期内的修正标注结果。
进一步的,所述训练子模块3033,具体用于将所述当前训练周期内的各个修正标注结果输入至所述当前更新周期的预测模型的卷积层;通过所述卷积层提取各个修正标注结果的特征,并向所述池化层输出各个修正标注结果的特征矩阵;通过所述池化层对接收到的各个修正标注结果的特征矩阵进行降维操作,向所述全连接层输出各个修正标注结果经降维操作后的特征矩阵;通过所述全连接层对接收到的各个修正标注结果经降维操作后的特征矩阵进行处理,向所述分类器层输出获得的各个修正标注结果的一维特征矩阵;通过所述分类器层对各个修正标注结果的一维特征矩阵进行分类,获得各个修正标注结果的分类结果,根据各个修正标注结果的分类结果对所述卷积神经网络进行反向传播以逐层调整层级权重直至获取到所述下一个训练周期的预测模型。
进一步的,所述待标注数据为图像数据;所述预测模型为Mask RCNN。
上述数据标注装置可执行本申请任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请任意实施例提供的数据标注方法。
实施例四
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图5所示,是根据本申请实施例的数据标注方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的数据标注方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的数据标注方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的数据标注方法对应的程序指令/模块(例如,附图3所示的标注模块301、修正模块302和训练模块303)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的数据标注方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据数据标注方法的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至数据标注方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
数据标注方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与数据标注方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,先将各个待标注数据输入至当前更新周期的预测模型中;通过当前更新周期的预测模型输出各个待标注数据对应的标注结果;若当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;然后基于当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将下一个更新周期的预测模型替换掉当前更新周期的预测模型,将下一个更新周期作为当前更新周期,重复执行上述操作,直到当前更新周期的预测模型输出的各个待标注数据的标注结果均满足标注要求。也就是说,本申请中的预测模型是可以随着时间进行迭代优化的,随着预测模型的不断优化,需要人工修正的待标注数据就会越来越少,从而达到提高标注速度和节省人工成本的目的。而在现有的数据标注方法中,通常采用人工方式进行标注或者采用预训练模型的方式进行标注,标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化。因为本申请采用了通过预测模型对各个待标注数据进行标注以及迭代优化预测模型的技术手段,克服了现有技术中标注速度慢、标注成本高,而且标注结果无法随着时间进行迭代优化的技术问题,进而达到了有效地提高标注速度、节省标注成本,而且标注结果还可以随着时间进行迭代优化的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (14)
1.一种数据标注方法,其特征在于,所述方法包括:
将各个待标注数据输入至当前更新周期的预测模型中;通过所述当前更新周期的预测模型输出各个待标注数据对应的标注结果;
若所述当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;
基于所述当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将所述下一个更新周期的预测模型替换掉所述当前更新周期的预测模型,将下一个更新周期作为所述当前更新周期,重复执行上述操作,直到所述当前更新周期的预测模型输出的各个待标注数据的标注结果均满足所述标注要求。
2.根据权利要求1所述的方法,其特征在于,所述基于所述当前更新周期的预测模型,使用各个经修正后满足所述标注要求的标注结果训练出下一个更新周期的预测模型,包括:
将所述当前更新周期的预测模型作为当前训练周期的预测模型;
在所述当前更新周期内的修正标注结果中获取所述当前训练周期内的修正标注结果;
使用所述当前训练周期内的修正标注结果对所述当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将所述下一个训练周期的预测模型替换掉所述当前训练周期的预测模型,将所述下一个训练周期作为所述当前训练周期,重复执行上述训练所述当前训练周期的预测模型的操作,直到训练出所述下一个更新周期的预测模型。
3.根据权利要求2所述的方法,其特征在于,所述在所述当前更新周期内的修正标注结果中获取所述当前训练周期内的修正标注结果,包括:
将所述当前更新周期内的修正标注结果保存至训练数据库中;
通过控制台在所述训练数据库中提取出所述当前训练周期内的修正标注结果。
4.根据权利要求3所述的方法,其特征在于,所述通过控制台在所述训练数据库中提取出所述当前训练周期内的修正标注结果,包括:
若所述训练数据库中的修正标注结果的数量大于或者等于预设阈值,则通过所述控制台在所述训练数据库中提取出预定数量的修正标注结果,作为所述当前训练周期内的修正标注结果;
若所述训练数据库中的修正标注结果的数量小于所述预设阈值,则通过所述控制台在所述训练数据库中提取出全部的修正标注结果,作为所述当前训练周期内的修正标注结果。
5.根据权利要求2所述的方法,其特征在于,所述使用所述当前训练周期内的修正标注结果对所述当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,包括:
将所述当前训练周期内的各个修正标注结果输入至所述当前更新周期的预测模型的卷积层;通过所述卷积层提取各个修正标注结果的特征,并向所述池化层输出各个修正标注结果的特征矩阵;通过所述池化层对接收到的各个修正标注结果的特征矩阵进行降维操作,向所述全连接层输出各个修正标注结果经降维操作后的特征矩阵;通过所述全连接层对接收到的各个修正标注结果经降维操作后的特征矩阵进行处理,向所述分类器层输出获得的各个修正标注结果的一维特征矩阵;通过所述分类器层对各个修正标注结果的一维特征矩阵进行分类,获得各个修正标注结果的分类结果,根据各个修正标注结果的分类结果对所述卷积神经网络进行反向传播以逐层调整层级权重直至获取到所述下一个训练周期的预测模型。
6.根据权利要求1所述的方法,其特征在于,所述待标注数据为图像数据;所述预测模型为实例分割模型Mask RCNN。
7.一种数据标注装置,其特征在于,所述装置包括:标注模块、修正模块和训练模块;其中,
所述标注模块,用于将各个待标注数据输入至当前更新周期的预测模型中;通过所述当前更新周期的预测模型输出各个待标注数据对应的标注结果;
所述修正模块,用于若所述当前更新周期内获取到的标注结果中存在不满足标注要求的待修正标注结果,则采用预设方式对各个待修正标注结果进行修正,获取到各个待修正标注结果对应的修正标注结果;
所述训练模块,用于基于所述当前更新周期的预测模型,使用各个修正标注结果训练出下一个更新周期的预测模型,并将所述下一个更新周期的预测模型替换掉所述当前更新周期的预测模型,将下一个更新周期作为所述当前更新周期,重复执行上述操作,直到所述当前更新周期的预测模型输出的各个待标注数据的标注结果均满足所述标注要求。
8.根据权利要求7所述的装置,其特征在于,所述训练模块包括:设置子模块、获取子模块和训练子模块;其中,
所述设置子模块,用于将所述当前更新周期的预测模型作为当前训练周期的预测模型;
所述获取子模块,用于在所述当前更新周期内的修正标注结果中获取所述当前训练周期内的修正标注结果;
所述训练子模块,用于使用所述当前训练周期内的修正标注结果对所述当前训练周期的预测模型进行训练,获取到下一个训练周期的预测模型,并将所述下一个训练周期的预测模型替换掉所述当前训练周期的预测模型,将所述下一个训练周期作为所述当前训练周期,重复执行上述训练所述当前训练周期的预测模型的操作,直到训练出所述下一个更新周期的预测模型。
9.根据权利要求8所述的装置,其特征在于:
所述获取子模块,具体用于将所述当前更新周期内的修正标注结果保存至训练数据库中;通过控制台在所述训练数据库中提取出所述当前训练周期内的修正标注结果。
10.根据权利要求9所述的装置,其特征在于:
所述获取子模块,具体用于若所述训练数据库中的修正标注结果的数量大于或者等于预设阈值,则通过所述控制台在所述训练数据库中提取出预定数量的修正标注结果,作为所述当前训练周期内的修正标注结果;若所述训练数据库中的修正标注结果的数量小于所述预设阈值,则通过所述控制台在所述训练数据库中提取出全部的修正标注结果,作为所述当前训练周期内的修正标注结果。
11.根据权利要求8所述的装置,其特征在于:
所述训练子模块,具体用于将所述当前训练周期内的各个修正标注结果输入至所述当前更新周期的预测模型的卷积层;通过所述卷积层提取各个修正标注结果的特征,并向所述池化层输出各个修正标注结果的特征矩阵;通过所述池化层对接收到的各个修正标注结果的特征矩阵进行降维操作,向所述全连接层输出各个修正标注结果经降维操作后的特征矩阵;通过所述全连接层对接收到的各个修正标注结果经降维操作后的特征矩阵进行处理,向所述分类器层输出获得的各个修正标注结果的一维特征矩阵;通过所述分类器层对各个修正标注结果的一维特征矩阵进行分类,获得各个修正标注结果的分类结果,根据各个修正标注结果的分类结果对所述卷积神经网络进行反向传播以逐层调整层级权重直至获取到所述下一个训练周期的预测模型。
12.根据权利要求7所述的装置,其特征在于,所述待标注数据为图像数据;所述预测模型为实例分割模型Mask RCNN。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010265588.9A CN111488925B (zh) | 2020-04-07 | 2020-04-07 | 一种数据标注方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010265588.9A CN111488925B (zh) | 2020-04-07 | 2020-04-07 | 一种数据标注方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111488925A true CN111488925A (zh) | 2020-08-04 |
CN111488925B CN111488925B (zh) | 2023-10-20 |
Family
ID=71794742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010265588.9A Active CN111488925B (zh) | 2020-04-07 | 2020-04-07 | 一种数据标注方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111488925B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528610A (zh) * | 2020-12-09 | 2021-03-19 | 北京百度网讯科技有限公司 | 一种数据标注方法、装置、电子设备及存储介质 |
CN112614479A (zh) * | 2020-11-26 | 2021-04-06 | 北京百度网讯科技有限公司 | 训练数据的处理方法、装置及电子设备 |
CN112699887A (zh) * | 2020-12-30 | 2021-04-23 | 科大讯飞股份有限公司 | 一种获得数学对象标注模型、数学对象标注的方法和装置 |
CN113128565A (zh) * | 2021-03-25 | 2021-07-16 | 之江实验室 | 面向预训练标注数据不可知的图像自动标注系统和装置 |
CN113361576A (zh) * | 2021-05-31 | 2021-09-07 | 展讯通信(天津)有限公司 | 图片标注方法和设备 |
CN113869249A (zh) * | 2021-09-30 | 2021-12-31 | 广州文远知行科技有限公司 | 一种车道线标注方法、装置、设备及可读存储介质 |
WO2022213871A1 (zh) * | 2021-04-06 | 2022-10-13 | 华为云计算技术有限公司 | 缓存装置、方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103917743A (zh) * | 2011-11-03 | 2014-07-09 | Bp北美公司 | 基于检测到的流动事件的统计储层模型 |
CN109190635A (zh) * | 2018-07-25 | 2019-01-11 | 北京飞搜科技有限公司 | 基于分类cnn的目标追踪方法、装置及电子设备 |
CN110147547A (zh) * | 2019-04-09 | 2019-08-20 | 苏宁易购集团股份有限公司 | 一种基于迭代式学习的智能辅助标注方法及系统 |
US20190258945A1 (en) * | 2018-02-22 | 2019-08-22 | Fanuc Corporation | Fault diagnosis apparatus and machine learning device |
CN110457304A (zh) * | 2019-08-08 | 2019-11-15 | 北京百度网讯科技有限公司 | 数据清洗方法、装置、电子设备及可读存储介质 |
CN110458245A (zh) * | 2019-08-20 | 2019-11-15 | 图谱未来(南京)人工智能研究院有限公司 | 一种多标签分类模型训练方法、数据处理方法及装置 |
CN110517768A (zh) * | 2019-08-28 | 2019-11-29 | 泰康保险集团股份有限公司 | 异常预测方法、异常预测装置、电子设备及存储介质 |
CN110838108A (zh) * | 2019-10-30 | 2020-02-25 | 腾讯科技(深圳)有限公司 | 基于医疗图像的预测模型构建方法、预测方法及装置 |
-
2020
- 2020-04-07 CN CN202010265588.9A patent/CN111488925B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103917743A (zh) * | 2011-11-03 | 2014-07-09 | Bp北美公司 | 基于检测到的流动事件的统计储层模型 |
US20190258945A1 (en) * | 2018-02-22 | 2019-08-22 | Fanuc Corporation | Fault diagnosis apparatus and machine learning device |
CN109190635A (zh) * | 2018-07-25 | 2019-01-11 | 北京飞搜科技有限公司 | 基于分类cnn的目标追踪方法、装置及电子设备 |
CN110147547A (zh) * | 2019-04-09 | 2019-08-20 | 苏宁易购集团股份有限公司 | 一种基于迭代式学习的智能辅助标注方法及系统 |
CN110457304A (zh) * | 2019-08-08 | 2019-11-15 | 北京百度网讯科技有限公司 | 数据清洗方法、装置、电子设备及可读存储介质 |
CN110458245A (zh) * | 2019-08-20 | 2019-11-15 | 图谱未来(南京)人工智能研究院有限公司 | 一种多标签分类模型训练方法、数据处理方法及装置 |
CN110517768A (zh) * | 2019-08-28 | 2019-11-29 | 泰康保险集团股份有限公司 | 异常预测方法、异常预测装置、电子设备及存储介质 |
CN110838108A (zh) * | 2019-10-30 | 2020-02-25 | 腾讯科技(深圳)有限公司 | 基于医疗图像的预测模型构建方法、预测方法及装置 |
Non-Patent Citations (3)
Title |
---|
LAMBECK K等: "Sea-level change in the Mediterranean Sea since the LGM: model predictions for tectonically stable areas", 《QUATERNARY SCIENCE REVIEWS》, vol. 24, no. 18, pages 1969 - 1988, XP025309653, DOI: 10.1016/j.quascirev.2004.06.025 * |
姜海洋等: "基于情报影像的战场目标聚集行为识别方法综述", 《兵器装备工程学报》, vol. 40, no. 7, pages 133 - 137 * |
张浩等: "基于数据增强和模型更新的异常流量检测技术", 《信息网络安全》, vol. 20, no. 2, pages 66 - 74 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112614479A (zh) * | 2020-11-26 | 2021-04-06 | 北京百度网讯科技有限公司 | 训练数据的处理方法、装置及电子设备 |
CN112614479B (zh) * | 2020-11-26 | 2022-03-25 | 北京百度网讯科技有限公司 | 训练数据的处理方法、装置及电子设备 |
CN112528610A (zh) * | 2020-12-09 | 2021-03-19 | 北京百度网讯科技有限公司 | 一种数据标注方法、装置、电子设备及存储介质 |
CN112528610B (zh) * | 2020-12-09 | 2023-11-14 | 北京百度网讯科技有限公司 | 一种数据标注方法、装置、电子设备及存储介质 |
CN112699887A (zh) * | 2020-12-30 | 2021-04-23 | 科大讯飞股份有限公司 | 一种获得数学对象标注模型、数学对象标注的方法和装置 |
CN113128565A (zh) * | 2021-03-25 | 2021-07-16 | 之江实验室 | 面向预训练标注数据不可知的图像自动标注系统和装置 |
WO2022213871A1 (zh) * | 2021-04-06 | 2022-10-13 | 华为云计算技术有限公司 | 缓存装置、方法及系统 |
CN113361576A (zh) * | 2021-05-31 | 2021-09-07 | 展讯通信(天津)有限公司 | 图片标注方法和设备 |
CN113869249A (zh) * | 2021-09-30 | 2021-12-31 | 广州文远知行科技有限公司 | 一种车道线标注方法、装置、设备及可读存储介质 |
CN113869249B (zh) * | 2021-09-30 | 2024-05-07 | 广州文远知行科技有限公司 | 一种车道线标注方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111488925B (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488925A (zh) | 一种数据标注方法、装置、电子设备及存储介质 | |
US11694461B2 (en) | Optical character recognition method and apparatus, electronic device and storage medium | |
CN111639710A (zh) | 图像识别模型训练方法、装置、设备以及存储介质 | |
JP2022534337A (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
CN112528976B (zh) | 文本检测模型的生成方法和文本检测方法 | |
CN112001180A (zh) | 多模态预训练模型获取方法、装置、电子设备及存储介质 | |
CN112381183B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN111104514A (zh) | 文档标签模型的训练方法及装置 | |
EP3876163A2 (en) | Model training, image processing method, device, storage medium, and program product | |
CN111832745A (zh) | 数据增广的方法、装置及电子设备 | |
CN112149741B (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
US20220101642A1 (en) | Method for character recognition, electronic device, and storage medium | |
CN113177472A (zh) | 动态手势识别方法、装置、设备以及存储介质 | |
CN114092759A (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
KR20220153667A (ko) | 특징 추출 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 | |
CN114386503A (zh) | 用于训练模型的方法和装置 | |
CN111709428A (zh) | 图像中关键点位置的识别方法、装置、电子设备及介质 | |
CN112036315A (zh) | 字符识别方法、装置、电子设备及存储介质 | |
García-Aguilar et al. | Optimized instance segmentation by super-resolution and maximal clique generation | |
US20210407184A1 (en) | Method and apparatus for processing image, electronic device, and storage medium | |
CN111563541B (zh) | 图像检测模型的训练方法和装置 | |
CN113111684B (zh) | 神经网络模型的训练方法、装置和图像处理系统 | |
KR20160128869A (ko) | 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치 | |
CN111784799A (zh) | 图像填充方法、装置、设备及存储介质 | |
CN111026916A (zh) | 文本描述的转换方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |