CN112861959A - 一种目标检测图像的自动标注方法 - Google Patents
一种目标检测图像的自动标注方法 Download PDFInfo
- Publication number
- CN112861959A CN112861959A CN202110145617.2A CN202110145617A CN112861959A CN 112861959 A CN112861959 A CN 112861959A CN 202110145617 A CN202110145617 A CN 202110145617A CN 112861959 A CN112861959 A CN 112861959A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- training
- target detection
- labeled
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 61
- 238000002372 labelling Methods 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 68
- 238000012360 testing method Methods 0.000 claims abstract description 27
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000012216 screening Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims description 6
- 238000003672 processing method Methods 0.000 claims description 5
- 238000013441 quality evaluation Methods 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种目标检测图像的自动标注方法,包括以下步骤:获取待标注原始数据集,区分已标注数据集B和待标注数据集,将已标注数据集中的数据分别训练集和测试集;对训练集中的每个数据进行数据增强,利用增强训练集训练目标检测模型,将测试集Te中的图片输入目标检测模型,计算在测试集上的检测平均精度均值,将待标注数据集中的图片输入目标检测模型得到自动预标注结果,并将对其筛选所得正样本集合加入增强训练集。本发明将自学习及在线更新模型相结合,利用模型在测试集的检测平均精度均值作为预标注数据质量评估反馈指标,替代人工评分机制,大大减少人工参与,提高图像自动标注的自动化水平。
Description
技术领域
本发明属于图像检测技术,具体涉及一种目标检测图像的自动标注方法。
背景技术
图像的自动标注是利用人工智能或模式识别等计算机方法对数字图像的低层视觉特征进行分析,从而对图像打上特定语义标签的一个过程。传统图像标注方法通过手工标注,尤其是目标检测问题的标注工作量巨大,标注效率低,所以目标检测图像自动标注是目前亟需解决的问题。
现有技术,已有类似自动标注方法,但是这些自动标注方法在实施过程中人需要专业人员进行对大量中间结果进行人工评分、奖励等操作,有的需要全程人工参与标注,甚至对最终的自动标注结果进行人工复核,并没有真正实现图像标注的自动化。简言之,现有的图像自动标注方法其过程仍然充满人员的主观判断性以及不确定性,最终的结果仍不够精确。
发明内容
发明目的:本发明的目的在于解决现有技术中存在的不足,提供一种目标检测图像的自动标注方法。
技术方案:本发明的一种目标检测图像的自动标注方法,包括以下步骤:
步骤S1、获取待标注的目标检测图像生成对应原始数据集,确定原始数据集中的待检测物体的类别和最小正外接矩形锚框;
步骤S2、根据上述物体类别和最小正外接矩形锚框,对步骤S1所得原始数据集中a%的数据进行人工标注形成已标注数据集B,剩余数据则形成待标注数据集W,将已标注数据集B中的数据分别训练集Tr和测试集Te;
步骤S3、对训练集Tr中的每个数据进行数据增强,得到增强训练集Tr_a;增强训练集Tr_a中的每个标注也随之增强;
步骤S4、利用增强训练集Tr_a训练YOLOv4目标检测模型,训练过程中当训练总体损失total_loss趋于稳定时则结束训练,将该训练完成的目标检测模型记为Model_base;total_loss=回归框loss+分类loss+置信度loss;
其中:IoU为真实框与预测框的交并比;d为真实框与预测框两个中心点的欧式距离;L为同时包含预测框和真实框的最小闭包区域的对角线距离;wgt为真实框的宽;hgt为真实框的高;w为预测框的宽;h为预测框的高;
其中:K为特征层网格的尺寸;表示第i个网格的第j个锚框是否负责这个object,如果负责那么否则为0;表示第i个网格的第j个锚框为c类物体的概率真实值;表示第i个网格的第j个锚框为c物体的概率预测值;
其中:K为特征层网格的尺寸;M为物体类别数;表示第i个网格的第j个锚框是否负责这个object,如果负责那么否则为0;表示第i个网格的第j个锚框不负责这个object,如果不负责,则若负责,则 表示参数置信度真实值,如果第i个网格的第j个锚框负责预测某个对象,则否则 表示参数置信度预测值;
步骤S5、
将测试集Te中的图片输入目标检测模型Model_base,计算Model_base在测试集Te上的检测平均精度均值mAP,作为基准平均精度均值,记为mAP_base;IoU阈值取0.5计算mAP的值;
其中:为Precision-Recall平滑曲线;rc为IoU的阈值为0.5时的c类物体召回率;c为待检测目标物体中的某类;APc为c类物体的平均检测精度;N(classes)为全部待检测目标物体类别数量;
步骤S6、将待标注数据集W中的图片输入目标检测模型Modelbase,得到自动预标注结果;
步骤S7、对步骤S6所得自动预标注结果进行筛选,筛选过程如下:
步骤S7.1、对于步骤S6目标检测模型Model_base中置信度高于b的预标注和图片,均纳入预标注集Y中,预标注集Y中最小单位为(标注,图片),对于置信度低于或等于b的预标注则删除,对于置信度低于或等于b的图片则仍放入待标注数据集W;
步骤S7.2、从预标注集Y中选取某个预标注Yi,对Yi中的图片和标注执行步骤3中的数据增强处理;
步骤S7.3、将Yi经过数据增强后生成的2048个标注Yi_a加入训练集,执行步骤4得到模型Model_Yi;
步骤S7.4、将测试集Te的图片输入Model_Yi,计算Model_Yi在测试集上的检测平均精度均值mAP_Yi;
步骤S7.5、判断mAP_Yi是否不小于mAP_base,若成立,则将Yi_a加入正样本集合Y_P,并将Yi从Y中移除;若不成立,则直接将Yi从Y中移除,回归待标注数据集W;
步骤S7.6、判断集合Y是否为空,若为空,则返回正样本集合Y_P;若为不为空,则重复步骤S7.2至步骤S7.5;
步骤S8、将正样本集合Y_P加入增强训练集Tr_a;
步骤S9、使用步骤S8所得最新的增强训练集Tr_a中的数据在步骤S4中Model_base基础上训练模型,并更新Model_base;
步骤S10、判断待标注数据集W是否为空:
若为空,则返回已标注数据集B=Tr_a+Te和最终的模型Model_base,并结束整个标注过程;
若不为空,则重复步骤S5至步骤S9。
进一步地,所述步骤S2中对原始数据集中a%进行人工标注时,须包含步骤S1中所有待检测物体类别,且各类标签数量相近;训练集Tr和测试集Te中的数据数量为1:1。
进一步地,所述步骤S3中的数据增强处理方法共N种,经过数据增强处理后训练集Tr中1个标注将增强为也就是训练集Tr_a数据量增强为Tr的倍。进一步地,所述步骤S3中的数据增强处理方法共11种,依次为随机改变亮度、随机改变对比度、随机改变色度、随机改变饱和度、随机改变颜色通道、随机水平翻转、随机裁剪、随机缩放、随机拉伸、随机旋转和随机高斯模糊;根据排列组合原理,经过数据增强后训练集Tr中1个标注将增强为 即训练集Tr_a数据量增强为Tr的2048倍,以此能将有限的数据产生等价于更多数据的价值。
有益效果:本发明将自学习及在线更新模型相结合,利用模型在测试集的mAP作为预标注数据质量评估反馈指标,替代人工评分机制,大大减少人工参与,提高图像自动标注的自动化水平,并且实现同步完成数据集自动标注和目标检测模型的训练。
附图说明
图1为本发明的整体流程示意图;
图2为本发明中预标注筛选的流程图。
具体实施方式
下面对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
如图1和图2所示,本发明的一种目标检测图像的自动标注方法,包括以下步骤:
步骤S1、获取待标注的目标检测图像生成对应原始数据集,确定原始数据集中的待检测物体的类别和最小正外接矩形锚框;
步骤S2、根据上述物体类别和最小正外接矩形锚框,对步骤S1所得原始数据集中a%的数据进行人工标注形成已标注数据集B,剩余数据则形成待标注数据集W,将已标注数据集B中的数据分别训练集Tr和测试集Te;
步骤S3、对训练集Tr中的每个数据进行数据增强,得到增强训练集Tr_a;增强训练集Tr_a中的每个标注也随之增强;
步骤S4、利用增强训练集Tr_a训练目标检测模型,训练过程中当训练总体损失total_loss趋于稳定时则结束训练,将该训练完成的目标检测模型记为Model_base;total_loss=回归框loss+分类loss+置信度loss;
其中:IoU为真实框与预测框的交并比;d为真实框与预测框两个中心点的欧式距离;L为同时包含预测框和真实框的最小闭包区域的对角线距离;wgt为真实框的宽;hgt为真实框的高;w为预测框的宽;h为预测框的高;
其中:K为特征层网格的尺寸;表示第i个网格的第j个锚框是否负责这个object,如果负责那么否则为0;表示第i个网格的第j个锚框为c类物体的概率真实值;表示第i个网格的第j个锚框为c物体的概率预测值;
其中:K为特征层网格的尺寸;M为物体类别数;表示第i个网格的第j个锚框是否负责这个object,如果负责那么否则为0;表示第i个网格的第j个锚框不负责这个object,如果不负责,则若负责,则 表示参数置信度真实值,如果第i个网格的第j个锚框负责预测某个对象,则否则 表示参数置信度预测值;
步骤S5、将测试集Te中的图片输入目标检测模型Model_base,计算Model_base在测试集Te上的检测平均精度均值mAP,作为基准平均精度均值,记为mAP_base;IoU阈值取0.5计算mAP的值;
其中:为Precision-Recall平滑曲线;rc为IoU阈值为0.5时的c类物体召回率;c为待检测目标物体中的某类;APc为c类物体的平均检测精度;N(classes)为全部待检测目标物体类别数量;
步骤S6、将待标注数据集W中的图片输入目标检测模型Model_base,得到自动预标注结果;
步骤S7、对步骤S6所得自动预标注结果进行筛选,筛选过程如下:
步骤S7.1、对于步骤S6目标检测模型Model_base中置信度高于b的预标注和图片,均纳入预标注集Y中,预标注集Y中最小单位为(标注,图片),对于置信度低于或等于b的预标注则删除,对于置信度低于或等于b的图片则仍放入待标注数据集W;
步骤S7.2、从预标注集Y中选取某个预标注Yi,对Yi中的图片和标注执行步骤3中的数据增强处理;
步骤S7.3、将Yi经过数据增强后生成的2048个标注Yi_a加入训练集,执行步骤4得到模型Model_Yi;
步骤S7.4、将测试集Te的图片输入Model_Yi,计算Model_Yi在测试集上的检测平均精度均值mAP_Yi;
步骤S7.5、判断mAP_Yi是否不小于mAP_base,若成立,则将Yi_a加入正样本集合Y_P,并将Yi从Y中移除;若不成立,则直接将Yi从Y中移除,回归待标注数据集W;
步骤S7.6、判断集合Y是否为空,若为空,则返回正样本集合Y_P;若不为空,则重复步骤S7.2至步骤S7.5;
步骤S8、将正样本集合Y_P加入增强训练集Tr_a;
步骤S9、使用步骤S8所得最新的增强训练集Tr_a中的数据在步骤S4中Model_base基础上训练模型,并更新Model_base;
步骤S10、判断待标注数据集W是否为空:
若为空,则返回已标注数据集B=Tr_a+Te和最终的模型Model_base,并结束整个标注过程;
若不为空,则重复步骤S5至步骤S9。
实施例1:以配电房仪表检测任务为实施例。
步骤1、采集配电房可见光图像共10000张,作为原始数据集,配电房中需要检测的目标仪表类型包括电流电压表、压板、指示灯、旋钮、SF6压力表共5种,标注时应采用最小正外接矩形框标注目标;
步骤2、根据上述物体类别和最小正外接矩形锚框,对10000张原始数据集中10%的数据,即1000张图片进行人工标注形成已标注数据集B,需要保证这1000张图片中包含全部5种目标物体(电流电压表、压板、指示灯、旋钮、SF6压力表),且每个物体的标注数量相近,剩余9000张图片则形成待标注数据集W,将已标注数据集B中的数据分别训练集Tr和测试集Te各500张;
本实施例中的a取值10,即对10000张原始数据集中10%的数据,使得最后的自动标注效率极大的提高。
步骤3、对训练集Tr中的每个数据进行数据增强,采用随机改变亮度、随机改变对比度、随机改变色度、随机改变饱和度、随机改变颜色通道、随机水平翻转、随机裁剪、随机缩放、随机拉伸、随机旋转和随机高斯模糊11种数据增强处理方法,根据排列组合原理,经过数据增强后训练集Tr中1个标注将增强为得到增强训练集Tr_a;
步骤4、利用增强训练集Tr_a训练YOLOv4目标检测模型,训练过程中当训练总体损失total_loss趋于稳定时则结束训练,将该训练完成的目标检测模型记为Model_base;
步骤5、将测试集Te中的图片输入目标检测模型Model_base,计算Model_base在测试集Te上的检测平均精度均值mAP,作为基准平均精度均值,记为mAP_base;IoU阈值取0.5计算mAP的值。
步骤6、将待标注数据集W中的图片输入目标检测模型Model_base,得到自动预标注结果;
步骤7、对步骤S6所得自动预标注结果进行筛选,筛选过程如下:
步骤7.1、对于步骤S6目标检测模型Model_base中置信度高于0.4的预标注和图片,均纳入预标注集Y中,预标注集Y中最小单位为(标注,图片);
步骤7.2、从预标注集Y中选取某个预标注Yi,对Yi中的图片和标注执行步骤3中的数据增强处理;
步骤7.3、将Yi经过数据增强后生成的2048个标注Yi_a加入训练集,执行步骤4得到模型Model_Yi;
步骤7.4、将测试集Te的图片输入Model_Yi,计算Model_Yi在测试集上的检测平均精度均值mAP_Yi;
步骤7.5、判断mAP_Yi是否不小于mAP_base,若成立,则将Yi_a加入正样本集合Y_P,并将Yi从Y中移除;若不成立,则直接将Yi从Y中移除,回归待标注数据集W;
步骤7.6、判断集合Y是否为空,若为空,则返回正样本集合Y_P;若为不为空,则重复步骤S7.2至步骤S7.5;
步骤8、将正样本集合Y_P加入增强训练集Tr_a;
步骤9、使用步骤8所得最新的增强训练集Tr_a中的数据在步骤S4中Model_base基础上训练模型,并更新Model_base;
步骤10、判断待标注数据集W是否为空:
若为空,则返回已标注数据集B=Tr_a+Te和最终的模型Model_base,并结束整个标注过程;
若不为空,则重复步骤5至步骤9。
Claims (4)
1.一种目标检测图像的自动标注方法,其特征在于:包括以下步骤:
步骤S1、获取待标注的目标检测图像生成对应原始数据集,确定原始数据集中的待检测物体的类别和最小正外接矩形锚框;
步骤S2、根据上述物体类别和最小正外接矩形锚框,对步骤S1所得原始数据集中a%的数据进行人工标注形成已标注数据集B,剩余数据则形成待标注数据集W,将已标注数据集B中的数据分别训练集Tr和测试集Te;
步骤S3、对训练集Tr中的每个数据进行数据增强,得到增强训练集Tr_a;增强训练集Tr_a中的每个标注也随之增强;
步骤S4、利用增强训练集Tr_a训练YOLOv4目标检测模型,训练过程中当训练总体损失total_loss趋于稳定时则结束训练,将该训练完成的目标检测模型记为Model_base;total_loss=回归框loss+分类loss+置信度loss;
其中:IoU为真实框与预测框的交并比;d为真实框与预测框两个中心点的欧式距离;L为同时包含预测框和真实框的最小闭包区域的对角线距离;wgt为真实框的宽;hgt为真实框的高;w为预测框的宽;h为预测框的高;
其中:K为特征层网格的尺寸;表示第i个网格的第j个锚框是否负责这个object,如果负责那么否则为0;表示第i个网格的第j个锚框为c类物体的概率真实值;表示第i个网格的第j个锚框为c物体的概率预测值;
其中:K为特征层网格的尺寸;M为物体类别数;表示第i个网格的第j个锚框是否负责这个object,如果负责那么否则为0;表示第i个网格的第j个锚框不负责这个object,如果不负责,则若负责,则 表示参数置信度真实值,如果第i个网格的第j个锚框负责预测某个对象,则否则 表示参数置信度预测值;
步骤S5、将测试集Te中的图片输入目标检测模型Model_base,计算Model_base在测试集Te上的检测平均精度均值mAP,作为基准平均精度均值,记为mAP_base;IoU阈值取0.5计算mAP的值;
其中:为Precision-Recall平滑曲线;rc为IoU的阈值为0.5时的c类物体召回率;c为待检测目标物体中的某类;APc为c类物体的平均检测精度;N(classes)为全部待检测目标物体类别数量;
步骤S6、将待标注数据集W中的图片输入目标检测模型Model_base,得到自动预标注结果;
步骤S7、对步骤S6所得自动预标注结果进行筛选,筛选过程如下:
步骤S7.1、对于步骤S6目标检测模型Model_base中置信度高于b的预标注和图片,均纳入预标注集Y中,预标注集Y中最小单位为(标注,图片),对于置信度低于或等于b的预标注则删除,对于置信度低于或等于b的图片则仍放入待标注数据集W;
步骤S7.2、从预标注集Y中选取某个预标注Yi,对Yi中的图片和标注执行步骤3中的数据增强处理;
步骤S7.3、将Yi经过数据增强后生成的2048个标注Yi_a加入训练集,执行步骤4得到模型Model_Yi;
步骤S7.4、将测试集Te的图片输入Model_Yi,计算Model_Yi在测试集上的检测平均精度均值mAP_Yi;
步骤S7.5、判断mAP_Yi是否不小于mAP_base,若成立,则将Yi_a加入正样本集合Y_P,并将Yi从Y中移除;若不成立,则直接将Yi从Y中移除,回归待标注数据集W;
步骤S7.6、判断集合Y是否为空,若为空,则返回正样本集合Y_P;若不为空,则重复步骤S7.2至步骤S7.5;
步骤S8、将正样本集合Y_P加入增强训练集Tr_a;
步骤S9、使用步骤S8所得最新的增强训练集Tr_a中的数据在步骤S4中Model_base基础上训练模型,并更新Model_base;
步骤S10、判断待标注数据集W是否为空:
若为空,则返回已标注数据集B=Tr_a+Te和最终的模型Model_base,并结束整个标注过程;
若不为空,则重复步骤S5至步骤S9。
2.根据权利要求1所述的目标检测图像的自动标注方法,其特征在于:所述步骤S2中对原始数据集中a%进行人工标注时,须包含步骤S1中所有待检测物体类别,且各类标签数量相近;训练集Tr和测试集Te中的数据数量为1:1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110145617.2A CN112861959B (zh) | 2021-02-02 | 2021-02-02 | 一种目标检测图像的自动标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110145617.2A CN112861959B (zh) | 2021-02-02 | 2021-02-02 | 一种目标检测图像的自动标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861959A true CN112861959A (zh) | 2021-05-28 |
CN112861959B CN112861959B (zh) | 2022-04-08 |
Family
ID=75986359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110145617.2A Active CN112861959B (zh) | 2021-02-02 | 2021-02-02 | 一种目标检测图像的自动标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861959B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095444A (zh) * | 2021-06-07 | 2021-07-09 | 北京智芯微电子科技有限公司 | 图像标注方法、装置及存储介质 |
CN113362330A (zh) * | 2021-08-11 | 2021-09-07 | 昆山高新轨道交通智能装备有限公司 | 受电弓羊角实时检测方法、装置、计算机设备及存储介质 |
CN113807424A (zh) * | 2021-09-10 | 2021-12-17 | 华侨大学 | 一种基于离线数据增强的固废数据集生成方法 |
CN113869211A (zh) * | 2021-09-28 | 2021-12-31 | 杭州福柜科技有限公司 | 图像自动标注和标注质量自动评价方法及系统 |
CN113936133A (zh) * | 2021-09-24 | 2022-01-14 | 上海师范大学 | 一种面向目标检测的自适应数据增强方法 |
CN117372813A (zh) * | 2023-10-30 | 2024-01-09 | 上海鼎格信息科技有限公司 | 一种基于预标注的目标检测方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324937A (zh) * | 2012-03-21 | 2013-09-25 | 日电(中国)有限公司 | 标注目标的方法和装置 |
CN110837870A (zh) * | 2019-11-12 | 2020-02-25 | 东南大学 | 基于主动学习的声呐图像目标识别方法 |
CN110866476A (zh) * | 2019-11-06 | 2020-03-06 | 南京信息职业技术学院 | 一种基于自动标注和迁移学习的密集堆垛目标检测方法 |
CN110889463A (zh) * | 2019-12-10 | 2020-03-17 | 北京奇艺世纪科技有限公司 | 一种样本标注方法、装置、服务器及机器可读存储介质 |
CN111191732A (zh) * | 2020-01-03 | 2020-05-22 | 天津大学 | 一种基于全自动学习的目标检测方法 |
US10902290B1 (en) * | 2020-08-04 | 2021-01-26 | Superb Ai Co., Ltd. | Methods for training auto labeling device and performing auto labeling related to object detection while performing automatic verification by using uncertainty scores and devices using the same |
-
2021
- 2021-02-02 CN CN202110145617.2A patent/CN112861959B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324937A (zh) * | 2012-03-21 | 2013-09-25 | 日电(中国)有限公司 | 标注目标的方法和装置 |
CN110866476A (zh) * | 2019-11-06 | 2020-03-06 | 南京信息职业技术学院 | 一种基于自动标注和迁移学习的密集堆垛目标检测方法 |
CN110837870A (zh) * | 2019-11-12 | 2020-02-25 | 东南大学 | 基于主动学习的声呐图像目标识别方法 |
CN110889463A (zh) * | 2019-12-10 | 2020-03-17 | 北京奇艺世纪科技有限公司 | 一种样本标注方法、装置、服务器及机器可读存储介质 |
CN111191732A (zh) * | 2020-01-03 | 2020-05-22 | 天津大学 | 一种基于全自动学习的目标检测方法 |
US10902290B1 (en) * | 2020-08-04 | 2021-01-26 | Superb Ai Co., Ltd. | Methods for training auto labeling device and performing auto labeling related to object detection while performing automatic verification by using uncertainty scores and devices using the same |
Non-Patent Citations (3)
Title |
---|
ALEXEY BOCHKOVSKIY等: "YOLOv4:Optimal Speed and Accuracy of Object Detection", 《HTTPS://ARXIV.ORG/PDF/2004.10934》 * |
BBLINGBBLING: "yolov3和yolov4损失函数", 《CSDN:HTTPS://BLOG.CSDN.NET/BBLINGBBLING/ARTICLE/DETAILS/106910026》 * |
希葛格的韩少君: "目标检测中的AP,mAP", 《知乎:HTTPS://ZHUANLAN.ZHIHU.COM/P/88896868》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095444A (zh) * | 2021-06-07 | 2021-07-09 | 北京智芯微电子科技有限公司 | 图像标注方法、装置及存储介质 |
CN113095444B (zh) * | 2021-06-07 | 2021-09-17 | 北京智芯微电子科技有限公司 | 图像标注方法、装置及存储介质 |
CN113362330A (zh) * | 2021-08-11 | 2021-09-07 | 昆山高新轨道交通智能装备有限公司 | 受电弓羊角实时检测方法、装置、计算机设备及存储介质 |
CN113807424A (zh) * | 2021-09-10 | 2021-12-17 | 华侨大学 | 一种基于离线数据增强的固废数据集生成方法 |
CN113807424B (zh) * | 2021-09-10 | 2024-04-16 | 华侨大学 | 一种基于离线数据增强的固废数据集生成方法 |
CN113936133A (zh) * | 2021-09-24 | 2022-01-14 | 上海师范大学 | 一种面向目标检测的自适应数据增强方法 |
CN113869211A (zh) * | 2021-09-28 | 2021-12-31 | 杭州福柜科技有限公司 | 图像自动标注和标注质量自动评价方法及系统 |
CN117372813A (zh) * | 2023-10-30 | 2024-01-09 | 上海鼎格信息科技有限公司 | 一种基于预标注的目标检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112861959B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112861959B (zh) | 一种目标检测图像的自动标注方法 | |
CN103518224B (zh) | 用于分析微生物生长的方法 | |
CN111401419A (zh) | 基于改进RetinaNet的员工着装规范检测方法 | |
CN111339902B (zh) | 一种数显仪表的液晶屏示数识别方法及装置 | |
CN111401418A (zh) | 一种基于改进Faster r-cnn的员工着装规范检测方法 | |
CN108830332A (zh) | 一种视觉车辆检测方法及系统 | |
CN110853005A (zh) | 一种免疫组化膜染色切片诊断方法及装置 | |
CN108764134A (zh) | 一种适用于巡检机器人的多类型仪表自动定位与识别方法 | |
CN110175519B (zh) | 一种变电站的分合标识仪表识别方法、装置与存储介质 | |
CN110599453A (zh) | 一种基于图像融合的面板缺陷检测方法、装置及设备终端 | |
CN113298780A (zh) | 一种基于深度学习的儿童骨龄评估方法及系统 | |
CN113836850A (zh) | 模型获得方法及系统及装置及介质及产品缺陷检测方法 | |
CN114581432A (zh) | 一种基于深度学习的舌象仪舌象分割方法 | |
CN113255590A (zh) | 一种缺陷检测模型训练方法、缺陷检测方法、装置及系统 | |
CN113222913A (zh) | 一种电路板缺陷检测定位方法、装置和存储介质 | |
CN111626358A (zh) | 一种基于bim图片识别的隧道围岩分级方法 | |
CN112489026A (zh) | 基于多分支并行卷积神经网络的沥青路面病害检测方法 | |
CN118366162A (zh) | 基于深度学习的图像分割方法及系统 | |
CN110751170A (zh) | 面板质量检测方法、系统、终端设备及计算机可读介质 | |
CN110188662A (zh) | 一种水表数字的ai智能识别方法 | |
CN116523912B (zh) | 一种基于图像识别的清洁度检测系统及方法 | |
CN113065556A (zh) | 一种数字式仪表定位和数字识别方法、装置和计算机设备 | |
CN109376619B (zh) | 一种细胞检测方法 | |
CN117197085A (zh) | 基于改进YOLOv8网络的公路快检图像路面病害检测方法 | |
CN116664519A (zh) | 基于弱监督学习的焊接缺陷检测方法、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: An automatic annotation method for object detection images Granted publication date: 20220408 Pledgee: Bank of Hangzhou Limited by Share Ltd. Nanjing branch Pledgor: NANJING TETRA ELECTRONIC TECHNOLOGY CO.,LTD. Registration number: Y2024980027381 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right |