CN115331052A - 一种基于深度学习的垃圾数据标注系统及方法 - Google Patents
一种基于深度学习的垃圾数据标注系统及方法 Download PDFInfo
- Publication number
- CN115331052A CN115331052A CN202210955350.8A CN202210955350A CN115331052A CN 115331052 A CN115331052 A CN 115331052A CN 202210955350 A CN202210955350 A CN 202210955350A CN 115331052 A CN115331052 A CN 115331052A
- Authority
- CN
- China
- Prior art keywords
- image
- model
- data
- data set
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度学习的垃圾数据标注系统及方法,通过原始数据集的获取模块、原始数据处理模块、半自动模型训练模块和半自动模型推理模块,从零标签开始,收集不带标签的数据集,经过去背景和融合方法生成含标签的数据集,再训练出半自动标注模型进行预测和迭代,最终获得目标物的二维检测框。本发明可生成更符合真实场景的数据集,减少数据采集成本。并可以自动获取标签,减少数据标注成本。最终实现数据自驱动的数据标注功能。
Description
技术领域
本发明涉及数据处理技术领域,具体是一种基于深度学习的垃圾数据标注系统及方法。
背景技术
人工智能的深度学习可以抽象表征目标数据的内在规律和语意特征,可以完成目标检测、图像分割和实例分割等感知功能。鉴于深度学习卷积层在图像识别方面的独特优势,其在垃圾图像识别领域也被广泛应用,从而减轻人工劳动、提升清洁速率和实现清洁环保的生活环境。
目前基于深度学习中的视觉模型多为监督模型,其需要大量标签的数据集。而垃圾类别由于种类繁杂、背景复杂等特点,导致数据标注十分困难。目前垃圾数据的标注获取一般有三种途径,分别是人工标注、半自动标注或仿真器生成,其都有一定的局限性。其中人工标注方法需要耗费大量的人工劳动进行标注,数据获取成本较高。而且时间上有一定的不可控性和延后性,难以满足AI模型敏捷迭代的需求。而半自动模型在某种程度上可以提升标注速率,但是其不具备生成数据的功能,而且半自动模型的训练初期也是需要一定量的标签数据,然后再经过循环迭代才能达到较好效果,对新类别的检测就会失效。此外仿真器合成可以无中生有产出大量的仿真图,但是受限于自身模型库和渲染技术,其所产生的仿真图与实际场景图也有明显差别,导致模型迁移在实际场景中的效果受到不同程度的折损。
总之,上述三种标注方法的都有其一定的局限性。
发明内容
本发明为了解决现有技术的问题,提供了一种基于深度学习的垃圾数据标注系统及方法,本发明可生成更符合真实场景的数据集,减少数据采集成本。并可以自动获取标签,减少数据标注成本。最终实现数据自驱动的数据标注功能。
本发明提供了一种基于深度学习的垃圾数据标注系统,包括依次连接的原始数据集的获取模块、原始数据处理模块、半自动模型训练模块和半自动模型推理模块;
原始数据集的获取模块,通过网络爬取、开源数据集或场景采集的手段,收集不带标签的数据集,作为后续的处理对象;
原始数据处理模块,对原始数据进行显著性检测和抠图操作,扣取出前景图,并用最小外接矩形获得目标检测框;
半自动模型训练模块,把带标签的融合数据集输入半自动标注模型中,计算损失,并用反向传播的方法计算并更新模型参数,直至模型损失不在下降,停止训练,最终获得训练完成的半自动标注模型。
半自动模型推理模块,用上一步的半自动标注模型来推理新的原始数据集,获得目标物的二维检测框。
所述原始数据处理模块中,如果不需要与其它图片融合,则归入带标签的数据集;如果需要图片融合,则需把前景图与背景图进行图片融合,在此过程中用前景图的最小外接矩形获得标签的目标检测框,最终获得带标签的融合数据集。为使融合图片更加和谐,需要进行融合图进行和谐处理。
本发明还提供了一种基于深度学习的垃圾数据标注方法,从零标签开始,收集不带标签的数据集,经过去背景和融合方法生成少量含标签的数据集,再训练出半自动标注模型来推理新的不带标签的数据集,最终获得大批量的带标签的垃圾数据集。
本发明具体过程如下:
a)首先判断是否有成熟的半自动模型,如果没有,则对原始数据集进行数据处理,如果有半自动模型,则用半自动模型对原始数据进行推理。
b)对数据处理后获得含有标签的数据集,并用数据集训练和更新半自动模型。
c)训练完成的半自动模型用来预测新一批的原始数据集,如果预测准确则把该数据归类到含有标签的数据集中,如果预测有差错,则把数据返回步骤b)中重新进行处理。
所述经过去背景和融合方法生成含标签的数据集的步骤具体如下:
1)首先对原始数据进行显著性检测操作,得到二进制图取值0或1掩码图,再基于掩码图和原始彩图作为输入,训练深度学习的抠图模型完成抠图操作;
1.1)用显著性检测模型对原始数据进行预测,获得掩码图;
1.2)对掩码图进行边缘膨胀腐蚀等预处理,获得包含前景、背景和待确定三部分的三元图;具体操作为,对掩码图进行膨胀腐蚀,获取边缘过渡区域,其值在0-1之间;再对掩码图进行分类划分,当像素值大于某个可调节的阈值时,被归为前景图,当掩码图的值小于第二个阈值时,被归为背景图,两者之间的过渡区域归为待确定部分。
1.3)把获得的三元图和原图输入到基于深度学习的抠图模型中,预测出边缘精细的alpha通道图,此图是描述一张图片的透明程度,取值为0-1之间,0代表透明、1代表不透明;
1.4)依据上述的alpha通道图,依据下面原理得出精细化的抠图,即完成抠图操作:
I=alpha*F+1-alpha)*B
其中F为前景区域,B为背景区域,alpha是权重系数,范围为0到1,I是合成图;当alpha等于1时,得到前景图,当alpha等于0时,得到背景图。
2)人工检测抠图效果,如果抠图效果完整,把图归入前景图库;如果抠图效果不完整则重新调整模型参数,再次进行显著性检测和抠图。
3)获得前景图后,判断是否需要与其他图进行融合,如果需要融合,则与背景图依据设定的规则组合成;如果不需要融合,则根据前景图的最小外接矩形获得目标检测框,归入含有标签的数据集。
4)上一步融合后的图,由于前景图和背景图两者特征各不相同,因此需要用风格迁移的方法把背景图的风格迁移到前景图中,使两者风格和谐;风格迁移模型的损失函数,由预测值和真实值的均方差损失求得,具体如下所示,
5)通过上述风格迁移模型,使前景和背景风格和谐统一,再根据前景图的最小外接矩形获得目标检测框,归入含有标签的数据集。
本发明有益效果在于:
1、可生成更符合真实场景的数据集,减少数据采集成本。并可以自动获取标签,减少数据标注成本。最终实现数据自驱动的数据标注功能。
2、该方法具备从零标注数据开始、减少人为的介入、快速标注新类别的特点,进而满足AI模型的敏捷开发迭代,具有重要的工程实际价值。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是整个算法的软件模块架构图;
图2是整个算法的软件流程图;
图3是原始数据处理模块的软件流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种从零标签开始,经过去背景和融合等方法生成含标签的数据集,再训练出半自动标注模型进行预测和迭代。如图1所示,该方法包含如下几个模块:
1.原始数据集的获取模块。如图1中S100模块所示,可以通过网络爬取、开源数据集或场景采集的手段,来收集不带标签的数据集,作为后续的处理对象。
2.原始数据处理模块。如图1中S200模块所示,对原始数据进行显著性检测和抠图操作,扣取出前景图,并用最小外接矩形获得目标检测框。如果不需要与其它图片融合,则归入带标签的数据集。如果需要图片融合,则需把前景图与背景图进行图片融合,在此过程中用前景图的最小外接矩形获得标签的目标检测框。为使融合图片更加和谐,需要进行融合图和谐处理。最终获得带标签的融合数据集。
3.半自动模型训练模块。如图1中S300模块所示,把带标签的融合数据集输入半自动标注模型(本方法使用yolo系列目标检测算法)中,计算损失,并用反向传播的方法计算并更新模型参数,直至模型损失不在下降,停止训练。最终获得训练完成的半自动标注模型。
4.半自动模型推理模块。如图1中S400模块所示,用上一步的半自动标注模型来推理新的原始数据集,获得目标物的二维检测框。
上述四个模块根据业务需求,依据以下流程图进行实际处理。
图2展示了整个算法的软件流程图。具体流程如下所示:
1.首先判断是否有成熟的半自动模型,如果没有,则对原始数据集进行数据处理,如果有半自动模型,则用半自动模型对原始数据进行推理。
2.对数据处理后获得含有标签的数据集,并用数据集训练和更新半自动模型。
3.训练完成的半自动模型用来预测新一批的原始数据集,如果预测准确则把该数据归类到含有标签的数据集中,如果预测有差错,则把数据放入到数据处理模块中进行处理。
图3展示了数据处理模块(S200)的软件流程图。具体流程如下所示:
1.首先对原始数据进行显著性检测操作,得到掩码图(其为二进制图取值0或1)。再基于掩码图和原始彩图作为输入,训练深度学习的抠图模型(matting)完成抠图操作,具体步骤如下:
a)用显著性检测模型对原始数据进行预测,获得掩码图。
b)再对掩码图进行边缘膨胀腐蚀等预处理,获得三元图(trimap图,其包含三部分:前景、背景和待确定部分)。具体操作为,对掩码图进行膨胀腐蚀,获取边缘过渡区域,其值在0-1之间。再对掩码图进行分类划分,当像素值大于某个阈值(可调节)时,被归为前景图,当掩码图的值小于第二个阈值时,被归为背景图,两者之间的过渡区域归为待确定部分。
c)然后把获得的三元图和原图输入到基于深度学习的抠图模型中,预测出边缘精细的alpha通道图(此图是描述一张图片的透明程度,取值为0-1之间,0代表透明、1代表不透明)。
d)再依据上述的alpha通道图,依据下面原理得出精细化的抠图,即完成抠图操作。
I=alpha*F+(1-alpha)*B
其中F为前景区域,B为背景区域,alpha是权重系数,范围为0到1,I是合成图。当alpha等于1时,得到前景图,当alpha等于0时,得到背景图。
2.人工检测抠图效果,如果抠图效果完整,把图归入前景图库。如果抠图效果不完整则重新调整模型参数,再次进行显著性检测和抠图。
3.获得前景图后,判断是否需要与其他图进行融合。如果需要融合,则与背景图依据某些规则(近处大远处小等)进行融合。如果不需要融合,则根据前景图的最小外接矩形获得目标检测框,归入含有标签的数据集。
4.上一步融合后的图,由于前景图和背景图两者在色彩、光照、明暗等特征都各不相同,因此需要用风格迁移的方法把背景图的风格迁移到前景图中,使两者风格和谐。风格迁移模型的损失函数,由预测值和真实值的均方差损失求得,具体如下所示,
5.通过上述风格迁移模型,使前景和背景风格和谐统一,再根据前景图的最小外接矩形获得目标检测框,归入含有标签的数据集。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备实施例而言,以上所述仅是本发明的优选实施方式,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,对于本技术领域的普通技术人员来说,可轻易想到的变化或替换,在不脱离本发明原理的前提下,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (8)
1.一种基于深度学习的垃圾数据标注系统,其特征在于:包括依次连接的原始数据集的获取模块、原始数据处理模块、半自动模型训练模块和半自动模型推理模块;
原始数据集的获取模块,通过网络爬取、开源数据集或场景采集的手段,收集不带标签的数据集,作为后续的处理对象;
原始数据处理模块,对原始数据进行显著性检测和抠图操作,扣取出前景图,并用前景图的最小外接矩形作为目标检测框,获得带标签的数据集;
半自动模型训练模块,把带标签的数据集输入半自动标注模型中,计算损失,并用反向传播的方法计算并更新模型参数,直至模型损失不在下降,停止训练,最终获得训练完成的半自动标注模型。
半自动模型推理模块,用上一步的半自动标注模型来推理新的原始数据集,获得目标物的目标检测框,以扩充带标签的数据集。
2.根据权利要求1所述的基于深度学习的垃圾数据标注系统,其特征在于:所述原始数据处理模块中,如果不需要与其它图片融合,则归入带标签的数据集;如果需要图片融合,则需把前景图与背景图进行图片融合,在此过程中用前景图的最小外接矩形获得标签的目标检测框,最终获得带标签的融合数据集。
3.根据权利要求2所述的基于深度学习的垃圾数据标注系统,其特征在于:所述原始数据处理模块中,图片融合时进行和谐处理。
4.一种基于深度学习的垃圾数据标注方法,其特征在于:从零标签开始,收集不带标签的数据集,经过去背景和融合方法生成少量含标签的数据集,再训练出半自动标注模型来推理新的不带标签的数据集,最终获得大批量的带标签的垃圾数据集。
5.根据权利要求4所述的基于深度学习的垃圾数据标注方法,其特征在于:所述标注方法的具体过程如下:
a)首先判断是否有成熟的半自动模型,如果没有则对原始数据集进行数据处理,如果有半自动模型,则用半自动模型对原始数据进行推理;
b)对数据处理后获得含有标签的数据集,并用数据集训练和更新半自动模型;
c)训练完成的半自动模型来预测新一批的原始数据集,如果预测准确则把该数据归类到含有标签的数据集中,如果预测有差错,则把数据返回步骤b)重新处理。
6.根据权利要求4或5所述的基于深度学习的垃圾数据标注方法,其特征在于:所述经过去背景和融合方法生成含标签的数据集的步骤具体如下:
1)首先对原始数据进行显著性检测操作,得到二进制图取值0或1掩码图,再基于掩码图和原始彩图作为输入,训练深度学习的抠图模型完成抠图操作;
2)人工检测抠图效果,如果抠图效果完整,把图归入前景图库;如果抠图效果不完整则重新调整模型参数,再次进行显著性检测和抠图;
3)获得前景图后,判断是否需要与其他图进行融合,如果需要融合,则与背景图依据设定的规则进行融合;如果不需要融合,则根据前景图的最小外接矩形获得目标检测框,归入含有标签的数据集;
4)上一步融合后的图,由于前景图和背景图两者特征各不相同,因此需要用风格迁移的方法把背景图的风格迁移到前景图中,使两者风格和谐;风格迁移模型的损失函数由预测值和真实值的均方差损失求得,具体如下所示,
5)通过上述风格迁移模型,使前景和背景风格和谐统一,再根据前景图的最小外接矩形获得目标检测框,归入含有标签的数据集。
7.根据权利要求6所述的基于深度学习的垃圾数据标注方法,其特征在于:所述步骤1)具体步骤如下:
1.1)用显著性检测模型对原始数据进行预测,获得掩码图;
1.2)对掩码图进行边缘膨胀腐蚀等预处理,获得包含前景、背景和待确定三部分的三元图;
1.3)把获得的三元图和原图输入到基于深度学习的抠图模型中,预测出边缘精细的alpha通道图,此图是描述一张图片的透明程度,取值为0-1之间,0代表透明、1代表不透明;
1.4)依据上述的alpha通道图,依据下面原理得出精细化的抠图,即完成抠图操作:
I=alpha*F+(1-alpha)*B
其中F为前景区域,B为背景区域,alpha是权重系数,范围为0到1,I是合成图;当alpha等于1时,得到前景图,当alpha等于0时,得到背景图。
8.根据权利要求7所述的基于深度学习的垃圾数据标注方法,其特征在于:所述步骤1.2)具体操作过程如下:对掩码图进行膨胀腐蚀,获取边缘过渡区域,其值在0-1之间;再对掩码图进行分类划分,当像素值大于某个可调节的阈值时,被归为前景图,当掩码图的值小于第二个阈值时,被归为背景图,两者之间的过渡区域归为待确定部分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210955350.8A CN115331052A (zh) | 2022-08-10 | 2022-08-10 | 一种基于深度学习的垃圾数据标注系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210955350.8A CN115331052A (zh) | 2022-08-10 | 2022-08-10 | 一种基于深度学习的垃圾数据标注系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115331052A true CN115331052A (zh) | 2022-11-11 |
Family
ID=83922029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210955350.8A Pending CN115331052A (zh) | 2022-08-10 | 2022-08-10 | 一种基于深度学习的垃圾数据标注系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115331052A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116664988A (zh) * | 2023-07-24 | 2023-08-29 | 广立微(上海)技术有限公司 | 图片自动标注方法、装置、计算机设备和存储介质 |
-
2022
- 2022-08-10 CN CN202210955350.8A patent/CN115331052A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116664988A (zh) * | 2023-07-24 | 2023-08-29 | 广立微(上海)技术有限公司 | 图片自动标注方法、装置、计算机设备和存储介质 |
CN116664988B (zh) * | 2023-07-24 | 2023-11-21 | 广立微(上海)技术有限公司 | 图片自动标注方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111340B (zh) | 基于多路割的弱监督实例分割方法 | |
WO2022111219A1 (zh) | 一种域自适应设备运检系统和方法 | |
CN109325952B (zh) | 基于深度学习的时尚服装图像分割方法 | |
CN113673338B (zh) | 自然场景文本图像字符像素弱监督自动标注方法、系统及介质 | |
CN110276765A (zh) | 基于多任务学习深度神经网络的图像全景分割方法 | |
WO2022012110A1 (zh) | 胚胎光镜图像中细胞的识别方法及系统、设备及存储介质 | |
Zhou et al. | FSAD-Net: feedback spatial attention dehazing network | |
CN112541508A (zh) | 果实分割识别方法及系统、果实采摘机器人 | |
CN110853070A (zh) | 基于显著性与Grabcut的水下海参图像分割方法 | |
CN112990331A (zh) | 图像处理方法、电子设备和存储介质 | |
CN113705579A (zh) | 一种视觉显著性驱动的图像自动标注方法 | |
CN116049397A (zh) | 基于多模态融合的敏感信息发现并自动分类分级方法 | |
CN111461121A (zh) | 一种基于yolov3网络的电表示数识别方法 | |
CN116385466B (zh) | 一种基于边界框弱标注的图像中目标分割方法及系统 | |
CN114220086A (zh) | 一种成本高效的场景文字检测方法及系统 | |
Liu et al. | Uncertain label correction via auxiliary action unit graphs for facial expression recognition | |
CN115331052A (zh) | 一种基于深度学习的垃圾数据标注系统及方法 | |
Lin et al. | Integrated circuit board object detection and image augmentation fusion model based on YOLO | |
CN113361530A (zh) | 使用交互手段的图像语义精准分割及优化方法 | |
CN111126155A (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
Kajabad et al. | YOLOv4 for urban object detection: Case of electronic inventory in St. Petersburg | |
CN113077438A (zh) | 针对多细胞核彩色图像的细胞核区域提取方法及成像方法 | |
CN111260659A (zh) | 一种基于初始标注点指导的图像交互分割方法 | |
CN115424164A (zh) | 一种场景自适应视频数据集的构建方法及系统 | |
CN113903025A (zh) | 场景文本检测方法、装置和模型及其训练方法和训练装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |