CN109961095B - 基于非监督深度学习的图像标注系统及标注方法 - Google Patents

基于非监督深度学习的图像标注系统及标注方法 Download PDF

Info

Publication number
CN109961095B
CN109961095B CN201910198202.4A CN201910198202A CN109961095B CN 109961095 B CN109961095 B CN 109961095B CN 201910198202 A CN201910198202 A CN 201910198202A CN 109961095 B CN109961095 B CN 109961095B
Authority
CN
China
Prior art keywords
feature
labeling
dense connection
connection module
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910198202.4A
Other languages
English (en)
Other versions
CN109961095A (zh
Inventor
叶文彬
彭湃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201910198202.4A priority Critical patent/CN109961095B/zh
Publication of CN109961095A publication Critical patent/CN109961095A/zh
Application granted granted Critical
Publication of CN109961095B publication Critical patent/CN109961095B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于非监督深度学习的图像标注系统及标注方法,包括:将视频或图像通过全卷积网络的第一个密集连接模块得到96个特征图,将96个特征图通过第一个特征融合层得到48个特征图,将融合后的48个特征图输入第二个密集连接模块得到192个特征图,将192个特征图通过第一个特征融合层得到96个特征图,融合后的96个特征图输入第三个密集连接模块,得到384个特征图,通过密集连接模块与融合模块将图像的高层特征与底层特征压缩维一个256维向量,得到压缩后的向量后通过聚类方法为未知标签图像打上标注,进一步地再通过优化器使得网络学习更优特征反复迭代,同时可以融合人工标注学习,达到节省人力更有效利用海量数据的目的。

Description

基于非监督深度学习的图像标注系统及标注方法
[技术领域]
本发明属于图像处理技术领域,尤其涉及一种基于非监督深度学习的图像标注系统及标注方法。
[背景技术]
深度神经网络的训练大多是有监督的,需要大量的带有标签的训练样本进行训练。目前有监督训练神经网络的训练数据主要来自于手工标注,不过,手工标注需要耗费巨大的人力物力,而Web2.0和移动网络技术的迅速发展和普及,为互联网带来了海量的图像和视频数据。这些数据蕴含着大量的语义信息,诸如物体、场景、人类活动行为等。海量多媒体数据的冲击和其蕴含信息的多样性充分发挥了深度神经网络的潜力,让现代的深度网络可以在不同类数据支撑下完成各种智能任务。
半监督学习(Semi-Supervised Learning,SSL)按照统计学习理论的角度包括直推(Transductive)SSL和归纳(Inductive)SSL两类模式。直推SSL只处理样本空间内给定的训练数据,利用训练数据中有类标签的样本和无类标签的样例进行训练,预测训练数据中无类标签的样例的类标签;归纳SSL处理整个样本空间中所有给定和未知的样例,同时利用训练数据中有类标签的样本和无类标签的样例,以及未知的测试样例一起进行训练,不仅预测训练数据中无类标签的样例的类标签,更主要的是预测未知的测试样例的类标签。
通过在同一个深度学习神经网络中融合监督学习算法与半监督学习算法,使用非监督学习作为预训练,主要是为了学习抽象出共同的数据特点,通过反向传播算法训练监督学习和非监督学习的损失函数,并且不需要逐层做预训练完全可以在经典公开数据集上取得较好的效果。
[发明内容]
本发明提供了一种基于非监督深度学习的图像标注系统及标注方法,旨在针对在海量数据条件下的大规模图像和视频标注;
本发明一方面提供了一种基于非监督深度学习图像标注系统,所述图像包括图片与视频,其特征在于,该系统是基于全卷积神经网络的图像标注系统,所述全卷积网络包括:4个密集连接模块与3个特征融合模块。
进一步地,该标注系统所述4个密集连接模块分别为第1个密集连接模块、第2个密集连接模块、第3个密集连接模块、第4个密集连接模块;所述的第1个密集连接模块由6对1x1与3x3卷积核所构成卷积层组成,所述的第2个密集连接模块由12对1x1与3x3卷积核所构成卷积层组成,所述的第3个密集连接模块由32对1x1与3x3卷积核所构成卷积层组成,所述的第4个密集连接模块由32对1x1与3x3卷积核所构成卷积层组成,所述的特征融合模块由一个1x1的卷积核与平均池化层作为下采样组组成。
另一方面本发明还提供一种上述基于非监督深度学习的图像标注方法,具体标注方法包括:
步骤1,预先训练卷积神经网络(CNN)模型;
步骤2,深度特征提取;
步骤3,聚类打标签;
步骤4,基于海林格矩阵加权得到距离;
步骤5,迭代下一轮;
该方法通过全卷积网络输出的向量进行聚类打标签,并计算海林格距离加权挑选可靠样本再反复迭代优化。
该图像标注方法还融合人工标注,所述融合人工标注包括:通过主动引入额外的人工标注的困难样本,增加模型的鲁棒性,基于主动学习选择可靠样本解决了自步学习中经常出现的漂移问题。
进一步地,在向量进行步骤3之前还将图像进行压缩,具体包括:将图像输入所述的全卷积网络,得到压缩后的特征向量;所述获取压缩后的特征向量的步骤包括:将图像输入4个密集连接模块与3个特征融合模块,再通过全局平均池化与全连接层进行特征向量提取。
进一步地,所述聚类打标签包括:通过全卷积网络输出特征向量后通过计算向量与以标注数据的距离选择最近的数据的标签作为自身类别。
进一步地,所述计算海林格距离加权包括:基于具体标签标注假设关联的局部近邻离散海灵格距离。
进一步地,所述主动引入额外的人工标注包括:通过全卷积网络学习过程发现网络难以学习的样本,并进行手动标注,再进行监督学习增加模型的鲁棒性。
相较于先前的半监督深度学习训练方法,训练方式不依赖于任何先验知识,但更重要的是,这种训练方式跟之前加上语义先验的半监督训练方法并不矛盾,训练方法既可以融合基于先验信息的半监督训练技巧,进一步提升模型性能;也可以结合现有的强标签半监督深度学习方法,深化到各种高级语义任务中。模型训练过程是一个动态的子集选取过程,并不排斥新加入的数据。而更新数据能够保证我们系统训练出来的模型具有很好的适应性和时效性。
[附图说明]
图1是本发明实施例提供的一种基于非监督深度学习的图像标注算法的流程示意图;
图2是本发明实施例提供的一种基于非监督深度学习的图像标注算法的实现过程示意图;
图3是本发明实施例提供的一种基于非监督深度学习的图像标注算法的模块示意图;
[具体实施方式]
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施仅仅用以解释本发明,并不用于限定本发明。
由于现有技术中存在对大量数据标注的高人力成本、效率低下与不能有效利用海量数据问题。
为了解决上述技术问题,本发明提出一种基于非监督深度学习的图像标注系统及标注方法,利用本发明提供的全卷积神经网络提取关键特征并自动标注海量数据条件下的大规模图像和视频,从而减少人力成本提高标注效率。
如图2所示的标注方法过程示意图以及模块示意图,所述标注方法包括:将海量视频与图像压缩为一维的向量,通过所述全卷积神经网络进行提取,得到256维压缩后向量;该步骤实现特征提取。所述视频在输入网络前提取关键帧后输入网络,图像统一转换成网络需要的输入大小;然后通过得到的256维向量进行聚类做标签传递;所述标签传递用于为未知图像打上标注;将所述打上标签后的256维向量分别计算海林格距离;所述海林格距离是基于256维向量附近关于标签的近邻情况;进一步地,利用海林格距离矩阵加权;将所述图像和标签中挑选可靠的样本;最后,以增量的方式更新模型参数,进行下一次迭代更新。
下面具体实施例进行说明:
如图1所示,为本发明实施例提供了一种基于非监督深度学习的图像标注算法,所述全卷积神经网络包括9个模块、169层,其中第1个密集连接模块由6对1x1与3x3的卷积核所构成卷积层组成,第个2密集连接模块由12对1x1与3x3的卷积核所构成卷积层组成,第3个密集连接模块由32对1x1与3x3的卷积核所构成卷积层组成,第4个密集连接模块由32对1x1与3x3的卷积核所构成卷积层组成,第1个特征融合层由一个1x1卷积层与一个平均池化层作为下采样组成组成,全连接层由256个神经元组成。
步骤S101,将图像输入全卷积神经网络的第1个密集连接模块得到96个特征图;
具体地,在第1个密集连接模块中,每一层都使用BatchNormalization与Relu作为激活函数,6对1x1卷积核构成的卷积层起到融合特征层的作用,6对3x3卷积核构成的卷积层的输入是前面所有层输出拼接后的特征图,特征图增长率为32。
步骤S102,将得到的96个特征图输入到第一个特征融合模块得到48个特征图;
具体地,在第1个特征融合模块中,使用1x1卷积核构成的卷积层融合输入的特征图,衰减率为0.5,使用步长为2的平均池化层作为下采样,缩小特征图。
步骤S103,将48个特征图输入全卷积神经网络的第2个密集连接模块得到196个特征图;
具体地,在第2个密集连接模块中,每一层都使用BatchNormalization与Relu作为激活函数,12对1x1卷积核构成的卷积层起到融合特征层的作用,12对3x3卷积核构成的卷积层的输入是前面所有层输出拼接后的特征图,特征图增长率为32。
步骤S104,将得到的196个特征图输入到第2个特征融合模块得到96个特征图;
具体地,在第2个特征融合模块中,使用1x1卷积层融合输入的特征图,衰减率为0.5,使用步长为2的平均池化层作为下采样,缩小特征图。
步骤S105,将96个特征图输入全卷积神经网络的第3个密集连接模块得到384个特征图;
具体地,在第3个密集连接模块中,每一层都使用BatchNormalization与Relu作为激活函数,32对1x1卷积核构成的卷积层起到融合特征层的作用,32对3x3卷积核构成的卷积层的输入是前面所有层输出拼接后的特征图,特征图增长率为32。
步骤S106,将得到的384个特征图输入到第3个特征融合模块得到192个特征图;
具体地,在第3个特征融合模块中,使用1x1卷积层融合输入的特征图,衰减率为0.5,使用步长为2的平均池化层作为下采样,缩小特征图。
步骤S107,将192个特征图输入全卷积神经网络的第4个密集连接模块得到384个特征图;
具体地,在第4个密集连接模块中,每一层都使用BatchNormalization与Relu作为激活函数,32对1x1卷积核构成的卷积层起到融合特征层的作用,32对3x3卷积核构成的卷积层的输入是前面所有层输出拼接后的特征图,特征图增长率为32。
步骤S108,将384个特征图输入全局平均池化层,得到一个384维的向量。
步骤S109,将384维的向量输入一个256维的全连接层,得到一个256维的向量。
步骤S110,通过256维向量与其他已压缩维256维向量的数据做聚类并打上标签;
具体地,所述聚类方法使用KMeans算法,取与全卷积神经网络输出的向量距离最近的标签作为网络输入图像的标签,具体结合图2所示做标签传递。通过视频在输入网络前提取关键帧后输入网络,图像统一转换成网络需要的输入大小;进而通过得到的256维向量进行聚类做标签传递;所述标签传递用于为未知图像打上标注。
步骤S111,计算海林格距离矩阵并加权;
具体地,所述海林格距离矩阵更关注基于某点附近标签的近邻情况,同时虑该数据点对该近邻情况的影响。
步骤S112,挑选可靠度高的图片作为新的已标注数据。
步骤S113,通过优化器优化全卷积神经网络,并反复迭代;
具体地,将标注数据与一些手工标注的难样本一起放入网络训练,使用随机梯度下降法优化全卷积神经网络,具体结合图2所示形成一个闭环的自学习系统。
如图3所示基于非监督深度学习的图像标注算法的模块示意图;可以分为4个模块:特征提取模块,聚类模块,标注模块以及反向传播模块。
本发明实施例提供的基于非监督深度学习图像标注系统,利用了全卷积神经网络可以有效的提取图像关键性特征的能力,结合无监督聚类方法与海林格距离为未标注数据打上可靠的标签,并通过优化器优化模型,形成一个良性闭环系统,训练方式可以不依赖于任何先验知识,并融合基于先验信息的半监督技巧,进一步提升模型性能,具有良好的模型扩展性,适用于海量数据条件下的数据标注,降低人力成本提高数据的利用率。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (5)

1.一种基于非监督深度学习的图像标注方法,所述图像包括图片与视频,该方法是基于全卷积神经网络的图像标注系统,所述全卷积神经网络包括:4个密集连接模块与3个特征融合模块,所述4个密集连接模块分别为第1个密集连接模块、第2个密集连接模块、第3个密集连接模块、第4个密集连接模块;所述的第1个密集连接模块由6对1x1与3x3卷积核所构成卷积层组成,所述的第2个密集连接模块由12对1x1与3x3卷积核所构成的卷积层组成,所述的第3个密集连接模块由32对1x1与3x3卷积核所构成的卷积层组成,所述的第4个密集连接模块由32对1x1与3x3卷积核所构成的卷积层组成,所述的特征融合模块由一个1x1的卷积核与平均池化层作为下采样组组成;
其特征在于,具体标注方法包括:
步骤1,预先训练卷积神经网络(CNN)模型;
步骤2,深度特征提取;将图像输入全卷积神经网络的第1个密集连接模块得到96个特征图;将得到的96个特征图输入到第一个特征融合模块得到48个特征图;将48个特征图输入全卷积神经网络的第2个密集连接模块得到196个特征图;将得到的196个特征图输入到第2个特征融合模块得到96个特征图;将96个特征图输入全卷积神经网络的第3个密集连接模块得到384个特征图;将得到的384个特征图输入到第3个特征融合模块得到192个特征图;将192个特征图输入全卷积神经网络的第4个密集连接模块得到384个特征图;将384个特征图输入全局平均池化层,得到一个384维的向量;将384维的向量输入一个256维的全连接层,得到一个256维的向量;
步骤3,聚类打标签;通过256维向量与其他已压缩维256维向量的数据做聚类并打上标签;
步骤4,基于海林格矩阵加权得到距离;计算海林格距离矩阵并加权;挑选可靠度高的图片作为新的已标注数据;
步骤5,迭代下一轮;通过优化器优化全卷积神经网络,并反复迭代;
该图像标注方法还融合人工标注,所述融合人工标注包括:通过主动引入额外的人工标注的困难样本,增加模型的鲁棒性,基于主动学习选择可靠样本解决了自步学习中经常出现的漂移问题;
该方法通过全卷积神经网络输出的向量进行聚类打标签,并计算海林格距离加权挑选可靠样本再反复迭代优化。
2.如权利要求1所述的基于非监督深度学习的图像标注方法,其特征在于,在向量进行步骤3之前还将图像进行压缩,具体包括:
将图像输入全卷积神经网络,得到压缩后的特征向量;
获取压缩后的特征向量的步骤包括:
将图像输入4个密集连接模块与3个特征融合模块,再通过全局平均池化与全连接层进行特征向量提取。
3.如权利要求1所述的基于非监督深度学习的图像标注方法,其特征在于,所述聚类打标签包括:通过全卷积神经网络输出特征向量后通过计算向量与以标注数据的距离选择最近的数据的标签作为自身类别。
4.如权利要求1所述的基于非监督深度学习的图像标注方法,其特征在于,所述计算海林格距离加权包括:基于具体标签标注假设关联的局部近邻离散海林格距离。
5.如权利要求1所述的基于非监督深度学习的图像标注方法,其特征在于,所述主动引入额外的人工标注包括:通过全卷积神经网络学习过程发现网络难以学习的样本,并进行手动标注,再进行监督学习增加模型的鲁棒性。
CN201910198202.4A 2019-03-15 2019-03-15 基于非监督深度学习的图像标注系统及标注方法 Active CN109961095B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910198202.4A CN109961095B (zh) 2019-03-15 2019-03-15 基于非监督深度学习的图像标注系统及标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910198202.4A CN109961095B (zh) 2019-03-15 2019-03-15 基于非监督深度学习的图像标注系统及标注方法

Publications (2)

Publication Number Publication Date
CN109961095A CN109961095A (zh) 2019-07-02
CN109961095B true CN109961095B (zh) 2023-04-28

Family

ID=67024328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910198202.4A Active CN109961095B (zh) 2019-03-15 2019-03-15 基于非监督深度学习的图像标注系统及标注方法

Country Status (1)

Country Link
CN (1) CN109961095B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569928B (zh) * 2019-09-23 2023-04-07 深圳大学 一种卷积神经网的微多普勒雷达人体动作分类方法
CN112699908B (zh) * 2019-10-23 2022-08-05 武汉斗鱼鱼乐网络科技有限公司 标注图片的方法、电子终端、计算机可读存储介质及设备
CN112200245A (zh) * 2020-10-10 2021-01-08 深圳市华付信息技术有限公司 一种基于半监督的图像分类方法
CN112381114A (zh) * 2020-10-20 2021-02-19 广东电网有限责任公司中山供电局 一种深度学习图像标注系统及方法
CN112465020B (zh) * 2020-11-25 2023-04-07 创新奇智(合肥)科技有限公司 训练数据集的生成方法及装置、电子设备、存储介质
CN113221621B (zh) * 2021-02-04 2023-10-31 宁波卫生职业技术学院 一种基于深度学习的重心监测与识别方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850864A (zh) * 2015-06-01 2015-08-19 深圳英智源智能系统有限公司 一种基于卷积神经网络的非监督图像识别方法
US10303979B2 (en) * 2016-11-16 2019-05-28 Phenomic Ai Inc. System and method for classifying and segmenting microscopy images with deep multiple instance learning
CN106709933B (zh) * 2016-11-17 2020-04-07 南京邮电大学 一种基于非监督学习的运动估计方法
CN106778834A (zh) * 2016-11-29 2017-05-31 北京信息科技大学 一种基于距离测度学习的ap聚类图像标注方法
CN107808389B (zh) * 2017-10-24 2020-04-17 上海交通大学 基于深度学习的无监督视频分割方法
CN108399406B (zh) * 2018-01-15 2022-02-01 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
CN108764281A (zh) * 2018-04-18 2018-11-06 华南理工大学 一种基于半监督自步学习跨任务深度网络的图像分类方法
CN108717569B (zh) * 2018-05-16 2022-03-22 中国人民解放军陆军工程大学 一种膨胀全卷积神经网络装置及其构建方法
CN109241972B (zh) * 2018-08-20 2021-10-01 电子科技大学 基于深度学习的图像语义分割方法

Also Published As

Publication number Publication date
CN109961095A (zh) 2019-07-02

Similar Documents

Publication Publication Date Title
CN109961095B (zh) 基于非监督深度学习的图像标注系统及标注方法
CN114241282B (zh) 一种基于知识蒸馏的边缘设备场景识别方法及装置
Chen et al. An edge traffic flow detection scheme based on deep learning in an intelligent transportation system
CN112232425B (zh) 图像处理方法、装置、存储介质及电子设备
CN105930402A (zh) 基于卷积神经网络的视频检索方法及系统
CN108280062A (zh) 基于深度学习的实体和实体关系识别方法及装置
CN112819065A (zh) 基于多重聚类信息的无监督行人难样本挖掘方法和系统
CN112199600A (zh) 目标对象识别方法和装置
CN106875278A (zh) 基于随机森林的社交网络用户画像方法
CN116049397A (zh) 基于多模态融合的敏感信息发现并自动分类分级方法
CN116129286A (zh) 基于知识图谱的图神经网络遥感图像分类方法
CN114782752B (zh) 基于自训练的小样本图像集成分类方法及装置
Liu et al. Cbl: A clothing brand logo dataset and a new method for clothing brand recognition
CN113420827A (zh) 语义分割网络训练和图像语义分割方法、装置及设备
CN113641797A (zh) 数据处理方法、装置、设备、存储介质及计算机程序产品
CN112862021A (zh) 一种内容标注方法和相关装置
CN113140012A (zh) 图像处理方法、装置、介质及电子设备
CN115129902B (zh) 媒体数据处理方法、装置、设备及存储介质
CN113192108B (zh) 一种针对视觉跟踪模型的人在回路训练方法及相关装置
CN114842301A (zh) 一种图像注释模型的半监督训练方法
CN112417260B (zh) 本地化推荐方法、装置及存储介质
CN112948251A (zh) 软件自动测试方法及装置
CN112632962A (zh) 人机交互系统中实现自然语言理解方法和装置
CN112926368A (zh) 一种识别障碍物的方法和装置
CN111091198A (zh) 一种数据处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant