CN109583583A - 神经网络训练方法、装置、计算机设备及可读介质 - Google Patents
神经网络训练方法、装置、计算机设备及可读介质 Download PDFInfo
- Publication number
- CN109583583A CN109583583A CN201710911540.9A CN201710911540A CN109583583A CN 109583583 A CN109583583 A CN 109583583A CN 201710911540 A CN201710911540 A CN 201710911540A CN 109583583 A CN109583583 A CN 109583583A
- Authority
- CN
- China
- Prior art keywords
- label
- image data
- feature
- neural network
- label image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 235
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 title claims abstract description 46
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 230000008859 change Effects 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 14
- 210000004218 nerve net Anatomy 0.000 claims description 9
- 238000013502 data validation Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 230000001537 neural effect Effects 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 abstract description 3
- 239000011159 matrix material Substances 0.000 description 17
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006854 communication Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013480 data collection Methods 0.000 description 6
- 235000013399 edible fruits Nutrition 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003475 lamination Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 210000005036 nerve Anatomy 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 235000013311 vegetables Nutrition 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种神经网络训练方法及装置,涉及机器学习领域,该方法包括:将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到无标签图像数据的第n特征;将无标签图像数据输入第n+1神经网络提取得到无标签图像数据的第n+1特征;根据第n特征以及第n+1特征确定出符合预设要求的无标签图像数据,对符合预设要求的无标签图像数据标注伪标签;更新得到第n+1图像数据库;根据第n+1图像数据库对第n+1神经网络进行训练,得到第n+2神经网络。通过两个神经网络对无标签图像数据进行选择,并对选择得到的无标签图像数据标注伪标签,从而增加了对神经网络进行训练的有标签图像数据的数量,提高了神经网络的精确度。
Description
技术领域
本申请实施例涉及机器学习领域,特别涉及一种神经网络训练方法、装置、计算机设备及可读介质。
背景技术
图像识别技术是机器学习领域中的一项基础研究话题,通过给定的图像数据,可以通过神经网络识别出该图像数据中的物体的类别。物体的类别可以是人物、猫、狗、家居、建筑等。
在对图像数据进行识别之前,首先需要对神经网络进行训练。相关技术中提供的神经网络训练方法包括:将有标签图像数据输入到神经网络中,有标签图像数据是指与该图像数据对应存储有对物体的类别进行标识的标签的图像数据,通过神经网络得到该有标签图像数据的预测标签,并与该有标签图像数据的标签进行比较,根据比较得到的误差结果对神经网络进行调整。
然而,给定的图像数据库中往往半数以上都是无标签图像数据,由于无标签图像数据无法被应用到对神经网络的训练当中,所以无标签图像数据无法用于提高神经网络的识别精确度。
发明内容
本申请实施例提供了一种神经网络训练方法、装置、计算机设备及可读介质,可以解决无标签图像数据无法应用于对神经网络进行训练的问题。所述技术方案如下:
第一方面,提供一种神经网络训练方法,所述方法,包括:
将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到所述无标签图像数据的第n特征,其中n≥1;
将所述无标签图像数据输入第n+1神经网络提取得到所述无标签图像数据的第n+1特征;
根据所述第n特征以及所述第n+1特征确定出符合预设要求的所述无标签图像数据;
根据所述第n图像数据库中的有标签图像数据的标签,对符合预设要求的所述无标签图像数据标注伪标签;
将所述第n图像数据库中被标注有所述伪标签的所述无标签图像数据更新为所述有标签图像数据,得到第n+1图像数据库;
根据所述第n+1图像数据库对所述第n+1神经网络进行训练,得到第n+2神经网络。
第二方面,提供一种神经网络训练装置,所述装置包括:
输入模块,用于将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到所述无标签图像数据的第n特征,其中n≥1;
所述输入模块,还用于将所述无标签图像数据输入第n+1神经网络提取得到所述无标签图像数据的第n+1特征;
数据确认模块,用于根据所述第n特征以及所述第n+1特征确定出符合预设要求的所述无标签图像数据;
标注模块,用于根据所述第n图像数据库中的有标签图像数据的标签,对符合预设要求的所述无标签图像数据标注伪标签;
更新模块,用于将所述第n图像数据库中被标注有所述伪标签的所述无标签图像数据更新为所述有标签图像数据,得到第n+1图像数据库;
训练模块,用于根据所述第n+1图像数据库对所述第n+1神经网络进行训练,得到第n+2神经网络。
第三方面,提供一种计算机设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述本申请实施例的第一方面及其可选的实施例所述的神经网络训练方法。
第四方面,提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例的第一方面及其可选的实施例所述的神经网络训练方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
对于同时包括有标签图像数据和无标签图像数据的图像库,通过第n神经网络以及第n+1神经网络对无标签图像数据的特征进行提取,根据预设条件通过有标签图像数据的标签对无标签图像数据标注伪标签,由于有标签图像数据包括原有的有标签图像数据以及被标注有伪标签的无标签图像数据,从而增加了有标签图像数据的数量,扩大了对神经网络进行训练时的训练集的大小,提高了对神经网络的训练效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A至图1D是本申请一个示例性实施例提供的神经网络架构的示意图;
图2是本申请一个示例性实施例提供的神经网络训练方法的流程图;
图3是本申请另一个示例性实施例提供的神经网络训练方法的流程图;
图4A至图4B是本申请一个示例性实施例提供的神经网络的网络结构示意图;
图5是本申请一个示例性实施例提供的神经网络训练方法的示意图;
图6是本申请另一个示例性实施例提供的神经网络训练方法的流程图;
图7是本申请另一个示例性实施例提供的神经网络训练方法的流程图;
图8是本申请一个示例性实施例提供的神经网络训练装置的框图;
图9是本申请一个示例性实施例提供的终端的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请涉及的几个技术名词进行介绍:
图像数据库:图像数据库是用于对神经网络进行训练的数据库,图像数据库中包括有标签图像数据以及无标签图像数据。将图像数据库中的有标签图像数据以及无标签图像数据输入神经网络中,并根据输出结果对神经网络进行训练。
有标签图像数据:有标签图像数据是具有标签的图像数据,该标签是对图像数据中的物体类别进行标注得到的。该标签可以单独存储在图像数据对应的数据库表项中。如:有标签图像数据中包括物体猫,在有标签图像数据对应的数据库表项中存储有标签“猫”。标签通常是由人工标注的。
无标签图像数据:无标签图像数据是不具有标签的图像数据,即在该图像数据对应的数据库表项中未存储有对物体类别进行标注的标签。
神经网络:在本申请中,神经网络是用于对图像中物体类别进行识别的网络。神经网络还可以对有标签图像数据或无标签图像数据的数据特征进行提取,本申请中,神经网络分为可通过无标签图像数据进行训练的神经网络以及不可以通过无标签图像数据进行训练的神经网络。其中,不可通过无标签图像数据进行训练的神经网络中包括:二维卷积层、下采样层以及全连接层;可通过无标签图像数据进行训练的神经网络包括:二维卷积层、二维反卷积层、下采样层、上采样层以及全连接层。
示意性的如图1A至图1D所示,图1A至图1D为本申请中4个示意性的神经网络架构示意图,其中,图1A为以Alexnet(亚历克斯网络)为架构的神经网络,图1B为以VGG(VisualGeometry Group,视觉几何组网络)为架构的神经网络,且图1A以及图1B示出的神经网络为不可通过无标签图像数据进行训练的神经网络;图1C为以DAE-PL(DenoisingAutoencoder-Pseudo-Label,去噪自编码器)为架构的神经网络,图1D为以SWWAE(StackedWhat-Where Auto-Encoders,层叠式what-where自动编码器)为架构的神经网络,且图1C及图1D示出的神经网络为可通过无标签图像数据进行训练的神经网络。
二维卷积层:通过在一组特征图上应用二维卷积,可以得到同样数量的一组新特征图。二维卷积层用于提取新的特征图。经过两层的二维卷积层以及max-pooling(最大池化)操作后,每组特征图在时间维度上都已经减小到足够小。在此基础上,继续应用二维卷积核来抽取特征图上更高层次的复杂特征。
二维反卷积层:其操作体现为反向二维卷积层,作用在特征图组上,得到面积更大的二维特征图组。
下采样层:在本申请中下采样使用max-pooling操作。该操作是指对特征图按照一定策略(选取最大值)进行降采样的过程。这是一种被广泛应用的有效过程,它能够提取出保持形状和偏移不变性的特征。对于一组特征图,max-pooling操作通过对它们降采样,得到同样数量的一组低分辨率特征图。
上采样层:该操作一般对应着同一神经网络中的某个下采样层。特征图经过下采样层得到下采样值以及空间位置信息。该位置信息作为对应上采样层的输入,得到跟下采样操作前一样大小的特征图组。
全连接层:在神经网络模型中添加了两层全连接层,这两层全连接层可以看做是在前面二维卷积层的基础上建立的感知机模型,全连接层包括隐藏层和逻辑回归层。首先将从两个神经网络中得到的特征图串联成一个长特征向量。该向量即是从图像数据中抽取到的特征。它的每一维元素都连向第一个全连接层(隐藏层)的所有节点,并进一步全连接到所有的输出单元。输出单元共K个,等同于物体类别的数量K,每一个单元的输出可以看做输入无标签图像数据属于某一个类别的概率。
判别层:用于对神经网络预测得到的标签与有标签图像数据的实际标签进行一致性判断。
图2是本申请一个示例性的实施例提供的神经网络训练方法的流程图。该神经网络训练方法可以应用于计算机设备中。如图2所示,该方法包括:
步骤201,将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到第n特征。
其中,第n图像数据库中包括有标签图像数据和无标签图像数据,其中n≥1。
第n神经网络可以通过第n图像数据库中的有标签图像数据,和/或,无标签图像数据进行训练,可选地,该第n神经网络还可以对第n图像数据库中的有标签图像数据和无标签图像数据的数据特征进行提取。其中,n用于指代上述步骤以及下述步骤执行在第n次迭代中。
步骤202,将无标签图像数据输入第n+1神经网络,提取得到第n+1特征。
可选地,该第n+1神经网络是通过对第n神经网络进行一次迭代式训练得到。该第n+1特征为通过第n+1神经网络对无标签图像数据进行提取后得到的特征。
步骤203,根据第n特征和第n+1特征确定出符合预设要求的无标签图像数据。
可选地,比较第n特征和第n+1特征之间的差异;将第n特征和第n+1特征之间的差异小于预设阈值的无标签图像数据,确定为符合预设要求的无标签图像数据。该差异可以有不同的量化方式,比如通过信任度值对该差异进行量化。
步骤204,根据第n图像数据库中的有标签图像数据的标签,对符合预设要求的无标签图像数据标注伪标签。
可选地,根据第n图像数据库中的有标签图像数据的标签,从标签库中选择该无标签图像数据对应的k个候选伪标签,并从该候选伪标签中选择一个伪标签对该无标签图像数据进行标注。
步骤205,将第n图像数据库中被标注有伪标签的无标签图像数据更新为有标签图像数据,得到第n+1图像数据库。
该第n+1图像数据库中包括:第n图像数据库中的有标签图像数据,被标注有伪标签的无标签图像数据(即被更新为有标签图像数据的无标签图像数据),以及无标签图像数据。
步骤206,根据第n+1图像数据库对第n+1神经网络进行训练,得到第n+2神经网络。
可选地,该第n+2神经网络通过对第n+1神经网络进行训练得到。
综上所述,通过第n神经网络以及第n+1神经网络对符合预设要求无标签图像数据进行选择,并对选择得到的无标签图像数据标注伪标签,即有标签图像数据中包括原有的有标签图像数据以及被标注有伪标签的有标签图像数据,增加了有标签图像数据的数量,增加了对神经网络进行训练的图像数据的数量,提高了对神经网络的训练效果。
在一个可选的实施例中,信任度值以及对无标签图像数据标注的伪标签是通过对无标签图像数据的候选伪标签进行选择之后,通过候选伪标签对第一权重以及第二权重的权重值进行计算得到,具体的神经网络训练方法的流程图可参考图3,如图3所示,该方法包括:
步骤301,将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到第n特征。
其中,第n图像数据库中包括有标签图像数据和无标签图像数据。有标签图像数据的数量可以为多张;无标签图像数据的数量可以为多张。
第n神经网络可以通过第n图像数据库中的有标签图像数据,和/或,无标签图像数据进行训练,可选地,该第n神经网络还可以对第n图像数据库中的有标签图像数据和无标签图像数据的数据特征进行提取。其中,n用于指代上述步骤以及下述步骤执行在第n次迭代中。
步骤302,将无标签图像数据输入第n+1神经网络,提取得到第n+1特征。
可选地,该第n+1神经网络通过对第n神经网络进行一次迭代式训练得到。
示意性的,该第n神经网络可以是以Alexnet网络架构为架构的神经网络,可以是以VGG网络架构为架构的神经网络,可以是以DAE-PL网络架构为架构的神经网络,还可以是以SWWAE网络架构为架构的神经网络,本申请实施例对此不加以限定。
其中,以Alexnet网络架构为架构的神经网络以及以VGG网络架构为架构的神经网络只能通过有标签图像数据进行训练,而以DAE-PL网络架构为架构的神经网络和以SWWAE网络架构为架构的神经网络可以通过有标签图像数据或无标签图像数据或两者相结合进行训练。
示意性的,如图4A所示,图4A为只能通过有标签图像数据进行训练的网络架构的示意图,如:Alexnet网络架构,或VGG网络架构,该网络架构中包括卷积层41、全连接层42以及判别层43,将图像数据40输入该网络架构对应的神经网络中,其中,卷积层41中可包括有多个级联的卷积神经网络,且每个卷积神经网络的层数在本申请中不做限制;如图4B所示,图4B是既能通过有标签图像数据进行训练也能通过无标签图像数据进行训练的网络架构的示意图,如:DAE-PL网络架构,或者SWWAE网络架构,该网络架构中包括卷积层45、全连接层46、判别层47以及反卷积层48,将图像数据44输入该网络架构对应的神经网络中,其中,卷积层45中可包括有多个级联的卷积神经网络,且每个卷积神经网络的层数在本申请中不做限制,通过卷积层中的至少一个卷积神经网络对图像数据44的图像特征进行提取得到输出图像,并将该输出图像输入返卷积层48进行图像重构,得到重构图像数据49。
上述实施例中所述的卷积层,用于对图像数据的图像特征进行提取,并得到图像特征;判别层用于判断有标签图像数据的标签与预测标签结果的一致性。
以该第n神经网络为以DAE-PL网络架构为架构的神经网络为例进行说明,当输入图像数据为有标签图像数据时,将第n图像数据库中的有标签图像数据输入该第n神经网络,并对该第n神经网络进行训练,得到第n+1神经网络,其中,通过有标签图像对第n神经网络进行训练的具体步骤包括:将该有标签图像数据输入第n神经网络,并得到第n特征以及标签预测结果,将第n特征输入与该第n神经网络对应的重构网络,得到重构图像数据,将重构图像数据与有标签图像数据进行比较,得到重构误差,并根据重构误差以及标签预测结果对第n神经网络进行调整,得到第n+1神经网络;当输入的图像数据为无标签图像数据时,将该无标签图像数据输入第n神经网络,并得到第n特征,将第n特征输入与该第n神经网络对应的重构网络,得到重构图像数据,将重构图像数据与无标签图像数据进行比较,得到重构误差,并根据重构误差对第n神经网络进行调整,得到第n+1神经网络。
可选地,该第n+1神经网络用于对第n图像数据库中的有标签图像数据和无标签图像数据的数据特征进行提取,示意性的,该第n+1神经网络对第n图像数据库中的无标签图像数据的第n+1特征进行提取。
步骤303,根据有标签图像数据的标签,从标签库中选择无标签图像数据对应的k个候选伪标签。
可选地,根据与无标签图像数据中每个无标签图像数据关联的至少一个有标签图像数据,从标签库中选出与每个无标签图像数据分别对应的k个候选伪标签。其中,每个无标签图像数据的k个候选伪标签是独立进行选择的,即,每个无标签图像数据的k个候选伪标签可以是相同的也可以是不同的,还可以是其中两个或多个无标签图像数据的k个候选伪标签中的一部分是相同的,本申请实施例对此不加以限定。
示意性的,该与无标签图像数据a关联的包括4个有标签图像数据,与无标签图像数据b关联的包括6个有标签图像数据,则根据与a关联的4个有标签图像数据的标签从标签库中选择无标签图像数据a的k个候选伪标签,根据与b关联的6个有标签图像数据从标签库中选择无标签图像数据b的k个候选伪标签,其中,不同无标签图像数据选择出的候选伪标签的数量有可能是不同的,即不同无标签图像数据对应的k可以是不同的。
步骤304,计算k个候选伪标签与第n特征对应的第一权重。
该k个候选伪标签为该第n特征对应的无标签图像数据的k个候选伪标签,计算无标签图像数据中每个无标签图像数据的k个候选伪标签,与该无标签图像数据的第n特征对应的第一权重。可选地,该第一权重用于表示每个候选伪标签与该第n特征之间的相关性。
步骤305,计算k个候选伪标签与第n+1特征对应的第二权重。
该k个候选伪标签为该第n+1特征对应的无标签图像数据的k个候选伪标签,计算无标签图像数据中每个无标签图像数据的k个候选伪标签,与该无标签图像数据的第n+1特征对应的第二权重。可选地,该第二权重用于表示每个候选伪标签与该第n+1特征之间的相关性。
步骤306,根据第一权重和第二权重对无标签图像数据的第n特征及第n+1特征之间的差异进行量化,得到信任度值。
可选地,针对每个无标签图像数据,根据每个无标签图像数据的每个候选伪标签,以及每个候选伪标签的第一权重构成第一权重矩阵,根据每个无标签图像数据的候选伪标签,以及每个候选伪标签的第二权重构成第二权重矩阵,将第一权重矩阵的转置与第二权重矩阵相乘,得到信任度值。
步骤307,将信任度值大于预设阈值的无标签图像数据,确定为符合预设要求的无标签图像数据。
示意性的,如图5所示,图5是一个示例性的第n特征与第n+1特征之间的差异的示意图,根据图5可知,第n特征空间中包括无标签图像数据xi的第n特征和无标签图像数据xj的第n特征,其中,无标签图像数据xi的特征根据有标签图像数据的标签,即区域51和区域53对信任度值进行计算;无标签图像数据xj的特征根据有标签图像数据的标签,即区域52和区域54对信任度值进行计算,得到无标签图像数据xi的信任度值小于预设阈值,无标签图像数据xj的信任度值大于预设阈值,故,对无标签图像数据xj标注伪标签。
步骤308,根据第一权重和第二权重选择k个候选伪标签中的第i个伪标签为目标伪标签。
可选地,将每个候选伪标签的第一权重与第二权重相乘,计算得到乘积值,选择乘积值最大的候选伪标签为目标伪标签。
步骤309,对无标签图像数据标注目标伪标签。
该无标签图像数据为符合预设要求的无标签图像数据。
步骤310,将第n图像数据库中被标注有伪标签的无标签图像数据库更新为有标签图像数据,得到第n+1图像数据库。
该第n+1图像数据库中包括:第n图像数据库中的有标签图像数据,被标注有伪标签的无标签图像数据,即被更新为有标签图像数据的无标签图像数据,以及无标签图像数据。
步骤311,根据第n+1图像数据库对第n+1神经网络进行训练,得到第n+2神经网络。
可选地,该第n+2神经网络通过对第n+1神经网络进行训练得到。
示意性的,该第n+1神经网络可以是以Alexnet网络架构为架构的神经网络,可以是以VGG网络架构为架构的神经网络,可以是以DAE-PL网络架构为架构的神经网络,还可以是以SWWAE网络架构为架构的神经网络,本申请实施例对此不加以限定,其中,以Alexnet网络架构为架构的神经网络以及以VGG网络架构为架构的神经网络只能通过有标签图像数据进行训练,而以DAE-PL网络架构为架构的神经网络和以SWWAE网络架构为架构的神经网络可以通过有标签图像数据或无标签图像数据或两者相结合进行训练。
以该第n+1神经网络为以DAE-PL网络架构为架构的神经网络为例进行说明,当输入图像数据为有标签图像数据时,将第n+1图像数据库中的有标签图像数据输入该第n+1神经网络,并对该第n+1神经网络进行训练,得到第n+2神经网络,其中,通过有标签图像对第n+1神经网络进行训练的具体步骤包括:将该有标签图像数据输入第n+1神经网络,并得到第n+1特征以及标签预测结果,将第n+1特征输入与该第n+1神经网络对应的重构网络,得到重构图像数据,将重构图像数据与有标签图像数据进行比较,得到重构误差,并根据重构误差以及标签预测结果对第n+1神经网络进行调整,得到第n+2神经网络;当输入的图像数据为无标签图像数据时,将该无标签图像数据输入第n+1神经网络,并得到第n+1特征,将第n+1特征输入与该第n+1神经网络对应的重构网络,得到重构图像数据,将重构图像数据与无标签图像数据进行比较,得到重构误差,并根据重构误差对第n+1神经网络进行调整,得到第n+2神经网络。
以该第n+1神经网络为以Alexnet网络架构为架构的神经网络为例进行说明,该第n+1神经网络可通过有标签图像数据进行训练。将有标签图像数据输入该第n+1神经网络并得到一个标签预测结果,将该标签预测结果与数据库中存储的与该有标签图像数据对应的标签进行比较,得到比较结果,并根据比较结果对第n+1神经网络进行调整,得到第n+2神经网络。
值得注意的是,上述步骤304和步骤305可以并行执行,也可以先执行步骤304再执行步骤305,还可以先执行步骤305再执行步骤304,本申请实施例对此不加以限定。
综上所述,通过对无标签图像数据的候选伪标签进行选择,然后通过候选伪标签对第一权重以及第二权重的权重值进行计算,并通过第一权重与第二权重对符合要求的无标签图像数据进行选择,增加了选择的无标签图像数据的可靠性,以及对无标签图像数据标注的伪标注的准确性;通过第n神经网络以及第n+1神经网络对符合预设要求无标签图像数据进行选择,并对选择得到的无标签图像数据标注伪标签,即有标签图像数据中包括原有的有标签图像数据以及被标注有伪标签的有标签图像数据,增加了有标签图像数据的数量,增加了对神经网络进行训练的图像数据的数量,且由于无标签图像数据被标注的伪标签的准确性的提高,增加了对神经网络进行训练的准确度。
在一个可选的实施例中,无标签图像数据的k个候选伪标签,是通过有标签图像数据进行投票得到的,其具体过程可参考图6,如图6所示,该神经网络训练方法包括:
步骤601,将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到第n特征。
其中,第n图像数据库中包括有标签图像数据和无标签图像数据。
第n神经网络可以通过第n图像数据库中的有标签图像数据,和/或,无标签图像数据进行训练,可选地,该第n神经网络还可以对第n图像数据库中的有标签图像数据和无标签图像数据的数据特征进行提取,示意性的,第n神经网络对第n图像数据库中的无标签图像数据的第n特征进行提取,其中,n用于指代上述步骤以及下述步骤执行在第n次迭代中。步骤602,将无标签图像数据输入第n+1神经网络,提取得到第n+1特征。
可选地,该第n+1神经网络通过对第n神经网络进行训练得到。
示意性的,该第n神经网络可以是以Alexnet网络架构为架构的神经网络,可以是以VGG网络架构为架构的神经网络,可以是以DAE-PL网络架构为架构的神经网络,还可以是以SWWAE网络架构为架构的神经网络,本申请实施例对此不加以限定,其中,以Alexnet网络架构为架构的神经网络以及以VGG网络架构为架构的神经网络只能通过有标签图像数据进行训练,而以DAE-PL网络架构为架构的神经网络和以SWWAE网络架构为架构的神经网络可以通过有标签图像数据或无标签图像数据或两者相结合进行训练。
步骤603,从第n神经网络对应的第n特征空间中,获取第n特征的预设距离范围内的第n’特征。
该第n特征空间中包括:第n图像数据库中的有标签图像数据通过第n神经网络提取得到的第n’特征,以及第n图像数据库中的无标签图像数据通过第n神经网络提取得到的第n特征。
第n特征与第n’特征在第n特征空间中根据一定的规则进行排布,如:类别相近的第n特征与第n特征、第n特征与第n’特征以及第n’特征与第n’特征在第n特征空间中的距离更近;以及同类别的第n特征与第n特征、第n特征与第n’特征以及第n’特征与第n’特征在第n特征空间中聚合在一起,且与其它类别的特征有明显的分界线。示意性的,在第n+1特征空间中,标签类别为水果与标签类别为蔬菜的特征距离较近,类别都为水果的特征聚集在一起,与类别为蔬菜的特征之间有分隔。
在第n特征空间中,获取第n特征的预设距离范围内的第n’特征。示意性的,获取第n特征空间中,与无标签图像数据的第n特征之间的距离小于预设阈值的第n’特征。
步骤604,根据每个第n’特征分别对标签库中的标签进行投票,得到第一投票结果。
可选地,针对每一个无标签图像数据的第n特征,在该第n特征预设距离范围内的第n’特征对标签库中的标签进行投票。可选地,第n’特征根据对应的有标签图像数据的标签对除该标签外的类别最相近的标签进行投票,或,第n’特征根据对应的有标签图像数据的标签对该标签进行投票,且,每个第n’特征仅能对一个标签进行投票。
示意性的,结合图5所示,在第n特征空间中,在第n特征xi的预设距离范围内包括4个有标签图像数据的第n’特征,在第n特征xj的预设距离范围内包括5个有标签图像数据的第n’特征。对于第n特征xi,根据该4个有标签图像数据的标签,对标签库中的标签进行投票,其中,根据1个有标签图像数据的标签,可对一个标签进行投票,且根据4个有标签数据的标签分别对标签进行投票的过程是相互独立的,即,根据4个有标签图像数据的标签,有可能得到1个候选伪标签,也有可能得到2个、3个或者4个候选伪标签。
可选地,在根据1个有标签图像数据进行投票时,当标签库中包括该有标签图像数据的标签时,则向该标签进行投票,当标签库中不包括该有标签图像数据的标签时,可向与该标签的类别最接近的一个标签进行投票。
步骤605,从第n+1神经网络对应的第n+1特征空间中,获取第n+1特征的预设距离范围内的第n’+1特征。
该第n+1特征空间中包括:第n图像数据库中的有标签图像数据通过第n+1神经网络提取得到的第n’+1特征,以及第n图像数据库中的无标签图像数据通过第n+1神经网络提取得到的第n+1特征。
第n+1特征与第n’+1特征在第n+1特征空间中根据一定的规则进行排布,如:标签类别相近的第n+1特征与第n+1特征、第n+1特征与第n’+1特征以及第n’+1特征与第n’+1特征在特征空间中的距离更近,以及同标签类别的第n+1特征与第n+1特征、第n+1特征与第n’+1特征以及第n’+1特征与第n’+1特征在第n+1特征空间中聚合在一起。
步骤606,根据每个第n’+1特征分别对标签库中的标签进行投票,得到第二投票结果。
可选地,针对每一个无标签图像数据的第n+1特征,在第n+1特征预设距离范围内的第n’+1特征对标签库中的标签进行投票。可选地,第n’+1特征根据对应的有标签图像数据的标签对除该标签外的类别最相近的标签进行投票,或,第n’+1特征根据对应的有标签图像数据的标签对该标签进行投票,且,每个第n’特征仅能对一个标签进行投票。
示意性的,在第n+1特征空间中,在第n+1特征xi的预设距离范围内包括4个有标签图像数据的第n’+1特征,在第n+1特征xj的预设距离范围内包括5个有标签图像数据的第n’+1特征。对于第n+1特征xi,根据该4个有标签图像数据的标签,对标签库中的标签进行投票,其中,根据1个有标签图像数据的标签,可对一个标签进行投票,且根据4个有标签数据的标签分别对标签进行投票的过程是相互独立的,即,根据4个有标签图像数据的标签,有可能得到1个候选伪标签,也有可能得到2个、3个或者4个候选伪标签。
可选地,在根据1个有标签图像数据进行投票时,当标签库中包括该有标签图像数据的标签时,则向该标签进行投票,当标签库中不包括该有标签图像数据的标签时,可向与该标签的类别最接近的一个标签进行投票。
上述步骤603至步骤604和步骤605至步骤606可以并行同时执行,也可以先执行步骤603至步骤604再执行步骤605至步骤606,还可以先执行步骤605至步骤606再执行步骤603至步骤604,本申请实施例对此不加以限定。
步骤607,根据第一投票结果和第二投票结果,确定出被投票次数最多的k个标签,确定为无标签图像数据的k个候选伪标签。
示意性的,确定被投票次数最多的k个标签的方式可以是:
第一、根据第一投票结果获取第n特征空间中,第n’特征投票选择得到的被投票次数最多的至少k个标签;根据第二投票结果获取第n+1特征空间中,第n’+1特征投票选择得到的被投票次数最多的至少k个标签;根据第一投票结果获取的至少k个标签,以及第二投票结果获取的至少k个标签,获取两次投票结果中被投票次数最高的重叠的k个标签作为无标签图像数据的k个候选伪标签;
第二、将第一投票结果中每个标签的被投票次数,与第二投票结果中每个标签的被投票次数相加,并选择累计被投票次数最多的k个标签为无标签图像数据的k个候选伪标签。
步骤608,计算k个候选伪标签与第n特征对应的第一权重。
可选的,先根据近邻内嵌变化算法分别计算k个候选伪标签与第n特征对应的第一概率,第一概率是将该候选伪标签标注在该第n特征对应的无标签图像数据的概率;然后根据近邻类别变化算法计算k个候选伪标签与第n特征对应的第三权重,根据k个候选伪标签中每个候选伪标签的第一概率和第三权重,计算k个候选伪标签中每个候选伪标签与第n特征对应的第一权重,并根据第一权重计算对应的第一权重矩阵。
具体的,可应用如下公式对第一权重构成的第一权重矩阵进行计算:
其中,Mfθ(Ft(x))为无标签图像数据x对应的k个候选伪标签的标签配置矩阵,该标签配置矩阵通过第三权重进行计算,yθt-1(x)为无标签图像数据x对应的k个候选伪标签在t-1轮迭代中的第一概率。
步骤609,计算k个候选伪标签与第n+1特征对应的第二权重。
可选的,先根据近邻内嵌变化算法分别计算k个候选伪标签与第n+1特征对应的第二概率,第二概率是将该候选伪标签标注在该第n+1特征对应的无标签图像数据的概率。
示意性的,根据近邻内嵌变化算法计算第一概率以及第二概率的计算过程可以是:
其中,软标签为包括该标签对于无标签图像数据x的概率的标签,所有对于无标签图像数据x的软标签的概率相加为1,fθb(DL)为第n特征空间中的有标签图像数据的特征集合,fθb(DU)为第n特征空间中的无标签图像数据的特征集合,fθb(D)为第n特征空间中的有标签图像数据的特征集合与无标签图像数据的特征集合进行合并得到的集合;fθa(DL)为第n+1特征空间中的有标签图像数据的特征集合,fθa(DU)为第n+1特征空间中的无标签图像数据的特征集合,fθa(D)为第n+1特征空间中的有标签图像数据的特征集合与无标签图像数据的特征集合进行合并得到的集合;Pθa(D),Pθb(D)代表用神经网络fθa以及fθb提取数据集D所构成的特征空间下,基于k临近图方法进行构建的归一化权重矩阵,YL为标签集,为t轮迭代中第n特征空间对应的标签集,为t轮迭代中第n+1特征空间对应的标签集,标签集合Yθa(t)对应t轮迭代中第n+1特征空间中的图像数据每个标签的第二概率,标签集合Yθb(t)对应第n特征空间中的图像数据与每个标签的对应第一概率。
然后,根据近邻类别变化算法计算k个候选伪标签与第n+1特征对应的第四权重,根据k个候选伪标签中每个候选伪标签的第一概率和第四权重,计算k个候选伪标签中每个候选伪标签与第n+1特征的对应的第二权重。
具体的,可应用如下公式对第二权重构成的第二权重矩阵进行计算:
其中,Mfθ(Ft(x))为无标签图像数据x对应的k个候选伪标签的标签配置矩阵,其中,fθ为参数为θ的神经网络,Ft(x)为无标签图像数据x在t轮迭代中的特征集合,该配置矩阵通过第四权重进行计算,yθt(x)为无标签图像数据x对应的k个候选伪标签在t轮迭代中的第二概率。
具体而言,使用近邻类别变化算法的计算步骤可分为:
在算法2中,类别权重配置矩阵为
其中,k(Ft(x),y;fθ)为每个标签对于该无标签图像数据xi的权重,其中,k用于代表一个函数,且,y=1,2,3,...,m。
h为高斯核,y(Ft(x),s)为基于当前无标签图像数据xi在t轮迭代中的s个侯选类别集合,y’为s个候选类别集合中的一个类别。基于上述两个算法,基于以上的算法1和2,我们有如下的样本选择标准:
R(x;θt)=rb(x;θt)Tra(x;θt)
s.t.v(x;θt)=rb(x;θt)·ra(x;θt)
R为信任度值,R(x;θt)为t轮迭代中,无标签图像数据x的信任度值,
L为选择的标签,L(x;θt)为t轮迭代中,无标签图像数据x的目标伪标签,。
其中,为t轮迭代中的无标签图像数据集,s用于指代第s个候选伪标签,t用于指代第t轮迭代,s.t.v(x;θt)为t轮迭代中,无标签图像数据x的第s个候选伪标签的权重。对于每一个无标签图像数据xi的候选伪标签集合中的第k个候选伪标签,计算特征转换前后的两个关于第k个候选伪标签的近邻协方差矩阵;根据计算得到的两个近邻协方差矩阵,计算无标签图像数据在特征转换前后的近邻第k个候选伪标签的分布变化ρ(Ft(xi),yk;fθ),其中,fθ为参数为θ的神经网络;得到归一化的标签变化权重{k(Ft(xi),y;fθ)|y∈YL},进一步得到无标签图像数据xi的类别权重配置矩阵M fθ(Ft(xi)),yθt(x)为在t轮迭代中无标签图像数据x对于一个标签概率,yθt-1(x)为在t-1轮迭代中无标签图像数据x对于一个标签概率,为t轮迭代中,无标签图像数据x的类别权重配置矩阵中,权重最大的标签y。
步骤610,根据第一权重和第二权重对无标签图像数据的第n特征及第n+1特征之间的差异进行量化,得到信任度值。
可选的,可应用如下公式对信任度值进行计算:
R(x,θt)=rb(x,θt)Tra(x,θt)
其中,(x,θt)为无标签图像数据x在t轮迭代中的k个候选伪标签集合,其中,t轮迭代中包括通过第n神经网络进行特征提取和通过第n+1神经网络进行特征提取,R为无标签图像数据x的信任度值,rb(x,θt)为无标签图像数据x在通过第n神经网络提取得到所述第n特征,并在得到第一权重后构成的第一权重矩阵,ra(x,θt)为无标签图像数据x在通过第n+1神经网络提取得到第n+1特征,并在得到第二权重后构成的第二权重矩阵。
步骤611,将信任度值大于预设阈值的无标签图像数据,确定为符合预设要求的无标签图像数据。
选择信任度值大于预设阈值的无标签图像数据,确定为符合预设要求的无标签图像数据。
步骤612,根据第一权重和第二权重选择k个候选伪标签中的第i个伪标签为目标伪标签。
可选的,选择目标伪标签的方法包括:对k个候选伪标签中的每个候选伪标签的第一权重和第二权重的乘积进行计算,得到每个候选伪标签的权重乘积值;从每个候选伪标签的权重乘积值中选择数值最大的权重乘积值;将该最大的权重乘积值对应的候选伪标签确定为目标伪标签。
步骤613,对无标签图像数据标注目标伪标签。
示意性的,在无标签图像数据对应的数据项中添加该目标伪标签。
步骤614,将第n图像数据库中被标注伪标签的无标签图像数据更新为有标签图像数据,得到第n+1图像数据库。
该第n+1图像数据库中包括:第n图像数据库中的有标签图像数据,被标注有伪标签的有标签图像数据,以及无标签图像数据。
步骤615,根据第n+1图像数据库对第n+1神经网络进行训练,得到第n+2神经网络。
可选地,该第n+2神经网络通过对第n+1神经网络进行训练得到。
示意性的,该第n+1神经网络可以是以Alexnet网络架构为架构的神经网络,可以是以VGG网络架构为架构的神经网络,可以是以DAE-PL网络架构为架构的神经网络,还可以是以SWWAE网络架构为架构的神经网络,本申请实施例对此不加以限定,其中,以Alexnet网络架构为架构的神经网络以及以VGG网络架构为架构的神经网络只能通过有标签图像数据进行训练,而以DAE-PL网络架构为架构的神经网络和以SWWAE网络架构为架构的神经网络可以通过有标签图像数据或无标签图像数据或两者相结合进行训练。
可选的,得到第n+2神经网络后,令n=n+1,并进行循环训练。
在一个可选的实施例中,存在验证图像数据集,对神经网络的预测准确率进行验证,可选的,通过该验证图像数据集对第n神经网络的预测准确率进行验证,得到第一准确率,然后通过该验证图像数据集对第n+1神经网络的预测准确了进行验证,得到第二准确率,当第二准确率的准确度比第一准确率的准确度小,且两个准确度的差值大于预设阈值时,停止对第n+1神经网络的训练。
整体而言,本申请提供的神经网络训练方法中的无标签图像数据的伪标签标注方法可以如下概括为:
其中,为第0次迭代中的无标签图像数据集,D0为第0次迭代中的数据集,为第0次迭代中的有标签图像数据集,Ds为迭代中被标注伪标签的无标签图像数据,Ys为迭代中被标注在无标签图像数据上的伪标签集合,为第0次迭代中的标签集;为第t次迭代中有标签图像数据集,为第t-1次迭代中的有标签图像数据集,Yt L为第t次迭代中的标签集,Yt-1为第t-1次迭代中的标签集,Ys为迭代中新增的伪标签集,为第t次迭代中无标签图像数据集,为第t-1次迭代中的无标签图像数据集,Ds为第t-1次迭代中被标注伪标签的无标签图像数据;Dt为第t次迭代中的图像数据集。
在一个具体的实施例中,如图7所示,第n图像数据库中包括无标签图像数据A、无标签图像数据B、无标签图像数据C、有标签图像数据D及该有标签图像数据D的标签“猫”、有标签图像数据E及该有标签图像数据E的标签“笔”、有标签图像数据F及该有标签图像数据F的标签“可乐”;将该第n图像数据库输入第n神经网络,得到第n特征空间,并对该第n神经网络进行训练得到第n+1神经网络,其中,第n特征空间中包括:无标签图像数据A的An特征、无标签图像数据B的Bn特征、无标签图像数据C的Cn特征、有标签图像数据D的Dn’特征、有标签图像数据E的En’图像特征以及有标签图像数据F的Fn’特征;将第n图像数据库输入第n+1神经网络,得到第n+1特征空间,该特征空间中包括:无标签图像数据A的An+1特征、无标签图像数据B的Bn+1特征、无标签图像数据C的Cn+1特征、有标签图像数据D的Dn’+1特征、有标签图像数据E的En’+1特征以及有标签图像数据F的Fn’+1特征。
根据第n特征空间以及第n+1特征空间,对符合预设条件的无标签图像数据标注伪标签,并更新图像数据库,如图7所示,对无标签图像数据A标注伪标签“毛衣’”,对无标签图像数据B标注伪标签“钥匙”,增加“’”以示与原有有标签图像数据的标签进行区分,并对第n图像数据库进行更新,得到第n+1图像数据库;将该第n+1图像数据库输入第n+1神经网络,并对该第n+1神经网络进行训练,得到第n+2神经网络。
可选的,通过验证图像数据集对第n神经网络和第n+1神经网络的预测准确率进行验证,当第n+1神经网络的预测准确率小于第n神经网络的预测准确率,且两个预测准确率的差值大于预设阈值时,停止对第n+1神经网络的训练,即不生成第n+2神经网络。
综上所述,通过第n神经网络以及第n+1神经网络对无标签图像数据的特征进行提取,从而获取信任度值较高的无标签图像数据,并对该无标签图像数据通过有标签图像数据标注伪标签,增加了对无标签图像数据标注的伪标签的准确度;
使用近邻内嵌变化算法以及近邻类别变化算法,提高了对第一概率、第二概率以及第一权重、第二权重的计算速度;
由于神经网络的网络架构没有具体的限定,可以是如图4A所示的网络架构,也可以是如图4B所示的网络架构,还可以是其他结构的网络架构,所以适用性较强;
由于对原有图像数据库中的无标签图像数据进行伪标签标注,没有引入额外的有标签图像数据进行神经网络的训练,所以,有效节省了数据的存储空间;
同时,由于有标签图像数据包括原有的有标签图像数据以及被标注有伪标签的无标签图像数据,从而增加了有标签图像数据的数量,扩大了对神经网络进行训练时的训练集的大小,提高了神经网络的预测准确率。
图8是本申请一个示例性的实施例提供的神经网络训练装置的框图,如图8所示,该装置中包括:输入模块81、数据确认模块82、标注模块83、更新模块84以及训练模块88。
输入模块81,用于将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到所述无标签图像数据的第n特征,其中n≥1;
所述输入模块81,还用于将所述无标签图像数据输入第n+1神经网络提取得到所述无标签图像数据的第n+1特征;
数据确认模块82,用于根据所述第n特征以及所述第n+1特征确定出符合预设要求的所述无标签图像数据;
标注模块83,用于根据所述第n图像数据库中的有标签图像数据的标签,对符合预设要求的所述无标签图像数据标注伪标签;
更新模块84,用于将所述第n图像数据库中被标注有所述伪标签的所述无标签图像数据更新为所述有标签图像数据,得到第n+1图像数据库;
训练模块85,用于根据所述第n+1图像数据库对所述第n+1神经网络进行训练,得到第n+2神经网络。
在一个可选的实施例中,数据确认模块82,包括:
量化单元,用于对所述无标签图像数据的所述第n特征以及所述第n+1特征之间的差异进行量化,得到信任度值;
确认单元,用于将所述信任度值大于预设阈值的所述无标签图像数据,确定为符合预设要求的所述无标签图像数据。
在一个可选的实施例中,所述标注模块83,包括:
选择单元,用于根据所述有标签图像数据的标签,从标签库中选择所述无标签图像数据对应的k个候选伪标签;
计算单元,用于分别计算所述k个候选伪标签与所述第n特征对应的第一权重;
所述计算单元,还用于分别计算所述k个候选伪标签与所述第n+1特征对应的第二权重;
所述选择单元,还用于根据所述第一权重和所述第二权重选择所述k个候选伪标签中的第i个伪标签为目标伪标签;
标注单元,用于对所述无标签图像数据标注所述目标伪标签。
在一个可选的实施例中,所述选择单元,包括:
获取子单元,用于从所述第n神经网络对应的第n特征空间中,获取所述第n特征的预设距离范围内的第n’特征,所述第n’特征是将所述有标签图像数据输入所述第n神经网络后得到的特征;
投票子单元,用于根据每个所述第n’特征分别对所述标签库中的标签进行投票,得到第一投票结果;
所述获取子单元,还用于从所述第n+1神经网络对应的所述第n+1特征空间中,获取所述第n+1特征的所述预设距离范围内的第n’+1特征;
所述投票子单元,还用于根据每个所述第n’+1特征分别对所述标签库中的标签进行投票,得到第二投票结果;
确定子单元,用于根据所述第一投票结果和所述第二投票结果,确定出被投票次数最多的k个标签,确定为所述无标签图像数据的k个候选伪标签。
在一个可选的实施例中,所述计算单元,还用于根据近邻内嵌变化算法分别计算所述k个候选伪标签与所述第n特征对应的第一概率;
所述计算单元,还用于根据近邻类别变化算法分别计算所述k个候选伪标签与所述第n特征对应的第三权重;并根据所述k个候选伪标签中每个候选伪标签的所述第一概率和所述第三权重,计算所述k个候选伪标签中每个候选伪标签与所述第n特征的对应的第一权重。
在一个可选的实施例中,所述计算单元,还用于根据近邻内嵌变化算法分别计算所述k个候选伪标签与所述第n+1特征对应的第二概率;
所述计算单元,还用于根据近邻类别变化算法分别计算所述k个候选伪标签与所述第n+1特征对应的第四权重;根据所述k个候选伪标签中每个候选伪标签的所述第二概率和所述第四权重,计算所述k个候选伪标签中每个候选伪标签与所述第n特征的对应的第二权重。
在一个可选的实施例中,所述选择单元,包括:
计算子单元,用于对所述k个候选伪标签中每个候选伪标签的所述第一权重和所述第二权重的乘积进行计算,得到每个候选伪标签的权重乘积值;
选择子单元,用于从所述每个候选伪标签的权重乘积值中选择数值最大的权重乘积值;
确认子单元,用于将所述最大的权重乘积值对应的候选伪标签确定为目标伪标签。
在一个可选的实施例中,所述量化单元,还用于根据所述第一权重和所述第二权重对所述无标签图像数据的所述第n特征及所述第n+1特征之间的差异进行量化,得到信任度值。
在一个可选的实施例中,所述训练模块85,还用于通过所述第n+1图像数据库中的所述有标签图像数据对所述第n+1神经网络进行训练,得到所述第n+2神经网络。
在一个可选的实施例中,所述输入模块81,还用于将所述第n+1图像数据库中的所述无标签图像数据输入第n+1神经网络,得到第n+1特征;
所述输入模块,还用于将所述第n+1特征输入与所述第n+1神经网络对应的重构网络,得到重构图像数据;
所述装置,还包括:
比较模块,用于将所述重构图像数据与所述无标签图像数据进行比较,得到重构误差;
调整模块,用于根据所述重构误差对所述第n+1神经网络进行调整,得到所述第n+2神经网络。
图9其示出了本申请一个实施例提供的终端的结构的框图,该终端可以包括射频(RF,Radio Frequency)电路1101、包括有一个或一个以上计算机可读存储介质的存储器1102、输入单元1103、显示单元1104、传感器1105、音频电路1106、无线保真(WiFi,WirelessFidelity)模块1107、包括有一个或者一个以上处理核心的处理器1108、以及电源1109等部件。本领域技术人员可以理解,图9中示出的控制终端结构并不构成对控制终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路1101可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器1108处理;另外,将涉及上行的数据发送给基站。通常,RF电路1101包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM,Subscriber Identity Module)卡、收发信机、耦合器、低噪声放大器(LNA,Low Noise Amplifier)、双工器等。此外,RF电路1101还可以通过无线通信与网络和其他设备通信。所述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GSM,Global System of Mobile communication)、通用分组无线服务(GPRS,GeneralPacket Radio Service)、码分多址(CDMA,Code Division Multiple Access)、宽带码分多址(WCDMA,Wideband Code Division Multiple Access)、长期演进(LTE,Long TermEvolution)、电子邮件、短消息服务(SMS,Short Messaging Service)等。
存储器1102可用于存储软件程序以及模块,处理器1108通过运行存储在存储器1102的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器1102可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据控制终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1102可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器1102还可以包括存储器控制器,以提供处理器1108和输入单元1103对存储器1102的访问。
输入单元1103可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,在一个具体的实施例中,输入单元1103可包括触敏表面以及其他输入设备。触敏表面,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面上或在触敏表面附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1108,并能接收处理器1108发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面。除了触敏表面,输入单元1103还可以包括其他输入设备。具体地,其他输入设备可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1104可用于显示由用户输入的信息或提供给用户的信息以及控制终端的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元1104可包括显示面板,可选的,可以采用液晶显示器(LCD,Liquid CrystalDisplay)、有机发光二极管(OLED,Organic Light-Emitting Diode)等形式来配置显示面板。进一步的,触敏表面可覆盖显示面板,当触敏表面检测到在其上或附近的触摸操作后,传送给处理器1108以确定触摸事件的类型,随后处理器1108根据触摸事件的类型在显示面板上提供相应的视觉输出。虽然在图9中,触敏表面与显示面板是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面与显示面板集成而实现输入和输出功能。
控制终端还可包括至少一种传感器1105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板的亮度,接近传感器可在控制终端移动到耳边时,关闭显示面板和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于控制终端还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1106、扬声器,传声器可提供用户与控制终端之间的音频接口。音频电路1106可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路1106接收后转换为音频数据,再将音频数据输出处理器1108处理后,经RF电路1101以发送给比如另一控制终端,或者将音频数据输出至存储器1102以便进一步处理。音频电路1106还可能包括耳塞插孔,以提供外设耳机与控制终端的通信。
WiFi属于短距离无线传输技术,控制终端通过WiFi模块1107可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图9示出了WiFi模块1107,但是可以理解的是,其并不属于控制终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1108是控制终端的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1102内的软件程序和/或模块,以及调用存储在存储器1102内的数据,执行控制终端的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1108可包括一个或多个处理核心;优选的,处理器1108可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1108中。
终端还包括给各个部件供电的电源1109(比如电池),优选的,电源可以通过电源管理系统与处理器1108逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源1109还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,终端还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,终端中的处理器1108会运行存储在存储器1102中的一个或一个以上的程序指令,从而实现上述各个方法实施例中所提供的神经网络训练方法。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,该计算机可读存储介质可以是上述实施例中的存储器中所包含的计算机可读存储介质;也可以是单独存在,未装配入终端中的计算机可读存储介质。该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如图1A至图7任一所述的神经网络训练方法。可选地,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (13)
1.一种神经网络的训练方法,其特征在于,所述方法包括:
将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到所述无标签图像数据的第n特征,其中n≥1;
将所述无标签图像数据输入第n+1神经网络提取得到所述无标签图像数据的第n+1特征;
根据所述第n特征以及所述第n+1特征确定出符合预设要求的所述无标签图像数据;
根据所述第n图像数据库中的有标签图像数据的标签,对符合预设要求的所述无标签图像数据标注伪标签;
将所述第n图像数据库中被标注有所述伪标签的所述无标签图像数据更新为所述有标签图像数据,得到第n+1图像数据库;
根据所述第n+1图像数据库对所述第n+1神经网络进行训练,得到第n+2神经网络。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第n特征以及所述第n+1特征确定出符合预设要求的所述无标签图像数据,包括:
对所述无标签图像数据的所述第n特征以及所述第n+1特征之间的差异进行量化,得到信任度值;
将所述信任度值大于预设阈值的所述无标签图像数据,确定为符合预设要求的所述无标签图像数据。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第n图像数据库中的有标签图像数据的标签,对符合预设要求的所述无标签图像数据标注伪标签,包括:
根据所述有标签图像数据的标签,从标签库中选择所述无标签图像数据对应的k个候选伪标签;
分别计算所述k个候选伪标签与所述第n特征对应的第一权重;
分别计算所述k个候选伪标签与所述第n+1特征对应的第二权重;
根据所述第一权重和所述第二权重选择所述k个候选伪标签中的第i个伪标签为目标伪标签;
对所述无标签图像数据标注所述目标伪标签。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第n图像数据库中的有标签图像数据的标签,从标签库中选择所述无标签图像数据的k个候选伪标签,包括:
从所述第n神经网络对应的第n特征空间中,获取所述第n特征的预设距离范围内的第n’特征,所述第n’特征是将所述有标签图像数据输入所述第n神经网络后得到的特征;
根据每个所述第n’特征分别对所述标签库中的标签进行投票,得到第一投票结果;
从所述第n+1神经网络对应的所述第n+1特征空间中,获取所述第n+1特征的所述预设距离范围内的第n’+1特征;
根据每个所述第n’+1特征分别对所述标签库中的标签进行投票,得到第二投票结果;
根据所述第一投票结果和所述第二投票结果,确定出被投票次数最多的k个标签,确定为所述无标签图像数据的k个候选伪标签。
5.根据权利要求3所述的方法,其特征在于,所述分别计算所述k个候选伪标签与所述第n特征对应的第一权重,包括:
根据近邻内嵌变化算法分别计算所述k个候选伪标签与所述第n特征对应的第一概率;
根据近邻类别变化算法分别计算所述k个候选伪标签与所述第n特征对应的第三权重;并根据所述k个候选伪标签中每个候选伪标签的所述第一概率和所述第三权重,计算所述k个候选伪标签中每个候选伪标签与所述第n特征对应的第一权重。
6.根据权利要求3所述的方法,其特征在于,所述分别计算所述k个候选伪标签与所述第n+1特征对应的第二权重,包括:
根据近邻内嵌变化算法分别计算所述k个候选伪标签与所述第n+1特征对应的第二概率;
根据近邻类别变化算法分别计算所述k个候选伪标签与所述第n+1特征对应的第四权重;根据所述k个候选伪标签中每个候选伪标签的所述第二概率和所述第四权重,计算所述k个候选伪标签中每个候选伪标签与所述第n特征对应的第二权重。
7.根据权利要求3所述的方法,其特征在于,所述根据所述第一权重和所述第二权重选择所述k个候选伪标签中的第i个伪标签为目标伪标签,包括:
对所述k个候选伪标签中每个候选伪标签的所述第一权重和所述第二权重的乘积进行计算,得到每个候选伪标签的权重乘积值;
从所述每个候选伪标签的权重乘积值中选择数值最大的权重乘积值;
将所述最大的权重乘积值对应的候选伪标签确定为目标伪标签。
8.根据权利要求1至7任一所述的方法,其特征在于,所述对所述无标签图像数据的所述第n特征以及所述第n+1特征之间的差异进行量化,得到信任度值,包括:
根据所述第一权重和所述第二权重对所述无标签图像数据的所述第n特征及所述第n+1特征之间的差异进行量化,得到信任度值。
9.根据权利要求1至7任一所述的方法,其特征在于,所述根据所述第n+1图像数据库对所述第n+1神经网络进行训练,还包括:
通过所述第n+1图像数据库中的所述有标签图像数据对所述第n+1神经网络进行训练,得到所述第n+2神经网络。
10.根据权利要求1至7任一所述的方法,其特征在于,所述根据所述第n+1图像数据库对所述第n+1神经网络进行训练,还包括:
将所述第n+1图像数据库中的所述无标签图像数据输入第n+1神经网络,得到第n+1特征;
将所述第n+1特征输入与所述第n+1神经网络对应的重构网络,得到重构图像数据;
将所述重构图像数据与所述无标签图像数据进行比较,得到重构误差;
根据所述重构误差对所述第n+1神经网络进行调整,得到所述第n+2神经网络。
11.一种神经网络训练装置,其特征在于,所述装置包括:
输入模块,用于将第n图像数据库中的无标签图像数据输入第n神经网络,提取得到所述无标签图像数据的第n特征,其中n≥1;
所述输入模块,还用于将所述无标签图像数据输入第n+1神经网络提取得到所述无标签图像数据的第n+1特征;
数据确认模块,用于根据所述第n特征以及所述第n+1特征确定出符合预设要求的所述无标签图像数据;
标注模块,用于根据所述第n图像数据库中的有标签图像数据的标签,对符合预设要求的所述无标签图像数据标注伪标签;
更新模块,用于将所述第n图像数据库中被标注有所述伪标签的所述无标签图像数据更新为所述有标签图像数据,得到第n+1图像数据库;
训练模块,用于根据所述第n+1图像数据库对所述第n+1神经网络进行训练,得到第n+2神经网络。
12.一种计算机设备,其特征在于,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至10任一所述的神经网络训练方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至10任一所述的神经网络训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710911540.9A CN109583583B (zh) | 2017-09-29 | 2017-09-29 | 神经网络训练方法、装置、计算机设备及可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710911540.9A CN109583583B (zh) | 2017-09-29 | 2017-09-29 | 神经网络训练方法、装置、计算机设备及可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109583583A true CN109583583A (zh) | 2019-04-05 |
CN109583583B CN109583583B (zh) | 2023-04-07 |
Family
ID=65919326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710911540.9A Active CN109583583B (zh) | 2017-09-29 | 2017-09-29 | 神经网络训练方法、装置、计算机设备及可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109583583B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161848A (zh) * | 2019-10-31 | 2020-05-15 | 杭州深睿博联科技有限公司 | Ct图像的病灶标注方法及装置、存储介质 |
CN115060011A (zh) * | 2020-05-19 | 2022-09-16 | 山东大学 | 一种基于机器学习的环路热管太阳能流速控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110222724A1 (en) * | 2010-03-15 | 2011-09-15 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN105184303A (zh) * | 2015-04-23 | 2015-12-23 | 南京邮电大学 | 一种基于多模态深度学习的图像标注方法 |
CN105631479A (zh) * | 2015-12-30 | 2016-06-01 | 中国科学院自动化研究所 | 基于非平衡学习的深度卷积网络图像标注方法及装置 |
CN106682696A (zh) * | 2016-12-29 | 2017-05-17 | 华中科技大学 | 基于在线示例分类器精化的多示例检测网络及其训练方法 |
CN107085585A (zh) * | 2016-02-12 | 2017-08-22 | 奥多比公司 | 用于图像搜索的准确的标签相关性预测 |
-
2017
- 2017-09-29 CN CN201710911540.9A patent/CN109583583B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110222724A1 (en) * | 2010-03-15 | 2011-09-15 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN105184303A (zh) * | 2015-04-23 | 2015-12-23 | 南京邮电大学 | 一种基于多模态深度学习的图像标注方法 |
CN105631479A (zh) * | 2015-12-30 | 2016-06-01 | 中国科学院自动化研究所 | 基于非平衡学习的深度卷积网络图像标注方法及装置 |
CN107085585A (zh) * | 2016-02-12 | 2017-08-22 | 奥多比公司 | 用于图像搜索的准确的标签相关性预测 |
CN106682696A (zh) * | 2016-12-29 | 2017-05-17 | 华中科技大学 | 基于在线示例分类器精化的多示例检测网络及其训练方法 |
Non-Patent Citations (3)
Title |
---|
KEZE WANG 等: "Cost-Effective Active Learning for Deep Image Classification" * |
MINGZHI LI 等: "Combining Semi-Supervised and Active Learning for Hyperspectral Image Classification" * |
李鸣 等: "基于卷积神经网络迭代优化的图像分类算法" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161848A (zh) * | 2019-10-31 | 2020-05-15 | 杭州深睿博联科技有限公司 | Ct图像的病灶标注方法及装置、存储介质 |
CN111161848B (zh) * | 2019-10-31 | 2023-08-29 | 杭州深睿博联科技有限公司 | Ct图像的病灶标注方法及装置、存储介质 |
CN115060011A (zh) * | 2020-05-19 | 2022-09-16 | 山东大学 | 一种基于机器学习的环路热管太阳能流速控制方法 |
CN115060011B (zh) * | 2020-05-19 | 2023-10-27 | 山东大学 | 一种基于机器学习的环路热管太阳能流速控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109583583B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7265003B2 (ja) | ターゲット検出方法、モデル訓練方法、装置、機器及びコンピュータプログラム | |
CN104715285B (zh) | 处理订单的方法和设备 | |
CN103745235B (zh) | 人脸识别方法、装置及终端设备 | |
CN108305296A (zh) | 图像描述生成方法、模型训练方法、设备和存储介质 | |
CN110058694A (zh) | 视线追踪模型训练的方法、视线追踪的方法及装置 | |
CN111813532B (zh) | 一种基于多任务机器学习模型的图像管理方法及装置 | |
CN110163082A (zh) | 一种图像识别网络模型训练方法、图像识别方法及装置 | |
CN108304758A (zh) | 人脸特征点跟踪方法及装置 | |
CN109918975A (zh) | 一种增强现实的处理方法、对象识别的方法及终端 | |
CN108304388A (zh) | 机器翻译方法及装置 | |
CN107871011A (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN109961296A (zh) | 商户类型识别方法及装置 | |
CN104641657A (zh) | 基于用户意图和/或身份调整移动设备状态 | |
CN109918684A (zh) | 模型训练方法、翻译方法、相关装置、设备及存储介质 | |
CN108121803A (zh) | 一种确定页面布局的方法和服务器 | |
WO2018120425A1 (zh) | 个人财产状态评估方法、装置、设备和存储介质 | |
CN108647957A (zh) | 一种支付方法、装置及移动终端 | |
CN109145809A (zh) | 一种记谱处理方法和装置以及计算机可读存储介质 | |
CN107464290A (zh) | 三维信息展示方法、装置和移动终端 | |
CN110058754A (zh) | 一种选项显示方法及终端设备 | |
CN108322523A (zh) | 一种应用推荐方法、服务器及移动终端 | |
CN104820546B (zh) | 功能信息展示方法和装置 | |
CN106874936A (zh) | 图像传播监测方法及装置 | |
CN109376781A (zh) | 一种图像识别模型的训练方法、图像识别方法和相关装置 | |
CN113723159A (zh) | 场景识别模型训练方法、场景识别方法及模型训练装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |