CN112836754A - 一种面向图像描述模型泛化能力评估方法 - Google Patents
一种面向图像描述模型泛化能力评估方法 Download PDFInfo
- Publication number
- CN112836754A CN112836754A CN202110162353.1A CN202110162353A CN112836754A CN 112836754 A CN112836754 A CN 112836754A CN 202110162353 A CN202110162353 A CN 202110162353A CN 112836754 A CN112836754 A CN 112836754A
- Authority
- CN
- China
- Prior art keywords
- image description
- model
- image
- models
- generalization capability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims description 22
- 238000000034 method Methods 0.000 claims abstract description 30
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 238000002474 experimental method Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000012795 verification Methods 0.000 claims description 7
- 238000012805 post-processing Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000011161 development Methods 0.000 description 7
- 230000018109 developmental process Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 235000019987 cider Nutrition 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种面向图像描述模型泛化能力评估方法,包括获取初始数据集,并获得待评估的图像描述模型在初始数据集上的预测结果;选取任意两个图像描述模型预测结果差异最大的图像集合,构建模型差异最大化的样本集;获得样本集的图像描述标签;根据图像描述标签计算所有图像描述模型预测结果的准确性,转化为两两图像描述模型的性能比较分数矩阵,计算所有图像描述模型的全局泛化能力排名。本发明能够有效、客观评估各种图像描述模型的泛化能力。
Description
技术领域
本发明涉及图像描述模型的性能评估技术领域,具体的,涉及一种面向图像描述模型泛化能力评估方法。
背景技术
近年来,深度学习不仅推动了包括图像分类、图像检测和图像分割等图像处理任务的计算机视觉技术的快速发展,并且还推动了包括文本识别、机器翻译等自然语言处理技术的快速成长,而且还使得以图像描述为代表的跨媒体技术取得了高速发展。
然而,深度学习模型的性能依赖于数据集,不同的任务对应的公开数据集规模有较大差异,这种数据驱动的方法往往伴随着数据的过度依赖,存在极大的过拟合风险。
因此,评估模型泛化能力的研究极具实用价值和学术价值。为了有效评估模型的泛化能力,需要人工构建一个新的且由代表性样本组成的大规模数据集,对于图像描述任务而言,大规模数据集的人工标注需要消耗大量人力物力和时间成本。而大部分图像描述模型在面临来源于真实世界的新数据挑战时,其描述的性能指标会出现大部分下降,这说明支持模型训练数据的数量和多样性不足,从而导致模型表现出泛化性能差的问题。在这种情况下,图像描述模型泛化能力评估对于图像描述模型评估是有意义的任务。
提出能够对图像描述模型的泛化能力进行有效验证的方法的目的在于:
(1)以无偏的方式评图像描述模型的泛化能力,针对真实世界的图像多样性,进行有效的模型比较,为图像描述领域发展提供潜在优化方向。
(2)消耗少量的人力物力,得到由代表性数据样本和人工标注组成数据集,可以对有监督图像描述模型训练进行指导,以此强化模型的泛化性能。
(3)研究模型泛化能力评估方法,有助于进一步理解人类视觉感知系统和语言系统,如注意力机制和记忆力机制等,有助于推动人类认知科学的发展。
因此,有效且准确地验证图像描述模型的泛化能力算法对于图像描述任务的发展乃至跨媒体领域的发展都会有很大的促进作用。然而,现有技术并没有针对图像描述模型的泛化能力的评估方法,不能满足图像描述任务的发展需求。
发明内容
针对现有技术的不足,本发明提供一种有效、客观评估图像泛化能力的面向图像描述模型泛化能力评估方法。
为实现上述目的,本发明通过以下技术方案予以实现:一种面向图像描述模型泛化能力评估方法,包括:获取初始数据集,并获得待评估的图像描述模型在初始数据集上的预测结果;选取任意两个图像描述模型预测结果差异最大的图像集合,构建模型差异最大化的样本集;获得样本集的图像描述标签;根据图像描述标签计算所有图像描述模型预测结果的准确性,转化为两两图像描述模型的性能比较分数矩阵,计算所有图像描述模型的全局泛化能力排名;其中,计算所有图像描述模型的全局泛化能力排名包括:分别计算两两比较的待评估的图像描述模型在样本集上的图像描述任务指标成绩p,记pij和pji分别为模型Ci和Cj在样本集D{i,j}上的任务指标成绩,使用指标成绩pij和pji形成两两比较的成绩矩阵P,并计算成对的对比分数fij,得到所有图像描述模型的成对对比分数,形成成对的对比分数矩阵F;将成对的对比分数矩阵F为所有图像描述模型的全局泛化能力排名,全局泛化能力排名记为q,全局泛化能力排名计算公式为:
其中,1表示m维全1向量。
优选的,对比分数fij的计算公式如下:
优选的,获得待评估的图像描述模型在初始数据集上的预测结果包括:将初始数据集记为R={Im|m∈[1,M]},其中M为初始数据集的大小,m为初始数据集中的一个元素;获取多个待评估的图像描述模型,形成图像描述模型集,记为C={Cn|n∈[1,N]},其中N为待评估的图像描述模型的总数,n为图像描述模型集的一个元素;计算待评估的图像描述模型在初始数据集上的预测结果。
优选的,计算待评估的图像描述模型在初始数据集上的预测结果时,图像输入预处理以及输出文本后处理均采用超参数设置。
优选的,构建模型差异最大化的样本集包括:通过预先设定的评价指标计算任意两个待评估的模型Ci和模型Cj预测结果的差异性;对于模型Ci和模型Cj,从初始数据集中选择差异最大化样本集,记为D{i,j},其中,D{i,j}的计算公式如下所示:其中,Ci(x)和Cj(x)分别表示模型Ci和模型Cj对图像x的预测结果,argmin表示求最小值。
优选的,预先设定的评价指标为基于n元语法的相似度指标函数,该相似度指标函数的计算公式如下:
其中,s*表示描述句,Wn表示n元语法,Os(Wn)为描述句s中Wn的个数,Un(s)描述句s中各个Wn的个数之和,Cln(s1,s2)表示Wn在s1与s2同时出现的次数之和。
优选的,获得样本集的图像描述标签包括:获取第一阶段主观实验得到的代表性样本集的图像描述标签;并获取第二阶段主观实验得到对图像描述标签的验证数据,以验证数据作为最终的图像描述标签。
与现有技术相比,本发明的有益效果是:
应用本发明可以计算出不同的图像描述模型在相同图像的输出表现出强烈的差异性,由此可以准确评估各种图像描述模型的泛化性能,并且获得了容易影响图像描述模型预测出错的图像类型,由于采用计算机程序实现大部分计算,可以客观的对各种图像描述模型的泛化能力进行评估,并且消耗的人力、物力较少。
附图说明
图1是本发明面向图像描述模型泛化能力评估方法实施例的流程图;
图2是应用本发明面向图像描述模型泛化能力评估方法实施例对比的图像描述模型在标准数据集COCO和本发明提出的数据集上的成绩对比图;
图3是应用本发明面向图像描述模型泛化能力评估方法实施例计算的各个模型在CIDEr和SPICE的全局泛化能力排名示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明是一种面向图像描述模型泛化能力评估方法,本发明的方法可以应用计算机装置实现,例如,计算机装置包括处理器以及存储器,存储器上存储有计算机程序,计算机程序可以实现本发明的面向图像描述模型泛化能力评估方法。
参见图1,本实施例首先执行步骤S1,针对图像描述模型训练的常见类别,通过互联网收集规模足够大的图像数据集,构建大型的初始数据集,将初始数据集记为R={Im|m∈[1,M]},其中M表示初始数据集大小,m为初始数据集中的一个元素。并且,选择多个主流的图像描述模型作为待评估的图像描述模型,将多个图像描述模型构建图像描述模型集,图像描述模型集记为C={Cn|n∈[1,N]},其中N为待评估的图像描述模型的总数,n为图像描述模型集的一个元素。
然后,执行步骤S2,计算待评估的图像描述模型在初始数据集上的预测结果。本实施例中,为确保所有待评估的图像描述模型评估有效性,测试过程中采用各方法默认的超参数设置,例如,计算待评估的图像描述模型在初始数据集上的预测结果时,图像输入预处理以及输出文本后处理均采用超参数设置。
图像描述模型对于某一个图像的预测结果计算方法是已知的方法,再次不再赘述。而待评估的图像描述模型在初始数据集上的预测结果是某一个图像描述模型针对初始数据集上的多张图像的预测结果。
接着,执行步骤S3,进行多个待评估的图像描述模型的差异最大化样本的提取。具体的,首先通过预先设定的指标计算任意两个待评估的图像描述模型Ci和模型Cj预测结果的差异性。本实施例中,预先设定的评价指标是基于n元语法的相似度指标函数,该相似度指标函数的计算公式如下:
上面的公式1至公式4中,s*表示描述句,Wn表示n元语法,Os(Wn)为描述句s中Wn的个数,Un(s)描述句s中各个Wn的个数之和,而Cln(s1,s2)表示Wn在s1与s2同时出现的次数之和。公式4的输出结果,即S(Ci(x),Cj(x))表示Ci(x)和Cj(x)的相似度,图像描述模型输出之间的相似度越小,差异性越大。
然后从初始数据集中选择差异最大化样本集,记为D{i,j}。本实施例中,D{i,j}的计算公式如下:
其中,Ci(x)和Cj(x)分别表示图像描述模型Ci和模型Cj对图像x的预测结果,argmin为求最小值的计算。
然后,执行步骤S4,获取样本集的图像描述标签。本实施例的图像描述标签数据通过“两阶段小规模主观实验”生成,其具体过程如下:
首先,进行第一阶段主观实验,生成图像描述标签数据。具体的,实验参与者严格按照模型训练数据集的标注规则,通过标注工具对样本集进行人工标注,获得该代表性样本集的图像描述标签。
然后,进行第二阶段主观实验,验证图像描述标签数据。为了保证第一阶段主观实验生成标注的准确性,在第二阶段主观实验邀请另外一批实验参与者对第一阶段主观实验所生成图像描述标签数据进行人工验证。实验参与者严格按照模型训练数据集的标注规则,判断第一阶段主观实验生成标注是否正确,每一条标注都会由三名验证人员检查。如果有一名以上的验证人员认为一条标注为错误标注,该条标注将被丢弃。这样,获取第二阶段主观实验得到对图像描述标签的验证数据,以第二阶段主观实验得到的验证数据作为最终的图像描述标签。在获取最终的图像描述标签后,将最终的图像描述标签输入至计算机装置,作为后续计算的基础。
然后,执行步骤S5,计算两两图像描述模型的性能比较分数矩阵。具体的,分别计算两两比较的图像描述模型在样本集上的图像描述任务指标成绩p,对于图像描述模型Ci和图像描述模型Cj,图像描述任务指标成绩分别记pij和pji,分别表示图像描述模型Ci和图像描述模型Cj在数据集D{i,j}上的任务指标成绩。图像描述模型在样本集上的图像描述任务指标成绩的计算方法可以采用已知的方法实现,在此不做详细论述。
然后,由上述指标成绩pij和pji形成两两比较的成绩矩阵,并且得到成对对比分数fij,并且,对比分数fij可以表示图像描述模型Ci对于图像描述模型Cj强度分数,对比分数fij的计算公式如下:
当对比分数fij大于1时,表示图像描述模型Ci相比图像描述模型Cj在数据D{i,j}上表现出更好的性能。通过上述计算,可以得到所有图像描述模型的成对对比分数,形成成对对比分数矩阵F。
最后执行步骤S6,通过极大似然估计,将成对对比分数矩阵F为所有图像描述模型的全局泛化能力排名,记为q,图像描述模型的全局泛化能力排名的计算公式如下:
其中,1表示m维全1的向量。
为了验证本实施例方法的准确性,使用CIDEr(Consensus-based ImageDescription Evaluation,基于一致性的图像描述评估)和SPICE(SemanticPropositional Image Caption Evaluation,语义命题式图像标题评估)两个指标来度量模型预测描述结果的准确性,CIDEr和SPICE是用于衡量模型预测描述和人工标注描述的相似性。一般来说,模型预测描述与人工标注描述的CIDEr和SPICE值越高,表示模型的性能越好。为了验证本发明的方法的有效性与准确性,选取九种基于深度学习的图像描述模型,包括X-LAN、MM、AoA、SGAE、ORT、Stack-Cap、Top-Down和SCST。不同的图像描述模型在相同图像的输出表现出强烈的差异性,由此评估各种图像描述模型的泛化性能,并且获得了容易影响模型预测出错的图像类型,在此过程中仅仅耗费了较少人力和物力。
下面的表1是应用本发明的方法对多种图像描述模型在CIDEr指标上的排名情况,表2应用本发明的方法对多种图像描述模型在SPICE指标上的排名情况。
表1:对多种图像描述模型在CIDEr指标上的排名情况
表2:对多种图像描述模型在SPICE指标上的排名情况
另外,图2为本发明对比的多个图像描述模型在标准数据集COCO和本发明提出的数据集上的成绩对比,其中方点线是图像描述模型在CIDEr指标上的得分,圆点线是图像描述模型在SPICE指标上的得分。具体的,上方的方点线多个图像描述模型在标准数据集COCO对于CIDEr指标的成绩,下方的方点线多个图像描述模型在本发明提出的数据集上对于CIDEr指标的成绩;上方的圆点线多个图像描述模型在标准数据集COCO对于SPICE指标的成绩,下方的方点线多个图像描述模型在本发明提出的数据集上对于SPICE指标的成绩。可以看出,在本发明的差异最大化且具有代表性的样本集中,大多数模型的性能出现大幅度下降。
图3是各个图像描述模型在CIDEr指标和SPICE指标的全局泛化能力排名,通过比较所有结果的统计量和分布,可以看出MM、X-LAN和AoA等图像描述模型在本发明提出的代表性样本集中展现出了最高的泛化性能。同时,ORT图像描述模型展现其在泛化能力的弱点。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种面向图像描述模型泛化能力评估方法,其特征在于,包括:
获取初始数据集,并获得待评估的图像描述模型在所述初始数据集上的预测结果;
选取任意两个图像描述模型预测结果差异最大的图像集合,构建模型差异最大化的样本集;
获得所述样本集的图像描述标签;
根据所述图像描述标签计算所有图像描述模型预测结果的准确性,转化为两两图像描述模型的性能比较分数矩阵,计算所有图像描述模型的全局泛化能力排名;
其中,计算所有图像描述模型的全局泛化能力排名包括:
分别计算两两比较的待评估的图像描述模型在所述样本集上的图像描述任务指标成绩p,记pij和pji分别为模型Ci和模型Cj在所述样本集D{i,j}上的任务指标成绩,使用所述指标成绩pij和pji形成两两比较的成绩矩阵P,并计算成对的对比分数fij,得到所有图像描述模型的成对对比分数,形成成对的对比分数矩阵F;
将成对的对比分数矩阵F为所有图像描述模型的全局泛化能力排名,全局泛化能力排名记为q,全局泛化能力排名计算公式为:
其中,1表示m维全1向量。
3.根据权利要求1所述的一种面向图像描述模型泛化能力评估方法,其特征在于:
获得待评估的图像描述模型在所述初始数据集上的预测结果包括:
将所述初始数据集记为R={Im|m∈[1,M]},其中M为所述初始数据集的大小,m为所述初始数据集中的一个元素;
获取多个待评估的图像描述模型,形成图像描述模型集,记为C={Cn|n∈[1,N]},其中N为待评估的图像描述模型的总数,n为图像描述模型集的一个元素;
计算待评估的图像描述模型在所述初始数据集上的预测结果。
4.根据权利要求3所述的一种面向图像描述模型泛化能力评估方法,其特征在于:
计算待评估的图像描述模型在所述初始数据集上的预测结果时,图像输入预处理以及输出文本后处理均采用超参数设置。
7.根据权利要求1至4任一项所述的一种面向图像描述模型泛化能力评估方法,其特征在于:
获得所述样本集的图像描述标签包括:获取第一阶段主观实验得到的代表性样本集的图像描述标签;并获取第二阶段主观实验得到对所述图像描述标签的验证数据,以所述验证数据作为最终的图像描述标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110162353.1A CN112836754A (zh) | 2021-02-05 | 2021-02-05 | 一种面向图像描述模型泛化能力评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110162353.1A CN112836754A (zh) | 2021-02-05 | 2021-02-05 | 一种面向图像描述模型泛化能力评估方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112836754A true CN112836754A (zh) | 2021-05-25 |
Family
ID=75932487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110162353.1A Pending CN112836754A (zh) | 2021-02-05 | 2021-02-05 | 一种面向图像描述模型泛化能力评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112836754A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115393652A (zh) * | 2022-09-20 | 2022-11-25 | 北京国电通网络技术有限公司 | 基于对抗网络的人工智能模型更新方法、识别方法和设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017024963A1 (zh) * | 2015-08-11 | 2017-02-16 | 阿里巴巴集团控股有限公司 | 图像识别方法、度量学习方法、图像来源识别方法及装置 |
WO2019042244A1 (zh) * | 2017-08-30 | 2019-03-07 | 腾讯科技(深圳)有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
CN110457514A (zh) * | 2019-08-12 | 2019-11-15 | 桂林电子科技大学 | 一种基于深度哈希的多标签图像检索方法 |
KR20200054121A (ko) * | 2019-11-29 | 2020-05-19 | 주식회사 루닛 | 기계 학습 방법 및 장치 |
CN111612103A (zh) * | 2020-06-23 | 2020-09-01 | 中国人民解放军国防科技大学 | 结合抽象语义表示的图像描述生成方法、系统及介质 |
CN112016618A (zh) * | 2020-08-28 | 2020-12-01 | 方玉明 | 一种用于对图像语义分割模型泛化能力的度量方法 |
CN112101328A (zh) * | 2020-11-19 | 2020-12-18 | 四川新网银行股份有限公司 | 一种深度学习中识别并处理标签噪声的方法 |
WO2020253296A1 (zh) * | 2019-06-19 | 2020-12-24 | 深圳Tcl新技术有限公司 | 图像分割模型的训练方法、图像分割方法、介质及终端 |
-
2021
- 2021-02-05 CN CN202110162353.1A patent/CN112836754A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017024963A1 (zh) * | 2015-08-11 | 2017-02-16 | 阿里巴巴集团控股有限公司 | 图像识别方法、度量学习方法、图像来源识别方法及装置 |
WO2019042244A1 (zh) * | 2017-08-30 | 2019-03-07 | 腾讯科技(深圳)有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
WO2020253296A1 (zh) * | 2019-06-19 | 2020-12-24 | 深圳Tcl新技术有限公司 | 图像分割模型的训练方法、图像分割方法、介质及终端 |
CN110457514A (zh) * | 2019-08-12 | 2019-11-15 | 桂林电子科技大学 | 一种基于深度哈希的多标签图像检索方法 |
KR20200054121A (ko) * | 2019-11-29 | 2020-05-19 | 주식회사 루닛 | 기계 학습 방법 및 장치 |
CN111612103A (zh) * | 2020-06-23 | 2020-09-01 | 中国人民解放军国防科技大学 | 结合抽象语义表示的图像描述生成方法、系统及介质 |
CN112016618A (zh) * | 2020-08-28 | 2020-12-01 | 方玉明 | 一种用于对图像语义分割模型泛化能力的度量方法 |
CN112101328A (zh) * | 2020-11-19 | 2020-12-18 | 四川新网银行股份有限公司 | 一种深度学习中识别并处理标签噪声的方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115393652A (zh) * | 2022-09-20 | 2022-11-25 | 北京国电通网络技术有限公司 | 基于对抗网络的人工智能模型更新方法、识别方法和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wells et al. | Artificial intelligence in dermatopathology: Diagnosis, education, and research | |
CN112270196B (zh) | 实体关系的识别方法、装置及电子设备 | |
Wang et al. | Images don’t lie: Duplicate crowdtesting reports detection with screenshot information | |
US9633045B2 (en) | Image ranking based on attribute correlation | |
WO2018218708A1 (zh) | 一种基于深度学习的舆情热点类别划分方法 | |
WO2019015246A1 (zh) | 图像特征获取 | |
Yang et al. | Tag-based expert recommendation in community question answering | |
CN102422324B (zh) | 年龄估计设备和方法 | |
KR102265573B1 (ko) | 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템 | |
Nguyen et al. | Probabilistic modeling for crowdsourcing partially-subjective ratings | |
WO2021139316A1 (zh) | 建立表情识别模型方法、装置、计算机设备及存储介质 | |
CN113722474A (zh) | 文本分类方法、装置、设备及存储介质 | |
CN111582506A (zh) | 基于全局和局部标记关系的偏多标记学习方法 | |
CN109947923A (zh) | 一种基于词向量的初等数学题型自动提取方法及系统 | |
Liu et al. | Recognizing semantic correlation in image-text weibo via feature space mapping | |
CN112016618A (zh) | 一种用于对图像语义分割模型泛化能力的度量方法 | |
CN114511759A (zh) | 一种皮肤状态图像的类别识别和特征确定方法及系统 | |
CN112836754A (zh) | 一种面向图像描述模型泛化能力评估方法 | |
CN107291686B (zh) | 情感标识的辨识方法和情感标识的辨识系统 | |
CN116861358A (zh) | 基于bp神经网络与多源数据融合的计算思维评测方法 | |
CN111144453A (zh) | 构建多模型融合计算模型的方法及设备、网站数据识别方法及设备 | |
CN112732908B (zh) | 试题新颖度评估方法、装置、电子设备和存储介质 | |
JP6026036B1 (ja) | データ分析システム、その制御方法、プログラム、及び、記録媒体 | |
CN113821571A (zh) | 基于bert和改进pcnn的食品安全关系抽取方法 | |
JP6509391B1 (ja) | 計算機システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |