CN110297934B - 一种图像数据处理方法、装置及存储介质 - Google Patents
一种图像数据处理方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110297934B CN110297934B CN201910598919.8A CN201910598919A CN110297934B CN 110297934 B CN110297934 B CN 110297934B CN 201910598919 A CN201910598919 A CN 201910598919A CN 110297934 B CN110297934 B CN 110297934B
- Authority
- CN
- China
- Prior art keywords
- image
- tag
- scene
- information
- confidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000006243 chemical reaction Methods 0.000 claims description 87
- 238000003062 neural network model Methods 0.000 claims description 44
- 238000013507 mapping Methods 0.000 claims description 40
- 238000005457 optimization Methods 0.000 claims description 33
- 230000006399 behavior Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 14
- 230000009469 supplementation Effects 0.000 description 10
- 230000001502 supplementing effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 239000013589 supplement Substances 0.000 description 5
- 241000196324 Embryophyta Species 0.000 description 4
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 238000012163 sequencing technique Methods 0.000 description 3
- 210000004243 sweat Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 235000011850 desserts Nutrition 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000021186 dishes Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 235000013372 meat Nutrition 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000191291 Abies alba Species 0.000 description 1
- 206010003591 Ataxia Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开一种图像数据处理方法、装置及存储介质,其中,方法包括:获取第一图像中的图像内容对应的图像场景标签;获取所述第一图像相关联的业务事件对应的业务辅助标签;基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息。采用本申请实施例,可以提高数据匹配的准确度和效率。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种图像数据处理方法、装置及存储介质。
背景技术
随着计算机技术的快速发展,为满足广大用户的拍摄需求,衍生出了各式各样的成像设备,比如,相机、手机、平板、电脑等包含摄像头的设备。当用户通过这些成像设备得到图片时,可以在成像设备上对该图片进行文字编辑,即用户可以在该图片对应的文本输入区域中手动录入业务数据信息(例如,文本信息)。然而,可以理解的是,为了使该用户输入的文本信息更为贴合该图片中的图片内容,往往需要消耗较长的思考时长,从而导致图文匹配的时长较长进而导致整个图文匹配(即数据匹配)的效率较低;
此外,由于成像设备可以将该用户在该文本输入区域上所输入的任意字符视为用于描述该图片的文本信息,从而会存在图文不符的现象,进而影响了图文匹配(即数据匹配)的准确度。
发明内容
本申请实施例提供一种图像数据处理方法、装置及存储介质,可以提高数据匹配的效率,并可以确保数据匹配的准确度。
本申请实施例一方面提供了一种图像数据处理方法,所述方法包括:
获取第一图像中的图像内容对应的图像场景标签;
获取所述第一图像相关联的业务事件对应的业务辅助标签;
基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;
根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息。
其中,所述基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签,包括:
基于所述图像场景标签对应的置信度信息、所述业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理,得到所述第一图像相关联的N个排序标签;N为所述图像场景标签的数量与所述业务辅助标签的数量之和;
根据所述N个排序标签对应的置信度信息,在所述N个排序标签中选取K个排序标签作为所述第一图像对应的关键属性标签。
其中,所述方法还包括:
获取第一图像,提取所述第一图像中的图像内容;
通过神经网络模型对所述图像内容进行场景识别,得到所述图像内容对应的场景识别标签以及所述场景识别标签相关联的置信度信息;
获取所述场景识别标签相关联的语义补充标签;
将所述场景识别标签和所述语义补充标签进行组合,将组合后的场景识别标签确定为所述图像内容所属的图像场景标签;
将所述场景识别标签相关联的置信度信息确定为所述图像场景标签对应的置信度信息。
其中,所述通过神经网络模型对所述图像内容进行场景识别,得到所述图像内容对应的场景识别标签以及所述场景识别标签相关联的置信度信息,包括:
通过神经网络模型提取所述图像内容对应的图像特征;
将所述图像特征作为所述神经网络模型中的分类器对应的输入特征,输出所述图像特征与所述分类器中的目标标签特征之间的匹配度;
将具有最大匹配度的目标标签特征相关联的标签信息确定为所述图像内容对应的场景识别标签;
将所述目标标签特征对应的最大匹配度确定为所述场景识别标签相关联的置信度信息。
其中,所述方法还包括:
从所述第一图像中提取图像时间和图像地点;
基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息。
其中,所述基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息,包括:
获取所述图像时间相关联的第一语义映射表,在所述第一语义映射表中将查找到的所述图像时间对应的时间语义标签作为时间转换标签,为所述时间转换标签设置时间置信度信息;
获取所述图像地点对应的第二语义映射表,在所述第二语义映射表中将查找到的所述图像地点对应的位置语义标签作为位置转换标签,为所述位置转换标签设置位置置信度信息;
根据所述时间转换标签和所述位置转换标签确定所述第一图像相关联的业务事件,得到所述业务事件对应的业务辅助标签;
根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息。
其中,所述根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息,包括:
若所述业务事件满足置信度调整条件,则根据所述置信度调整条件调整所述时间置信度信息和所述位置置信度信息;
根据调整后的时间置信度信息、调整后的位置置信度信息,确定所述业务辅助标签对应的置信度信息。
其中,所述根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息,包括:
在业务数据库中筛选与所述关键属性标签相匹配的文本信息作为待推荐文本信息;
根据所述关键属性标签获取所述待推荐文本信息中的关键字,根据所述关键字确定所述待推荐文本信息对应的文字匹配度;
在所述待推荐文本信息对应的文字匹配度中,将具有最大文字匹配度的待推荐文本信息作为与所述第一图像相匹配的业务数据信息。
其中,所述根据所述关键属性标签获取所述待推荐文本信息中的关键字,根据所述关键字确定所述待推荐文本信息对应的文字匹配度,包括:
在所述待推荐文本信息中将与所述关键属性标签相匹配的目标字段作为所述待推荐文本信息中的关键字;
将所述关键字与所述关键属性标签之间的匹配度作为第一匹配度;
在所述业务数据库中将所述关键属性标签与所述第一图像相关联的用户的行为标签之间的匹配度确定为第二匹配度;
基于所述第一匹配度、所述第二匹配度,确定所述待推荐文本信息对应的累计匹配度,将所述待推荐文本信息对应的累计匹配度作为所述待推荐文本信息对应的文字匹配度。
其中,所述方法还包括:
获取所述图像场景标签所属的分类场景,根据所述分类场景中的图像场景标签对应的置信度信息选取目标分类场景;
获取所述目标分类场景相关联的图像配置信息;
基于所述图像配置信息更新所述第一图像。
其中,所述获取所述图像场景标签所属的分类场景,根据所述分类场景中的图像场景标签对应的置信度信息选取目标分类场景,包括:
基于场景分类规则划分所述图像场景标签所属的分类场景;
累计所述分类场景中的图像场景标签对应的置信度信息,得到所述分类场景对应的累计置信度信息;
从所述分类场景对应的累计置信度信息中选取具有最大累计置信度信息的分类场景作为目标分类场景。
其中,所述图像配置信息包含图像优化参数和模板信息;
所述基于所述图像配置信息更新所述第一图像,包括:
根据所述图像优化参数对所述第一图像进行优化处理;
根据所述模板信息将所述业务数据信息与优化处理后的第一图像进行整合,得到第二图像;
将所述第二图像上传至业务数据展示平台,以使所述业务数据展示平台展示所述第二图像。
本申请实施例一方面提供了一种图像图像数据处理装置,所述装置包括:
第一获取模块,用于获取第一图像中的图像内容对应的图像场景标签;
第二获取模块,用于获取所述第一图像相关联的业务事件对应的业务辅助标签;
关键标签确定模块,用于基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;
业务获取模块,用于根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息。
其中,所述关键标签确定模块包括:
标签排序单元,用于基于所述图像场景标签对应的置信度信息、所述业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理,得到所述第一图像相关联的N个排序标签;N为所述图像场景标签的数量与所述业务辅助标签的数量之和;
关键标签确定单元,用于根据所述N个排序标签对应的置信度信息,在所述N个排序标签中选取K个排序标签作为所述第一图像对应的关键属性标签。
其中,所述装置还包括:
图像获取模块,用于获取第一图像,提取所述第一图像中的图像内容;
场景识别模块,用于通过神经网络模型对所述图像内容进行场景识别,得到所述图像内容对应的场景识别标签以及所述场景识别标签相关联的置信度信息;
语义补充模块,用于获取所述场景识别标签相关联的语义补充标签;
标签组合模块,用于将所述场景识别标签和所述语义补充标签进行组合,将组合后的场景识别标签确定为所述图像内容所属的图像场景标签;
置信度确定模块,用于将所述场景识别标签相关联的置信度信息确定为所述图像场景标签对应的置信度信息。
其中,所述场景识别模块包括:
特征提取单元,用于通过神经网络模型提取所述图像内容对应的图像特征;
匹配度输出单元,用于将所述图像特征作为所述神经网络模型中的分类器对应的输入特征,输出所述图像特征与所述分类器中的目标标签特征之间的匹配度;
场景识别单元,用于将具有最大匹配度的目标标签特征相关联的标签信息确定为所述图像内容对应的场景识别标签;
置信度确定单元,用于将所述目标标签特征对应的最大匹配度确定为所述场景识别标签相关联的置信度信息。
其中,所述装置还包括:
提取模块,用于从所述第一图像中提取图像时间和图像地点;
事件确定模块,用于基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息。
其中,所述事件确定模块包括:
时间转换单元,用于获取所述图像时间相关联的第一语义映射表,在所述第一语义映射表中将查找到的所述图像时间对应的时间语义标签作为时间转换标签,为所述时间转换标签设置时间置信度信息;
位置转换单元,用于获取所述图像地点对应的第二语义映射表,在所述第二语义映射表中将查找到的所述图像地点对应的位置语义标签作为位置转换标签,为所述位置转换标签设置位置置信度信息;
事件确定单元,用于根据所述时间转换标签和所述位置转换标签确定所述第一图像相关联的业务事件,得到所述业务事件对应的业务辅助标签;
辅助信息确定单元,用于根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息。
其中,所述辅助信息确定单元包括:
调整子单元,用于若所述业务事件满足置信度调整条件,则根据所述置信度调整条件调整所述时间置信度信息和所述位置置信度信息;
辅助确定子单元,用于根据调整后的时间置信度信息、调整后的位置置信度信息,确定所述业务辅助标签对应的置信度信息。
其中,所述业务获取模块包括:
待推荐单元,用于在业务数据库中筛选与所述关键属性标签相匹配的文本信息作为待推荐文本信息;
关键字确定单元,用于根据所述关键属性标签获取所述待推荐文本信息中的关键字,根据所述关键字确定所述待推荐文本信息对应的文字匹配度;
业务数据确定单元,用于在所述待推荐文本信息对应的文字匹配度中,将具有最大文字匹配度的待推荐文本信息作为与所述第一图像相匹配的业务数据信息。
其中,所述关键字确定单元包括:
字段确定子单元,用于在所述待推荐文本信息中将与所述关键属性标签相匹配的目标字段作为所述待推荐文本信息中的关键字;
第一匹配子单元,用于将所述关键字与所述关键属性标签之间的匹配度作为第一匹配度;
第二匹配子单元,用于在所述业务数据库中将所述关键属性标签与所述第一图像相关联的用户的行为标签之间的匹配度确定为第二匹配度;
累计匹配子单元,用于基于所述第一匹配度、所述第二匹配度,确定所述待推荐文本信息对应的累计匹配度,将所述待推荐文本信息对应的累计匹配度作为所述待推荐文本信息对应的文字匹配度。
其中,所述装置还包括:
目标场景获取模块,用于获取所述图像场景标签所属的分类场景,根据所述分类场景中的图像场景标签对应的置信度信息选取目标分类场景;
配置信息获取模块,用于获取所述目标分类场景相关联的图像配置信息;
图像更新模块,用于基于所述图像配置信息更新所述第一图像。
其中,所述目标场景获取模块包括:
场景划分单元,用于基于场景分类规则划分所述图像场景标签所属的分类场景;
置信度累计单元,用于累计所述分类场景中的图像场景标签对应的置信度信息,得到所述分类场景对应的累计置信度信息;
目标场景确定单元,用于从所述分类场景对应的累计置信度信息中选取具有最大累计置信度信息的分类场景作为目标分类场景。
其中,所述图像配置信息包含图像优化参数和模板信息;
所述图像更新模块包括:
图像优化单元,用于根据所述图像优化参数对所述第一图像进行优化处理;
图像整合单元,用于根据所述模板信息将所述业务数据信息与优化处理后的第一图像进行整合,得到第二图像;
图像上传单元,用于将所述第二图像上传至业务数据展示平台,以使所述业务数据展示平台展示所述第二图像。
本申请实施例一方面提供了一种计算机设备,所述计算机设备包括:处理器、存储器以及网络接口;
所述处理器与存储器、网络接口相连,其中,网络接口用于提供数据通信功能,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行如本申请实施例一方面中的方法。
本申请实施例一方面提供了一种计算机存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,当所述处理器执行所述程序指令时执行如本申请实施例一方面中的方法。
在本申请实施例中,通过对第一图像中的图像内容进行智能识别,可以得到所述第一图像中的图像内容对应的图像场景标签;进一步的,获取所述第一图像相关联的业务事件对应的业务辅助标签;进一步的,基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;进一步的,通过所述关键属性标签可以获取与所述第一图像相匹配的业务数据信息。由此可见,本申请实施例可以得到用于描述该第一图像的关键属性标签,从而可以基于该关键属性标签快速搜索到与该第一图像相匹配的业务数据信息(例如,文本信息),以提高图文匹配(即数据匹配)的效率。此外,在整个图文匹配的过程中,由于无需人工干预,可以有效地确保图文匹配的准确度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络架构的结构示意图;
图2是本申请实施例提供的一种进行图像处理的系统流程图;
图3是本申请实施例提供的一种图像数据处理方法的流程示意图;
图4是本申请实施例提供的一种获取图像场景识别标签的示意图;
图5是本申请实施例提供的一种获取第一图像的场景示意图;
图6是本申请实施例提供的一种获取业务辅助标签的场景示意图;
图7是本申请实施例提供的一种获取关键属性标签的示意图;
图8是本申请实施例提供的一种获取与该第一图像相匹配的业务数据信息的场景示意图;
图9是本申请实施例提供的一种展示第二图像的示意图;
图10是本申请实施例提供的另一种图像数据处理方法的流程示意图;
图11是本申请实施例提供的一种划分分类场景的示意图;
图12是本申请实施例提供的一种图像数据处理装置的结构示意图;
图13是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参见图1,是本申请实施例提供的一种网络架构的结构示意图。如图1所示,所述网络架构可以包括服务器2000和用户终端集群,所述用户终端集群可以包括多个用户终端,如图1所示,具体可以包括用户终端3000a、用户终端3000b、用户终端3000c、…、用户终端3000n;如图1所示,用户终端3000a、用户终端3000b、用户终端3000c、…、用户终端3000n可以分别与所述服务器2000进行网络连接,以便于每个用户终端可以通过该网络连接与服务器2000之间进行数据交互。
为便于理解,本申请实施例可以在图1所示的多个用户终端中选择一个用户终端作为目标用户终端,该目标用户终端可以包括:智能手机、平板电脑、桌上型电脑等携带图像数据处理功能的智能终端。例如,本申请实施例可以将图1所示的用户终端3000a作为所述目标用户终端,该目标用户终端中可以集成有具备该图像数据处理功能的第一应用。该第一应用可以包含图像处理应用、社交应用等。
为便于理解,本申请实施例可以以第一应用为图像处理应用为例,以阐述在该第一应用中对获取到的第一图像进行图文匹配的具体实现方式。当该第一应用(即图像处理应用)运行于该目标用户终端中时,可以在该目标用户终端中执行图像处理任务,该图像处理任务可以包含场景识别任务、图像优化任务、图文匹配任务、版式匹配任务等。
为便于理解,进一步的,请参见图2,是本申请实施例提供的一种进行图像处理的系统流程图。如图2所示,当用户触发该第一应用中的相机按钮时,可执行图2所示的步骤10a,以调用该第一应用中的相机模块,并通过该相机模块的摄像头(例如,前置或者后置摄像头)实时采集图像数据,并可以将采集到的图像数据统称为图像帧,从而可以在该目标用户终端中对采集到的每个图像帧执行图2所示的步骤20a和步骤50a,以识别每个图像帧中的图像内容相关联的场景识别标签,并基于每个图像帧对应的目标分类场景分别对每个图像帧进行图像优化处理(比如,可以根据每个图像帧对应的目标分类场景快速得到相应的特效参数),直到用户对该第一应用中的拍摄按钮(即确认拍摄按钮)执行触发操作时,可以进一步执行图2所示的步骤60a,得到该触发操作所对应的图像帧的拍摄时间和拍摄地点。此时,该目标用户终端可以将该触发操作所对应的图像帧称之为第一图像,从而可以将该触发操作所对应的图像帧相关联的场景识别标签称之为该第一图像相关联的场景识别标签,并可以将该触发操作所对应的图像数据的拍摄时间称之为该第一图像的图像时间,并可以将该触发操作所对应的图像数据的拍摄地点称之为该第一图像的图像地点。
当目标用户终端得到图像时间和图像地点之后,可以进一步执行图2所示的步骤60b,即分别对图像时间和图像地点进行语义转换,从而可以将图像时间对应的时间语义标签称之为时间转换标签,并可以为该时间转换标签设置时间置信度信息;同理,可以将图像地点对应的位置语义标签称之为位置转换标签,也可以该位置转换标签设置位置置信度信息。本申请实施例可以将该时间转换标签和位置转换标签统称为业务事件对应的业务辅助标签,并可以得到该业务辅助标签对应的置信度信息。
同理,为增强该第一图像中的图像内容的叙事性和联想性,本申请实施也可以在得到该第一图像中的图像内容相关联的场景识别标签时,对该场景识别标签进行语义补充,以得到场景识别标签相关联的语义补充标签,并可以将场景识别标签和语义补充标签统称为该第一图像中的图像内容对应的图像场景标签;此外,本申请实施例可以将该场景识别识别标签相关联的置信度信息作为该图像场景标签对应的置信度信息。
由此可见,本申请实施例中的语义补充标签可以用于增强第一图像中的图像内容的叙事性和联想性。比如,本申请实施例还可以将该语义补充标签与当前的运营热点进行强关联,以构建该第一图像中的图像内容与短期的运营热点之间的关联关系。比如,可以在预设时间段内(例如,一个月内)将场景识别标签(例如,夜景、天空、月亮)与当前的运营热点(例如,流浪地球)进行强关联,以便于后续在图文匹配的过程中能够细化参与匹配的图像场景标签的检索维度,进而可以提高图文匹配(即数据匹配)的准确度。
其中,可以理解的是,上述神经网络模型可以集成在第一应用中,还可以集成在与该第一应用相关联的后台服务器(即上述图1所示的服务器2000)中。换言之,在本申请实施例中,当该集成有神经网络模型的第一应用运行在该目标用户终端时,可以在目标用户终端中对采集到的图像帧或者对用户所选取的图片执行上述场景识别任务;可选的,本申请实施例还可以将该目标用户终端所采集到的图像帧或者用户所选取的图片上传至上述服务器2000,以使该服务器2000可以对采集到的图像帧或者用户所选取的图片执行上述场景识别任务。
其中,当该集成有神经网络模型的第一应用运行在该目标用户终端中,且该目标用户终端处于拍照模式时,可以在该目标用户终端中对所采集到的图像帧中的图像内容进行场景识别,以将上述图2所示的步骤20a所得到场景识别标签以及场景识别标签所对应的置信度信息统称为场景识别结果,并可以将上述步骤30a所得到的分类场景以及分类场景对应的累计置信度信息统称为场景分类结果,并输出该场景识别结果和场景分类结果至与该第一图像相关联的信息提示窗口中。
可选的,当该集成有神经网络模型的第一应用运行在该目标用户终端,且该目标用户终端处于照片选取模式时,可以在该目标用户终端中对所选取的图片称之为第一图像,从而可以在该目标用户终端中对该第一图像中的图像内容进行场景识别,此时,该目标用户终端可以将上述图2所示的步骤30b所得到场景识别结果和步骤40b所得到的场景分类结果,并输出该场景识别结果和场景分类结果至与该第一图像相关联的信息提示窗口中。
其中,可选的,上述神经网络模型也可以集成在与第一应用相关联的后台服务器(上述图1所示的服务器2000)中,当目标用户终端处于拍照模式时,该后台服务器可以获取该目标用户终端所上传的图像帧,并可以在该后台服务器中对所采集到的图像帧中的图像内容进行场景识别,以将上述图2所示的步骤20a所得到场景识别标签和步骤30a所得到的目标分类场景作为场景识别结果返回给该目标用户终端,以使该目标用户终端可以进一步执行图2所示的步骤40和步骤50a,并可以在用户针对该第一应用中的拍摄按钮执行触发操作时,可以将该触发操作对应的图像帧称之为第一图像,并可以将该后台服务器所返回的场景识别结果输出至该第一图像相关联的信息提示窗口中。
可选的,当该目标用户终端处于照片选取模式,即用户从图像库中选取即将载入该第一应用的图片时,该目标用户终端中可以将所载入的图片给到集成有神经网络模型的后台服务器,从而可以在后台服务器中对载入的图片中的图像内容进行场景识别,以将上述图2所示的步骤30b所得到场景识别标签和步骤40b所得到的目标分类场景作为场景识别结果返回给该目标用户终端,以使该目标用户终端可以将该场景识别结果输出至与该第一图像相关联的信息提示窗口中。
进一步的,如图2所示,当目标用户终端获取到该第一图像中的图像内容对应的图像场景标签和第一图像相关联的业务事件对应的业务辅助标签时,可以进一步执行图2所示的步骤70a,即可以基于图像场景标签对应的置信度信息和业务辅助标签对应的置信度信息,对图像场景标签和业务辅助标签进行排序处理。应当理解,本申请实施例可以将图像场景标签对应的置信度信息称之为图像场景标签对应的权重值,并可以将业务辅助标签对应的置信度信息称之为业务辅助标签对应的权重值,以执行图2所示的步骤70a,并可以将排序后的业务辅助标签和图像场景标签统称为排序标签,从而可以从这些排序标签中选择出具有较大置信度信息的排序标签作为关键属性标签,从而可以执行图2所示的步骤80a,即本申请实施例可以基于关键属性标签从业务数据库(例如,文字库)中查找与关键属性标签相匹配的业务数据信息(例如,文本信息),并可以在查找到的文本信息中选择具有最大文字匹配度的文本信息作为该第一图像相匹配的业务数据信息。当目标用户终端得到该第一图像相匹配的业务数据信息时,可以执行图2所示的步骤90a,即该目标用户终端可以基于前述步骤30a中所得到的目标分类场景对应的模板信息,对该第一图像和该第一图像相匹配的业务数据信息进行版式整合,并可以将版式整合后的第一图像称之为第二图像。
进一步的,可以理解的是,该目标用户终端中还可以集成与该第一应用相关联的第二应用(例如,该第二应用可以为社交应用),从而可以在该第二应用对应的业务数据展示平台上展示第二图像。
其中,可选的,本申请实施例也可以在不考虑对场景识别标签进行语义补充的情况下或者在未搜索到该场景识别标签对应的语义补充标签时,直接将该目标用户终端所获取到的场景识别标签作为图像场景标签,从而可以在得到业务事件对应的业务辅助标签时,可以进一步执行图2所述的步骤70a-步骤90a。
可选的,如图2所示,用户还可以在启动第一应用之后,还可以执行图2所示的步骤10b,即用户可以在该目标用户终端中的图像库中选择一张图片载入该第一应用,并可以将该选择的图片称之为第一图像。此时,该目标用户终端可以执行图2所示的步骤20b,以从该第一图像的默认拍摄信息(即EXIF文件)中提取该第一图像的拍摄时间和拍摄地点。与此同时,该目标用户终端还可以执行图2所示的步骤30b-步骤50b,以得到该第一图像中的图像内容相关联的场景识别标签,并可以从这些场景标签分别对应的分类场景中确定出目标分类场景,从而可以基于目标分类场景对应的图像优化参数(例如,添加素材,一键美白等特效参数)对该第一图像进行优化。应当理解,该目标用户终端获取该载入的图片中的图像内容对应的场景识别标签和业务辅助标签的具体实现方式可以参见对上述拍摄所得到的图像帧的描述,这里将不再继续进行赘述。进一步的,如图2所示,该目标用户终端在得到该载入的图片的图像场景标签和业务辅助标签时,也可以执行图2所示步骤70a-步骤90a,以实现上述图文匹配任务和版式匹配任务。
其中,可以理解的是,对于用户从图像库中选取的图片(即第一图像)而言,可以通过该图片所携带的可交换图像文件(EXIF,Exchangeable Image File)中的信息得到用户拍摄该第一图像的拍摄时间。换言之,该拍摄时间主要是用于记录用户对拍摄按钮执行触发操作(例如,点击操作)的触发时间(例如,9月15日11:03分),此时,该目标用户终端可以将该拍摄时间称之为该第一图像的图像时间。同理,本申请实施例也可以将从可交换图像文件中提取出的该第一图像的拍摄地点称之为第一图像的图像地点。其中,本申请实施例可以将可交换图像文件(EXIF,Exchangeable Image File)中的信息统称为该第一图像携带的默认辅助信息。
由此可见,本申请实施例在获取到第一图像时,可以从该第一图像携带的默认辅助信息中获取图像时间和图像地点,并可以根据图像时间和图像地点确定该第一图像相关联的业务事件以及该业务事件对应的业务辅助标签。其中,可以理解的是,该EXIF中的信息可以包含记录了数码照片的拍摄参数等属性信息。比如,该EXIF中的信息(即默认辅助信息)可以包括图像名称、图像格式、图像大小、拍摄地理位置信息、拍摄时间信息(比如,拍摄日期)、拍摄机型信息等属性信息。因此,本申请实施例可以将该默认辅助信息中的拍摄时间信息称之为该第一图像的图像时间,并可以将该默认辅助信息中的拍摄地理位置信息称之为该第一图像的图像地点。
其中,目标用户终端获取图像场景标签、业务辅助标签以及确定关键属性标签和确定第一图像相匹配的业务数据信息的具体执行过程可以参见如下图3至图11所对应的实施例。
进一步地,请参见图3,是本申请实施例提供的一种图像数据处理方法的流程示意图。如图3所示,所述方法至少包括:
步骤S101,获取第一图像中的图像内容对应的图像场景标签;
其中,当目标用户终端处于拍照模式时,本申请实施例可以将第一应用中的相机模块所采集到的图像数据统称为图像帧,并可以在该目标用户终端检测到用户针对第一应用中的拍照按钮执行触发操作时,将该触发操作对应的图像帧称之为第一图像。
其中,可以理解的是,在该用户执行触发操作之前,若在该目标用户终端中运行的第一应用中集成有能够执行场景识别任务的神经网络模型,则可以在该目标用户终端中执行上述图2所示的步骤20a,即可以对采集到每个图像帧中的图像内容进行场景识别,以得到每个图像帧中的图像内容相关联的场景识别标签,以及每个场景识别标签相关联的置信度信息。
为便于理解,本申请实施例以采集到的这些图像帧中的图像帧100a为例,以阐述在该目标用户终端中对该图像帧100a中的图像内容进行场景识别的具体过程。为便于理解,进一步的,请参见图4,是本申请实施例提供的一种获取图像场景识别标签的示意图。其中,如图4所示的图像场景识别标签可以包含场景识别标签和语义补充标签。其中,场景识别标签是由图4所示的神经网络模型对图4所示的图像帧100a中的图像内容进行场景识别后所确定的,此时,该目标用户终端中的第一应用集成有能够提供场景识别任务的神经网络模型。进一步的,如图4所示,当用户在图4所示的图像帧100a所属的显示界面中对图4所示的拍摄按钮执行点击操作(即触发操作)时,该目标用户终端可以将该点击操作对应的图像帧100a称之为第一图像,并可以将图4所示的神经网络模型所识别到的场景识别标签(即图4所示的标签1、标签2、标签3、标签4)称之为该第一图像中的图像内容相关联的场景识别标签,并可以在图4所示的信息提示窗口200a中显示这些场景识别标签。如图4所示,标签1可以为人像标签,该人像标签对应的置信度信息(即图4所示的置信度1)可以为98.88%;标签2可以为合影标签,该合影标签对应的置信度信息(即图4所示的置信度2)可以为85.17%;标签3可以为生日标签,该生日标签对应的置信度信息(即图4所示的置信度3)可以为79.78%;标签4可以为聚会标签,该聚会标签对应的置信度信息(即图4所示的置信度4)可以为64.67%。
其中,可以理解的是,在该目标用户终端处于拍照模式下,为快速确定出能够对该目标用户终端所采集到的图像数据进行图像优化处理的图像优化参数,本申请实施例可以优先对该目标用户终端所采集到的图像帧(例如,图像帧100a)进行人脸检测,从而可以根据人脸检测结果执行相应的图像优化方案(例如,滤镜方案)。比如,可以在检测到该图像帧100a中的人脸所属的人脸区域的面积与图像帧100a所属图像区域的面积的比值达到预设面积比值(例如,0.5%)时,可以快速将该图像帧100a的目标分类场景初步确定为一级大类(即大场景)中的人像场景,从而可以优先获取该人像场景对应的滤镜方案,例如,可以通过该人像场景对应的滤镜方案对人像所在的区域进行智能美肤处理。然后,在该目标用户终端得到上述神经网络模型对该图像帧100a的进行场景识别后的场景识别标签时,可以进一步对这些场景识别标签进行场景分类,以划分出这些场景识别标签所属的分类场景(即二级子类),从而可以从划分后的分类场景中确定出新的目标分类场景,以根据该新的目标分类场景对该图像帧100a执行更为细致的图像优化方案(比如,可以根据该新的目标分类场景继续智能调整该图像帧100a的平均亮度和对比度等)。
其中,目标用户终端在得到该图像帧100a相关联的分类场景时,可以对这些分类场景中的场景识别标签相关联的置信度信息进行累计处理,以得到这些分类场景分别对应的累计置信度信息,从而可以在分类场景对应的累计置信度信息中将具有最高累计置信度信息的分类场景称之为目标分类场景。
其中,可以理解的是,在本申请实施例中,一个分类场景(例如,二级子类)可以对应一个图像优化方案,且一个分类场景也可以同步对应一个模板信息,该模板信息可以用于快速对第一图像和该第一图像相关联的业务数据信息进行图文排版,比如,可以包含对字体、文字粗细、颜色等进行排版,以丰富图像数据的展示效果。其中,需要说明的是,上述神经网络模型可以识别1400多个场景识别标签,由于在实际应用中,比较常用的场景识别标签仅有200个左右,为了方便人为管理,本申请实施例可以根据场景分类规则将上述常用的场景识别标签划分为至少四个大类(即一级大类),至少二十一个子类(即二级子类),且每个一级大类和二级子类包括的场景识别标签均是预先设定好的。可以理解的是,本申请实施例通过对神经网络模型所识别到的场景识别进行划分之后,所得到的分类场景可以为每个二级子类中的场景标签。其中,每个二级子类所包括的场景识别标签数量可以相同,也可以不同,这里不做限定。
为便于理解,进一步的,请参见表1,是本申请实施例提供的一种用于进行场景分类的分类关系表。其中,该表1所示的分类关系表中可以包含4个一级大类,21个二级子类。本申请实施例可以将每个一级大类称之为大场景,并可以将每个二级子类称之为子场景。应当理解,在目标用户终端调用相机模块进行图像采集时,可以优先识别该目标用户终端所采集到的图像数据属于哪一个一级大类,以快速对该采集到的图像数据进行图像优化处理。
表1
一级大类 | 二级子类 |
人像 | 女人、男人、小孩、多人 |
风光 | 山水、建筑、街景、室内、夜空、天空、运动 |
美食 | 菜肴、甜点、肉类、饮品、餐厅、西餐 |
物体 | 静物、动物、植物、图形 |
其中,如上述表1所示的分类关系表中的一级大类下可以包含四个大场景,这四个大场景可以包含人像,风光,美食,物体等。另外,该表1所示的分类关系表中的人像可以包含四个二级子类,例如,女人、男人、小孩、多人。风光可以包括七个二级子类,例如,山水、建筑、街景、室内、夜空、天空、运动。美食可以至少包括六个二级子类,例如,菜肴、甜点、肉类、饮品、餐厅、西餐。物体可以至少包括四个二级子类,例如,静物、动物、植物、图形。
可选的,若目标用户终端处于图片选取模式,且该目标用户终端中的第一应用集成有能够提供该场景识别任务的神经网络模型,则该目标用户终端可以将导入(或载入)该第一应用中的图片称之为第一图像,从而可以在该目标用户终端获取到第一图像时,可以在该目标用户终端中通过该第一应用执行场景识别任务。
为便于理解,进一步的,请参见图5,是本申请实施例提供的一种获取第一图像的场景示意图。如图5所示的图像库可以为该目标用户终端用于存储图片(即图像数据)的本地数据库,如上述图2所示的,当用户启动第一应用之后,该用户可以在图5所示的图像库中选取一张图片(例如,图5所示的图片n)导入(即载入)该第一应用,并可以将该导入的图片称之为第一图像。此时,该目标用户终端可以通过该第一应用中的神经网络模型对该第一图像进行智能分析,以得到第一图像中的图像内容相关联的场景识别标签。
如图5所示,一个场景识别标签可以关联一个置信度信息,例如,如图5所示,该神经网络模型对第一图像进行场景识别后所得到的场景识别标签可以包含:运动标签,户外标签、男人标签、操场标签和建筑标签,其中,与图5所示的运动标签相关联的置信度信息可以为91%,与图5所示的户外标签相关联的置信度信息可以为74%,与图5所示的男人标签相关联的置信度信息可以为67%,与图5所示的操场标签相关联的置信度信息可以为63%,与图5所示的建筑标签相关联的置信度信息可以为38%。其中,可以理解的是,本申请实施例获取该第一图像中的图像内容相关联的场景识别标签的具体实现方式可以参见上述对获取图像帧100a中的图像内容相关联的场景识别标签的描述。同理,考虑到场景识别标签往往是由训练好的神经网络模型对该第一图像中的图像内容进行特征分析后所确定的,为增强图5所示的第一图像中的图像内容的叙事性和联想性,本申请实施例可以进一步对图5所示的场景识别标签进行语义补充,以得到的语义补充标签。其中,该语义补充标签可以用于增强第一图像中的图像内容的叙事性和联想性。进一步的,本申请实施例也可以将该场景识别标签(例如,图5所示的运动标签)和语义补充标签统(例如,图5所示的拼搏标签和励志标签)称为该第一图像中的图像内容对应的图像场景标签1。以此类推,本申请实施例可以得到与图5所示的第一图像中的图像内容对应的所有的图像场景标签,具体的,可以参见图5所对应实施例中对图像场景标签1的描述,这里将不再继续进行赘述。其中,可以理解的是,本申请实施例中的标签权重配比是指可以将图5所示的场景识别标签的置信度信息等效为该场景识别标签的标签权重,以便于后续可以按照标签权重的大小筛选出关键属性标签。
其中,可以理解的是,上述神经网络模型可以集成在第一应用中,还可以集成在与该第一应用相关联的后台服务器(即上述图1所示的服务器2000)中。所以,当该集成有神经网络模型的第一应用运行在该目标用户终端时,可以在目标用户终端中对采集到的图像帧或者对用户所选取的图片执行上述场景识别任务,从而可以在无网络的情况下也能够对前述图像帧或者图片中的图像内容进行场景识别。可选的,本申请实施例也可以在该目标用户终端与服务器2000之间存在网络连接关系时,将该目标用户终端所采集到的图像帧或者用户所选取的图片上传至服务器2000,以使该服务器2000可以对采集到的图像帧或者用户所选取的图片执行上述场景识别任务,以利用后台服务器强大的计算资源,提高场景识别的效率。
步骤S102,获取所述第一图像相关联的业务事件对应的业务辅助标签;
应当理解,目标用户终端可以在获取到第一图像(该第一图像可以为前述触发操作对应的图像帧100a,也可以为载入该第一应用中的图片)的同时,同步得到该第一图像的图像时间和图像地点,从而可以基于图像时间和图像地点确定该第一图像相关联的业务事件,并确定出该业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息。比如,仍以上述图4所对应实施例中的图像帧100a为例,用户在上述图4所对应实施例中对该图像帧100a所在的显示界面中的拍照按钮执行点击操作(即上述触发操作)时,可以将该触发操作对应的图像帧100a称之为第一图像,与此同时,该目标用户终端还可以调用该目标用户终端中的定位模块获取该目标用户终端当前所处的地理位置信息,并将该目标用户终端当前所处的地理位置信息称之为该第一图像的拍摄地点,即得到该第一图像的图像地点,与此同时,该目标用户终端可以将该触发操作对应的触发时间称之为该第一图像对应的拍摄时间,即可以得到该第一图像的图像时间。进一步的,该目标用户终端可以分别对该图像时间和图像地点进行语义转换,以得到该图像时间对应的时间语义标签(即时间转换标签)和图像地点对应的位置语义标签(即位置转换标签)。可以理解的是,目标用户终端在得到时间转换标签时可以为该时间转换标签设置时间置信度信息(例如,默认为15%);同理,该目标用户终端在得到位置转换标签时,也可以为该位置转换标签设置位置置信度信息(例如,默认为15%)。然后,该目标用户终端可以根据所述时间转换标签和所述位置转换标签确定所述第一图像相关联的业务事件,以得到所述业务事件对应的业务辅助标签。进一步的,该目标用户终端还可以根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息。
可选的,为便于理解,进一步的,本申请实施例还可以以上述图5所对应实施例中的第一图像为例,以阐述基于上述图2所对应实施例中的步骤20b得到该第一图像相关联的业务事件对应的业务辅助标签的具体过程。进一步的,请参见图6,是本申请实施例提供的一种获取业务辅助标签的场景示意图。如图6所示,当用户从上述图5所对应实施例中的图像库中获取到图6所示的第一图像时,可以得到该第一图像中所记录的拍摄时间和拍摄地点,本申请实施例可以将该第一图像的拍摄时间称之为图像时间,该图像时间可以为图6所示的图像时间A,比如:图6所示的2018年9月18日14点03分;与此同时,该目标用户终端也可以将该第一图像的拍摄地点称之为图像地点,该图像地点可以为图6所示的图像地点B,比如:同济大学操场。如图6所示,该目标用户终端可以分别对该图像时间A和图像地点B进行语义转换。比如,该目标用户终端可以获取该图像时间对应的第一映射关系表,从而可以在该第一映射关系表中找到该图像时间对应的时间语义标签(例如,图6所示的下午标签),并可以将该在第一映射关系表中所找的下午标签称之为该图像时间相关联的时间转换标签,并可以为该时间转换标签设置时间置信度信息(例如,图6所示的15%);又比如,该目标用户终端可以获取该图像地点对应的第二映射关系表,从而可以在该第二映射关系表中找到该图像地点对应的位置语义标签(例如,图6所示的校园标签、体育标签),并可以将该在第二映射关系表中所找的校园标签、体育标签统称为该图像地点相关联的位置转换标签,并可以为该位置转换标签设置位置置信度信息(例如,图6所示的50%,因为该图像地点中的操场属于非门牌号的位置信息,所以可以将该位置转换标签的位置置信度信息由预设的15%调整为图6所示的50%)。如图6所示,该目标用户终端在得到将图6所示的时间转换标签和位置转换标签时,可以确定该第一图像相关联的业务事件,比如,该业务事件可以为同济大学的运动会,从而可以得到图6所示的该第一图像相关联的业务事件对应的业务辅助标签(下午标签、校园标签、体育标签),以及该业务辅助标签对应的置信度信息。
其中,应当理解,在一般情况下,图像时间和图像地点的权重可以划分为3个等级,比如30%、50%和80%,在常态条件下(即业务事件不满足置信度调整条件下),可以将图像时间对应的时间转换标签的置信度信息和图像地点对应的位置转换标签的置信度信息默认设置为30%,但是,当该图像时间或者图像地点处于非常态条件下(例如,业务事件满足置信度调整条件)时,可以根据业务事件的特殊性调整置信度信息(例如,可以增大置信度信息),比如,当目标用户终端所获取到的图像地点所对应的海拔超过4000米是,可以将该图像地点的语义标签转换为“山”、“登高”,以得到该图像地点对应的位置转换标签,此时,由于该位置转换标签所描述的信息属于非常特殊的信息,即可以确定与该第一图像相关联的业务事件满足置信度条件条件,从而可以将该位置转换标签对应的位置置信度信息增加到80%。同理,例如,当该目标用户终端获取到的图像时间处于大年初一时,可以将时间信息转换为“春节”、“新年”,以得到该图像时间对应的时间转换标签,此时,由于该时间转换标签描述的信息也属于非常特殊的信息,即属于全国性节日,此时,可以将该时间转换标签对应的置信度信息增加到80%
其中,应当理解,在上述地理位置信息对应的校园标签所描述的信息为次特殊信息,即该地理位置信息为非门门牌号的位置信息,也可以调整该位置转换标签对应的置信度信息,例如,可以将位置转换标签的位置置信度信息从30%调整为50%。可选的,若业务事件满足置信度调整条件,比如,通过上述图像转换标签和时间转换标签所共同确定的业务事件处于同济大学一年一度的运动会的时间段内时,也可以将该时间转换标签对应的置信度信息从15%调整为80%。
步骤S103,基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;
具体的,目标用户终端可以在执行步骤S103时,获取该图像场景标签对应的置信度信息,并获取业务辅助标签对应的置信度信息,从而可以基于图像场景标签对应的置信度信息、业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理,以得到所述第一图像相关联的N个排序标签;其中,N为所述图像场景标签的数量与所述业务辅助标签的数量之和;进一步的,目标用户终端可以根据所述N个排序标签对应的置信度信息,在所述N个排序标签中选取K个排序标签作为所述第一图像对应的关键属性标签。
其中,可选的,可以理解的是,该目标用户终端在获取到上述步骤S101的图像场景标签时,可以一并获取该图像场景标签对应的置信度信息;同理,该目标用户终端在获取到上述步骤S102的业务辅助标签时,可以一并获取该业务辅助标签对应的置信度信息时,从而可以在执行步骤S103时,直接根据图像场景标签对应的置信度信息、业务辅助标签对应的置信度信息,对图像场景标签和业务辅助标签进行排序处理,以得到所述第一图像相关联的N个排序标签,从而可以从N个排序标签中选取K个排序标签作为所述第一图像对应的关键属性标签。
为便于理解,进一步的,请参见图7,是本发明实施例提供的一种获取关键属性标签的示意图。如图7所示,对于导入该第一应用的图片而言,可以从该导入的图片(即第一图像)中提取图像时间和图像地点,并可以进一步对该图像时间和图像地点进行语义转换和权重配比,即可以得到图7所示的区域10中的时间转换标签(即图7所示的下午标签),并可以得到该时间转换标签对应的时间置信度信息(例如,图7所示的下午标签的权重值可以为15%)。该区域10中还可以包含该图像地点对应的位置转换标签(即图7所示的校园标签和体育标签),该位置转换标签对应的位置置信度信息(即权重值)可以为50%。
与此同时,如图7所示,该目标用户终端可以在得到上述神经网络模型所识别到的场景识别标签时,进一步将该场景识别标签相关联的置信度信息确定该该场景识别标签的权重值,并可以进一步对该场景识别标签进行标签语义补充。比如,如图7所示,神经网络模型所识别到的场景识别标签可以为运动标签,户外标签、男人标签、操场标签、建筑标签。为便于理解,本申请实施例可以以场景识别标签为运动标签为例,以阐述该目标用户终端对该运动标签进行权重配比和语义补充的具体过程。比如,如图7所示,目标用户终端可以将该运动标签对应的置信度信息确定该运动标签的权重值(即该权重值可以为图7所示区域20中的91%),进一步的,该目标用户终端可以对该运动标签进行标签语义补充,以得到该运动标签相关联的拼搏标签和励志标签,可以理解的是,本申请实施例可以将区域20中的拼搏标签和励志标签称之为该运动标签相关联的语义补充标签,并可以将该运动标签和语义补充标签进行组合,从而可以将组合后的场景识别标签(即运动/拼搏/励志)统称为图像场景标签1,并可以得到该图像场景标签1对应的置信度信息(即区域20中的权重值91%)。
以此类推,目标用户终端可以将区域20中的场景识别标签(即户外标签)与语义补充标签(即运动标签)进行组合,并将组合后的场景识别标签(即户外/运动)统称为图像场景标签2,并可以得到该图像场景标签2对应的置信度信息(即区域20中的权重值74%)。以此类推,目标用户终端可以将区域20中的场景识别标签(即男人标签)与语义补充标签(即奋斗标签)进行组合,并将组合后的场景识别标签(即男人/奋斗)统称为图像场景标签3,并可以得到该图像场景标签3对应的置信度信息(即区域20中的权重值67%);以此类推,目标用户终端可以将区域20中的场景识别标签(即操场标签)与语义补充标签(即比赛标签、汗水标签)进行组合,并将组合后的场景识别标签(即操场/比赛/汗水)统称为图像场景标签4,并可以得到该图像场景标签4对应的置信度信息(即区域20中的权重值63%);以此类推,目标用户终端可以将区域20中的场景识别标签(即建筑标签)与语义补充标签(即大厦标签、楼宇标签)进行组合,并将组合后的场景识别标签(即建筑/大厦/楼宇)统称为图像场景标签5,并可以得到该图像场景标签5对应的置信度信息(即区域20中的权重值38%)。
其中,为便于理解,进一步的,请参见表2,是本申请实施例提供一种与场景识别标签相关联的部分语义补充映射表。该部分语义补充映射表中可以包含与场景识别标签相关联的语义补充标签。
表2
场景识别标签 | 语义补充标签 |
建筑 | 大厦、楼宇 |
山、河、树 | 美景、风光 |
女人 | 美貌、温柔 |
运动、运动器械 | 体育、励志、比赛 |
室内 | 家、房间 |
植物 | 绿色、生长、发芽 |
夜景 | 流浪地球(短期运营) |
如上述表2所示的部分语义补充映射表中,与建筑相关联的语义补充标签可以为楼宇、大厦;与山、河、树相关联的语义补充标签可以为美景、风光;与女人相关联的语义补充标签可以为美貌、温柔;与运动、运动器械相关联的语义补充标签可以为体育、励志、比赛;与室内械相关联的语义补充标签可以为家、房间;与植物相关联的语义补充标签可以为绿色、生长、发芽;与夜景相关联的语义补充标签可以为流浪地球(短期运营)。由此可见,本申请实施例为增加语义识别标签的叙事性和联想性,除了可以为神经网络模型所识别的场景识别标签设置语义补充标签之外,还可以将该语义补充标签与短期运营人多进行强关联,比如,在电影流量地球运营时间段内,可以手动调整部分场景识别标签的权重值,比如,可以增加“夜景”、“月亮”、“天空”的权重值。
进一步的,可以理解的是,在目标用户终端完成对上述图7所示的标签信息的权重配比(例如,可以将运动标签的置信度信息确定为运动标签的权重值)之后,可以将所有的标签信息聚合到一起,进行权重排序,以得到N个排序标签,从而可以从这N个排序标签中选取排序最高的前K个排序标签作为关键属性标签(该关键属性标签可以称之为核心标签集)。
其中,本申请实施例可以将图像场景标签1对应的置信度信息、图像场景标签2对应的置信度信息、图像场景标签3对应的置信度信息、图像场景标签4对应的置信度信息、图像场景标签5对应的置信度信息统称为图像场景标签对应的置信度信息。此外,本申请实施例可以将上述时间置信度信息和位置置信度信息统称为业务辅助标签对应的置信度信息。在该目标用户终端得到这些置信度信息(即5个图像场景标签对应的置信度信息和2个业务辅助标签对应的置信度信息)之后,可以对这7(即N=7)个置信度信息的大小进行排序,以得到7个排序标签对应的置信度信息,进而可以在这7个排序标签对应的置信度信息中将具有较大置信度信息的K个排序标签显示在图7所示的区域30中,如图7所示的区域30中可以包含5(即K=5)个关键属性标签,这5个关键属性标签可以包括:图像场景标签1(即图7所示的运动/拼搏/励志)、图像场景标签2(即图7所示的户外/运动)、图像场景标签3(即图7所示的男人/奋斗)、图像场景标签4(即图7所示的操场/比赛/汗水)、位置转换标签(即校园/体育)。应当理解,当目标用户终端从这些标签信息(即前述区域10中的业务辅助标签和前述区域20中的场景识别标签)中选取出前述关键属性标签时,可以进一步执行步骤S104。
步骤S104,根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息。
具体的,目标用户终端可以在业务数据库中筛选与所述关键属性标签相匹配的文本信息作为待推荐文本信息;进一步的,目标用户终端可以根据所述关键属性标签获取所述待推荐文本信息中的关键字,并根据所述关键字确定所述待推荐文本信息对应的文字匹配度;进一步的,该目标用户终端可以在所述待推荐文本信息对应的文字匹配度中,将具有最大文字匹配度的待推荐文本信息作为与所述第一图像相匹配的业务数据信息。
其中,为便于理解,本申请实施例以该业务数据库为文字库为例,该文字库中的每段文字都可以附带有一些文字说明标签,该文字说明标签可以用于描述相应文字的语义特征,例如,对于一段歌曲而言,该歌曲的文字说明标签可以包含歌曲名称、创作者、专辑信息等标签信息。又比如,对于一段名言而言,该名言的文字说明标签可以包含“成功”、“励志”等标签信息。可以理解的是,该目标用户终端在执行图文匹配任务时,可以先将上述关键属性标签(即图像的核心标签集中的核心标签)与文字库中的文字说明标签进行匹配,从而可以从文字库中筛选出与关键属性标签相匹配的文本信息作为待推荐文本信息,进而可以按照文字匹配规则计算出待推荐文本信息对应的文字匹配度。
其中,该目标用户终端获取待推荐文本信息对应的文字匹配度的具体过程可以包括:在所述待推荐文本信息中将与所述关键属性标签相匹配的目标字段作为所述待推荐文本信息中的关键字;进一步的,将所述关键字与所述关键属性标签之间的匹配度作为第一匹配度;进一步的,在所述业务数据库中将所述关键属性标签与所述第一图像相关联的用户的行为标签之间的匹配度确定为第二匹配度;进一步的,基于所述第一匹配度、所述第二匹配度,确定所述待推荐文本信息对应的累计匹配度,将所述待推荐文本信息对应的累计匹配度作为所述待推荐文本信息对应的文字匹配度。
其中,可以理解的是,本申请实施例可以根据文字匹配规则计算每个待推荐文本信息中对应的文字匹配度,该文字匹配度可以包含两部分,一部分是由关键字与所述关键属性标签之间的匹配度所确定的,另一部分是由关键属性标签与第一图像相关联的用户的行为标签之间的匹配度所确定的。其中,本申请实施例可以将关键字与所述关键属性标签之间的匹配度作为第一匹配度,该第一匹配度可以理解为匹配分,即在关键属性标签(例如,运动标签)与待推荐文本信息(例如,运动是一切生命的源泉)中的关键字(例如,运动)出现精确匹配时,可以将该该关键字计1分,从而可以用该1分乘以该运动标签(即关键属性标签)相关联的置信度信息(例如,上述图7所对应实施例中的91%),从而可以将1*91%=91%作为该待推荐文本信息的第一匹配度。可选的,本申请实施例还可以在关键字与关键属性标签之间存在部分匹配时,将该关键字计0.2分,从而可以用该关键字的0.2分乘以关键属性标签的置信度信息,此时,该目标用户终端可以将0.2*91%=18.2%作为待推荐文本信息的第一匹配度。
为便于理解,进一步的,请参见表3,是本申请实施例提供的一种文字匹配规则的规则表。
表3
如上述表3所示,一个待推荐文本信息对应的文字匹配度是由第一匹配度和第二匹配度所确定的。其中,可以理解的是,一个待推荐文本信息中可以包含与关键属性标签相匹配的多个关键字,当所有关键属性标签均与待推荐文本信息中的这些关键字完成匹配时,可以得到每个关键字与相应关键属性标签之间的匹配度(即第一匹配度)。可选的,根据表3所示的文字匹配度的计算公式,也可以计算所有得到的第一匹配度之和,以得到该待推荐文本信息的总第一匹配度,同理,也可以在得到多个第二匹配度时,计算所有得到的第二匹配度之后,以得到该待推荐文本信息的总第二匹配度。
其中,如上述表3所示,本申请实施例可以将关键属性标签与第一图像相关联的用户的行为标签之间的匹配度确定为第二匹配度,该第二匹配度可以理解为用户分,为确保可以为该用户进行精准的个性化的推荐,本申请实施例可以判断关键属性标签是否与该用户使用量最高的行为标签相匹配(例如,该用户使用量最高的行为标签可以为歌曲类的文字分类标签。若该目标用户终端确定为是,则可以将该待推荐文本信息的匹配度设置为0.5分,以此类推,若判断为否,则可以判断该关键行为标签是否与该用户使用量次高的行为标签相匹配(例如,名言类的文字分类标签),若判断为是,则可以将该待推荐文本信息的匹配度设置为0.3分,以此类推,该目标用户终端可以为该用户经常使用的前m(例如,m=2)个文字分类标签设置相应的用户分(即待推荐文本信息的整体起始分),这里将不一一进行赘述。
如上述表3所示,当目标用户终端得到与每个待推荐文本信息对应的第一匹配度和第二匹配度之后,可以对这些第一匹配度和第二匹配度进行求和运算,以得到每个待推荐文本信息对应的文字匹配度,从而可以在这些待推荐文本信息对应的文字匹配度中选择具有最大文字匹配度的待推荐文本信息作为从而可以得到比如,当关键属性标签与待推荐文字信息中的与所述第一图像相匹配的业务数据信息。
为便于理解,进一步的,请参见图8,是本发明实施例提供的一种获取与该第一图像相匹配的业务数据信息的场景示意图,如图8所示的第一图像的关键属性标签可以为上述图7所对应实施例中的5个关键属性标签,从而可以基于这5个关键属性标签从上述文字库中获取到与这些关键属性标签相匹配的文本信息作为待推荐文本信息,并按照上述文字匹配规则计算每个待推荐文本信息的文字匹配度,从而可以根据这些待推荐文本信息对应的文字匹配度,找出具有最大文字匹配度的待推荐文本信息作为该第一图像相匹配的业务数据信息。例如,如图8所示,该第一图像相匹配的业务数据信息可以为图8所述的业务数据信息A。如图8所示,目标用户终端还可以在图8所示的版式编辑界面中对数据切换按钮执行点击操作,从而可以切换与该第一图像相匹配的业务数据信息,例如,可以在图8所示的版式编辑界面中将业务数据信息A切换为业务数据信息B,该业务数据信息B对应的文字匹配度要可以小于该业务数据信息A对应的文字匹配度。可选的,用户还可以通过点击图8所示的业务数据信息A,以切换到该业务数据信息对应的文字库,从而可以在该文字库中手动选取相应的业务数据信息(例如,业务数据信息C)作为该第一图像相匹配的业务数据信息。
其中,可以理解的是,对于业务数据信息为文本信息而言,可以将文字说明标签作为文本信息与前述关键属性标签之间的桥梁,比如,当业务数据库对于的管理者需要在业务数据库上发布运营需求或者推广计划时,可以合理的利用文字说明标签,比如,在电影“流浪地球”运营期间,可以将与该电影“流浪地球”的文字说明标签设置为“夜景”、“月亮”、“天空”,从而可以在确定出第一图像对应的关键属性标签包含月亮/夜景/天空时,可以在业务数据库中搜索到该电影“流浪地球”以及该电影相关联的文本简介信息。可以理解的,本申请实施例中的业务数据信息不仅可以包含文本信息,还可以包含表情信息、图片信息、语音信息等业务数据信息,此时,本申请实施例可以将与这些业务数据信息相关联的文字说明标签、表情说明标签,图片说明标签等统称为业务数据标签,从而可以合理利用业务数据标签,让业务数据信息可以巧妙的与该图像连接起来,即可以将该业务数据标签作为业务数据信息与关键属性标签之间的桥梁,以实现数据匹配任务(例如,图文匹配任务)。可以理解的是,本申请实施例可以在无需用户手动干预的情况下,即可以快速且准确地获取到与该第一图像相关联的业务数据信息,例如,可以准确匹配到与该用户具有共鸣感的文本信息,从而可以降低用户撰写配文的门槛。例如,对于用户在海拔4000米的唐古拉山上拍摄的第一图像而言,可以快速且准确匹配到的“会当凌绝顶,一览纵山小”的文本信息,即可以实现获取文本信息的快捷性和方便性。
其中,在图8所示的版式编辑界面中,可以包含多个模板信息,一个模板信息对应一个版式,具体的,可以包含图8所示的模板信息10c,模板信息20c,模板信息30c等,这里将不一一进行列举。
可选的,该目标用户终端在执行完上述步骤S104之后,还可以获取前述目标分类场景相关联的模板信息,从而可以根据模板信息将第一图像与该第一图像相关联的业务数据信息进行整合,得到第二图像,并可以进一步将第二图像上传至业务数据展示平台,以使所述业务数据展示平台展示所述第二图像。换言之,该目标用户终端在得到该第一图像相匹配的业务数据信息时,可以进一步获取上述目标分类场景对应的模板信息(例如,图8所示的模板信息10c),从而可以基于该模板信息将该业务数据信息(例如,图8所示的业务数据信息A)与图8所示的第一图像进行整合,得到第二图像,以实现版式匹配任务。进一步的,该目标用户终端可以将该第二图像上传至业务数据展示平台,以使所述业务数据展示平台展示所述第二图像用户。
为便于理解,进一步的,请参见图9,是本申请实施例提供的一种展示第二图像的示意图。如图9所示的用户在选择好文本信息和模板信息之后,可以得到图9所示的第二图像,并可以在得到该第二图像的同时,同步从图8所示的版式编辑界面跳转至业务发布界面,可以理解的是,在该业务发布界面中可以包含添加心情、地理位置、是否公开等选项。通过添加心情选项可以在将第二图像上传至业务数据展示平台时,在该业务数据展示平台对应的业务数据展示界同步展示可以描述该用户当前心情的文字、表情等信息。地理位置选项可以用于定位该目标用户终端当前的地理位置信息,即可以在图9所示的业务数据展示界面中看到与上传的第二图像相关联的定位信息。是否公开选项用于决定上传至图9所示的业务数据显示界面上的第二图像是否对好友公开,若是对好友公开,则相应的好友可以看到该用户上传至业务数据展示界面上的第二图像。
在本申请实施例中,通过对第一图像中的图像内容进行智能识别,可以得到所述第一图像中的图像内容对应的图像场景标签;进一步的,获取所述第一图像相关联的业务事件对应的业务辅助标签;进一步的,基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;进一步的,通过所述关键属性标签可以获取与所述第一图像相匹配的业务数据信息。由此可见,本申请实施例可以得到用于描述该第一图像的关键属性标签,从而可以基于该关键属性标签快速搜索到与该第一图像相匹配的业务数据信息(例如,文本信息),以提高图文匹配(即数据匹配)的效率。此外,在整个图文匹配的过程中,由于无需人工干预,可以有效地确保图文匹配的准确度。
进一步的,请参见图10,是本发明实施例提供的另一种图像数据处理方法的流程示意图。如图10所示,该方法可以包含以下步骤:
步骤S201,获取第一图像,提取所述第一图像中的图像内容;
步骤S202,通过神经网络模型对所述图像内容进行场景识别,得到所述图像内容对应的场景识别标签以及所述场景识别标签相关联的置信度信息;
具体的,目标用户终端可以通过神经网络模型提取所述图像内容对应的图像特征;进一步的,该目标用户终端可以将所述图像特征作为所述神经网络模型中的分类器对应的输入特征,输出所述图像特征与所述分类器中的目标标签特征之间的匹配度;进一步的,该目标用户终端可以将具有最大匹配度的目标标签特征相关联的标签信息确定为所述图像内容对应的场景识别标签;进一步的,该目标用户终端可以将所述目标标签特征对应的最大匹配度确定为所述场景识别标签相关联的置信度信息。
步骤S203,获取所述场景识别标签相关联的语义补充标签;
步骤S204,将所述场景识别标签和所述语义补充标签进行组合,将组合后的场景识别标签确定为所述图像内容所属的图像场景标签;
步骤S205,将所述场景识别标签相关联的置信度信息确定为所述图像场景标签对应的置信度信息。
其中,步骤S201-步骤S205可以用于在获取到第一图像时,通过上述神经网络模型对该第一图像中的图像内容进行场景识别,以得到与该第一图像中的图像内容相关联的场景识别标签;其中,本申请实施例通过神经网络模型获取场景识别标签的具体过程可以参见上述图3所对应实施例中对神经网络模型的描述,这里将不再继续进行赘述。其中,可以理解的是,目标用户终端在获取到前述场景识别标签时,可以一并得到该场景识别标签对应的置信度信息,从而可以在得到该场景识别标签相关联的语义补充标签时,将该语义补充标签和场景识别标签统称为图像场景标签(例如,该图像场景标签可以为上述图7所对应实施例中的运动/拼搏/励志),如上述图7所示,本申请实施例也可以将场景识别标签(例如,图7所对应实施例中的运动标签)的置信度信息(即图7所对应实施例中的区域20中的权重值(91%))称之为该图像场景标签的置信度信息(即该图像场景标签的权重值可以为91%)。考虑到神经网络模型所输出的场景识别标签本身就携带有置信度信息的概率,例如,上述图6所对应实施例中的第一图像中的图像内容对应的场景识别标签为运动标签的概率(即匹配度)可以为91%,因此,本申请实施例可以将上述权重配比后所得到的权重值一并统称为置信度信息。
步骤S206,从所述第一图像中提取图像时间和图像地点;
步骤S207,基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息。
具体的,目标用户终端可以获取所述图像时间相关联的第一语义映射表,在所述第一语义映射表中将查找到的所述图像时间对应的时间语义标签作为时间转换标签,为所述时间转换标签设置时间置信度信息;与此同时,该目标用户终端也可以获取所述图像地点对应的第二语义映射表,在所述第二语义映射表中将查找到的所述图像地点对应的位置语义标签作为位置转换标签,为所述位置转换标签设置位置置信度信息;进一步的,该目标用户终端可以根据所述时间转换标签和所述位置转换标签确定所述第一图像相关联的业务事件,得到所述业务事件对应的业务辅助标签;进一步的,该目标用户终端可以根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息。
其中,为便于理解,可以进一步请参见表4,是本申请实施例提供的第一语义映射表以及表5,是本申请实施例提供的第二语义映射表。其中,假设该目标用户终端提取到的图像时间为“3月17日16点03分周六”。假设该目标用户终端提取到的图像地点为“同济大学操场”。
表4
时间信息 | 语义对照 |
2月14日 | 情人节、爱情 |
大年夜~大年初八 | 春节、新年 |
12月24日~12月25日 | 圣诞 |
星期六~星期天 | 周末 |
00:00~5:00 | 凌晨 |
16:00~17:00 | 下午 |
如上述表4所示,该目标用户终端可以在得到上述图像时间时,可以在第一语义映射表中将查找到的图像时间对应的时间语义标签作为时间转换标签。其中,可以理解的是,该目标用户终端从第一图像中提取到的图像时间可以具体到年、月、日、小时、分钟、秒,还可以具体到属于一周中的一天,一天中的下午等,这里将不一一进行列举。例如,对于该第一图像中的图像时间为“3月17日16点03分周六”而言,可以在上述表4所示的第一语义映射表中搜索到“16点03分”对应的时间信息1(例如,该第一语义映射表中的16:00~17:00),并可以在该第一语义映射表中搜索到“周六”对应的时间信息2(周六),从而可以将该时间信息1对应的时间语义标签(例如,下午)和时间信息2对应的时间语义标签(例如,周末)作为该图像时间对应的时间转换标签。可以理解的是,对于从第一图像中提取到的其它图像时间而言,可以一并参见得到该图像时间(3月17日16点03分周六)对应的时间转换标签的描述,这里将不再继续进行赘述。
表5
地理信息 | 语义对照 |
体育馆、健身房、拳击室 | 体育、运动 |
美术馆、博物馆、画室 | 艺术、设计 |
Xx小区、门牌号 | 生活、日常 |
中学、小学、大学、图书馆 | 校园、学习、青春 |
上海市·中山东一路 | 外滩、黄浦江 |
海拔4000米+ | 山、登高 |
如上述表5所示,该目标用户终端可以在得到上述图像地点(即同济大学操作)时,可以在表5所示的第二语义映射表中将查找到的图像时间对应的时间语义标签作为时间转换标签。具体的,该目标用户终端可以在上述表5所示的第二语义映射表中搜索到“大学”对应的地理信息1(例如,该第二语义映射表中的大学),从而可以将该位置信息1对应的位置语义标签(例如,校园)作为该图像地点对应的位置转换标签。可以理解的是,对于从第一图像中提取到的其它图像地点而言,可以一并参见得到该图像地点(统计大学操场)对应的时间转换标签的描述,这里将不再继续进行赘述。
可以理解的是,本申请实施例还可以结合上述图像时间和图像地点进行特殊事件判断,即该目标用户终端可以在确定所述业务事件满足置信度调整条件时,根据所述置信度调整条件调整所述时间置信度信息和所述位置置信度信息,从而可以根据调整后的时间置信度信息、调整后的位置置信度信息,确定所述业务辅助标签对应的置信度信息。换言之,本申请实施例还可以结合该图像时间、图像地点进行特殊事件的判断,并可以在确定该业务事件为特殊事件时,确定该业务事件满足置信度调整条件,从而可以进一步调整该业务事件对应的业务辅助标签的置信度信息。例如,若该目标用户终端识别到该第一图像的图像地点为梅赛德斯奔驰中心,且该第一图像的图像时间(3月17日20:03分)处于李荣浩演唱会事件所处的时间段,则可以进一步确定该第一图像相关联的业务事件属于特殊事件(即满足置信度调整条件),从而可以将该业务事件的业务辅助标签确定为李荣浩、演唱会,并可以调整该业务辅助标签的置信度信息。
步骤S208,基于所述图像场景标签对应的置信度信息、所述业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理,得到所述第一图像相关联的N个排序标签;其中,N为所述图像场景标签的数量与所述业务辅助标签的数量之和;
步骤S209,根据所述N个排序标签对应的置信度信息,在所述N个排序标签中选取K个排序标签作为所述第一图像对应的关键属性标签。
其中,该目标用户终端执行步骤S208和步骤S209的具体实现方式可以参见上述图3所对应实施例中对步骤S103的描述,这里将不再继续进行赘述。
步骤S210,根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息。
其中,步骤S210的具体实现方式可以参见上述图3所对应实施例中对步骤S104的描述,这里将不再继续进行赘述。
其中,可选的,该目标用户终端还可以在执行图文匹配任务之前,对该第一图像(例如,上述载入该第一应用中的图片)进行优化处理。比如,该目标用户总的可以获取上述图像场景标签所属的分类场景,并可以根据所述分类场景中的图像场景标签对应的置信度信息选取目标分类场景,其中,本案实施例可以在场景识别标签所属的分类场景中,将具有最大累计置信度的分类场景称之为目标分类场景,从而可以获取目标分类场景相关联的图像配置信息,从而可以基于该图像配置信息更新该第一图像(即可以更新该第一图像中的图像内容),从而可以对更新后的第一图像进行图文匹配,以得到上述第二图像。其中,本申请实施例可以将该目标分类场景对应的模板信息和图像优化参数统称为该目标分类场景相关联的图像配置信息。
为便于理解,进一步的,请参见图11,是本发明实施例提供的一种划分分类场景的示意图。如图11所示,目标用户终端可以在得到图11所示的场景识别标签时,可以一并得到场景识别标签相关联的置信度信息,可以理解的是,基于上述表1所对应实施例中的场景分类规则(即上述4个一级大类和21个二级子类)与该场景识别标签之间的映射关系,可以得知场景识别标签中的运动标签和操作标签都属于上述表1中的二级子类(即运动分类场景),从而可以将该运动分类场景中的运动标签相关联的置信度信息(即图11所示的91%)和操作标签相关联的置信度信息(即图11所示的60%)进行置信度累计,以得到该运动分类场景对应的累计置信度信息(即91%+60%=151%)。同理,若该目标用户终端检测到图11所示的户外标签和建筑标签都属于上述表1中的二级子类(即建筑分类场景),也可以将该建筑分类场景中的的户外标签相关联的置信度信息(即图11所示的74%)和操作标签相关联的置信度信息(即图11所示的38%)进行置信度累计,以得到该建筑分类场景对应的累计置信度信息(即74%+38%=112%)。同理,该目标用户终端可以检测到图11所示的男人标签属于上述表1中的二级子类(即男人分类场景),也可以将该男人分类场景中的男人标签相关联的置信度信息(即图11所示的67%)作为该男人分类场景对应的累计置信度信息(即67%)。此时,该目标用户终端可以基于置信度最高原则,将具有最大累计置信度信息的运动分类场景作为目标分类场景,并可以在图11所示的第一图像所属的图像界面(例如,图像界面400a)中显示这些划分好的分类场景,应当理解,本申请实施例可以将显示在该图像界面400a中的运动分类场景、建筑分类场景、男人分类场景统称为分类场景,此时,显示在该图像界面400a中的第一图像可以采用前述目标分类场景(即运动分类场景)对应的图像优化方案中的特效参数(即可以采用前述图像优化参数对该第一图像进行优化处理,例如,智能滤镜,智能美肤等)。此外,该目标用户终端还可以获取该目标分类场景相关联的模板信息,从而可以基于该模板信息将图像优化处理后的第一图像与前述与该第一图像相关联的业务数据信息进行整合,得到第二图像。
可选的,还可以理解的是,对于该目标用户终端所采集到的一段视频中的不同图像帧(例如,图像帧100a、图像帧100b)而言,若该图像帧100b为在该图像帧100a之后所采集到的图像帧,则在该目标用户终端确定出图像帧100b对应的目标分类场景不同于图像帧100a对应的目标分类场景时,可以对这两个图像帧采用不同的图像优化方案,以实现在无需人工选取图像优化参数的情况下,可以智能进行特效匹配,即可以根据不同图像帧中的图像内容的实际情况,智能调整图像优化方案,以提高图像优化的效率和图像优化的准确度。
可以理解的是,通过场景识别和场景分类,可以快速找到能够对该第一图像进行智能优化的目标分类场景的图像优化参数,即无需人工选择图像优化参数,从而可以提高图像优化效率。
可选的,若该神经网络模型集成在与该第一应用相关联的后台服务器中,则该目标用户终端在得到该第一图像时,还可以将该第一图像上传给与该目标用户终端具有网络连接关系的后台服务器(该后台服务器可以为上述图1所示的服务器2000),以使该后台服务器在执行完场景识别任务之后,可以向该目标用户终端返回场景识别标签。此时,该目标用户终端可以在该第一应用对应的信息提示窗口中输出由该后台服务器所返回的场景识别标签,并在信息提示窗口中同步输出对场景识别标签进行场景分类后所得到的分类场景。
在本申请实施例中,通过对第一图像中的图像内容进行智能识别,可以得到所述第一图像中的图像内容对应的图像场景标签;进一步的,获取所述第一图像相关联的业务事件对应的业务辅助标签;进一步的,基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;进一步的,通过所述关键属性标签可以获取与所述第一图像相匹配的业务数据信息。由此可见,本申请实施例可以得到用于描述该第一图像的关键属性标签,从而可以基于该关键属性标签快速搜索到与该第一图像相匹配的业务数据信息(例如,文本信息),以提高图文匹配(即数据匹配)的效率。此外,在整个图文匹配的过程中,由于无需人工干预,可以有效地确保图文匹配的准确度。
进一步地,请参见图12,是本申请实施例提供的一种图像数据处理装置的结构示意图。所述图像数据处理装置1可以应用于上述目标用户终端,该目标用户终端可以为上述图1所对应实施例中的用户终端3000a。进一步地,该图像数据处理装置1可以包括:第一获取模块10,第二获取模块11,关键标签确定模块12和业务获取模块13;进一步地,所述图像数据处理装置1还可以包括:图像获取模块14,场景识别模块15、语义补充模块16,标签组合模块17,置信度确定模块18,提取模块19,事件确定模块20,目标场景获取模块21,配置信息获取模块22,图像更新模块23。
第一获取模块10,用于获取第一图像中的图像内容对应的图像场景标签;
第二获取模块11,用于获取所述第一图像相关联的业务事件对应的业务辅助标签;
关键标签确定模块12,用于基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;
其中,所述关键标签确定模块12包括:标签排序单元121,关键标签确定单元122;
标签排序单元121,用于基于所述图像场景标签对应的置信度信息、所述业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理,得到所述第一图像相关联的N个排序标签;N为所述图像场景标签的数量与所述业务辅助标签的数量之和;
关键标签确定单元122,用于根据所述N个排序标签对应的置信度信息,在所述N个排序标签中选取K个排序标签作为所述第一图像对应的关键属性标签。
其中,所述标签排序单元121,关键标签确定单元122的具体实现方式可以参见上述图3所对应实施例中对步骤S103的描述,这里将不再继续进行赘述。
业务获取模块13,用于根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息。
其中,所述业务获取模块13包括:待推荐单元131,关键字确定单元132,业务数据确定单元133;
待推荐单元131,用于在业务数据库中筛选与所述关键属性标签相匹配的文本信息作为待推荐文本信息;
关键字确定单元132,用于根据所述关键属性标签获取所述待推荐文本信息中的关键字,根据所述关键字确定所述待推荐文本信息对应的文字匹配度;
其中,所述关键字确定单元132包括:字段确定子单元1321,第一匹配子单元1322,第二匹配子单元1323,累计匹配子单元1324;
字段确定子单元1321,用于在所述待推荐文本信息中将与所述关键属性标签相匹配的目标字段作为所述待推荐文本信息中的关键字;
第一匹配子单元1322,用于将所述关键字与所述关键属性标签之间的匹配度作为第一匹配度;
第二匹配子单元1323,用于在所述业务数据库中将所述关键属性标签与所述第一图像相关联的用户的行为标签之间的匹配度确定为第二匹配度;
累计匹配子单元1324,用于基于所述第一匹配度、所述第二匹配度,确定所述待推荐文本信息对应的累计匹配度,将所述待推荐文本信息对应的累计匹配度作为所述待推荐文本信息对应的文字匹配度。
其中,所述字段确定子单元1321,第一匹配子单元1322,第二匹配子单元1323,累计匹配子单元1324的具体实现方式可以参见上述图3所对应实施例中文字匹配度的描述,这里将不再继续进行赘述。
业务数据确定单元133,用于在所述待推荐文本信息对应的文字匹配度中,将具有最大文字匹配度的待推荐文本信息作为与所述第一图像相匹配的业务数据信息。
其中,所述待推荐单元131,关键字确定单元132,业务数据确定单元133的具体实现方式可以参见上述图3所对应实施例中对步骤S104的描述,这里将不再进行赘述。
可选的,图像获取模块14,用于获取第一图像,提取所述第一图像中的图像内容;
场景识别模块15,用于通过神经网络模型对所述图像内容进行场景识别,得到所述图像内容对应的场景识别标签以及所述场景识别标签相关联的置信度信息;
其中,所述场景识别模块15包括:特征提取单元151,匹配度输出单元152,场景识别单元153,置信度确定单元154;
特征提取单元151,用于通过神经网络模型提取所述图像内容对应的图像特征;
匹配度输出单元152,用于将所述图像特征作为所述神经网络模型中的分类器对应的输入特征,输出所述图像特征与所述分类器中的目标标签特征之间的匹配度;
场景识别单元153,用于将具有最大匹配度的目标标签特征相关联的标签信息确定为所述图像内容对应的场景识别标签;
置信度确定单元154,用于将所述目标标签特征对应的最大匹配度确定为所述场景识别标签相关联的置信度信息。
其中,所述特征提取单元151,匹配度输出单元152,场景识别单元153,置信度确定单元154的具体实现方式可以参见上述图3所对应实施例中国对场景识别标签的描述,这里将不再继续进行赘述。
语义补充模块16,用于获取所述场景识别标签相关联的语义补充标签;
标签组合模块17,用于将所述场景识别标签和所述语义补充标签进行组合,将组合后的场景识别标签确定为所述图像内容所属的图像场景标签;
置信度确定模块18,用于将所述场景识别标签相关联的置信度信息确定为所述图像场景标签对应的置信度信息。
提取模块19,用于从所述第一图像中提取图像时间和图像地点;
事件确定模块20,用于基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息。
其中,所述事件确定模块20包括:时间转换单元201,位置转换单元202,事件确定单元203,辅助信息确定单元204;
时间转换单元201,用于获取所述图像时间相关联的第一语义映射表,在所述第一语义映射表中将查找到的所述图像时间对应的时间语义标签作为时间转换标签,为所述时间转换标签设置时间置信度信息;
位置转换单元202,用于获取所述图像地点对应的第二语义映射表,在所述第二语义映射表中将查找到的所述图像地点对应的位置语义标签作为位置转换标签,为所述位置转换标签设置位置置信度信息;
事件确定单元203,用于根据所述时间转换标签和所述位置转换标签确定所述第一图像相关联的业务事件,得到所述业务事件对应的业务辅助标签;
辅助信息确定单元204,用于根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息。
其中,所述辅助信息确定单元204包括:调整子单元2041,辅助确定子单元2042;
调整子单元2041,用于若所述业务事件满足置信度调整条件,则根据所述置信度调整条件调整所述时间置信度信息和所述位置置信度信息;
辅助确定子单元2042,用于根据调整后的时间置信度信息、调整后的位置置信度信息,确定所述业务辅助标签对应的置信度信息。
其中,所述调整子单元2041,辅助确定子单元2042的具体实现方式可以参见上述图3所对应实施例中对置信度调整条件的描述,这里将不再继续进行赘述。
其中,所述时间转换单元201,位置转换单元202,事件确定单元203,辅助信息确定单元204的具体实现方式可以参见上述图3所对应实施例中对业务辅助标签的描述,这里将不再继续进行赘述。
可选的,目标场景获取模块21,用于获取所述图像场景标签所属的分类场景,根据所述分类场景中的图像场景标签对应的置信度信息选取目标分类场景;
其中,所述目标场景获取模块21包括:场景划分单元211,置信度累计单元212,目标场景确定单元213;
场景划分单元211,用于基于场景分类规则划分所述图像场景标签所属的分类场景;
置信度累计单元212,用于累计所述分类场景中的图像场景标签对应的置信度信息,得到所述分类场景对应的累计置信度信息;
目标场景确定单元213,用于从所述分类场景对应的累计置信度信息中选取具有最大累计置信度信息的分类场景作为目标分类场景。
其中,场景划分单元211,置信度累计单元212,目标场景确定单元213的具体实现方式可以参见上述图10所对应实施例中对目标分类场景的描述,这里将不再继续进行赘述。
配置信息获取模块22,用于获取所述目标分类场景相关联的图像配置信息;
图像更新模块23,用于基于所述图像配置信息更新所述第一图像。
其中,所述图像配置信息包含图像优化参数和模板信息;
所述图像更新模块23包括:图像优化单元231,图像整合单元232,图像上传单元233;
图像优化单元231,用于根据所述图像优化参数对所述第一图像进行优化处理;
图像整合单元232,用于根据所述模板信息将所述业务数据信息与优化处理后的第一图像进行整合,得到第二图像;
图像上传单元233,用于将所述第二图像上传至业务数据展示平台,以使所述业务数据展示平台展示所述第二图像。
其中,所述图像优化单元231,图像整合单元232,图像上传单元233的具体实现方式可以参见上述图3所对应实施例中对第二图像的描述,这里将不再继续进行赘述。
其中,所述第一获取模块10,第二获取模块11,关键标签确定模块12和业务获取模块13的具体实现方式可以参见上述图3所对应实施例中对步骤S101-步骤S104的描述,这里将不再继续进行赘述。其中,所述图像获取模块14,场景识别模块15、语义补充模块16,标签组合模块17,置信度确定模块18,提取模块19,事件确定模块20,目标场景获取模块21,配置信息获取模块22,图像更新模块23的具体实现方式可以参见上述图10所对应实施例中对步骤S201-步骤S210的描述,这里将不再继续进行赘述。
可以理解的是,本申请实施例中的图像数据处理装置1可执行前文图3或图10所对应实施例中对所述图像数据处理方法的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
进一步地,请参见图13,是本申请实施例提供的一种计算机设备的结构示意图。如图13所示,该计算机设备1000可以为上述图1所对应实施例中的用户终端3000a。该计算机设备1000可以包括:处理器1001,网络接口1004和存储器1005,此外,该计算机设备1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1004可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图13所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
其中,该计算机设备1000中的网络接口1004还可以与上述图1所对应实施例中的服务器2000进行网络连接,且可选用户接口1003还可以包括显示屏(Display)、键盘(Keyboard)。在图13所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取第一图像中的图像内容对应的图像场景标签;
获取所述第一图像相关联的业务事件对应的业务辅助标签;
基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;
根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图3或图10所对应实施例中对所述图像数据处理方法的描述,也可执行前文图12所对应实施例中对所述图像数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机存储介质,且所述计算机存储介质中存储有前文提及的图像数据处理装置1所执行的计算机程序,且所述计算机程序包括程序指令,当所述处理器执行所述程序指令时,能够执行前文图3或图10所对应实施例中对所述图像数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (15)
1.一种图像数据处理方法,其特征在于,包括:
获取第一图像中的图像内容对应的图像场景标签;
从所述第一图像中提取图像时间和图像地点;
基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息;
基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;所述关键属性标签是通过所述图像场景标签对应的置信度信息和所述业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理之后所选取得到的;
根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息;
其中,所述基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息,包括:
获取所述图像时间相关联的第一语义映射表,在所述第一语义映射表中将查找到的所述图像时间对应的时间语义标签作为时间转换标签,为所述时间转换标签设置时间置信度信息;
获取所述图像地点对应的第二语义映射表,在所述第二语义映射表中将查找到的所述图像地点对应的位置语义标签作为位置转换标签,为所述位置转换标签设置位置置信度信息;
根据所述时间转换标签和所述位置转换标签确定所述第一图像相关联的业务事件,得到所述业务事件对应的业务辅助标签;
根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息。
2.根据权利要求1所述的方法,其特征在于,所述基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签,包括:
基于所述图像场景标签对应的置信度信息、所述业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理,得到所述第一图像相关联的N个排序标签;N为所述图像场景标签的数量与所述业务辅助标签的数量之和;
根据所述N个排序标签对应的置信度信息,在所述N个排序标签中选取K个排序标签作为所述第一图像对应的关键属性标签。
3.根据权利要求2所述的方法,其特征在于,还包括:
获取第一图像,提取所述第一图像中的图像内容;
通过神经网络模型对所述图像内容进行场景识别,得到所述图像内容对应的场景识别标签以及所述场景识别标签相关联的置信度信息;
获取所述场景识别标签相关联的语义补充标签;
将所述场景识别标签和所述语义补充标签进行组合,将组合后的场景识别标签确定为所述图像内容所属的图像场景标签;
将所述场景识别标签相关联的置信度信息确定为所述图像场景标签对应的置信度信息。
4.根据权利要求3所述的方法,其特征在于,所述通过神经网络模型对所述图像内容进行场景识别,得到所述图像内容对应的场景识别标签以及所述场景识别标签相关联的置信度信息,包括:
通过神经网络模型提取所述图像内容对应的图像特征;
将所述图像特征作为所述神经网络模型中的分类器对应的输入特征,输出所述图像特征与所述分类器中的目标标签特征之间的匹配度;
将具有最大匹配度的目标标签特征相关联的标签信息确定为所述图像内容对应的场景识别标签;
将所述目标标签特征对应的最大匹配度确定为所述场景识别标签相关联的置信度信息。
5.根据权利要求1所述的方法,其特征在于,所述根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息,包括:
若所述业务事件满足置信度调整条件,则根据所述置信度调整条件调整所述时间置信度信息和所述位置置信度信息;
根据调整后的时间置信度信息、调整后的位置置信度信息,确定所述业务辅助标签对应的置信度信息。
6.根据权利要求1所述的方法,其特征在于,所述根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息,包括:
在业务数据库中筛选与所述关键属性标签相匹配的文本信息作为待推荐文本信息;
根据所述关键属性标签获取所述待推荐文本信息中的关键字,根据所述关键字确定所述待推荐文本信息对应的文字匹配度;
在所述待推荐文本信息对应的文字匹配度中,将具有最大文字匹配度的待推荐文本信息作为与所述第一图像相匹配的业务数据信息。
7.根据权利要求6所述的方法,其特征在于,所述根据所述关键属性标签获取所述待推荐文本信息中的关键字,根据所述关键字确定所述待推荐文本信息对应的文字匹配度,包括:
在所述待推荐文本信息中将与所述关键属性标签相匹配的目标字段作为所述待推荐文本信息中的关键字;
将所述关键字与所述关键属性标签之间的匹配度作为第一匹配度;
在所述业务数据库中将所述关键属性标签与所述第一图像相关联的用户的行为标签之间的匹配度确定为第二匹配度;
基于所述第一匹配度、所述第二匹配度,确定所述待推荐文本信息对应的累计匹配度,将所述待推荐文本信息对应的累计匹配度作为所述待推荐文本信息对应的文字匹配度。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述图像场景标签所属的分类场景,根据所述分类场景中的图像场景标签对应的置信度信息选取目标分类场景;
获取所述目标分类场景相关联的图像配置信息;
基于所述图像配置信息更新所述第一图像。
9.根据权利要求8所述的方法,其特征在于,所述获取所述图像场景标签所属的分类场景,根据所述分类场景中的图像场景标签对应的置信度信息选取目标分类场景,包括:
基于场景分类规则划分所述图像场景标签所属的分类场景;
累计所述分类场景中的图像场景标签对应的置信度信息,得到所述分类场景对应的累计置信度信息;
从所述分类场景对应的累计置信度信息中选取具有最大累计置信度信息的分类场景作为目标分类场景。
10.根据权利要求8所述的方法,其特征在于,所述图像配置信息包含图像优化参数和模板信息;
所述基于所述图像配置信息更新所述第一图像,包括:
根据所述图像优化参数对所述第一图像进行优化处理;
根据所述模板信息将所述业务数据信息与优化处理后的第一图像进行整合,得到第二图像;
将所述第二图像上传至业务数据展示平台,以使所述业务数据展示平台展示所述第二图像。
11.根据权利要求1所述的方法,其特征在于,在所述第一图像为从图像库中所选取的图片时,所述第一图像所携带的可交换图像文件中的信息为默认辅助信息;
所述从所述第一图像中提取图像时间和图像地点,包括:
从所述第一图像所携带的所述默认辅助信息中提取所述第一图像的拍摄时间和拍摄地点;
将所述第一图像的拍摄时间作为所述图像时间,并将所述第一图像的拍摄地点作为所述图像地点。
12.根据权利要求1所述的方法,其特征在于,在所述为所述位置转换标签设置位置置信度信息时,所述方法还包括:
若所述图像地点中的地址位置信息为非门牌号的位置信息,则增加所述位置转换标签对应的位置置信度信息。
13.一种图像数据处理装置,其特征在于,包括:
第一获取模块,用于获取第一图像中的图像内容对应的图像场景标签;
提取模块,用于从所述第一图像中提取图像时间和图像地点;
事件确定模块,用于基于所述图像时间和图像地点确定所述第一图像相关联的业务事件,确定所述业务事件对应的业务辅助标签以及所述业务辅助标签对应的置信度信息;
关键标签确定模块,用于基于所述图像场景标签和所述业务辅助标签确定所述第一图像对应的关键属性标签;所述关键属性标签是通过所述图像场景标签对应的置信度信息和所述业务辅助标签对应的置信度信息,对所述图像场景标签和所述业务辅助标签进行排序处理之后所选取得到的;
业务获取模块,用于根据所述关键属性标签获取与所述第一图像相匹配的业务数据信息;
其中,所述事件确定模块包括:
时间转换单元,用于获取所述图像时间相关联的第一语义映射表,在所述第一语义映射表中将查找到的所述图像时间对应的时间语义标签作为时间转换标签,为所述时间转换标签设置时间置信度信息;
位置转换单元,用于获取所述图像地点对应的第二语义映射表,在所述第二语义映射表中将查找到的所述图像地点对应的位置语义标签作为位置转换标签,为所述位置转换标签设置位置置信度信息;
事件确定单元,用于根据所述时间转换标签和所述位置转换标签确定所述第一图像相关联的业务事件,得到所述业务事件对应的业务辅助标签;
辅助信息确定单元,用于根据所述业务事件、所述时间置信度信息、所述位置置信度信息确定所述业务辅助标签对应的置信度信息。
14.一种计算机设备,其特征在于,包括:处理器、存储器、网络接口;
所述处理器与存储器、网络接口相连,其中,网络接口用于提供数据通信功能,所述存储器用于存储计算机程序,所述处理器用于调用所述计算机程序,以执行如权利要求1-12任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如权利要求1-12任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910598919.8A CN110297934B (zh) | 2019-07-04 | 2019-07-04 | 一种图像数据处理方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910598919.8A CN110297934B (zh) | 2019-07-04 | 2019-07-04 | 一种图像数据处理方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110297934A CN110297934A (zh) | 2019-10-01 |
CN110297934B true CN110297934B (zh) | 2024-03-15 |
Family
ID=68030189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910598919.8A Active CN110297934B (zh) | 2019-07-04 | 2019-07-04 | 一种图像数据处理方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110297934B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021092935A1 (zh) * | 2019-11-15 | 2021-05-20 | 深圳海付移通科技有限公司 | 基于图像数据的消息推送方法、设备及计算机存储介质 |
CN111416950B (zh) * | 2020-03-26 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、存储介质及电子设备 |
CN113536831A (zh) * | 2020-04-13 | 2021-10-22 | 北京沃东天骏信息技术有限公司 | 基于图像识别的助读方法、装置、设备和计算机可读介质 |
CN111581510B (zh) * | 2020-05-07 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 分享内容处理方法、装置、计算机设备和存储介质 |
CN111709303A (zh) * | 2020-05-21 | 2020-09-25 | 北京明略软件系统有限公司 | 一种人脸图像的识别方法和装置 |
CN111625674A (zh) * | 2020-06-01 | 2020-09-04 | 联想(北京)有限公司 | 一种图片处理方法及装置 |
CN112288512B (zh) * | 2020-10-09 | 2024-07-16 | 北京三快在线科技有限公司 | 信息处理方法、装置、电子设备及可读存储介质 |
CN112287790A (zh) * | 2020-10-20 | 2021-01-29 | 北京字跳网络技术有限公司 | 影像处理方法、装置、存储介质及电子设备 |
CN112257633B (zh) * | 2020-10-29 | 2023-06-02 | 中国安全生产科学研究院 | 一种基于图像识别的管道高后果区动态识别方法 |
CN114578999A (zh) * | 2020-11-16 | 2022-06-03 | 深圳市万普拉斯科技有限公司 | 一种图像分享的方法、装置及终端设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010170386A (ja) * | 2009-01-23 | 2010-08-05 | Sanyo Electric Co Ltd | 画像改竄防止システム、撮像装置、情報処理装置、及び画像改竄防止方法 |
CN107077487A (zh) * | 2014-10-23 | 2017-08-18 | 微软技术许可有限责任公司 | 利用深度网络对个人照片加标签 |
CN107316248A (zh) * | 2017-06-26 | 2017-11-03 | 高岚 | 一种为图片增加文字说明并生成博文的系统和方法 |
CN107451256A (zh) * | 2017-07-31 | 2017-12-08 | 东莞理工学院 | 图片美文的配置方法及系统 |
CN107589889A (zh) * | 2017-09-21 | 2018-01-16 | 北京金山安全软件有限公司 | 一种图像处理触发方法、装置、电子设备及存储介质 |
CN107832385A (zh) * | 2017-10-30 | 2018-03-23 | 北京金山安全软件有限公司 | 一种图片处理方法、装置及电子设备 |
CN109167939A (zh) * | 2018-08-08 | 2019-01-08 | 成都西纬科技有限公司 | 一种自动配文方法、装置及计算机存储介质 |
CN109643332A (zh) * | 2016-12-26 | 2019-04-16 | 华为技术有限公司 | 一种语句推荐方法及装置 |
CN109671137A (zh) * | 2018-10-26 | 2019-04-23 | 广东智媒云图科技股份有限公司 | 一种图片配文字的方法、电子设备及存储介质 |
CN109902759A (zh) * | 2019-03-12 | 2019-06-18 | 上海云从企业发展有限公司 | 图片集描述方法及装置 |
CN109933802A (zh) * | 2019-03-25 | 2019-06-25 | 腾讯科技(深圳)有限公司 | 图文匹配方法、装置及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8792684B2 (en) * | 2011-08-11 | 2014-07-29 | At&T Intellectual Property I, L.P. | Method and apparatus for automated analysis and identification of a person in image and video content |
US10515275B2 (en) * | 2017-11-17 | 2019-12-24 | Adobe Inc. | Intelligent digital image scene detection |
-
2019
- 2019-07-04 CN CN201910598919.8A patent/CN110297934B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010170386A (ja) * | 2009-01-23 | 2010-08-05 | Sanyo Electric Co Ltd | 画像改竄防止システム、撮像装置、情報処理装置、及び画像改竄防止方法 |
CN107077487A (zh) * | 2014-10-23 | 2017-08-18 | 微软技术许可有限责任公司 | 利用深度网络对个人照片加标签 |
CN109643332A (zh) * | 2016-12-26 | 2019-04-16 | 华为技术有限公司 | 一种语句推荐方法及装置 |
CN107316248A (zh) * | 2017-06-26 | 2017-11-03 | 高岚 | 一种为图片增加文字说明并生成博文的系统和方法 |
CN107451256A (zh) * | 2017-07-31 | 2017-12-08 | 东莞理工学院 | 图片美文的配置方法及系统 |
CN107589889A (zh) * | 2017-09-21 | 2018-01-16 | 北京金山安全软件有限公司 | 一种图像处理触发方法、装置、电子设备及存储介质 |
CN107832385A (zh) * | 2017-10-30 | 2018-03-23 | 北京金山安全软件有限公司 | 一种图片处理方法、装置及电子设备 |
CN109167939A (zh) * | 2018-08-08 | 2019-01-08 | 成都西纬科技有限公司 | 一种自动配文方法、装置及计算机存储介质 |
CN109671137A (zh) * | 2018-10-26 | 2019-04-23 | 广东智媒云图科技股份有限公司 | 一种图片配文字的方法、电子设备及存储介质 |
CN109902759A (zh) * | 2019-03-12 | 2019-06-18 | 上海云从企业发展有限公司 | 图片集描述方法及装置 |
CN109933802A (zh) * | 2019-03-25 | 2019-06-25 | 腾讯科技(深圳)有限公司 | 图文匹配方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110297934A (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110297934B (zh) | 一种图像数据处理方法、装置及存储介质 | |
US20130111373A1 (en) | Presentation content generation device, presentation content generation method, presentation content generation program, and integrated circuit | |
US9558397B2 (en) | Method and apparatus for automated analysis and identification of a person in image and video content | |
JP5848336B2 (ja) | 画像処理装置 | |
JP5520585B2 (ja) | 情報処理装置 | |
US8953895B2 (en) | Image classification apparatus, image classification method, program, recording medium, integrated circuit, and model creation apparatus | |
EP2402867B1 (en) | A computer-implemented method, a computer program product and a computer system for image processing | |
US20130179172A1 (en) | Image reproducing device, image reproducing method | |
Kaneko et al. | Event photo mining from twitter using keyword bursts and image clustering | |
CN104331509A (zh) | 照片管理方法及装置 | |
CN102483767A (zh) | 对象关联装置、对象关联方法、程序及记录介质 | |
CN103412951A (zh) | 基于人物照片的人脉关联分析管理系统与方法 | |
CN102292722A (zh) | 基于多模元数据和结构化语义描述符来产生注释标签 | |
JP5878523B2 (ja) | コンテンツ加工装置とその集積回路、方法、およびプログラム | |
US8892555B2 (en) | Apparatus and method for generating story according to user information | |
JP2014092955A (ja) | 類似コンテンツ検索処理装置、類似コンテンツ検索処理方法、およびプログラム | |
CN111480168B (zh) | 基于情景的图像选择 | |
CN110633377A (zh) | 一种图片清理方法和装置 | |
KR20120111855A (ko) | 사용자 정보에 따른 스토리 생성 장치 및 방법 | |
Amornpashara et al. | Landscape photo classification mechanism for context-aware photography support system | |
CN112218102B (zh) | 视频内容发包制作方法、客户端及系统 | |
CN118035508A (zh) | 素材数据处理方法及相关产品 | |
CN108460095A (zh) | 目标用户的确定方法及装置 | |
CN109472204B (zh) | 一种运动路线的展示方法、装置及计算机可读存储介质 | |
CN118034553A (zh) | 基于图像的提示方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |