CN106611015A - 标签的处理方法及装置 - Google Patents
标签的处理方法及装置 Download PDFInfo
- Publication number
- CN106611015A CN106611015A CN201510707963.XA CN201510707963A CN106611015A CN 106611015 A CN106611015 A CN 106611015A CN 201510707963 A CN201510707963 A CN 201510707963A CN 106611015 A CN106611015 A CN 106611015A
- Authority
- CN
- China
- Prior art keywords
- resource
- label
- sequence
- training sample
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/06—Arrangements for sorting, selecting, merging, or comparing data on individual record carriers
- G06F7/08—Sorting, i.e. grouping record carriers in numerical or other ordered sequence according to the classification of at least some of the information they carry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种标签的处理方法及装置。本发明实施例通过获取资源的语义特征数据,进而根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率,使得能够根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合,从而实现了获得资源的多个标签的目的。
Description
【技术领域】
本发明涉及标签处理技术,尤其涉及一种标签的处理方法及装置。
【背景技术】
社会标签(Social tagging)简称为标签,是一种更为灵活、有趣的分类方式,它允许用户自由地标注各种资源,例如网页、学术论文和多媒体等资源。社会标签可以帮助用户分类整理和查询各类信息,广泛应用于社会标签网站(例如,Flickr、Picassa、YouTube、Plaxo等)、博客(例如,Blogger、WordPress、LiveJournal等)、百科(例如,Wikipedia、PBWiki等)、微博(例如,Twitter、Jaiku等)等系统。现有技术中,提供了对资源进行单一标签分类的方法,以生成资源的一个标签。
然而,由于客观事物本身的复杂性,一个资源可能同时具有多个不同的标签,如何对资源进行多标签分类,以生成资源的多个标签,已经成为目前的一个研究热点。
【发明内容】
本发明的多个方面提供一种标签的处理方法及装置,用以获得资源的多个标签。
本发明的一方面,提供一种标签的处理方法,包括:
获取资源的语义特征数据;
根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率;
根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述获取资源的语义特征数据,包括:
利用预先构建的卷积神经网络,对所述资源进行处理,以获得所述资源的语义特征数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述方法还包括:
根据标签在第一训练样本集中的出现情况,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列;
根据所述第一每个训练样本的样本序列,构建所述卷积神经网络。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率,包括:
根据所述资源的语义特征数据,利用预先构建的递归神经网络,获得所述资源的至少一个标签序列的后验概率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述方法还包括:
根据标签在第二训练样本集中的出现情况,对所述第二训练样本集中每个第二训练样本中所包含的至少一个标签进行排序处理,以获得所述每个第二训练样本的样本序列;
获取所述第二训练样本集中每个第二训练样本中所包含的一个资源的语义特征数据;
根据所述每个第二训练样本的样本序列和所述每个第二训练样本中所包含的一个资源的语义特征数据,构建所述递归神经网络。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述根据所述后验概率,选择一个标签序列,包括:
根据所述后验概率,从所述资源的全部标签序列中,选择所述一个标签序列;或者
根据所述后验概率,从所述资源的部分标签序列中,选择所述一个标签序列。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述资源包括图像。
本发明的另一方面,提供一种标签的处理装置,包括:
获取单元,用于获取资源的语义特征数据;
处理单元,用于根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率;
选择单元,用于根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述获取单元,具体用于
利用预先构建的卷积神经网络,对所述资源进行处理,以获得所述资源的语义特征数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述获取单元,还用于
根据标签在第一训练样本集中的出现情况,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列;以及
根据所述第一每个训练样本的样本序列,构建所述卷积神经网络。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述处理单元,具体用于
根据所述资源的语义特征数据,利用预先构建的递归神经网络,获得所述资源的至少一个标签序列的后验概率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述处理单元,还用于
根据标签在第二训练样本集中的出现情况,对所述第二训练样本集中每个第二训练样本中所包含的至少一个标签进行排序处理,以获得所述每个第二训练样本的样本序列;
获取所述第二训练样本集中每个第二训练样本中所包含的一个资源的语义特征数据;以及
根据所述每个第二训练样本的样本序列和所述每个第二训练样本中所包含的一个资源的语义特征数据,构建所述递归神经网络。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述选择单元,具体用于
根据所述后验概率,从所述资源的全部标签序列中,选择所述一个标签序列;或者
根据所述后验概率,从所述资源的部分标签序列中,选择所述一个标签序列。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述资源包括图像。
由上述技术方案可知,本发明实施例通过获取资源的语义特征数据,进而根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率,使得能够根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合,从而实现了获得资源的多个标签的目的。
另外,采用本发明所提供的技术方案,由于考虑了标签序列中每个标签之间的关联关系,例如,相关性、共线性等,使得能够获得资源的一个标签序列,而不是分别采用单标签分类的方法,单独地获得资源的若干个相互独立的标签,因此,能够有效提高资源的标签获得的可靠性。
另外,采用本发明所提供的技术方案,通过利用卷积神经网络,使得能够获得更为准确的资源的语义特征数据,因此,能够有效提高资源的语义特征数据获取的可靠性。
另外,采用本发明所提供的技术方案,通过利用递归神经网络,使得能够将标签序列中每个标签之间的关联关系,例如,相关性、共线性等表示出来,因此,能够有效提高资源的标签获得的可靠性。
另外,采用本发明所提供的技术方案,通过构建递归神经网络,使得能够快速地学习标签序列中每个标签之间的关联关系,例如,相关性、共线性等,因此,能够有效提高标签序列的关联关系学习的效率。
【附图说明】
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的标签的处理方法的流程示意图;
图2为本发明另一实施例提供的标签的处理装置的结构示意图。
【具体实施方式】
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例中所涉及的终端可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(Tablet Computer)、个人电脑(Personal Computer,PC)、MP3播放器、MP4播放器、可穿戴设备(例如,智能眼镜、智能手表、智能手环等)等。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本发明一实施例提供的标签的处理方法的流程示意图,如图1所示。
101、获取资源的语义特征数据。
102、根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率。
103、根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合。
需要说明的是,101~103的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(Software Development Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
这样,通过获取资源的语义特征数据,进而根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率,使得能够根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合,从而实现了获得资源的多个标签的目的。
本实施例中,所涉及的资源,可以是指网络信息资源,是通过计算机网络可以利用的各种信息资源的总和。具体地,可以是指所有以电子数据形式把文字、图像、声音、动画等多种形式的信息存储在光、磁等非纸介质的载体中,并通过网络通信、计算机或终端等方式再现出来的资源。
在一个优选的实现过程中,所述资源可以为图像。所谓的图像,可以是指采用一定的图像格式,将图像数据即图像的像素按照一定的方式进行存储,所形成的文件,又可以称为图像文件。
其中,图像的图像格式即图像存储的格式,可以包括但不限于位图(Bitmap,BMP)格式、可移植网络图像格式(Portable Network GraphicFormat,PNG)、联合图像专家组(Joint Photographic Experts Group,JPEG)格式、可交换图像文件格式(Exchangeable Image File Format,EXIF),本实施例对此不进行特别限定。
可选地,在本实施例的一个可能的实现方式中,在101中,具体可以利用预先构建的卷积神经网络,对所述资源进行处理,以获得所述资源的语义特征数据。
在一个具体的实现过程中,还可以进一步预先构建一个卷积神经网络。具体地,具体可以根据标签在第一训练样本集中的出现情况,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列。然后,则可以根据所述第一每个训练样本的样本序列,构建所述卷积神经网络。该卷积神经网络,可以有效地表示出资源到语义特征数据之间的映射关系。
所谓的卷积神经网络是一种使用卷积的前向神经网络,可以有效的模拟人脑中图像理解的过程,因此非常适合用来处理与理解图像。
例如,具体可以根据标签在第一训练样本集中的出现次数,按照从大到小的顺序,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列。
或者,具体可以根据标签在第一训练样本集中的最近出现时间,按照从距离当前时间最近到距离当前时间最远的顺序,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列。
需要说明的是,每个第一训练样本集中所包含的第一训练样本,可以为经过标注的已知样本即标注了标签的资源,这样,可以直接利用这些已知样本进行训练,以构建目标卷积神经网络;或者还可以一部分为经过标注的已知样本,另一部分为没有经过标注的未知样本,那么,则可以先利用已知样本进行训练,以构建初始卷积神经网络,然后,再利用初始卷积神经网络对未知样本进行预测,以获得标签分类结果,进而则可以根据未知样本的标签分类结果,对未知样本进行标注,以形成已知样本,作为新增加的已知样本,利用新增加的已知样本,以及原始的已知样本重新进行训练,以构建新的卷积神经网络,直到所构建的卷积神经网络或已知样本满足目标卷积神经网络的截止条件为止,如分类准确率大于或等于预先设置的准确率阈值或已知样本的数量大于或等于预先设置的数量阈值等,本实施例对此不进行特别限定。
此外,除了利用上述的卷积神经网络之外,还可以采用各种手动设计的图像特征,获取所述资源的语义特征数据,例如,尺度不变特征转换(Scale-Invariant Feature Transform,SIFT)、梯度方向直方图(Histogramof Oriented Gradients,HOG)。与卷积神经网络相比,这种方法存在如下缺陷:
过程完全是手动设计,在实际应用中需要仔细调整相关的参数;
在进行图像处理的过程中,损失了大量的图像信息。
因此,通过利用卷积神经网络,使得能够获得更为准确的资源的语义特征数据,因此,能够有效提高资源的语义特征数据获取的可靠性。
可选地,在本实施例的一个可能的实现方式中,在102中,具体可以根据所述资源的语义特征数据,利用预先构建的递归神经网络,获得所述资源的至少一个标签序列的后验概率。
所谓的标签序列的后验概率,可以是指在得到结果的信息(即图像和图像的标签序列)后重新修正的概率。
在一个具体的实现过程中,还可以进一步预先构建一个递归神经网络。具体地,具体可以根据标签在第二训练样本集中的出现情况,对所述第二训练样本集中每个第二训练样本中所包含的至少一个标签进行排序处理,以获得所述每个第二训练样本的样本序列。以及获取所述第二训练样本集中每个第二训练样本中所包含的一个资源的语义特征数据。然后,则可以根据所述每个第二训练样本的样本序列和所述每个第二训练样本中所包含的一个资源的语义特征数据,构建所述递归神经网络。该递归神经网络,可以有效表示出语义特征数据到标签序列间的相互关系之间的映射关系。
所谓的递归神经网络是一种具有环路的神经网络,可以通过更新其内部的状态来表示出时间序列的动态特性,可以处理任意长度的序列,因此,非常适合用来对序列数据(如本发明中的标签序列)中各个元素之间的关系进行建模,例如,自然语音、语音、手写识别等。
此处构建递归神经网络所采用的第二训练样本集与之前构建卷积神经网络所采用的第一训练样本集,可以是同一个训练样本集,或者还可以分别是两个不同的训练样本集,本实施例对此不进行特别限定。
需要说明的是,每个第二训练样本集中所包含的第二训练样本,可以为经过标注的已知样本即标注了标签的资源,这样,可以直接利用这些已知样本进行训练,以构建目标卷积神经网络;或者还可以一部分为经过标注的已知样本,另一部分为没有经过标注的未知样本,那么,则可以先利用已知样本进行训练,以构建初始卷积神经网络,然后,再利用初始卷积神经网络对未知样本进行预测,以获得标签分类结果,进而则可以根据未知样本的标签分类结果,对未知样本进行标注,以形成已知样本,作为新增加的已知样本,利用新增加的已知样本,以及原始的已知样本重新进行训练,以构建新的卷积神经网络,直到所构建的卷积神经网络或已知样本满足目标卷积神经网络的截止条件为止,如分类准确率大于或等于预先设置的准确率阈值或已知样本的数量大于或等于预先设置的数量阈值等,本实施例对此不进行特别限定。
此外,除了利用上述的卷积神经网络之外,还可以采用其他方法,对标签序列中每个标签之间的关联关系,例如,相关性、共线性等,进行学习,例如,条件随机场模型、马尔科夫场模型等基于模型的方法,这种方法只能表示出两两标签之间的关联关系,并且学习过程的运算速度较慢,再例如,将多个标签组合成一个标签的方法,等等,这种方法学习过程比较复杂,并且运算亮较大,运算速度慢。
因此,通过利用递归神经网络,使得能够将标签序列中每个标签之间的关联关系,例如,相关性、共线性等表示出来,因此,能够有效提高资源的标签获得的可靠性。
另外,通过构建递归神经网络,其学习过程的运算量较小,使得能够快速地学习标签序列中每个标签之间的关联关系,例如,相关性、共线性等,因此,能够有效提高标签序列的关联关系学习的效率。
可选地,在本实施例的一个可能的实现方式中,在103中,具体可以根据所述后验概率,从所述资源的全部标签序列中,选择后验概率最大的一个标签序列,作为所述一个标签序列。
可选地,在本实施例的一个可能的实现方式中,在103中,具体可以根据所述后验概率,从所述资源的部分标签序列中,选择后验概率最大的一个标签序列,作为所述一个标签序列。
在一个具体的实现过程中,可以进一步预先设置一个概率阈值,在所获得的所述资源的全部标签序列中,利用概率阈值,将后验概率小于该概率阈值的标签序列直接过滤掉,在剩下的标签序列中,选择后验概率最大的一个标签序列,作为所述一个标签序列。
本实施例中,通过获取资源的语义特征数据,进而根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率,使得能够根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合,从而实现了获得资源的多个标签的目的。
另外,采用本发明所提供的技术方案,由于考虑了标签序列中每个标签之间的关联关系,例如,相关性、共线性等,使得能够获得资源的一个标签序列,而不是分别采用单标签分类的方法,单独地获得资源的若干个相互独立的标签,因此,能够有效提高资源的标签获得的可靠性。
另外,采用本发明所提供的技术方案,通过利用卷积神经网络,使得能够获得更为准确的资源的语义特征数据,因此,能够有效提高资源的语义特征数据获取的可靠性。
另外,采用本发明所提供的技术方案,通过利用递归神经网络,使得能够将标签序列中每个标签之间的关联关系,例如,相关性、共线性等表示出来,因此,能够有效提高资源的标签获得的可靠性。
另外,采用本发明所提供的技术方案,通过构建递归神经网络,使得能够快速地学习标签序列中每个标签之间的关联关系,例如,相关性、共线性等,因此,能够有效提高标签序列的关联关系学习的效率。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图2为本发明另一实施例提供的标签的处理装置的结构示意图,如图2所示。本实施例的标签的处理装置可以包括获取单元21、处理单元22和选择单元23。其中,获取单元21,用于获取资源的语义特征数据;处理单元22,用于根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率;选择单元23,用于根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合。
需要说明的是,本实施例所提供的标签的处理装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(Software Development Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
本实施例中,所涉及的资源,可以是指网络信息资源,是通过计算机网络可以利用的各种信息资源的总和。具体地,可以是指所有以电子数据形式把文字、图像、声音、动画等多种形式的信息存储在光、磁等非纸介质的载体中,并通过网络通信、计算机或终端等方式再现出来的资源。
在一个优选的实现过程中,所述资源可以为图像。所谓的图像,可以是指采用一定的图像格式,将图像数据即图像的像素按照一定的方式进行存储,所形成的文件,又可以称为图像文件。
可选地,在本实施例的一个可能的实现方式中,所述获取单元21,具体可以用于利用预先构建的卷积神经网络,对所述资源进行处理,以获得所述资源的语义特征数据。
在一个具体的实现过程中,所述获取单元21,还可以进一步用于根据标签在第一训练样本集中的出现情况,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列;以及根据所述第一每个训练样本的样本序列,构建所述卷积神经网络。
可选地,在本实施例的一个可能的实现方式中,所述处理单元22,具体可以用于根据所述资源的语义特征数据,利用预先构建的递归神经网络,获得所述资源的至少一个标签序列的后验概率。
在一个具体的实现过程中,所述处理单元22,还可以进一步用于根据标签在第二训练样本集中的出现情况,对所述第二训练样本集中每个第二训练样本中所包含的至少一个标签进行排序处理,以获得所述每个第二训练样本的样本序列;获取所述第二训练样本集中每个第二训练样本中所包含的一个资源的语义特征数据;以及根据所述每个第二训练样本的样本序列和所述每个第二训练样本中所包含的一个资源的语义特征数据,构建所述递归神经网络。
可选地,在本实施例的一个可能的实现方式中,所述选择单元23,具体可以用于根据所述后验概率,从所述资源的全部标签序列中,选择所述一个标签序列。
可选地,在本实施例的一个可能的实现方式中,所述选择单元23,具体可以用于根据所述后验概率,从所述资源的部分标签序列中,选择所述一个标签序列。
需要说明的是,图1对应的实施例中方法,可以由本实施例提供的标签的处理装置实现。详细描述可以参见图1对应的实施例中的关联资源,此处不再赘述。
本实施例中,通过获取单元获取资源的语义特征数据,进而由处理单元根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率,使得选择单元能够根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合,从而实现了获得资源的多个标签的目的。
另外,采用本发明所提供的技术方案,由于考虑了标签序列中每个标签之间的关联关系,例如,相关性、共线性等,使得能够获得资源的一个标签序列,而不是分别采用单标签分类的方法,单独地获得资源的若干个相互独立的标签,因此,能够有效提高资源的标签获得的可靠性。
另外,采用本发明所提供的技术方案,通过利用卷积神经网络,使得能够获得更为准确的资源的语义特征数据,因此,能够有效提高资源的语义特征数据获取的可靠性。
另外,采用本发明所提供的技术方案,通过利用递归神经网络,使得能够将标签序列中每个标签之间的关联关系,例如,相关性、共线性等表示出来,因此,能够有效提高资源的标签获得的可靠性。
另外,采用本发明所提供的技术方案,通过构建递归神经网络,使得能够快速地学习标签序列中每个标签之间的关联关系,例如,相关性、共线性等,因此,能够有效提高标签序列的关联关系学习的效率。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (14)
1.一种标签的处理方法,其特征在于,包括:
获取资源的语义特征数据;
根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率;
根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合。
2.根据权利要求1所述的方法,其特征在于,所述获取资源的语义特征数据,包括:
利用预先构建的卷积神经网络,对所述资源进行处理,以获得所述资源的语义特征数据。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
根据标签在第一训练样本集中的出现情况,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列;
根据所述第一每个训练样本的样本序列,构建所述卷积神经网络。
4.根据权利要求1所述的方法,其特征在于,所述根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率,包括:
根据所述资源的语义特征数据,利用预先构建的递归神经网络,获得所述资源的至少一个标签序列的后验概率。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
根据标签在第二训练样本集中的出现情况,对所述第二训练样本集中每个第二训练样本中所包含的至少一个标签进行排序处理,以获得所述每个第二训练样本的样本序列;
获取所述第二训练样本集中每个第二训练样本中所包含的一个资源的语义特征数据;
根据所述每个第二训练样本的样本序列和所述每个第二训练样本中所包含的一个资源的语义特征数据,构建所述递归神经网络。
6.根据权利要求1所述的方法,其特征在于,所述根据所述后验概率,选择一个标签序列,包括:
根据所述后验概率,从所述资源的全部标签序列中,选择所述一个标签序列;或者
根据所述后验概率,从所述资源的部分标签序列中,选择所述一个标签序列。
7.根据权利要求1~6任一权利要求所述的方法,其特征在于,所述资源包括图像。
8.一种标签的处理装置,其特征在于,包括:
获取单元,用于获取资源的语义特征数据;
处理单元,用于根据所述资源的语义特征数据,获得所述资源的至少一个标签序列的后验概率;
选择单元,用于根据所述后验概率,选择一个标签序列,以作为所述资源的标签集合。
9.根据权利要求8所述的装置,其特征在于,所述获取单元,具体用于
利用预先构建的卷积神经网络,对所述资源进行处理,以获得所述资源的语义特征数据。
10.根据权利要求9所述的装置,其特征在于,所述获取单元,还用于
根据标签在第一训练样本集中的出现情况,对所述第一训练样本集中每个第一训练样本中所包含的至少一个标签进行排序处理,以获得所述第一每个训练样本的样本序列;以及
根据所述第一每个训练样本的样本序列,构建所述卷积神经网络。
11.根据权利要求8所述的装置,其特征在于,所述处理单元,具体用于
根据所述资源的语义特征数据,利用预先构建的递归神经网络,获得所述资源的至少一个标签序列的后验概率。
12.根据权利要求11所述的装置,其特征在于,所述处理单元,还用于
根据标签在第二训练样本集中的出现情况,对所述第二训练样本集中每个第二训练样本中所包含的至少一个标签进行排序处理,以获得所述每个第二训练样本的样本序列;
获取所述第二训练样本集中每个第二训练样本中所包含的一个资源的语义特征数据;以及
根据所述每个第二训练样本的样本序列和所述每个第二训练样本中所包含的一个资源的语义特征数据,构建所述递归神经网络。
13.根据权利要求8所述的装置,其特征在于,所述选择单元,具体用于
根据所述后验概率,从所述资源的全部标签序列中,选择所述一个标签序列;或者
根据所述后验概率,从所述资源的部分标签序列中,选择所述一个标签序列。
14.根据权利要求8~13任一权利要求所述的装置,其特征在于,所述资源包括图像。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510707963.XA CN106611015B (zh) | 2015-10-27 | 2015-10-27 | 标签的处理方法及装置 |
KR1020160109826A KR20170049380A (ko) | 2015-10-27 | 2016-08-29 | 태그처리방법 및 태그처리장치 |
JP2016172313A JP6402408B2 (ja) | 2015-10-27 | 2016-09-02 | タグ処理方法及びタグ処理装置 |
US15/273,551 US20170116521A1 (en) | 2015-10-27 | 2016-09-22 | Tag processing method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510707963.XA CN106611015B (zh) | 2015-10-27 | 2015-10-27 | 标签的处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106611015A true CN106611015A (zh) | 2017-05-03 |
CN106611015B CN106611015B (zh) | 2020-08-28 |
Family
ID=58558982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510707963.XA Active CN106611015B (zh) | 2015-10-27 | 2015-10-27 | 标签的处理方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20170116521A1 (zh) |
JP (1) | JP6402408B2 (zh) |
KR (1) | KR20170049380A (zh) |
CN (1) | CN106611015B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106484139B (zh) * | 2016-10-19 | 2019-01-29 | 北京新美互通科技有限公司 | 表情符号推荐方法及装置 |
US11468286B2 (en) * | 2017-05-30 | 2022-10-11 | Leica Microsystems Cms Gmbh | Prediction guided sequential data learning method |
US11017780B2 (en) * | 2017-08-02 | 2021-05-25 | Veritone, Inc. | System and methods for neural network orchestration |
KR20190065128A (ko) | 2017-12-01 | 2019-06-11 | 한국과학기술원 | 약물의 구조 정보를 이용한 약물-약물 또는 약물-음식 상호작용 예측 방법 |
JP7068570B2 (ja) | 2017-12-11 | 2022-05-17 | 富士通株式会社 | 生成プログラム、情報処理装置及び生成方法 |
CN108629295A (zh) * | 2018-04-17 | 2018-10-09 | 华中科技大学 | 转角地标识别模型训练方法、转角地标识别方法及装置 |
CN109284414B (zh) * | 2018-09-30 | 2020-12-04 | 中国科学院计算技术研究所 | 基于语义保持的跨模态内容检索方法和系统 |
US11354351B2 (en) * | 2019-01-31 | 2022-06-07 | Chooch Intelligence Technologies Co. | Contextually generated perceptions |
CN113052191A (zh) * | 2019-12-26 | 2021-06-29 | 航天信息股份有限公司 | 一种神经语言网络模型的训练方法、装置、设备及介质 |
CN113569067A (zh) * | 2021-07-27 | 2021-10-29 | 深圳Tcl新技术有限公司 | 标签分类方法、装置、电子设备及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324940A (zh) * | 2013-05-02 | 2013-09-25 | 广东工业大学 | 基于多示例多标签学习的皮肤病理图片特征识别方法 |
CN103049454B (zh) * | 2011-10-16 | 2016-04-20 | 同济大学 | 一种基于多标签分类的中英文搜索结果可视化系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009035108A (ja) * | 2007-08-01 | 2009-02-19 | Yamato Giken Kk | バイク用カウリングの保護装置 |
CN103164463B (zh) * | 2011-12-16 | 2017-03-22 | 国际商业机器公司 | 推荐标签的方法和装置 |
US10043112B2 (en) * | 2014-03-07 | 2018-08-07 | Qualcomm Incorporated | Photo management |
-
2015
- 2015-10-27 CN CN201510707963.XA patent/CN106611015B/zh active Active
-
2016
- 2016-08-29 KR KR1020160109826A patent/KR20170049380A/ko active Search and Examination
- 2016-09-02 JP JP2016172313A patent/JP6402408B2/ja active Active
- 2016-09-22 US US15/273,551 patent/US20170116521A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049454B (zh) * | 2011-10-16 | 2016-04-20 | 同济大学 | 一种基于多标签分类的中英文搜索结果可视化系统 |
CN103324940A (zh) * | 2013-05-02 | 2013-09-25 | 广东工业大学 | 基于多示例多标签学习的皮肤病理图片特征识别方法 |
Non-Patent Citations (5)
Title |
---|
ORIOL VINYALS等: "Show and Tell: A Neural Image Caption Generator", 《PROCEEDINGS OF 2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
QI WU等: "What value high level concepts in vision to language problems?", 《ARXIV.ORG>CS>COMPUTER VISION AND PATTERN RECOGNITION》 * |
张亮 等: "线性合成的双粒度RNN集成系统", 《自动化学报》 * |
徐振宇 等: "基于条件随机场的多标签图像分类", 《辽宁工业大学学报》 * |
高振华: "基于标记间相关性的多标记分类算法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
JP6402408B2 (ja) | 2018-10-10 |
KR20170049380A (ko) | 2017-05-10 |
CN106611015B (zh) | 2020-08-28 |
US20170116521A1 (en) | 2017-04-27 |
JP2017084340A (ja) | 2017-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106611015A (zh) | 标签的处理方法及装置 | |
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
Bhardwaj et al. | Deep Learning Essentials: Your hands-on guide to the fundamentals of deep learning and neural network modeling | |
CN109658455B (zh) | 图像处理方法和处理设备 | |
CN109271493B (zh) | 一种语言文本处理方法、装置和存储介质 | |
Planche et al. | Hands-On Computer Vision with TensorFlow 2: Leverage deep learning to create powerful image processing apps with TensorFlow 2.0 and Keras | |
CN111275107A (zh) | 一种基于迁移学习的多标签场景图像分类方法及装置 | |
CN111985229A (zh) | 一种序列标注方法、装置及计算机设备 | |
Singh et al. | Mobile Deep Learning with TensorFlow Lite, ML Kit and Flutter: Build scalable real-world projects to implement end-to-end neural networks on Android and iOS | |
CN110222330A (zh) | 语义识别方法及装置、存储介质、计算机设备 | |
CN108875693A (zh) | 一种图像处理方法、装置、电子设备及其存储介质 | |
CN103631874A (zh) | 社交平台的ugc标签类别确定方法和装置 | |
CN109359198A (zh) | 一种文本分类方法及装置 | |
CN110728147A (zh) | 一种模型训练方法及命名实体识别方法 | |
CN112434746B (zh) | 基于层次化迁移学习的预标注方法及其相关设备 | |
Maity et al. | Selfdocseg: A self-supervised vision-based approach towards document segmentation | |
CN111444335A (zh) | 中心词的提取方法及装置 | |
CN110309355A (zh) | 内容标签的生成方法、装置、设备及存储介质 | |
CN112529027A (zh) | 数据处理方法、客户端、装置及计算机可读存储介质 | |
Jha | Mastering PyTorch: build powerful neural network architectures using advanced PyTorch 1. x features | |
CN112989801B (zh) | 一种序列标注方法、装置及设备 | |
CN113837216B (zh) | 数据分类方法、训练方法、装置、介质及电子设备 | |
Agrawal | CloudCV: deep learning and computer vision on the cloud | |
Yuan et al. | TRiP: a transfer learning based rice disease phenotype recognition platform using SENet and microservices | |
CN113836903A (zh) | 一种基于情境嵌入和知识蒸馏的企业画像标签抽取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |