CN109344884B - 媒体信息分类方法、训练图片分类模型的方法及装置 - Google Patents
媒体信息分类方法、训练图片分类模型的方法及装置 Download PDFInfo
- Publication number
- CN109344884B CN109344884B CN201811076275.8A CN201811076275A CN109344884B CN 109344884 B CN109344884 B CN 109344884B CN 201811076275 A CN201811076275 A CN 201811076275A CN 109344884 B CN109344884 B CN 109344884B
- Authority
- CN
- China
- Prior art keywords
- media information
- picture
- classified
- classification model
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013145 classification model Methods 0.000 title claims abstract description 296
- 238000000034 method Methods 0.000 title claims abstract description 140
- 238000012549 training Methods 0.000 title claims abstract description 106
- 239000013598 vector Substances 0.000 claims abstract description 62
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 88
- 238000000605 extraction Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000013526 transfer learning Methods 0.000 claims description 7
- 230000001629 suppression Effects 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 230000002829 reductive effect Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 230000003796 beauty Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013508 migration Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 230000002401 inhibitory effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000233805 Phoenix Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种媒体信息分类方法,包括获取待分类媒体信息,将该待分类媒体信息输入图片分类模型,获取图片分类模型输出的待分类媒体信息的类别标签,作为第一类别标签,根据该第一类别标签确定待分类媒体信息的类别。在该方法中通过机器学习方法训练得到神经网络模型,基于该图片分类模型对待分类媒体信息进行分类,主要是通过神经网络学习待分类媒体信息中的图片信息生成图片特征向量,根据图片特征向量对媒体信息进行分类,因此,针对多图少文的待分类媒体信息能够提高分类准确率。本申请还公开了一种训练图片分类模型的方法、媒体信息分类装置、训练图片分类模型的装置、媒体信息分类设备、训练图片分类模型的设备以及计算机存储介质。
Description
技术领域
本申请涉及内容识别技术领域,尤其涉及一种媒体信息分类方法、训练图片分类模型的方法、装置、设备以及计算机存储介质。
背景技术
随着信息行业和互联网的发展,媒体信息的表现形式也从传统的以文字信息为主,逐渐地转变成以图文并茂,甚至以图为主的形式。并且,随着媒体信息发文和流量的增加,给媒体运营方带来红利的同时,对媒体信息分类的质量也提出了更高的要求。
然而,传统的媒体信息分类方法是将媒体信息分类问题归结为自然语言处理领域中的文本分类问题,以媒体信息为新闻为例,通过识别新闻中的字、词、句子等文本信息,实现对新闻分类的目的,其针对传统的以文字信息为主的新闻具有良好的分类效果;然而,在当前的新闻媒体时代,存在大量的图多字少的新闻,这类新闻在文本层面上通常仅包含标题或者少量正文信息,由于这类新闻的文本信息量非常少,因此,传统的新闻分类方法针对这类新闻无法无法发挥出好的分类效果,其分类准确率大打折扣。
因此,基于当前的新媒体时代的发展需求,急需研发适用于新型媒体信息的分类方案。
发明内容
本申请实施例提供了一种媒体信息分类方法,使得能够基于图片分类模型对图多字少的媒体信息进行分类,并且具有较高的准确率。本申请还提供了训练图片分类模型的方法以及上述方法对应的装置、设备、计算机存储介质。
有鉴于此,本申请一方面提供了一种媒体信息分类方法,所述方法包括:
获取待分类媒体信息,所述媒体信息包括文本信息和图片信息;
将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的的类别标签,作为第一类别标签;所述图片分类模型是根据媒体信息样本数据训练得到的神经网络模型,用于根据媒体信息中的图片信息生成图片特征向量,并根据所述图片特征向量分类得到所述媒体信息的类别标签;
根据所述第一类别标签确定所述待分类媒体信息所属的类别。
本申请一方面提供一种媒体信息分类装置,所述装置包括:
获取单元,用于获取待分类媒体信息,所述媒体信息包括文本信息和图片信息;
输入单元,用于将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的的类别标签,作为第一类别标签;所述图片分类模型是根据媒体信息样本数据训练得到的神经网络模型,用于根据媒体信息中的图片信息生成图片特征向量,并根据所述图片特征向量分类得到所述媒体信息的类别标签;确定单元,用于根据所述第一类别标签确定所述待分类媒体信息所属的类别。
本申请一方面提供一种媒体信息分类设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令,执行如上述媒体信息分类方法的步骤。
本申请一方面提供了一种训练图片分类模型的方法,所述方法包括:
获取媒体信息样本数据,所述媒体信息样本数据包括媒体信息以及被标记的媒体信息类别;所述媒体信息包括文本信息和图片信息;
构建图片分类模型,所述图片分类模型包括以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型;
根据所述媒体信息样本数据训练所述图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,所述目标函数包括损失函数和惩罚项,所述惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项。
本申请一方面提供了一种训练图片分类模型的装置,所述装置包括:
获取单元,用于获取媒体信息样本数据,所述媒体信息样本数据包括媒体信息以及被标记的媒体信息类别;所述媒体信息包括文本信息和图片信息;
构建单元,用于构建图片分类模型,所述图片分类模型包括以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型;
训练单元,用于根据所述媒体信息样本数据训练所述图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,所述目标函数包括损失函数和惩罚项,所述惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项。
本申请一方面提供一种训练图片分类模型的设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令,执行如上述训练图片分类模型方法的步骤。
本申请一方面提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行上述媒体信息分类方法或者训练图片分类模型的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例提供了一种媒体信息分类方法,在该方法中提供了图片分类模型,该图片分类模型是通过机器学习方法训练得到的神经网络模型,基于该图片分类模型对待分类媒体信息进行分类,主要是通过神经网络学习待分类媒体信息中的图片信息生成图片特征向量,根据图片特征向量对待分类媒体信息进行分类,因此,其针对多图少文的待分类媒体信息,能够提高分类准确率;相比传统的文本分类方法,本申请实施例提供的媒体信息分类方法通过该图片分类模型能够提高分类准确率。
附图说明
图1为本申请实施例中一种媒体信息分类方法的场景示例图;
图2为本申请实施例中一种媒体信息分类方法的流程图;
图3为本申请实施例中一种媒体信息分类方法的流程图;
图4为本申请实施例中一种媒体信息分类方法的流程图;
图5为本申请实施例中一种媒体信息分类方法的流程图;
图6为本申请实施例中一种媒体信息分类方法的流程图;
图7为本申请实施例中一种训练图片分类模型的方法的流程图;
图8为本申请实施例中采用迁移学习方式进行特征迁移的原理示意图;
图9为本申请实施例中一种训练图片分类模型的方法以及媒体信息分类方法的应用场景示意图;
图10为本申请实施例中一种媒体信息分类装置的结构示意图;
图11为本申请实施例中一种媒体信息分类装置的结构示意图;
图12为本申请实施例中一种媒体信息分类装置的结构示意图;
图13为本申请实施例中一种训练图片分类模型的装置的结构示意图;
图14为本申请实施例中一种训练图片分类模型的装置的结构示意图;
图15为本申请实施例中一种媒体信息分类设备的结构示意图;
图16为本申请实施例中一种训练图片分类模型的设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
基于传统文本分类方法在对图多字少的媒体信息分类时,无法发挥出较好的分类效果,分类准确率大打折扣这一技术问题,本申请提供了一种媒体信息分类方法,包括获取待分类媒体信息,将该待分类媒体信息输入利用媒体信息样本数据对神经网络模型进行训练得到的图片分类模型,获取图片分类模型输出的第一类别标签,根据该第一类别标签确定待分类媒体信息的类别。通过该方法能够实现对图多字少的媒体信息的分类,解决了传统的文本分类方法中由于文本信息量少导致分类准确率降低的技术问题,具有较高的准确率。
可以理解,本申请实施例提供的上述方法可以通过具有图像处理能力的处理设备实现。具体的,该处理设备可以为具有图像处理能力的终端设备,包括个人计算机(PC,Personal Computer)、小型机或者大型机等等,处理设备也可以为具有图像处理能力的服务器或者服务器集群。
在本申请实施例中,媒体信息是指通过媒体传播的信息,尤其是通过互联网等新媒体传播的信息。媒体信息包括文本信息和图片信息,根据来源不同,媒体信息可以有多种表现形式。一种表现形式为,大众媒体发布的新闻等,另一种表现形式为,自媒体平台的用户所发布的信息,例如,用户在社交平台发布的微博、状态,或者在论坛、社区发布的帖子等等。本申请提供的媒体信息分类方法可以适用于以上任意一种场景,实现新闻或微博、帖子等媒体信息的分类。
为了使得本申请的技术方案更加容易理解,后续均以媒体信息为新闻作为示例进行介绍。下面结合图1对本申请上述方法在实际中的应用场景进行说明。
图1示出了本申请在实际中应用场景示例图,参见图1,该应用场景包括终端设备10以及服务器20,其中,服务器20中配置有图片分类模型,基于该图片分类模型实现对终端设备10发送的待分类媒体信息如待分类新闻进行分类,例如,在该应用场景下,报社编辑可以利用该终端设备10采集并撰写新闻,可以通过终端设备10将该新闻作为待分类新闻发送给服务器20,服务器20对该待分类新闻分类后,根据分类结果在对应的新闻频道中发布该新闻,以实现新闻实时采集实时分类更新,方便用户根据新闻类别获取定位精准的新闻。
具体地,终端设备10向服务器20发送待分类新闻,服务器20在获取待分类新闻后,将该待分类新闻输入至图片分类模型,其中,图片分类模型是利用样本数据训练神经网络所得到的神经网络模型,该图片分类模型可以根据待分类新闻的图片信息生成图片特征向量,根据图片特征向量分类得到待分类新闻对应的类别标签,作为第一类别标签,服务器20获取该第一类别标签,根据该第一类别标签确定待分类新闻所属的类别。每个类别标签用于标识新闻所属的类别,不同类别标签所标识的新闻类别不同;服务器20根据待分类新闻所属的类别对新闻进行分类存储和管理,用户通过新闻客户端与服务器20交互的方式,获取不同新闻类别下的新闻。
在上述应用场景中,服务器20也可以与多个终端设备10交互,本实施例仅以一个终端设备与服务器交互作为示例,并不构成对本申请技术方案的限定。
需要说明的是,本申请实施例提供的媒体信息分类方法也可以由终端设备10独立完成,具体地,在终端设备10中内置图片分类模型,则终端设备10在获取待分类新闻后,无需发送给服务器20,而是将该待分类新闻输入本地的图片分类模型,获取图片分类模型输出的第一类别标签,进而根据该第一类别标签确定待分类新闻所属的类别。
为了便于理解,下面将结合附图从服务器的角度,对本申请实施例提供的媒体信息分类方法进行介绍。
图2为本申请实施例中一种媒体信息分类方法的流程图,参见图2,该方法应用于服务器,包括:
S201:获取待分类媒体信息。
其中,媒体信息包括文本信息和图片信息。待分类媒体信息是指需要进行分类的媒体信息。在具体实现时,待分类媒体信息可以是刚上传至服务器的媒体信息,服务器通过对其进行分类,可以实现将媒体信息按类别展示,或者根据分类结果向用户推送。具体地,待分类媒体信息可以是待分类新闻,服务器获取待分类新闻,以便对该待分类新闻进行分类。服务器获取待分类新闻可以有多种实现方式。在一些可能的实现方式中,服务器可以从终端设备获取待分类新闻。例如,新华日报的新闻编辑人员在根据采访或者调查的信息生成新闻后,可以通过终端设备向新华日报服务器上传该新闻,如此,服务器获取到该待分类新闻,可以对其进行分类,并根据新闻所属类别在新华日报网站中展示该新闻。在另一些可能的实现方式中,服务器可以从互联网中抓取新闻,作为待分类新闻。例如,新闻推送应用的服务器可以从各大新闻网站如新华日报、环球时报、新浪新闻等网站的服务器中抓取新闻,作为待分类新闻。
S202:将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签。
其中,所述图片分类模型是根据媒体信息样本数据训练得到的神经网络模型,用于根据媒体信息中的图片信息生成图片特征向量,并根据所述图片特征向量分类得到所述媒体信息的类别标签。
在具体实现时,服务器将待分类媒体信息输入图片分类模型,图片分类模型可以通过卷积等方式对待分类媒体信息中的图片信息进行特征提取,生成图片特征向量,然后通过将图片特征向量向样本空间映射的方式,分类得到媒体信息的类别标签,记作第一类别标签,服务器获取图片分类模型输出的第一类别标签,以用于媒体信息分类。
仍以待分类媒体信息为待分类新闻为例,图片分类模型是以待分类新闻作为输入,以第一类别标签作为输出的神经网络模型,该模型用于对待分类新闻所属类别进行预测,从而实现待分类新闻的分类。其中,图片分类模型可以通过利用样本数据对神经网络模型进行训练得到,其训练过程将在下文详细说明,在此不再赘述。
在实际应用中,图片分类模型可以部署在实现图2所示方法的服务器中,服务器将待分类新闻输入图片分类模型,图片分类模型可以获取待分类新闻中的图片,提取图片对应的图片特征向量,根据该图片特征向量分类得到的待分类新闻的类别标签,即为第一类别标签。
需要说明的是,有些待分类新闻为纯文本新闻,将纯文本新闻输入到图片分类模型,可以输出默认类别标签,作为该纯文本新闻的第一类别标签。作为本申请的一个具体示例,默认类别标签可以是“其他”类别标签。在有些情况下,将纯文本新闻输入到图片分类模型后,图片分类模型未提取到图片,也就无法对图片分类,因而可以输出结果“未识别到新闻所属类别”。
S203:根据第一类别标签确定所述待分类媒体信息所属的类别。
由于第一类别标签是根据待分类媒体信息中的图片信息分类得到的类别标签,服务器可以基于该第一类别标签确定待分类媒体信息所属的类别。具体实现时,服务器可以直接将第一类别标签作为待分类媒体信息所属的类别,也可以结合其他分类信息确定待分类媒体信息所属的类别。
以待分类媒体信息为待分类新闻为例,通过图片分类模型确定待分类新闻对应的第一类别标签后,服务器根据第一类别标签确定待分类新闻所属的类别,从而实现对待分类新闻的分类。
其中,根据第一类别标签确定待分类新闻所属的有多种实现方式。在一些可能的实现方式中,服务器可以直接将第一类别标签作为待分类新闻所属的类别。例如,针对图片较为丰富,图文比相对较高的新闻,图片分类模型分类准确率相对较高,可以将第一类别标签作为待分类新闻所属的类别。在另一些可能的实现方式中,服务器可以根据第一类别标签以及基于文本分类方式得到的分类信息确定待分类新闻所属的类别。本实施例是从服务器的角度对媒体信息分类方法进行介绍,在一些可能的实现方式中,也可以由终端设备执行上述方法步骤对待分类媒体信息进行分类。
由上可知,本申请实施例提供了一种媒体信息分类方法,在该方法中提供了图片分类模型,该图片分类模型是通过机器学习方法训练得到的神经网络模型,基于该图片分类模型对待分类媒体信息进行分类,主要是通过神经网络学习待分类媒体信息中的图片信息,生成图片特征向量,根据图片特征向量对待分类媒体信息进行分类,因此,其针对多图少文的待分类媒体信息,能够提高分类准确率;相比传统的文本分类方法,本申请实施例提供的媒体信息分类方法通过该图片分类模型能够提高分类准确率。
可以理解,上述实施例提供的方法对字少图多的媒体信息具有较高的分类准确率,为了提高对其他类型的媒体信息的分类准确率,还可以对待媒体信息的文本也进行分析,根据文本信息以及图片信息共同确定待分类媒体信息所属的类别。
为了便于理解,下面将从服务器的角度,结合附图对本申请实施例提供的一种媒体信息分类方法进行介绍。
图3为本申请实施例提供的一种媒体信息分类方法的流程图,参见图3,该方法是在图2所示实施例基础上进行改进得到的,本实施例主要就与图2所示实施例的区别进行详细说明。如图3所示,该方法包括:
S301:获取待分类媒体信息。
S302:将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签。
S301和S302的具体实现可以参见S201和S202的相关内容描述,在此不再赘述。
S303:将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签。
其中,所述文本分类模型用于根据媒体信息中的文本信息生成文本特征向量,并根据所述文本特征向量分类得到所述媒体信息的类别标签。在具体实现时,服务器将待分类媒体信息输入文本分类模型,该文本分类模型能够对待分类媒体信息中的文本信息进行识别,包括对文本信息中的字、词以及句子等进行识别,获得与文本信息对应的文本特征向量,然后通过对文本特征向量映射的方式,分类得到待分类媒体信息对应的类别标签,记作第二类别标签。
基于卷积神经网络(Convolutional Neural Networks,CNN)在自然语言处理领域的广泛应用,本申请中的文本分类模型可以是卷积神经网络模型。作为本申请实施例的扩展,文本分类模型也可以是朴素贝叶斯(Naive Bayes,NB)模型、支持向量机(SupportVector Machine,SVM)模型、Fasttext算法模型或者长短期记忆网络(Long Short-TermMemory,LSTM)模型。
以待分类媒体信息为待分类新闻为例,服务器将待分类新闻输入至文本分类模型,然后获取文本分类模型输出的第二类别标签。该第二类别标签是通过识别待分类新闻的文本信息得到的,因此,可以作为判断待分类新闻所属的类别的依据。
需要说明的是,本申请实施例对S302和S303的执行顺序不作限定,S302和S303可以同时执行,也可以按照设定的先后顺序执行。
S304:根据所述第一类别标签以及所述第二类别标签,确定所述待分类媒体信息所属的类别。
在本实施例中,服务器不仅根据图片分类模型对待分类媒体信息进行分类,还根据文本分类模型对待分类模型进行分类。在将待分类媒体信息输入至图片分类模型获取第一类别标签,以及将待分类媒体信息输入至文本分类模型获取第二类别标签后,服务器根据第一类别标签以及第二类别标签确定待分类媒体信息所属的类别。
其中,根据第一类别标签以及第二类别标签确定待分类媒体信息所属的类别有多种实现方式。服务器可以根据经验、规则等从第一类别标签和第二类别标签中选择一个作为待分类媒体信息的分类结果。当然,服务器可以预先对文本分类模型和图片分类模型进行统一训练,获得文本分类模型和图片分类模型的分类权重,根据该分类权重和对应的特征向量获得类别标签,并将该类别标签作为待分类媒体信息的分类结果。
在一些可能的实现方式中,服务器根据第一类别标签、第二类别标签以及类别判定策略,确定待分类媒体信息所属的类别。其中,类别判定策略可以根据实际产品业务经验设置。以待分类媒体信息为待分类新闻为例,服务器可以获取新闻分类业务中的分类数据,包括新闻的第一类别标签、第二类别标签以及新闻所属的类别,统计分类数据之间的关联关系,根据该关联关系建立类别判定策略。
例如,服务器通过对分类数据进行统计发现,当第一类别标签为“美女”,第二类别标签为“娱乐”,新闻所属的类别较大概率为“娱乐”,基于此,可以建立第一类别标签“美女”-第二类别标签“娱乐”映射为-最终类别标签“娱乐”三元映射关系作为类别判定策略。作为本申请的一个具体示例,若一个待分类新闻对应的第一类别标签为“美女”,以及,其对应的第二类别标签为“娱乐”,则基于上述三元映射关系的类别判定策略,可以确定待分类新闻所属的类别为“娱乐”。
在另一些可能的实现方式中,服务器根据与第一类别标签相关的图片特征向量,以及与第二类别标签相关的文本特征向量,确定待分类媒体信息所属的类别。以待分类媒体信息为待分类新闻为例,服务器可以采用对文本分类模型和图片分类模型进行统一训练时学习得到的文本分类模型的权重和图片分类模型的权重,对待分类新闻输入文本分类模型得到的文本特征向量和待分类新闻输入图片分类模型得到的图片特征向量进行加权平均计算,然后将计算得到的向量向样本空间映射,得到概率最高的分类标签,根据该分类标签确定待分类新闻所属的类别。
由上可知,本申请实施例提供了一种媒体信息分类方法,包括获取待分类媒体信息,将该待分类媒体信息分别输入至文本分类模型和图片分类模型,获得第一类别标签和第二类别标签,根据该第一类别标签和第二类别标签确定待分类媒体信息所属的类别。由于在分类时不仅考虑了文本信息,还考虑了图片信息,避免了仅分析文本或图片所导致的偏差,因而具有较高的分类准确度。
待分类媒体信息中包括文本信息和图片信息,当文本信息较多时,文本中所携带的信息量较大,文本分类模型的分类结果可信度较高,可以根据文本分类模型输出的第二类别标签确定待分类媒体信息所属的类别;当图片信息较多时,图片中所携带的信息量较大,图片分类模型的分类结果可信度较高,可以根据图片分类模型输出的第一类别标签确定待分类媒体信息所属的类别。
基于此,在一些可能的实现方式中,还可以在将待分类媒体信息输入至分类模型之前,先计算待分类媒体信息的文图比,以便确定将待分类媒体信息输入至文本分类模型或图片分类模型。
下面将结合附图,对本申请实施例提供的一种媒体信息分类方法进行介绍。为了方便理解,本实施例是站在服务器的角度进行介绍的,本实施例提供的媒体信息分类方法也可以由终端设备独立完成,或者由终端设备与服务器协同完成。
图4为本申请实施例提供的一种媒体信息分类方法的流程图,参见图4,该方法包括:
S401:获取待分类媒体信息。
本步骤的具体实现可以参见图2或图3所示实施例相关内容描述,在此不再赘述。
S402:计算所述待分类媒体信息的文图比;若所述待分类媒体信息的文图比小于文图比阈值,则执行S403;若所述待分类媒体信息的文图比大于或者等于文图比阈值,则执行S404。
其中,文图比表示文本和图片的比值,具体到本实施例,文图比是指待分类媒体信息中文本信息与图片信息的比例。待分类媒体信息的文图比可以通过多种方式计算,例如,在一些可能的实现方式中,可以通过文本中字、词、句子或段落的数量,与图片的数量计算待分类媒体信息的文图比,又例如,在另一些可能的实现方式中,可以根据文本占用的面积与图片占用的面积计算待分类媒体信息的文图比。
若待分类媒体信息的文图比小于文图比阈值,则表明该待分类媒体信息中文字相对较少,图片相对较多,在对其分类时,图片分类模型的准确度较高,可以将其输入至图片分类模型;若待分类媒体信息的文图比大于或等于文图比阈值,则表明该待分类媒体信息中文字相对较多,图片相对较少,在对其分类时,文本分类模型的准确度较高,可以将其输入至图片分类模型。其中,文图比阈值可以根据经验值进行设置。
具体地,待分类媒体信息可以是待分类新闻,针对字少图多的待分类新闻,也即文图比小于文图比阈值的待分类新闻,将其输入至图片分类模型进行分类,即执行S403;针对字多图少的待分类新闻,也即文图比大于文图比阈值的待分类新闻,将其输入至文本分类模型进行分类,即执行S404。
S403:将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签;然后执行S405。
S404:将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;然后执行S405。
S403以及S404的具体实现可以参见前述实施例相关内容描述,在此不再赘述。
S405:根据第一类别标签或者第二类别标签确定所述待分类新闻所属的类别。
当服务器获取到第一类别标签,则根据第一类别标签确定待分类媒体信息所属的类别;当服务器获取到第二类别标签,则根据第二类别标签确定待分类媒体信息所属的类别。根据第一类别标签或者第二类别标签确定待分类媒体信息所属的类别具体为,直接将第一类别标签或第二类别标签所标识的类别作为待分类媒体信息所属的类别。
由上可知,本申请实施例提供了一种媒体信息分类方法,通过根据待分类媒体信息中文图比的大小,选择出适配的文本分类模型或图片分类模型,根据所选择的模型对待分类媒体信息进行分类,获得相应的类别标签,根据该类别标签确定待分类媒体信息所属的类别。通过对待分类媒体信息按照文图比进行区分,并分别采用不同的分类模型进行分类,如此可以保障对不同文图比的媒体信息均具有较高的准确率,并且对于任一待分类媒体信息,无需同时在两个分类模型中进行分类,如此,可以减少资源的占用率。
可以理解,对于待分类媒体信息,其文本本身已携带了一定的信息量。以待分类新闻为例,其标题往往携带了事件、人物等信息,在有些情况下,若文本中携带的信息量足以确定待分类新闻所属的类别,则可以直接将待分类新闻输入至文本分类模型,获得第二类别标签,根据该第二类别标签确定待分类新闻所属的类别。进一步地,若文本中携带的信息量较少,不足以确定待分类新闻所属的类别,则可以将待分类新闻输入至图片分类模型,获得第一类别标签,根据该第一类别标签确定待分类新闻所属的类别。其中,文本携带的信息量往往与文本的数量呈正相关,因此,可以统计待分类新闻中文本的数量,确定采用文本分类模型或者图片分类模型对待分类新闻分类。
下面将结合附图,从服务器的角度对本申请实施例提供的一种媒体信息分类方法进行介绍,需要说明该实施例仅以服务器作为示例,在其他可能的实现方式中,也可以由终端设备实现本申请实施例提供的媒体信息分类方法。
图5为本申请实施例提供的一种媒体信息分类方法的流程图,参见图5,该方法包括:
S501:统计所述待分类媒体信息中文本的数量。若所述待分类媒体信息中文本的数量小于文本数量阈值时,则执行S502;若所述待分类媒体信息中文本的数量大于或者等于文本数量阈值时,则执行S503。
媒体信息包括文本信息,服务器统计待分类媒体信息中文本的数量,则可以依据该数量预估待分类媒体信息中文本信息携带的信息量,而文本信息携带的信息量的预估值,可以作为是否采用文本分类模型进行分类的决策依据。具体地,服务器统计待分类媒体信息中文本的数量,若该数量小于文本数量阈值,则表明文本信息携带的信息量较少,宜采用图片分类模型进行分类,即执行S502,若该数量大于文本数量阈值,则表明文本信息携带的信息量较多,可以采用文本分类模型进行分类,即执行S503。
若待分类媒体信息为待分类新闻,服务器统计待分类新闻中文本的数量有多种实现方式。在一些可能的实现方式中,服务器统计待分类新闻的文本所包括的字符、词组、句子或者段落的数量,并将字符、词组、句子或者段落的数量中的任意一种作为文本的数量。进一步地,在文本中有些字符、词组、句子或者段落是无意义的,在统计待分类新闻中文本的数量时,可以排除无意义的字符、词组、句子或者段落,统计具有具体含义的字符、词组、句子或者段落的数量作为文本的数量。可以理解,通过该方式统计得到的文本的数量更为精确,准确的文本数量统计结果有利于选择合适的分类模型进行分类,进而获得较为准确的分类结果。
需要说明的是,文本数量阈值可以根据经验值设置,本实施例对此不作限定。
S502:将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签;然后执行S504。
S503:将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;然后执行S504。
S504:根据所述第一类别标签或所述第二类别标签确定所述待分类媒体信息所属的类别。
当服务器获取到第一类别标签,则根据第一类别标签确定待分类媒体信息所属的类别;当服务器获取到第二类别标签,则根据第二类别标签确定待分类媒体信息所属的类别。根据第一类别标签或者第二类别标签确定待分类媒体信息所属的类别具体为,将第一类别标签或第二类别标签对应的类别确定为待分类媒体信息所属的类别。
由上可知,本申请实施例提供了一种媒体信息分类方法,通过根据文本数量的大小,选择文本分类模型或图片分类模型对待分类媒体信息进行分类,获得相应的类别标签,根据该类别标签确定待分类媒体信息所属的类别。通过对待分类媒体信息按照文本数量进行区分,并分别采用不同的分类模型进行分类,如此可以保障对文本数量不同的媒体信息均具有较高的准确率,并且对于任一待分类媒体信息,无需同时在两个分类模型中进行分类,如此,可以减少资源的占用率。
对于媒体信息而言,大多数媒体信息通过文本分类模型即可实现准确的分类,部分特殊类型的媒体信息则需要再结合图片分类模型辅助分类,以便提高分类的准确率。
下面将结合附图,从服务器的角度对本申请实施例提供的一种媒体信息分类方法进行介绍,需要说明该实施例仅以服务器作为示例,在其他可能的实现方式中,也可以由终端设备实现本申请实施例提供的媒体信息分类方法。
图6为本申请实施例提供的一种媒体信息分类方法的流程图,参见图6,该方法包括:
S601:获取待分类媒体信息。
本步骤的具体实现可以参见前述实施例相关内容描述,在此不再赘述。
S602:将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;若所述第二类别标签标识的类别为指定类别时,则执行S603。
在获得第二类别标签后,服务器根据第二类别标签确定待分类媒体信息所属的类别。具体地,服务器可以将第二类别标签对应的类别作为待分类媒体信息所属的类别。当服务器根据第二类别标签确定的待分类媒体信息所属的类别不属于指定类别时,则将第二类别标签确定的待分类媒体信息所属的类别作为待分类媒体信息的最终分类结果。当服务器根据第二类别标签确定的待分类媒体信息所属的类别为指定类别时,则还需要结合图片分类模型进行进一步地判断,也即执行S603。
其中,指定类别是指开发者或用户指定的、需要在文本分类模型的基础上,结合图片分类模型进行分类的媒体信息类别。在本实施例中,可以将文本分类模型分类准确率相对较低或者未识别到所属类别的类别作为指定类别。以待分类媒体信息为待分类新闻为例,文本分类模型对于类别为“娱乐”的新闻识别准确率相对较低,因此指定类型可以包括“娱乐”。作为本申请的另一具体示例,当文本分类模型未识别到新闻所属类别时,往往会输出“其他”类别标签,因此指定类型还可以包括“其他”。
在本申请实施例一些可能的实现方式中,可以预先设置指定类型。进一步地,在通过文本分类模型进行分类的过程中,可以根据分类效果对指定类型进行更新,例如,可以增加或删减指定类型。
S603:将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签。
本步骤的具体实现可以参见图2所示实施例相关内容描述,在此不再赘述。
S604:根据第一类别标签以及第二类别标签确定所述待分类媒体信息所属的类别。
在获得第一类别标签和第二类别标签后,服务器根据第一类别标签以及第二类别标签确定待分类媒体信息所属的类别。在本申请实施例一些可能的实现方式中,服务器根据与所述第一类别标签相关的所述图片特征向量,以及与所述第二类别标签相关的所述文本特征向量,确定所述待分类媒体信息所属的类别。在本申请实施例另一些可能的实现方式中,服务器根据所述第一类别标签、所述第二类别标签以及类别判定策略,确定所述待分类媒体信息所属的类别。具体实现过程可以参见上文图3所述实例中相关步骤的描述。
其中,类别判定策略为了便于理解,结合具体示例进行说明。
例如,根据文本分类模型输出的第二类别标签确定待分类新闻所属的类别为“娱乐”,由于“娱乐”为指定类型,需要将待分类新闻输入至图片分类模型,若根据图片分类模型输出的第一类别标签确定待分类新闻所属的类别为“美女”,则服务器可以根据“美女”-“娱乐”-“娱乐”三元映射关系的类别判定策略,确定待分类新闻所属类别为“娱乐”。
又例如,根据文本分类模型输出的第二类别标签确定待分类新闻所属的类别为“娱乐”,由于“娱乐”为指定类型,需要将待分类新闻输入至图片分类模型,若根据图片分类模型输出的第一类别标签确定待分类新闻所属的类别为“动漫”,则服务器可以根据第一类别标签“动漫”、第二类别标签“娱乐”以及最终类别标签“动漫”三元映射关系的类别管理策略,确定待分类新闻所属的类别为动漫。
由上可知,本申请实施例提供了一种媒体信息分类方法,该方法包括先采用文本分类模型对待分类媒体信息进行分类,若根据文本分类模型输出的第二类别标签确定的待分类媒体信息所属的类别为指定类别,再利用图片分类模型对待分类媒体信息进行分类,结合文本分类模型输出的第二类别标签以及图片分类模型输出的第一类别标签确定待分类媒体信息所属的类别。通过对待分类媒体信息按照是否属于指定类型进行区分,并分别采用不同的分类方法进行分类,如此可以保障文本分类模型分类为指定类型的媒体信息具有较高的分类准确率,并且对于文本分类模型未分类为指定类型的媒体信息仅采用文本分类模型分类即可,无需同时在两个分类模型中进行分类,如此,可以减少资源的占用率。
以上为本申请实施例提供的一种媒体信息分类方法的一些具体实现方式,上述具体实现方式是依赖于图片分类模型实现的,为了使本申请的技术方案更清楚,下面将结合附图,对本申请实施例提供的一种训练图片分类模型的方法进行介绍。
需要说明的是,本申请是站在服务器的角度对训练图片分类模型的方法进行介绍,训练图片分类模型的方法也可以由终端设备执行,或者有终端设备与服务器协同实现,本申请实施例并不构成对本申请技术方案的限定。
图7为本申请实施例提供的一种训练图片分类模型的方法的流程图,参见图7,该方法包括:
S701:获取媒体信息样本数据。
其中,所述媒体信息样本数据包括媒体信息以及被标记的媒体信息类别,所述媒体信息包括文本信息和图片信息。在具体实现时,服务器可以从预先存储有媒体信息样本数据的样本数据库中获取媒体信息样本数据,也可以从互联网中实时爬取媒体信息及其所属类别以获取媒体信息样本数据。
其中,样本数据库中的媒体信息样本数据可以是服务器构建得到的,以媒体信息为新闻,媒体信息样本数据为新闻样本数据作为示例,服务器可以从新闻应用服务器获取多个原始数据,每个原始数据包括新闻频道下的图片新闻以及图片新闻被标记的新闻类别;然后服务器对多个原始数据进行预处理得到图片新闻样本数据。
其中,对原始数据进行预处理的目的在于尽可能保证新闻样本数据的质量,进而保证后续模型训练的效果。在一些可能的实现方式中,服务器通过数据去噪、离群点抑制以及数据增强对原始数据进行预处理。
可以理解,在新闻应用服务器中获取的原始数据有时会存在噪声,例如,从天天快报的服务器中抓取“动漫”频道下的图片新闻,并为图片新闻中的每张图片添加“动漫”标签作为原始数据,然而该原始数据中还可能存在动漫电影导演、动漫应用图标、动漫周边等图片,甚至还可能存在一些与“动漫”毫无关联的图片,这些图片并不属于“动漫”类别,因此,可以从原始数据中将这些数据剔除以保障图片新闻样本数据的纯度。
从原始数据中剔除不属于对应类别的数据的过程即为数据去噪。在一些可能的实现方式中,服务器可以基于自学习(self-training)的思想,使用原始数据训练一个用于去噪的模型。去噪之前的数据虽然存在部分噪声,但鉴于来源可靠,准确率在可接受范围内,因此使用原始数据训练得到的模型具备一定的分类能力,我们使用此模型再对原始数据进行筛选,保留置信度高的图片数据,低置信度图片作为噪声被抑制,从而实现数据去噪。
从应用服务器中获取的原始数据还可以能存在离群点。离群点在统计学中是指异常表现的数据点,通俗来讲即为与正常样本相去甚远的数据点。在图片分类任务中,主要包括两种类型的离群点,一种为分辨率极低,感官上图片极小以至于人眼无法辨清图片内容的数据点;另一种为分辨率正常,但图片形态较为特殊,在图片压缩后同样无法辨识内容的数据点。例如,在“动漫”图片分类任务中,存在部分图片高宽比值极大,在压缩后无法辨识内容,属于离群点。可以理解,原始数据中的离群点并不会给分类带来帮助,因此可以从原始数据点中去除,具体可以通过离群点抑制实现。
为了提升模型的泛化能力,使模型在分辨从未见过的图片时依然保持良好的预测效果,还可以对模型的输入做适当的变换,使模型迎合更为广泛的视觉特征。对模型的输入做适当的变换可以通过数据增广实现。数据增广是指对图片进行一定的尺度和视觉变化,如对原始数据进行缩放、裁剪、反转和/或增加噪声,或者,也可以对原始数据的图片的色调、饱和度和/或对比度等进行调整,从而增强数据样本的多样性。
S702:构建图片分类模型,所述图片分类模型包括以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型。
为了训练得到图片分类模型,需要先构建图片分类模型。在本实施例中,图片分类模型是以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型。
在一些可能的实现方式中,图片分类模型可以对媒体信息进行特征提取,然后根据提取的特征确定媒体信息所属的类别,基于此,构建的图片分类模型包括:级联的图片特征提取层和分类层。其中,所述图片特征提取层用于根据神经网络从媒体信息中提取出媒体信息对应的图片特征向量;所述分类层用于根据所述图片特征提取层所提取的图片特征向量,分类得到媒体信息对应的类别。作为本申请的一个具体示例,图片特征提取层可以为Inception-V3,分类层可以为softmax层。其中,Inception-V3包括卷积层、平均池化层、最大池化层、激活函数层、丢弃层、全连接层、输出层,而分类器也即分类层等等,可以包括全连接层和softmax输出层。
需要说明,Inception-V3以及softmax仅为本申请实施例中图片特征提取层以及分类层的一个具体示例,在本申请实施例其他可能的实现方式中,也可以采用其他方法实现特征提取以及分类。
在使用神经网络模型提取图片特征的过程中,为减少获取成本,还可以采用迁移学习的方法进行特征提取。其中,迁移学习是指将一个数据集上学习到的特征迁移到另一个数据集合。图8示出了采用迁移学习方式进行特征迁移的原理示意图。假设在数据集B上做分类任务,但由于数据集B数据规模较小、多样性差、噪声较多等原因,直接训练神经网络模型用作分类会导致模型泛化效果欠佳。假如有另一个数据集A无论数据规模、多样性都优于数据集B,则可以使用数据集A训练一个通用模型,用于提取集合B上的数据特征,以此来提升特征的表达能力和泛化特性。
在一些可能的实现方式中,服务器可以根据预训练模型构建图片分类模型。其中,预训练模型是指为了解决类似问题已创造出的模型。采用预训练模型构建图片分类模型,使得不用从零开始训练模型,如此,可以大大提高模型训练效率。
S703:根据媒体信息样本数据训练图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,所述目标函数包括损失函数和惩罚项,所述惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项。
在构建图片分类模型后,服务器根据媒体信息样本数据训练图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数。训练得到该模型参数则表明训练结束,即训练结束时所确定的该模型参数是使得图片分类模型性能最优的模型参数,则将配置有该最优的模型参数的图片分类模型作为能够应用于媒体信息分类方法的模型,其在实际应用中能够发挥较好的分类效果。
在本实施例中,在通过预训练模型构建图片分类模型后,可以采用迁移学习方法,利用媒体信息样本数据训练图片分类模型。训练图片分类模型的过程实际上是对图片分类模型进行微调的过程。
对模型进行微调有多种实现方式。在一些可能的实现方式中,可以将预训练模型作为特征提取层使用,具体为,将预训练模型的输出层去掉,然后将剩下的整个网络作为一个固定的特征提取层,应用到新的数据集,例如从新闻应用服务器获取的原始数据进行预处理后形成的数据集中。
在另一些可能的实现方式中,可以采用预训练模型的结构,先将所有权重随机化,然后以新的数据集进行训练。作为本申请实施例的扩展,也可以对预训练模型构建的图片分类模型进行部分训练。部分训练可以理解为训练特定层,冻结其他层。作为一个具体示例,可以将预训练模型构建的图片分类模型的起始的一些层的权重保持不变,利用新的数据集重新训练后面的层,得到新的权重。在该再训练过程中,能够根据结果确定冻结层与再训练层之间的最佳搭配。
根据媒体信息样本数据训练图片分类模型的训练目标为图片分类模型的目标函数最小,根据目标函数最小时的模型参数可以获得训练好的图片分类模型,该图片分类模型可以用于待分类媒体信息的分类。
其中,目标函数包括损失函数和惩罚项。损失函数表征了预测结果和实际结果的差别,损失函数越小,则表明预测结果和实际结果的差别越小,预测准确度越高。惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项,若基于图片信息分错媒体信息类别则将进行惩罚,使得目标函数增大,而模型训练是以目标函数变小的方向进行优化,因此,通过该惩罚项可以抑制基于图片信息分错媒体信息类别的行为,如此有利于提高分类准确率。
在本申请实施例一些可能的实现方式中,损失函数可以为0-1损失函数、绝对值损失函数、对数损失函数、平方损失函数、指数损失函数或者Hinge损失函数等等。可以根据不同的分类任务,选择对应类型的损失函数。以“动漫”图片分类为例,可以采用逻辑回归(Logistic Regression,LR)的损失函数也即对数损失函数作为目标函数中的损失函数项。
在对“动漫”图片进行分类时,由于真实场景中动漫图片多为长图,图片高宽比较大,为了使模型在长图上具有更好的分类效果,可以将根据图片高宽比与绝对值损失函数确定的函数项作为所述惩罚项。
当损失函数为对数损失函数,惩罚项为根据图片高宽比与绝对值损失函数确定的函数项时,目标函数可以为:
其中,L(x:θ)表示目标函数,x为模型的输入,即图片,θ为模型参数,y和p分别表示样本x的正确标签和预测标签,用向量表示。为损失函数,/>为惩罚项,λ为常数,Hx、Wx分别表示图片x的高度和宽度,因此/>可以表示图片的高宽比,最后的/>为绝对值损失函数。
以动漫图片二分类任务为例,需要区分图片是动漫或非动漫,则标签y=[1,0]表示x为动漫图片,y=[0,1]时x为非动漫图片,上述式(1)具有惩罚长图错分的作用,即使在同样分错的情况下,图片高宽比越大,式(1)函数值越大,即损失越大,模型在训练过程中目标函数L(x:θ)为最小化,以此可以达到抑制长图错分的目的。
在图片分类过程中,有些类型图片还具有格子背景特征,基于此,还可以对具有格子背景特征图片错分进行惩罚,以达到抑制具有格子背景特征图片错分的目的。例如,漫画的分镜常常是采用格子背景进行表示的,对于具有格子背景特征的图片,若将非漫画图片分类为漫画,或者将漫画图片分类为非漫画,则将通过惩罚项进行惩罚,如此可以达到抑制具有格子背景特征图片错误的目的。在本实施例一些可能的实现方式中,所述惩罚项包括根据图片格子背景特征函数与绝对值损失函数确定的函数项。
由上可知,本申请实施例提供了一种图片分类模型的训练方法,该方法包括获取媒体信息样本数据,构建以媒体信息为输入,媒体信息对应的类别标签为输出的图片分类模型,然后根据媒体信息样本数据训练图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,如此,可以获得用于媒体信息分类的图片分类模型。在该方法中,由于目标函数包括损失函数和惩罚项,其中,惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项,通过该惩罚项可以抑制基于图片信息分错媒体信息类别,如此可以提高该图片分类模型的准确率。
以上为本申请实施例提供的一种媒体信息分类方法以及一种训练图片分类模型的方法的具体实现方式,为了便于理解,下面将结合具体场景对本申请实施例提供的上述方法进行介绍。
图9为本申请实施例提供的一种训练图片分类模型的方法以及媒体信息分类方法的应用场景示意图,该应用场景以新闻分类作为示例,参见图9,该场景中包括新闻应用服务器100、训练服务器200、分类服务器300。其中,训练服务器200从新闻应用服务器100中获取新闻生成图片新闻样本数据,利用该图片新闻样本数据训练图片分类模型,分类服务器300利用训练好的图片分类模型,对待分类新闻进行分类,然后按照分类结果进行存储。如此,终端设备在从分类服务器300获取新闻后,可以在对应的新闻频道中显示该新闻,以便用户进入对应的新闻频道查看对应类别的新闻。
需要说明的是,训练服务器200可以从一种新闻应用服务器100获取新闻生成图片新闻样本数据,也可以从多种新闻应用服务器100获取新闻生成图片新闻样本数据。例如,训练服务器200可以从新华日报、环球时报、凤凰网等新闻应用服务器100中获取新闻生成图片新闻样本数据。分类服务器300可以是天天快报这一新闻应用的应用服务器,天天快报应用服务器可以利用训练服务器200训练好的图片分类模型对投稿至天天快报的待分类新闻进行分类,然后按照类别进行存储,如此,用户可以通过天天快报客户端从天天快报应用服务器获取新闻后,根据新闻的类别在对应的新闻频道中进行显示对应类别的新闻,从而方便用户查看。
训练服务器200训练图片分类模型的过程具体为,从新闻应用服务器100中获取原始数据,每个原始数据包括新闻频道下的图片新闻以及图片新闻被标记的新闻类别,然后对该原始数据进行数据去噪、离群点抑制以及数据增强得到图片新闻样本数据;然后,训练服务器200根据预训练模型构建图片分类模型,该图片分类模型是以新闻作为输入,以新闻对应的类别标签作为输出的神经网络模型;接着,训练服务器200根据迁移学习方法和图片新闻样本数据训练图片分类模型,以训练得到使得图片分类模型的目标函数最小的模型参数。
训练服务器200可以将使得图片分类模型的目标函数最小的模型参数发送给分类服务器300,如此,分类服务器300可以获得用于新闻分类的图片分类模型。
分类服务器300进行新闻分类的过程具体为,从新闻应用服务器100获取待分类新闻,然后将待分类新闻输入从训练服务器200获得的图片分类模型,该新闻分类模型根据所述待分类新闻中的图片信息生成图片特征向量,然后通过将图片特征向量向样本空间映射的方式,分类得到第一类别标签,分类服务器300基于第一分类标签确定待分类新闻所属的类别。如此,分类服务器300根据分类结果存储和管理新闻,基于此为新闻客户端提供新闻数据,以使新闻客户端根据新闻类别在对应的新闻频道显示新闻,方便用户基于新闻类别查看感兴趣的新闻。在上述应用场景中,训练服务器200通过预训练模型以及迁移学习可以大大提高图片分类模型的训练效率,在训练得到图片分类模型后,分类服务器300可以利用该图片分类模型对待分类新闻进行分类,克服了传统的基于文本分类模型的新闻分类方法对字少图多的新闻分类准确率不高的缺点,具有较高的分类准确率。
需要说明的是,上述应用场景是以服务器作为示例进行说明的,在本申请实施例其他可能的实现方式中,训练图片分类模型的方法也可以由终端设备实现,或者终端设备与服务器协同实现;媒体信息分类方法也可以由终端设备或者终端设备与服务器协同实现。
以上为本申请实施例提供的一种媒体信息分类方法以及一种训练图片分类模型的方法的具体实现方式,基于此,本申请实施例还提供了一种媒体信息分类装置以及训练图片分类模型的装置。下面将结合附图,从功能模块化的角度,对本申请实施例提供的媒体信息分类装置以及训练图片分类模型的装置进行介绍。
图10为本申请实施例提供的一种媒体信息分类装置的结构示意图,参见图10,该装置1000包括:
获取单元1010,用于获取待分类媒体信息;所述媒体信息包括文本信息和图片信息;
输入单元1020,用于将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签;所述图片分类模型是根据媒体信息样本数据训练得到的神经网络模型,用于根据媒体信息中的图片信息生成图片特征向量,并根据所述图片特征向量分类得到所述媒体信息的类别标签;
确定单元1030,用于根据所述第一类别标签确定所述待分类媒体信息所属的类别。
可选的,所述输入单元1020还用于:
将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;所述文本分类模型用于根据媒体信息中的文本信息生成文本特征向量,并根据所述文本特征向量分类得到所述媒体信息的类别标签;
则所述确定单元1030还用于:
根据所述第一类别标签和所述第二类别标签确定所述待分类媒体信息所属的类别。
可选的,参见图11,图11为本申请实施例提供的一种媒体信息分类装置的一个结构示意图,所述装置还包括计算单元1040,所述计算单元1040用于:
计算所述待分类媒体信息的文图比;
若所述待分类媒体信息的文图比小于文图比阈值,则所述输入单元1020执行所述将所述待分类媒体信息输入图片分类模型的步骤。
可选的,所述输入单元1020还用于:
若所述文图比大于或者等于文图比阈值,则将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;
所述确定单元1030还用于:
根据所述第二类别标签确定所述待分类媒体信息所属的类别。
可选的,参见图12,图12为本申请实施例提供的一种媒体信息分类装置的一个结构示意图,所述装置还包括统计单元1050,其中:
所述统计单元1050,用于统计所述待分类媒体信息中文本的数量;
所述输入单元1020,用于若所述待分类媒体信息中文本的数量小于文本数量阈值时,则执行所述将所述待分类媒体信息输入图片分类模型的步骤。
可选的,所述输入单元1020还用于:
若所述待分类媒体信息中文本的数量大于或者等于文本数量阈值时,则将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;所述文本分类模型用于根据媒体信息中的文本信息生成文本特征向量,并根据所述文本特征向量分类得到所述媒体信息的类别标签;所述确定单元1030还用于:
根据所述第二类别标签确定所述待分类媒体信息所属的类别。
可选的,所述输入单元1020还用于:
在所述将所述待分类媒体信息输入图片分类模型之前,将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的第二类别标签;所述第二类别标签是所述文本分类模型根据所述待分类媒体信息中的文本特征对应的文本特征向量,分类得到的所述待分类媒体信息对应的类别标签;
所述输入单元1020还用于:
若所述第二类别标签标识的类别为指定类别时,则执行所述将所述待分类媒体信息输入图片分类模型的步骤;
则所述确定单元1030具体用于:
根据所述第一类别标签和所述第二类别标签确定所述待分类媒体信息所属的类别。
图13为本申请实施例提供的一种训练图片分类模型的装置的结构示意图,参见图13,该装置1300包括:
获取单元1310,用于获取图片媒体信息样本数据,所述媒体信息样本数据包括媒体信息以及被标记的媒体信息类别;所述媒体信息包括文本信息和图片信息;
构建单元1320,用于构建图片分类模型,所述图片分类模型包括以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型;
训练单元1330,用于根据所述图片媒体信息样本数据训练所述图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,所述目标函数包括损失函数和惩罚项,所述惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项。
可选的,所述图片分类模型包括:级联的图片特征提取层和分类层;
所述图片特征提取层用于根据神经网络从媒体信息中提取出媒体信息对应的图片特征向量;
所述分类层用于根据所述图片特征提取层所提取的图片特征向量,分类得到媒体信息对应的类别。
可选的,所述构建单元1320具体用于:
根据预训练模型构建图片分类模型;
则所述训练单元1330具体用于:
根据迁移学习方法和所述图片媒体信息样本数据训练所述图片分类模型。
可选的,所述惩罚项包括根据图片高宽比与绝对值损失函数确定的函数项。
可选的,所述惩罚项包括根据图片格子背景特征函数与绝对值损失函数确定的函数项。
可选的,参见图14,图14为本申请实施例提供的一种训练图片分类模型的装置的一个结构示意图,所述获取单元1310包括获取子单元1311和预处理子单元1312;
所述获取子单元1311,用于从媒体信息应用服务器获取多个原始数据,每个原始数据包括媒体信息频道下的媒体信息以及媒体信息被标记的媒体信息类别;
所述预处理子单元1312,用于对所述多个原始数据进行预处理得到媒体信息样本数据。
可选的,所述预处理子单元1320具体用于:
对原始数据进行数据去噪、离群点抑制以及数据增强。
图10至图12所示实施例从功能模块化的角度对本申请实施例提供的一种媒体信息分类装置进行介绍,图13至图14所示实施例从功能模块化的角度对本申请实施例提供的一种训练图片分类模型的装置进行介绍。接下来将从硬件实体化的角度对本申请实施例提供的一种媒体信息分类设备和训练图片分类模型的设备进行介绍。
图15是本申请实施例提供的一种媒体信息分类设备的结构示意图,该媒体信息分类设备可以为服务器,该服务器1500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)1522(例如,一个或一个以上处理器)和存储器1532,一个或一个以上存储应用程序1542或数据1544的存储介质1530(例如一个或一个以上海量存储设备)。其中,存储器1532和存储介质1530可以是短暂存储或持久存储。存储在存储介质1530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1522可以设置为与存储介质1530通信,在服务器1500上执行存储介质1530中的一系列指令操作。
服务器1500还可以包括一个或一个以上电源1526,一个或一个以上有线或无线网络接口1550,一个或一个以上输入输出接口1558,和/或,一个或一个以上操作系统1541,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图15所示的服务器结构。
其中,CPU 1522用于执行如下步骤:
获取待分类媒体信息,所述媒体信息包括文本信息和图片信息;
将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签;所述图片分类模型是根据媒体信息样本数据训练得到的神经网络模型,用于根据媒体信息中的图片信息生成图片特征向量,并根据所述图片特征向量分类得到所述媒体信息的类别标签;
根据所述第一类别标签确定所述待分类媒体信息所属的类别。
可选的,CPU1522还可以执行本申请实施例提供的媒体信息分类方法的任意一种实现方式的方法步骤。
本申请实施例还提供了一种训练图片分类模型的设备,图16是本申请实施例提供的一种训练图片分类模型的设备的结构示意图,该训练图片分类模型的设备可以为服务器,该服务器1600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)1622(例如,一个或一个以上处理器)和存储器1632,一个或一个以上存储应用程序1642或数据1644的存储介质1630(例如一个或一个以上海量存储设备)。其中,存储器1632和存储介质1630可以是短暂存储或持久存储。存储在存储介质1630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1622可以设置为与存储介质1630通信,在服务器1600上执行存储介质1630中的一系列指令操作。
服务器1600还可以包括一个或一个以上电源1626,一个或一个以上有线或无线网络接口1650,一个或一个以上输入输出接口1658,和/或,一个或一个以上操作系统1641,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图16所示的服务器结构。
其中,CPU 1622用于执行如下步骤:
获取媒体信息样本数据,所述媒体信息样本数据包括媒体信息以及被标记的媒体信息类别;所述媒体信息包括文本信息和图片信息;
构建图片分类模型,所述图片分类模型包括以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型;
根据所述媒体信息样本数据训练所述图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,所述目标函数包括损失函数和惩罚项,所述惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项。
可选的,CPU1622还可以执行本申请实施例提供的训练图片分类模型的方法的任意一种实现方式的方法步骤。
本申请实施例还提供一种计算机可读存储介质,用于存储程序代码,该程序代码用于执行前述各个实施例所述的一种训练图片分类模型的方法中的任意一种实施方式。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (13)
1.一种媒体信息分类方法,其特征在于,包括:
获取待分类媒体信息,所述媒体信息包括文本信息和图片信息;
将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签;所述图片分类模型是根据媒体信息样本数据训练得到的神经网络模型,用于根据媒体信息中的图片信息生成图片特征向量,并根据所述图片特征向量分类得到所述媒体信息的类别标签;
根据所述第一类别标签确定所述待分类媒体信息所属的类别;
在所述将所述待分类媒体信息输入图片分类模型之前,所述方法还包括:
将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;
若所述第二类别标签标识的类别为指定类别时,则执行所述将所述待分类媒体信息输入图片分类模型的步骤;其中,所述指定类别为基于所述文本分类模型进行分类的准确性低的媒体信息类别;则所述根据第一类别标签确定所述待分类媒体信息所属的类别,包括:根据所述第一类别标签和所述第二类别标签确定所述待分类媒体信息所属的类别;
其中,所述根据所述第一类别标签和所述第二类别标签确定所述待分类媒体信息所属的类别,包括:
根据与所述第一类别标签相关的所述图片特征向量以及与所述第二类别标签相关的文本特征向量,确定所述待分类媒体信息所属的类别;或者,
根据所述第一类别标签、所述第二类别标签以及类别判定策略,确定所述待分类媒体信息所属的类别。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;所述文本分类模型用于根据媒体信息中的文本信息生成文本特征向量,并根据所述文本特征向量分类得到所述媒体信息的类别标签;
则所述根据所述第一类别标签确定所述待分类媒体信息所属的类别,包括:
根据所述第一类别标签和所述第二类别标签确定所述待分类媒体信息所属的类别。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
计算所述待分类媒体信息的文图比;
若所述文图比小于文图比阈值,则执行所述将所述待分类媒体信息输入图片分类模型的步骤。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
若所述文图比大于或者等于文图比阈值,则将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;
根据所述第二类别标签确定所述待分类媒体信息所属的类别。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
统计所述待分类媒体信息中文本的数量;
若所述待分类媒体信息中文本的数量小于文本数量阈值时,则执行所述将所述待分类媒体信息输入图片分类模型步骤。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
若所述待分类媒体信息中文本的数量大于或者等于文本数量阈值时,则将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的类别标签,作为第二类别标签;所述文本分类模型用于根据媒体信息中的文本信息生成文本特征向量,并根据所述文本特征向量分类得到所述媒体信息的类别标签;
根据所述第二类别标签确定所述待分类媒体信息所属的类别。
7.一种训练图片分类模型的方法,其特征在于,所述方法还包括:
获取媒体信息样本数据,所述媒体信息样本数据为预处理后的数据;所述媒体信息样本数据包括媒体信息以及被标记的媒体信息类别;所述媒体信息包括文本信息和图片信息;所述预处理包括数据去噪、离群点抑制以及数据增强;
构建图片分类模型,所述图片分类模型包括以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型;
根据所述媒体信息样本数据训练所述图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,所述目标函数包括损失函数和惩罚项,所述惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项;其中,当所述图片信息为长图时,所述惩罚项包括根据图片高宽比与绝对值损失函数确定的函数项;当所述图片信息包括格子背景特征时,所述惩罚项包括根据图片格子背景特征函数与绝对值损失函数确定的函数项。
8.根据权利要求7所述的方法,其特征在于,所述图片分类模型包括:级联的图片特征提取层和分类层;
所述图片特征提取层用于根据神经网络从媒体信息中提取出媒体信息对应的图片特征向量;
所述分类层用于根据所述图片特征提取层所提取的图片特征向量,分类得到媒体信息对应的类别。
9.根据权利要求7所述的方法,其特征在于,所述构建图片分类模型,包括:
根据预训练模型构建图片分类模型;
则所述根据所述媒体信息样本数据训练所述图片分类模型,包括:
根据迁移学习方法和所述媒体信息样本数据训练所述图片分类模型。
10.一种媒体信息分类装置,其特征在于,包括:
获取单元,用于获取待分类媒体信息,所述媒体信息包括文本信息和图片信息;
输入单元,用于将所述待分类媒体信息输入图片分类模型,获取所述图片分类模型输出的所述待分类媒体信息的类别标签,作为第一类别标签;所述图片分类模型是根据媒体信息样本数据训练得到的神经网络模型,用于根据媒体信息中的图片信息生成图片特征向量,并根据所述图片特征向量分类得到所述媒体信息的类别标签;
确定单元,用于根据所述第一类别标签确定所述待分类媒体信息所属的类别;
所述输入单元,还用于在所述将所述待分类媒体信息输入图片分类模型之前,将所述待分类媒体信息输入文本分类模型,获取所述文本分类模型输出的所述待分类媒体信息的第二类别标签;所述第二类别标签是所述文本分类模型根据所述待分类媒体信息中的文本特征对应的文本特征向量,分类得到的所述待分类媒体信息对应的类别标签;若所述第二类别标签标识的类别为指定类别时,则执行所述将所述待分类媒体信息输入图片分类模型的步骤;其中,所述指定类别为基于所述文本分类模型进行分类的准确性低的媒体信息类别;
则所述确定单元,具体用于根据所述第一类别标签和所述第二类别标签确定所述待分类媒体信息所属的类别;
其中,所述确定单元,具体用于根据与所述第一类别标签相关的所述图片特征向量以及与所述第二类别标签相关的所述文本特征向量,确定所述待分类媒体信息所属的类别;或者,
根据所述第一类别标签、所述第二类别标签以及类别判定策略,确定所述待分类媒体信息所属的类别。
11.一种训练图片分类模型的装置,其特征在于,包括:
获取单元,用于获取媒体信息样本数据,所述媒体信息样本数据为预处理后的数据,所述媒体信息样本数据包括媒体信息以及被标记的媒体信息类别;所述媒体信息包括文本信息和图片信息;所述预处理包括数据去噪、离群点抑制以及数据增强;
构建单元,用于构建图片分类模型,所述图片分类模型包括以媒体信息作为输入,以媒体信息对应的类别标签作为输出的神经网络模型;
训练单元,用于根据所述媒体信息样本数据训练所述图片分类模型,以训练得到使得所述图片分类模型的目标函数最小的模型参数,所述目标函数包括损失函数和惩罚项,所述惩罚项是用于惩罚基于图片信息分错媒体信息类别的函数项;其中,当所述图片信息为长图时,所述惩罚项包括根据图片高宽比与绝对值损失函数确定的函数项;当所述图片信息包括格子背景特征时,所述惩罚项包括根据图片格子背景特征函数与绝对值损失函数确定的函数项。
12.一种媒体信息分类设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1至6任一项所述的媒体信息分类方法。
13.一种训练图片分类模型的设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求7至9任一项所述的训练图片分类模型的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811076275.8A CN109344884B (zh) | 2018-09-14 | 2018-09-14 | 媒体信息分类方法、训练图片分类模型的方法及装置 |
CN202010231782.5A CN111444966B (zh) | 2018-09-14 | 2018-09-14 | 媒体信息分类方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811076275.8A CN109344884B (zh) | 2018-09-14 | 2018-09-14 | 媒体信息分类方法、训练图片分类模型的方法及装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010231782.5A Division CN111444966B (zh) | 2018-09-14 | 2018-09-14 | 媒体信息分类方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109344884A CN109344884A (zh) | 2019-02-15 |
CN109344884B true CN109344884B (zh) | 2023-09-12 |
Family
ID=65305742
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010231782.5A Active CN111444966B (zh) | 2018-09-14 | 2018-09-14 | 媒体信息分类方法及装置 |
CN201811076275.8A Active CN109344884B (zh) | 2018-09-14 | 2018-09-14 | 媒体信息分类方法、训练图片分类模型的方法及装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010231782.5A Active CN111444966B (zh) | 2018-09-14 | 2018-09-14 | 媒体信息分类方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111444966B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977848B (zh) * | 2019-03-22 | 2024-01-05 | 广州新视展投资咨询有限公司 | 色情检测模型的训练方法及装置、计算机设备及可读介质 |
CN110163220B (zh) * | 2019-04-26 | 2024-08-13 | 腾讯科技(深圳)有限公司 | 图片特征提取模型训练方法、装置和计算机设备 |
CN110162797B (zh) * | 2019-06-21 | 2023-04-07 | 北京百度网讯科技有限公司 | 文章质量检测方法和装置 |
CN110442722B (zh) * | 2019-08-13 | 2022-05-13 | 北京金山数字娱乐科技有限公司 | 分类模型训练的方法及装置、数据分类的方法及装置 |
CN110704706B (zh) * | 2019-09-11 | 2021-09-03 | 北京海益同展信息科技有限公司 | 分类模型的训练方法、分类方法及相关设备、分类系统 |
CN110717058B (zh) * | 2019-09-23 | 2023-06-09 | Oppo广东移动通信有限公司 | 信息推荐方法及装置、存储介质 |
CN110796264A (zh) * | 2019-10-29 | 2020-02-14 | 深圳前海微众银行股份有限公司 | 决策树模型的处理方法、装置、终端设备及存储介质 |
CN112749326B (zh) * | 2019-11-15 | 2023-10-03 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、计算机设备及存储介质 |
CN111159525A (zh) * | 2019-12-31 | 2020-05-15 | 中国银行股份有限公司 | 一种文本信息采集方法及装置 |
CN111382281B (zh) * | 2020-03-04 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 基于媒体对象的内容的推荐方法、装置、设备和存储介质 |
CN111881869B (zh) * | 2020-08-04 | 2023-04-18 | 浪潮云信息技术股份公司 | 一种基于手势数据的分级存储方法及系统 |
CN112085063B (zh) * | 2020-08-10 | 2023-10-13 | 深圳市优必选科技股份有限公司 | 一种目标识别方法、装置、终端设备及存储介质 |
CN112016622B (zh) * | 2020-08-28 | 2024-08-13 | 中移(杭州)信息技术有限公司 | 模型训练的方法、电子设备和计算机可读存储介质 |
CN112069338A (zh) * | 2020-09-03 | 2020-12-11 | Oppo广东移动通信有限公司 | 图片处理方法、装置、电子设备及存储介质 |
CN112330569A (zh) * | 2020-11-27 | 2021-02-05 | 上海眼控科技股份有限公司 | 模型训练方法、文本去噪方法、装置、设备及存储介质 |
CN113268691B (zh) * | 2021-04-30 | 2022-07-22 | 杭州安恒信息技术股份有限公司 | 网站行业类型的分类方法、装置、电子装置和存储介质 |
CN114780757A (zh) * | 2022-04-20 | 2022-07-22 | 平安科技(深圳)有限公司 | 短媒体标签抽取方法、装置、计算机设备和存储介质 |
CN116432644B (zh) * | 2023-06-12 | 2023-08-15 | 南京邮电大学 | 一种基于特征融合和双重分类的新闻文本分类方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104391860A (zh) * | 2014-10-22 | 2015-03-04 | 安一恒通(北京)科技有限公司 | 内容类别检测方法及装置 |
CN105512681A (zh) * | 2015-12-07 | 2016-04-20 | 北京信息科技大学 | 一种目标类别图片的获取方法及系统 |
GB201616078D0 (en) * | 2016-09-21 | 2016-11-02 | Emergent Network Intelligence Ltd | Automatic image based object damage assessment |
CN106599155A (zh) * | 2016-12-07 | 2017-04-26 | 北京亚鸿世纪科技发展有限公司 | 一种网页分类方法及系统 |
CN106897454A (zh) * | 2017-02-15 | 2017-06-27 | 北京时间股份有限公司 | 一种文件分类方法及装置 |
CN107909095A (zh) * | 2017-11-07 | 2018-04-13 | 江苏大学 | 一种基于深度学习的图像识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5895777B2 (ja) * | 2012-09-06 | 2016-03-30 | 富士ゼロックス株式会社 | 情報分類プログラム及び情報処理装置 |
CN106156777B (zh) * | 2015-04-23 | 2020-06-02 | 华中科技大学 | 文本图片检测方法及装置 |
CN107153716B (zh) * | 2017-06-06 | 2021-01-01 | 百度在线网络技术(北京)有限公司 | 网页内容提取方法和装置 |
-
2018
- 2018-09-14 CN CN202010231782.5A patent/CN111444966B/zh active Active
- 2018-09-14 CN CN201811076275.8A patent/CN109344884B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104391860A (zh) * | 2014-10-22 | 2015-03-04 | 安一恒通(北京)科技有限公司 | 内容类别检测方法及装置 |
CN105512681A (zh) * | 2015-12-07 | 2016-04-20 | 北京信息科技大学 | 一种目标类别图片的获取方法及系统 |
GB201616078D0 (en) * | 2016-09-21 | 2016-11-02 | Emergent Network Intelligence Ltd | Automatic image based object damage assessment |
CN106599155A (zh) * | 2016-12-07 | 2017-04-26 | 北京亚鸿世纪科技发展有限公司 | 一种网页分类方法及系统 |
CN106897454A (zh) * | 2017-02-15 | 2017-06-27 | 北京时间股份有限公司 | 一种文件分类方法及装置 |
CN107909095A (zh) * | 2017-11-07 | 2018-04-13 | 江苏大学 | 一种基于深度学习的图像识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111444966B (zh) | 2023-04-07 |
CN111444966A (zh) | 2020-07-24 |
CN109344884A (zh) | 2019-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344884B (zh) | 媒体信息分类方法、训练图片分类模型的方法及装置 | |
WO2020221278A1 (zh) | 视频分类方法及其模型的训练方法、装置和电子设备 | |
CN111738357B (zh) | 垃圾图片的识别方法、装置及设备 | |
KR20200145827A (ko) | 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체 | |
WO2023040506A1 (zh) | 一种基于模型的数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN111414946B (zh) | 基于人工智能的医疗影像的噪声数据识别方法和相关装置 | |
CN111611436A (zh) | 一种标签数据处理方法、装置以及计算机可读存储介质 | |
CN108734159B (zh) | 一种图像中敏感信息的检测方法及系统 | |
CN108564102A (zh) | 图像聚类结果评价方法和装置 | |
CN111401063B (zh) | 一种基于多池化网络的文本处理方法、装置和相关设备 | |
CN111291618B (zh) | 标注方法、装置、服务器和存储介质 | |
CN111401374A (zh) | 基于多任务的模型训练方法、字符识别方法及装置 | |
CN114998602B (zh) | 基于低置信度样本对比损失的域适应学习方法及系统 | |
US20240273134A1 (en) | Image encoder training method and apparatus, device, and medium | |
CN113051486A (zh) | 基于交友场景的推荐模型的训练方法、装置、电子设备和计算机可读存储介质 | |
CN111432206A (zh) | 基于人工智能的视频清晰度处理方法、装置及电子设备 | |
CN116452810A (zh) | 一种多层次语义分割方法、装置、电子设备及存储介质 | |
CN116016421A (zh) | 促进在计算装置中执行的基于媒体的内容共享的方法、计算装置可读存储介质以及计算装置 | |
CN110909797B (zh) | 图像检测方法以及装置、设备、存储介质 | |
US20230410474A1 (en) | Method and apparatus for training relationship recognition model and method and apparatus for analyzing image | |
CN116541712B (zh) | 基于非独立同分布数据的联邦建模方法及系统 | |
Suchecki et al. | Understanding aesthetics in photography using deep convolutional neural networks | |
CN117235371A (zh) | 视频推荐方法、模型训练方法及装置 | |
CN113570512A (zh) | 一种图像数据处理方法、计算机及可读存储介质 | |
CN114556330A (zh) | 评估数字内容的视觉质量 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221128 Address after: 1402, Floor 14, Block A, Haina Baichuan Headquarters Building, No. 6, Baoxing Road, Haibin Community, Xin'an Street, Bao'an District, Shenzhen, Guangdong 518000 Applicant after: Shenzhen Yayue Technology Co.,Ltd. Address before: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors Applicant before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |