CN114818691A - 文章内容的评价方法、装置、设备及介质 - Google Patents
文章内容的评价方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114818691A CN114818691A CN202110125965.3A CN202110125965A CN114818691A CN 114818691 A CN114818691 A CN 114818691A CN 202110125965 A CN202110125965 A CN 202110125965A CN 114818691 A CN114818691 A CN 114818691A
- Authority
- CN
- China
- Prior art keywords
- text
- article
- image
- sample
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 290
- 238000000034 method Methods 0.000 claims abstract description 87
- 239000013598 vector Substances 0.000 claims description 200
- 238000012549 training Methods 0.000 claims description 78
- 230000004927 fusion Effects 0.000 claims description 26
- 238000013441 quality evaluation Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 14
- 239000000203 mixture Substances 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013210 evaluation model Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 15
- 238000010586 diagram Methods 0.000 description 24
- 238000013461 design Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 15
- 230000001976 improved effect Effects 0.000 description 13
- 241000282414 Homo sapiens Species 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 238000003058 natural language processing Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000001303 quality assessment method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000287828 Gallus gallus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036630 mental development Effects 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000000050 nutritive effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 210000003296 saliva Anatomy 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 235000014347 soups Nutrition 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种文章内容的评价方法、装置、设备及介质,涉及人工智能领域。该方法包括:提取所述文章内容中的图像信息和文本信息;根据所述图像信息和所述文本信息,获得所述文章内容的多个评价结果,所述多个评价结果包括图文评价结果、文本评价结果、客观先验评价结果和排版评价结果中的至少两种;融合所述多个评价结果,获得所述文章内容的多维度评价结果。本申请可以对文章内容做出较为全面的评价。
Description
技术领域
本申请涉及人工智能领域,特别涉及一种文章内容的评价方法、装置、设备及介质。
背景技术
文章内容的评价是指计算机设备对文章中的图文内容进行质量判定,确定文章中优质内容和劣质内容的占比,并根据确定的占比来判断文章内容的质量是否合格。便于商户向用户推荐合适的文章,保证用户的阅读体验。
相关技术是计算机设备通过有监督学习或者是无监督学习,从文本信息的角度对文章内容进行评价,例如,从文章字数、用词多样性等统计学维度对文章内容进行评价,获得文章内容中的优质文本信息和劣质文本信息的占比,通过占比获得有关文本信息的评价结果,将获得的评价结果作为整个文章内容的评价结果。
但是,相关技术只能通过文本信息对文章内容进行评价,在一些情形下无法对文章内容做出合理的评价。
发明内容
本申请提供了一种文章内容的评价方法、装置、设备及存储介质,可以从多个维度对文章内容进行评价,获得合理的文章评价结果。所述技术方案如下:
根据本申请的一方面,提供了一种文章内容的评价方法,所述方法包括:
提取所述文章内容中的图像信息和文本信息;
根据所述图像信息和所述文本信息,获得所述文章内容的多个评价结果,所述多个评价结果包括图文评价结果、文本评价结果、客观先验评价结果和排版评价结果中的至少两种;
融合所述多个评价结果,获得所述文章内容的多维度评价结果。
根据本申请的另一方面,提供了一种文章内容的评价装置,所述装置包括:
提取模块,用于提取所述文章内容中的图像信息和文本信息;
评价模块,用于根据所述图像信息和所述文本信息,获得所述文章内容的多个评价结果,所述多个评价结果包括图文评价结果、文本评价结果、客观先验评价结果和排版评价结果中的至少两种;
评价融合模块,用于融合所述多个评价结果,获得所述文章内容的多维度评价结果。
在本申请的一个可选设计中,所述提取模块,还用于提取所述图像信息和所述文本信息中的多模态特征信息。
所述评价模块,还用于将所述多模态特征信息输入图文先验优质评价模型,获得所述文章内容的所述多个评价结果,所述图文先验优质评价模型用于根据所述多模态特征信息获得多维度的所述多个评价结果。
在本申请的一个可选设计中,所述提取模块,还用于提取所述多模态特征信息中的图像特征向量和文本特征向量,所述文本特征向量为所述文章内容中全部或部分的文字对应的特征向量。
所述评价模块,还用于将所述图像特征向量和所述文本特征向量输入所述图文多模态子网络,获得所述文章内容的所述图文评价结果。
在本申请的一个可选设计中,所述评价模块,还用于通过所述图文多模态子网络,生成融合图像信息的文本特征表示和融合文本信息的图像特征表示;通过所述图文多模态子网络,融合所述文本特征表示和所述图像特征表示,生成所述文章内容的所述图文评价结果。
在本申请的一个可选设计中,所述提取模块,还用于提取所述多模态特征信息中的客观先验特征,所述客观先验特征包括统计学特征、语言学特征、图像质量特征、账号特征中的至少一种。
所述评价模块,还用于将所述客观先验特征输入所述客观先验特征子网络中,获得所述文章内容的客观先验评价结果。
在本申请的一个可选设计中,所述提取模块,还用于提取所述多模态特征信息中的文章词向量。
所述评价模块,还用于将所述文章词向量输入到所述文本子网络中,获得所述文章内容的所述文本评价结果。
在本申请的一个可选设计中,所述提取模块,还用于提取所述多模态特征信息中的图像特征向量和文本特征向量,所述文本特征向量是所述文章内容中全部或部分的文字对应的特征向量。
所述评价模块,还用于将所述图像特征向量和所述文本特征向量输入到所述排版子网络中,获得所述文章内容的所述排版评价结果。
在本申请的一个可选设计中,所述评价融合模块,还用于通过图文先验优质评价模型和注意力机制,为所述多个评价结果赋予相应的权重值;通过图文先验优质评价模型和所述权重值,对所述多个评价结果进行加权平均,获得所述文章内容的所述多维度评价结果。
在本申请的一个可选设计中,所述装置还包括:训练模块。
所述训练模块,用于获得图文训练集,所述图文训练集包括样本文章和与所述样本文章对应的真实图文评价结果;提取所述样本文章中的样本图像信息和样本文本信息;根据所述样本图像信息和所述样本文本信息,提取样本图像特征向量和样本文本特征向量;将所述样本图像特征向量和所述样本文本特征向量输入所述图文多模态子网络,获得预测图文评价结果;根据所述预测图文评价结果和所述真实图文评价结果之间的误差损失,对所述图文多模态子网络进行训练。
在本申请的一个可选设计中,所述训练模块,还用于获得客观先验训练集,所述客观先验训练集包括样本文章和与所述样本文章对应的真实客观先验评价结果;提取样本文章中的样本图像信息和样本文本信息;根据所述样本图像信息和所述样本文本信息,获得所述样本文章的样本客观先验特征;将所述样本客观先验特征输入所述客观先验特征子网络,获得预测客观先验评价结果;根据所述预测客观先验评价结果和所述真实客观先验评价结果之间的误差损失,对所述客观先验特征子网络进行训练。
在本申请的一个可选设计中,所述训练模块,还用于获得文本训练集,所述文本训练集包括样本文章和与所述样本文章对应的真实文本评价结果;提取所述样本文章中的样本文本信息;根据所述样本文本信息,提取样本文章词向量;将所述样本文章词向量输入所述文本子网络,获得预测文本评价结果;根据所述预测文本评价结果和所述真实文本评价结果之间的误差损失,对所述文本子网络进行训练。
在本申请的一个可选设计中,所述训练模块,还用于获得排版训练集,所述排版训练集包括样本文章和与所述样本文章对应的真实排版评价结果;提取所述样本文章中的样本图像信息和样本文本信息;根据所述样本图像信息和所述样本文本信息,提取样本图像特征向量和样本文本特征向量;将所述样本图像向量和所述样本文本特征向量输入到所述排版子网络中,获得预测排版评价结果;根据所述预测排版评价结果与所述真实排版评价结果之间的误差损失,对所述排版子网络进行训练。
根据本申请的另一方面,提供了一种计算机设备,该计算机设备包括:处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如上方面所述的文章内容的评价方法。
根据本申请的另一方面,提供了一种计算机存储介质,计算机可读存储介质中存储有至少一条程序代码,程序代码由处理器加载并执行以实现如上方面所述的文章内容的评价方法。
根据本申请的另一方面,提供了一种计算机程序产品或计算机程序,上述计算机程序产品或计算机程序包括计算机指令,上述计算机指令存储在计算机可读存储介质中。计算机设备的处理器从上述计算机可读存储介质读取上述计算机指令,上述处理器执行上述计算机指令,使得上述计算机设备执行如上方面所述的文章内容的评价方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过融合文章内容的多维度的多个评价结果,从多个维度对文章内容做出相应的评价,使得最终得到的评价结果更加贴合用户的实际阅读体验。另一方面,由于最终的评价结果综合了多个维度的评价,可以有效减少错误的评价结果,提高整个方案的鲁棒性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的VistaNet模型的结构示意图;
图2是本申请一个示例性实施例提供的计算机系统的结构示意图;
图3是本申请一个示例性实施例提供的文章内容的评价方法的流程示意图;
图4是本申请一个示例性实施例提供的文章内容的评价方法的流程示意图;
图5是本申请一个示例性实施例提供的图文先验优质评价模型的示例性的结构图;
图6是本申请一个示例性实施例提供的图文多模态子网络的示例性结构图;
图7是本申请一个示例性实施例提供的客观先验特征子网络的示例性结构图;
图8是本申请一个示例性实施例提供的文本子网络的示例性结构图;
图9是本申请一个示例性实施例提供的排版子网络的示例性结构图;
图10是本申请一个示例性实施例提供的图文先验优质评价模型的示例性的完整结构图;
图11是本申请一个示例性实施例提供的图文多模态子网络训练方法的流程示意图;
图12是本申请一个示例性实施例提供的客观先验特征子网络训练方法的流程示意图;
图13是本申请一个示例性实施例提供的文本子网络训练方法的流程示意图;
图14是本申请一个示例性实施例提供的排版子网络训练方法的流程示意图;
图15是本申请一个示例性实施例提供的示例性业务架构图;
图16是本申请一个示例性实施例提供的文章内容的评价装置的结构示意图;
图17是本申请一个示例性实施例提供的计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行介绍:
人工智能(Artificial Intelligence,AI):是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV):计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
自然语言处理(Nature Language processing,NLP):是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML):是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
图文先验优质:图文先验优质是从文章内容本身的角度出发,构造文章质量的合理评价体系,从而帮助推荐侧更好的理解与应用内容中心出库的图文内容。为了综合评价文章质量,分别从图文多模态、账号、文章排版体验、文章语言学类原子特征(如文章使用的词法多样性、文章是否使用比喻句排比句等多样化句法、文章是否引用古诗词等)等维度分别建模,最终构造一体化的文章先验优质识别方法。
图文多模态:指多模态机器学习(MultiModal Machine Learning,MMML),具体是指在通过机器学习的方法实现处理和理解多源模态信息的能力。主要研究方向是语义、图像、视频之间的多模态学习。多模态学习可以划分为以下五个研究方向:多模态表示学习、模态转化、对齐、多模态融合、协同学习。单模态的表示学习负责将信息表示为计算机可以处理的数值向量或者进一步抽象为更高层的特征向量,而多模态表示学习是指通过利用多模态之间的互补性,剔除模态间的冗余性,从而学习到更好的特征表示。
语言学(linguistics):是一门关于人类语言的科学研究,涉及对语言形式、语言含义和语境的分析。语言学在语言结构(语法)研究与意义(语义与语用)研究之间存在重要的主题划分。语法中包含了词法(单词的形成与组成),句法(决定单词如何组成短语或句子的规则)以及语音(声音系统与抽象声音单元的研究)。为了综合评价文章质量,本申请从文章整体语意信息、文章句子之间的语意关系、文章的词法多样性、文章使用的修辞手法多样性(如比喻句、排比句等)、文章引用古诗文情况等各个特征维度进行实现优质文章的综合评定。
集成模型:集成学习(ensemble learning)是一种机器学习范式。在集成学习中,我们会训练多个模型解决相同的问题,并将它们结合起来以获得更好的结果。单个学习器要么容易欠拟合要么容易过拟合,为了获得泛化性能优良的学习器,可以训练多个个体学习器,通过一定的结合策略,最终形成一个强学习器。这种集成多个个体学习器的方法称为集成学习。集成学习是通过在数据上构建多个模型,集成所有模型的建模结果。集成算法会考虑多个评估器的建模结果,汇总之后得到一个综合的结果,以此来获得比单个模型更好的回归或分类表现。
BERT(Bidirectional Encoder Representations from Transformers,来自变换器的双向编码器表征量)模型:BERT是一种新的语言表征模型。BERT旨在基于所有层的左、右语境来预训练深度双向表征。因此,预训练的BERT表征可以仅用一个额外的输出层进行微调,进而为很多任务(如问答和语言推理)创建当前最优模型,无需对任务特定架构做出大量修改。BERT概念简单,但实验效果很强大,它刷新了11个自然语言处理(NaturalLanguage Processing,NLP)任务的当前最优结果,包括将GLUE(General LanguageUnderstanding Evaluation,通用语言理解评估基准)的基准提升至80.4%(7.6%的绝对改进)、将MultiNLI(一个公开的自然语言数据集)的准确率提高到86.7%(5.6%的绝对改进),以及将SQuADv1.1(一个数据集)问答测试的得分提高至93.2分(1.5分绝对提高)——比人类性能还高出2.0分。
HAN(Hierarchical Attention Network,多层注意力模型)模型:HAN(Hierarchical Attention Network)模型在长文本分类任务上有不错的分类精度,其模型整体结构如下:输入词向量序列为w2x,通过词级别的Bi-GRU(Bi-Gated Recurrent Unit,门控循环单元模型)后,每个词都会有一个对应的Bi-GRU输出的隐向量h,再通过uw向量与每个h向量点积得到注意力(attention)权重,然后把h序列做一个根据注意力权重的加权和,得到句子summary向量s2,每个句子在通过同样的Bi-GRU结构再加attention得到最终输出的文档特征向量v向量,然后根据v向量通过全连接层再加分类器得到最终的文本分类结果。综上所述,HAN模型结构非常符合人从词到句子再到篇章的理解过程,它不仅解决了TextCNN(Text Convolutional Neural Networks,文本卷积神经网络)丢失文本结构信息的问题,还有较强的可解释性。
注意力机制(attention机制):是模仿人类注意力而提出的一种解决问题的方法,可以从大量信息中快速筛选出高价值信息,通常用于编码器+解码器的模型中。注意力机制可以帮助模型对输入的每个部分赋予不同的权重,抽取出更加关键及重要的信息,使模型做出更加准确的判断,同时不会对模型的计算和存储带来更大的开销。例如,将编码器+解码器模型用于翻译时,输入的句子与输出句子之间,往往是输入一个或几个词对应于输出的一个或几个词,如果句子中每个词都赋予相同的权重,这样做是不合理的,因此,会对不同的词赋予不同的权重值以区分出句子中重要的部分,假设输入的句子为“Today,Mingruns”,则输出的句子为“今天,小明跑步”,从翻译后的句子中可以提取出词语“今天”、“小明”和“跑步”,显然在翻译后的句子中,三个词语是有不同的重要度的,其中,词语“今天”的重要度没有词语“小明”和“跑步”高,故可以将“今天”的权重值设为0.2,将词语“小明”和“跑步”的权重值均设为0.4,以提高词语“小明”和“跑步”的重要度。
VistaNet模型:利用Attention机制进行图像与文本信息的融合,巧妙的解决了不同模态数据的向量空间不一致问题,增强了模型针对评论的情感分析的能力。VistaNet模型从下至上分为三层:词语编码器+注意力层11(Word Encoder+Attention层)、句子编码器+注意力层12(Sentence Encoder+Attention层)和文本编码器+注意力层13(DocumentEncoder+Attention层)。接下来对各层的结构进行介绍,请参考图1:
1、词语编码器+注意力层11;
该层的输入数据为文章内容中每个句子的各个单词的文章词向量w(最大单次个数为T),可选地,文章词向量可以通过预先训练的神经网络模型获得。在输入词向量w后,通过双向的循环神经网络(Recurrent Neural Network,RNN)得到每个RNN两个方向的隐状态,将获得的两个隐状态进行拼接,作为该时间步长的输出(timestep)。然后使用attention机制计算各个时间步长的重要性权重α,对重要性权重α进行归一化处理后,对所有时间步长的输出进行加权求和,得到句子的向量表示si。具体计算公式如下:
ui,t=UTtanh(Wwhi,t+bw);
si=∑tαi,thi,t;
其中,ui,t表示第i个句子中第t个词语的权重值。U是一个随机初始化的值。tanh()表示双曲正切函数。Ww是文章词向量w所对应的词嵌入矩阵。hi,t代表第i个句子中第t个词语的隐状态。bw为一常量。αi,t表示第i个句子中第t个词语归一化后的权重值。exp()表示以自然对数e为底的指数函数。si表示句子的向量表示,即为文章句向量。
2、句子编码器+注意力层12;
该层输入文章内容中各个句子的文章句向量si(最多L个句子),输出为对第j个图像的文本表示dj,即为第j个图像的文本特征向量。输入的文章句向量经过双向的RNN得到每个RNN两个方向的隐状态,拼接得到每个句子的隐状态hi。另一方面,提取文章内容中第j个图像的图像特征向量mj。示例性的,一种图像特征向量的获取方法如下:将文章内容中的图像aj(1≤j≤M,M为文章内容中图像的张数),输入到CNN网络中,提取图像的特征,并将特征输入到全连接层中,为各个特征分配权重,再由全连接层输出图像特征向量mj。通过mj在hi上实施注意力机制,得到每个hi对应的重要性权重β,根据获得的β对针对第j张图像的hi进行加权平均,获得针对第j张图像的文本表示dj。具体计算公式如下:
pj=tanh(Wpmj+bp);
qi=tanh(Wqhi+bq);
vj,i=VT(pj⊙qi+qi);
dj=∑iβj,ihi;
其中,pj表示第j张图像对权重值的贡献值。Wp表示第j张图像的嵌入矩阵。bp为一常量。qi表示第i个句子对权重值的贡献值。Wq表示第i个句子的嵌入矩阵。bq为一常量。V为一随机初始化的值。vj,i表示第j张图像对应的第i个句子的权重值。⊙表示同或运算。βj,i表示第j张图像对应的第i个句子的归一化后的权重值。hi表示第i个隐状态。mj表示第j个图像的图像特征向量。
3、文本编码器+注意力层13;
最后一层输入是针对不同图像所生成的多个文本特征向量dj,使用attention机制计算对应的权重后进行加权,得到代表最终整个文章内容的文本特征向量。根据最终得到的文本特征向量来对文章内容进行评价。具体计算公式如下:
kj=KTtanh(Wddj+bd);
d=∑jγjdj;
其中,kj表示第j张图像对应的权重值。K是一个随机初始化的值。Wd为文本特征向量d对应的嵌入矩阵。bd为一常量。γj为第j张图像对应的归一化后的权重值。d表示整个文章内容的评价结果。
图2示出了本申请一个示例性实施例提供的计算机系统的结构示意图。计算机系统200包括:终端220和服务器240。
终端220上安装有与文章内容评价相关的应用程序。该应用程序可以是app(application,应用程序)中的小程序,也可以是专门的应用程序,也可以是网页客户端。用户可以终端220上接受到文章内容的评价结果,或者,用户可以将文章内容发送到服务器240中,由服务器240做出相应的评价结果,并将评价结果返回给终端2020或是其它终端。终端220是智能手机、车载计算机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。
终端220通过无线网络或有线网络与服务器240相连。
服务器240可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。服务器240用于为支持文章内容评价的应用程序提供后台服务。可选地,服务器240承担主要计算工作,终端220承担次要计算工作;或者,服务器240承担次要计算工作,终端220承担主要计算工作;或者,服务器240和终端220两者采用分布式计算架构进行协同计算。
图3示出了本申请一个示例性实施例提供的文章内容的评价方法的流程示意图。该方法可由图2所示的终端220或服务器240执行,该方法包括如下步骤:
步骤302:提取文章内容中的图像信息和文本信息。
文章内容的获取方法可以有多种,例如,从网络上下载文章内容,或者,接收由其他终端发送的文章内容,或者,从本地存储中获得文章内容,或者,获取实时输入的文章内容。本申请对此不作限制。
图像信息指的是文章内容中的图像。例如,文章内容中有图像A和图像B,则图像A与图像B为图像信息。
文本信息指的是文章内容中的文本。例如,文章内容中有文本C和文本D,则文本C和文本D是文本信息。
步骤304:根据图像信息和文本信息,获得文章内容的多个评价结果,多个评价结果包括图文评价结果、文本评价结果、客观先验评价结果和排版评价结果中的至少两种。
评价结果可以有多种表现形式。可选地,评价结果是文章内容中优质内容和劣质内容的识别和判定。可选地,评价结果是对文章内容的评分。
图文评价结果用于表示文章内容中,图像和文本之间的关联性。示例性的,文章内容中的文本部分为“我昨天去游泳了”,而相应的图像部分则是一张梅花的图像,图像和文本之间的关联性不高,可以认为此处文本和图像不具有关联性。
文本评价结果用于评价文章内容中文本的质量。文本评价结果可以获得文章内容中的优质文本,这里的优质文本指的是文本所承载的信息丰富,用户通过阅读可以获得信息。
客观先验评价结果指在不考虑文章内容的前提下,所能从文章内容或文章内容关联信息中获得的评价结果。例如,文章内容是由账号A发表的,而账号A曾经发表过多篇优质的文章,此时,基于账号A的历史表现,这里的客观先验评价就会提高。
排版评价结果用于评价文章内容的排版布局。示例性的,文章内容中文本A在文章的第5页,而与文本A对应的图像A在文章的第12页,这里的文本A与图像A在排版布局上是不合理的,用户在阅读文章内容时会十分不方便,因此,这里的排版评价结果会变差。
在本实施例中,以通过神经网络模型获取多个评价结果的方法为例进行说明:
1、提取图像信息和文本信息中的多模态特征信息;
多模态特征信息指可以从图像信息和文本信息中提取到的多维度的信息,包括但不限于文本层面的信息、图像层面的信息、文本和图像结合对应的信息、文章内容的发表账号对应的信息、排版信息中的至少一种。示例性的,多模态特征信息包括图像特征向量、文章词向量、文章句向量、文本特征向量(指文章内容中的全部或部分文本内容所对应的特征向量)、统计学特征、语言学特征、图像质量特征、账号特征中的至少一种。这里的
2、将多模态特征信息输入图文先验优质评价模型,获得文章内容的所述多个评价结果,图文先验优质评价模型用于根据多模态特征信息获得多维度的多个评价结果。
步骤306:融合多个评价结果,获得文章内容的多维度评价结果。
多维度评价结果用于从多个维度对文章内容进行评价。在本实施例中,这里的多维度指的是上述图文评价结果、文本评价结果、客观先验评价结果、排版评价结果中至少两种维度。
可选地,通过神经网络来融合多个评价结果。
可选地,为多个评价结果赋予相应的权重,通过权重来计算相应的多维度评价结果。
综上所述,本实施例通过融合文章内容的多维度的多个评价结果,从多个维度对文章内容做出相应的评价,使得最终得到的评价结果更加贴合用户的实际阅读体验。另一方面,由于最终的评价结果综合了多个维度的评价,可以有效减少错误的评价结果,提高整个方案的鲁棒性。
图4示出了本申请一个示例性实施例提供的文章内容的评价方法的流程示意图。该方法可由图2所示的终端220或服务器240执行,该方法包括如下步骤:
步骤401:提取文章内容中的图像信息和文本信息。
步骤402:提取图像信息和文本信息中的多模态特征信息。
在本实施例中,通过图文先验优质评价模型对多模态特征信息进行处理。图5示出了本申请一个示例性实施例提供的图文先验优质评价模型的示例性的结构图。示例性的,图文先验优质评价模型包括但不限于四个子网络和注意力融合层55构成,分别为图文模态子网络51、客观先验特征子网络52、文本子网络53和排版子网络54。其中,图文先验优质评价模型由上述四个子网络中的至少两个构成。上述四个子网络的输入为相应的多模态特征信息,输出为各自的评价结果。
注意力融合层55的输入为多个评价结果,输出为多维度评价结果56。其中,注意力融合层55用于对输入的多个评价结果赋予相应的权值,并进行相应的加权计算,用以获得多维度评价结果56。
步骤403:提取多模态特征信息中的图像特征向量和文本特征向量,文本特征向量为文章内容中全部或部分的文字对应的特征向量。
提取图像特征向量可以是直接提取得到的,也可以是提取原数据以后处理得到的。
提取文本特征向量可以是直接提取得到的,也可以是提取原数据以后处理得到的。示例性的,文本特征向量是直接提取词语的特征向量得到的。示例性的,文本特征向量是在提取词语的特征向量后,对词语的特征向量进行处理,得到句子的特征向量。
图像特征向量用于表征文章内容中图像的特征向量。图像特征向量可以通过相应的卷积神经网络获得。
由于文章内容中的文本可以被视作是由多个句子构成的,而句子又可以被视为是由多个词语构成的。故这里的文本特征向量可以指文章词向量,也可以至文章句向量。文章词向量可以由预先训练完成的神经网络模型获得。
步骤404:将图像特征向量和文本特征向量输入图文多模态子网络,获得文章内容的图文评价结果。
该步骤包括以下子步骤:
1、通过图文多模态子网络,生成融合图像信息的文本特征表示和融合文本信息的图像特征表示;
文本特征表示指在文本特征向量的基础上,融合了图像信息的特征向量。
图像特征表示指在图像特征向量的基础上,融合了文本信息的特征向量。
2、通过图文多模态子网络,融合文本特征表示和图像特征表示,生成文章内容的图文评价结果。
这里的融合方法可以是通过相应的神经网络模型进行融合。
示例性的,图6示出了本申请一个示例性实施例提供的图文多模态子网络的示例性结构图。图文多模态子网络从整体上来看可以分为左右两部分。
如图6所示,先对左侧部分进行介绍。左侧部分从上到下为transformer编码器61(transformer指一种基于编码器+解码器架构的神经网络模型,在transformer模型中运用了attention机制,运用于自然语言处理领域)、transformer编码器62和注意力融合层63。
其中,transformer编码器61的输入为文章词向量W1至Wn(n表示句子中词语的最大个数),输出为文章句向量S1至SL(L表示文章内容中句子的最大个数)。transformer编码器会将输入的n个文章词向量进行组合输出L个文章句向量。
transformer编码器62的输入是文章句向量S1至SL,输出为文本特征向量H1至Hm(m表示文章内容中图像的最大张数),其中,文本特征向量和文章内容中的图像一一对应。transformer编码器会将输入的L个文章句向量进行组合输出m个文本特征向量。
注意力融合层63的输入为文本特征向量H1至Hm,输出为融合图像特征的文本特征表示66。注意力融合层63可以通过注意力机制在文本特征向量的基础上融合相应的图像信息,以获得融合图像特征的文本特征表示64。具体的融合过程可以参照图1所示的VistaNet模型中句子编码器+注意力层12和文本编码器+注意力层13中的相关计算方式。
接下来对图文多模态子网络的右侧部分进行介绍:右侧部分包括提取层64和注意力融合层65。
提取层64的输入为文章内容中的m个图像,输出为图像特征向量M1至Mm。提取层64中为预先训练完成的特征提取网络,可以从图像中提取出相应的图像特征向量。
注意力融合层65的输入为图像特征向量M1至Mm,输出为融合文本信息的图像特征表示66。注意力融合层65和注意力融合层63类似,可以通过注意力机制在图像特征向量的基础上融合相应的文本信息,以获得融合文本特征的图像特征表示64。类似的,具体的融合过程可以参照图1所示的VistaNet模型中句子编码器+注意力层12和文本编码器+注意力层13中的相关计算方式。
图文多模态子网络还包括融合层67和多层感知器68(Multi-Layer Perceptron,MLP)。融合层67的输入为融合图像信息的文本特征表示64和融合文本信息的图像特征66,输出为融合后的特征。
多层感知器68的输入为融合后的特征,输出为图文评价结果。多层感知器68用于对融合后的特征进行识别和分类,提取出其中有用的信息,并得出图文评价结果。
综上,图文特征评价结果可以对文章内容中图像与文本之间的关联程度做出评价,可以解决图像内容本身不够优质、针对同一文字描述所配置的图像信息冗余、多角度重复拍摄图像等问题。使子网络获得了正确的评价结果,优质内容的识别效果得到提升。同时,图文多模态子网络还可以学到图文不符的特征,在感情、心灵鸡汤等文章内容表现突出。
步骤405:提取多模态特征信息中的客观先验特征,客观先验特征包括统计学特征、语言学特征、图像质量特征、账号特征中的至少一种。
统计学特征包括页面高度、图像面积和字数、段落数中的至少一种。
语言学特征包括词法多样性、句法多样性、修辞手法和诗词引用中至少一种。
图像质量特征包括图像清晰度、图像通道数、图像大小、图像数量中的至少一种。
账号特征包括账号等级、账号垂直度和账号收藏、点赞等消费数据中的至少一种。
步骤406:将客观先验特征输入客观先验特征子网络中,获得文章内容的客观先验评价结果。
示例性的,图7示出了本申请一个示例性实施例提供的客观先验特征子网络的示例性结构图。客观先验特征子网络从上至下分为嵌入层71、特征交叉层72和多层感知器74。嵌入层71的输入为统计学特征、语言学特征、图像质量特征、账号特征中的至少一种,输出为连续的特征1至特征x(x为正整数),嵌入层71的作用是将离散的统计学特征、语言学特征、图像质量特征、账号特征转换为可以用连续向量表示的特征,同时可以减少输入特征的维数。
特征交叉层72的输入为上述特征1至特征x,输出为交叉后的总特征73。特征交叉层72将输入的特征1至特征x两两相乘,并赋予权值后进行求和运算,获得相应的总特征73,总特征73可以从整体上表示输入的为统计学特征、语言学特征、图像质量特征、账号特征。
多层感知器74的输入为总特征73,输出为客观先验评价结果。多层感知器74用于对总特征73进行识别和分类,提取出其中有用的信息,并得出客观先验特征评价结果。
综上,通过客观先验评价结果可以得到隐式的客观体验结果,例如,账号权威度对文章内容的影响、文章中修辞手法的运用对文章内容的影响等。这些影响是难以被注意到,但又实际存在的。客观先验评价结果可以将这些隐式的客观体验结果具象化,方便得出合理的评价结果。
步骤407:提取多模态特征信息中的文章词向量。
步骤408:将文章词向量输入到文本子网络中,获得文章内容的文本评价结果。
图8示出了本申请一个示例性实施例示出的文本子网络的示例性结构图。该文本子网络包括了transformer编码器81、transformer编码器82和多层感知器层84。
transformer编码器81的输入为文章词向量W1至Wn(n表示句子中词语的最大个数),输出为文章句向量S1至SL(L表示文章内容中句子的最大个数)。transformer编码器会将输入的n个文章词向量进行组合输出L个文章句向量。
transformer编码器82的输入是文章句向量S1至SL,输出为文本特征向量83,其中,文本特征向量H表示是文章内容中全部的文字对应的特征向量。transformer编码器会将输入的L个文章句向量进行组合输出文本特征向量83。
多层感知器层84的输入为文本特征向量83,输出为文本评价结果。多层感知器层84用于对输入的文本特征向量进行识别和分类,提取出其中有用的信息,并得出文本评价结果。
综上,文本评价结果是对文本的具体评价,由于输入的特征均与文本高度关联,故可以得到对文章内容中的文本的最为准确的评价结果,使得最终的评价结果在文本方面更为准确。
步骤409:提取多模态特征信息中的图像特征向量和文本特征向量,文本特征向量是文章内容中全部或部分的文字对应的特征向量。
步骤410:将图像特征向量和文本特征向量输入到排版子网络中,获得文章内容的排版评价结果。
图9示出了本申请一个示例性实施例示出的排版子网络的示例性结构图。该排版子网络包括:长短期记忆神经网络91、注意力融合层92、CNN93和多层感知层95。
长短期记忆神经网络91和注意力融合层92共同作用。长短期记忆神经网络91的输入为交错排列的图像特征向量和文本特征向量V1至VL,注意力融合层92的输入为上述融合了图像信息和文本特征向量的排版特征,输出为融合了图像信息的文本特征向量的排版特征。
CNN93的输入为交错排列的图像特征向量和文本特征向量V1至VL,输出为融合了文本信息的图像向量的排版特征。注意力融合层92的输出和CNN93的输出构成排版特征94。
多层感知器层95的输入为排版特征94,输出为排版评价结果。多层感知器层95用于对输入的排版特征进行识别和分类,提取出其中有用的信息,并得出排版评价结果。
综上,排版评价结果可以对文章内容的排版布局做出相应的评价,由于文章内容的排版布局也是属于隐式的客观体验结果。排版对文章内容的影响是难以被注意到,但又实际存在的。排版评价结果可以将这些隐式的客观体验结果具象化,方便得出合理的评价结果。
步骤411:通过图文先验优质评价模型和注意力机制,为多个评价结果赋予相应的权重值。
权重值可以根据实际需求来进行调节。
可选地,通过预训练的神经网络来确定权重值。
步骤412:通过图文先验优质评价模型和所述权重值,对多个评价结果进行加权平均,获得文章内容的多维度评价结果。
示例性的,如图10所示,图10示出了本实施例的完整的图文先验优质评价模型,具体细节可参照图5至图9对应的内容,此处不再赘述。
综上所述,本实施例通过融合文章内容的多维度的多个评价结果,覆盖了影响文章内容评价的所有因素,即使在复杂场景下,也能对文章内容进行合理的评价,获取文章内容中的优质部分和劣质部分,使得获得的评价结果更加符合实际情况,有利于商户给用户推荐优质的文章内容。
并使用四个不同的子网络来获得相应的评价结果,用户可以根据实际的需求挑选相应的评价结果进行融合,契合实际需求。
图11示出了本申请一个示例性实施例提供的图文多模态子网络训练方法的流程示意图。该方法可由图2所示的终端220或服务器240或其他计算机设备执行,该方法包括如下步骤:
步骤1101:获得图文训练集,图文训练集包括样本文章和与样本文章对应的真实图文评价结果。
样本文章的获取方法可以有多种,例如,从网络上下载样本文章,或者,接收由其他终端发送的样本文章,或者,从本地存储中获得样本文章,或者,获取实时输入的样本文章。本申请对此不作限制。
真实图文评价结果是由相关技术人员或阅读的用户对样本文章中的图文关系做出的评价结果。
本实施例中的步骤1102至步骤1104的具体过程,可以参考步骤401至步骤404。
步骤1102:提取样本文章中的样本图像信息和样本文本信息。
步骤1103:根据样本图像信息和样本文本信息,提取样本图像特征向量和样本文本特征向量。
步骤1104:将样本图像特征向量和样本文本特征向量输入图文多模态子网络,获得预测图文评价结果。
步骤1105:根据预测图文评价结果和真实图文评价结果之间的误差损失,对图文多模态子网络进行训练。
可选地,通过误差反向传播算法修正图文多模态子网络中的网络参数。
可选地,当误差损失不大于阈值时,完成图文多模态子网络的训练。阈值可由技术人员自行确定。
可选地,当图文多模态子网络的迭代次数达到阈值时,完成图文多模态子网络的训练。
综上所述,本实施例给出了一种图文多模态子网络的训练方法,可以快速构造图文多模态子网络,并且,获得的图文多模态子网络可以准确地得到对文章内容的图文多模态评价结果。
图12示出了本申请一个示例性实施例提供的客观先验特征子网络训练方法的流程示意图。该方法可由图2所示的终端220或服务器240或其他计算机设备执行,该方法包括如下步骤:
步骤1201:获得客观先验训练集,客观先验训练集包括样本文章和与样本文章对应的真实客观先验评价结果。
真实客观先验评价结果是由相关技术人员或阅读的用户对样本文章中的客观先验特征做出的评价结果。
本实施例中的步骤1202至步骤1204的具体过程,可以参考步骤401至步骤402和步骤405至步骤406。
步骤1202:提取样本文章中的样本图像信息和样本文本信息。
步骤1203:根据样本图像信息和所述样本文本信息,获得样本文章的样本客观先验特征。
步骤1204:将样本客观先验特征输入客观先验特征子网络,获得预测客观先验评价结果。
步骤1205:根据预测客观先验评价结果和真实客观先验评价结果之间的误差损失,对客观先验特征子网络进行训练。
可选地,通过误差反向传播算法修正客观先验特征子网络中的网络参数。
可选地,当误差损失不大于阈值时,完成客观先验特征子网络的训练。阈值可由技术人员自行确定。
可选地,当客观先验特征子网络的迭代次数达到阈值时,完成客观先验特征子网络的训练。
综上所述,本实施例给出了一种客观先验特征子网络的训练方法,可以快速构造客观先验特征子网络,并且,获得的客观先验特征子网络可以准确地得到对文章内容的客观先验评价结果。
图13示出了本申请一个示例性实施例提供的文本子网络训练方法的流程示意图。该方法可由图2所示的终端220或服务器240或其他计算机设备执行,该方法包括如下步骤:
步骤1301:获得文本训练集,文本训练集包括样本文章和与样本文章对应的真实文本评价结果。
真实文本评价结果是由相关技术人员或阅读的用户对样本文章中的文本做出的评价结果。
本实施例中的步骤1302至步骤1304的具体过程,可以参考步骤401至步骤402和步骤407至步骤408。
步骤1302:提取样本文章中的样本文本信息。
步骤1303:根据样本文本信息,提取样本文章词向量。
步骤1304:将样本文章词向量输入文本子网络,获得预测文本评价结果。
步骤1305:根据预测文本评价结果和真实文本评价结果之间的误差损失,对文本子网络进行训练。
可选地,通过误差反向传播算法修正文本子网络中的网络参数。
可选地,当误差损失不大于阈值时,完成文本子网络的训练。阈值可由技术人员自行确定。
可选地,当文本子网络的迭代次数达到阈值时,完成文本子网络的训练。
综上所述,本实施例给出了一种文本子网络的训练方法,可以快速构造文本子网络,并且,获得的文本子网络可以准确地得到对文章内容的文本评价结果。
图14示出了本申请一个示例性实施例提供的排版子网络训练方法的流程示意图。该方法可由图2所示的终端220或服务器240执行,该方法包括如下步骤:
步骤1401:获得排版训练集,排版训练集包括样本文章和与样本文章对应的真实排版评价结果。
真实排版评价结果是由相关技术人员或阅读的用户对样本文章中的排版做出的评价结果。
本实施例中的步骤1402至步骤1404的具体过程,可以参考步骤401至步骤402和步骤407至步骤408。
步骤1402:提取样本文章中的样本图像信息和样本文本信息。
步骤1403:根据样本图像信息和所述样本文本信息,提取样本图像特征向量和样本文本特征向量。
步骤1404:将样本图像向量和样本文本特征向量输入到排版子网络中,获得预测排版评价结果。
步骤1405:根据预测排版评价结果与真实排版评价结果之间的误差损失,对排版子网络进行训练。
可选地,通过误差反向传播算法修正排版子网络中的网络参数。
可选地,当误差损失不大于阈值时,完成排版子网络的训练。阈值可由技术人员自行确定。
可选地,当客观先验特征子网络的迭代次数达到阈值时,完成排版子网络的训练。
综上所述,本实施例给出了一种排版子网络的训练方法,可以快速构造排版子网络,并且,获得的排版子网络可以准确地得到对文章内容的文本评价结果。
图15示出了本申请一个示例性实施例示出的示例性业务架构图。该架构图分为两部分:低质过滤模块1501和优质识别模块1502。
低质过滤模块1501用于对文章内容中的低质内容和次低质内容进行过滤。其中,低质内容包括但不限于内容低俗、谣言、标题党和广告营销中的至少一种。内容低俗指文章内容不利于社会进步和用户的身心发展。谣言指文章内容中有不符合实际现实的内容。标题党指文章内容与文章标题不匹配。广告营销指文章内容中有宣传推广产品的内容。次低质内容包括但不限于无营养、套路文、八卦文、宣发文、拼接文、负面影响文、口水文和广告软文中的至少一种。无营养指文章内容可有可无,用户无法从文章内容中获得有用的信息。套路文指文章内容是按照固定的模板书写而成。八卦文指对人或事进行无端猜测的文章。宣发文指用于宣传个人、集体或地点的文章。拼接文指由其它文章的全部或片段拼接而成的文章。负面影响文是指文章内容会对个人、集体或社会带来负面的影响的文章。口水文是指未经反复推敲修饰,类似口语的文章。广告软文本质上属于广告,但用户难以直接根据文章内容直接得知该文章属于广告的范畴。可选地,低质过滤模块1501使用相应的低质过滤神经网络来实现。
优质识别模块1502用于提取文章内容中的优质部分。优质识别模块包括:特征提取层1505、特征融合层1503、多目标反馈层1504、逻辑决策层1506。
特征提取层1505从图文多模态、图文原子能力和图文嵌套排版三个方面来提取相应的特征向量。特征提取层的输入为文章内容,输出为提取到的特征向量。其中,图文多模态用于提取文章内容中图像所对应的特征系向量、文本所对应的特征向量以及图像和文本之间的关联度所对应的特征向量。图文原子能力从语言学、统计学、账号和文章风格四个方面来提取相应的特征向量。其中,语言学又包括:词法多样性、句法多样性、修辞手法和诗词引用。统计学又包括:页面高度、图片面积和字数、段落数、图片平均清晰美观。账号又包括:账号等级、账号垂直度(账号垂直度指账号发表的内容在特定领域内的专业程度)和账号收藏、点赞等消费数据。文章风格又包括:实用性、正能量和专业性。
特征融合层1503的输入为从文章内容中提取到的特征向量,输出为文章内容的先验优质内容(先验优质内容指在未经用户反馈的情况下,对文章内容中的优质部分的进行预测所获得的内容)。特征融合层将输入的特征向量进行融合,并根据融合后的特征向量来获得其中的先验优质内容。
多目标反馈层1504的输入为融合后的特征向量和多名用户的反馈信息,输出为后验优质内容(后验优质内容指在获得用户的反馈信息的情况下,对输入的特征向量进行修正后,所预测获得的内容)。多目标反馈层可以根据用户的反馈信息来修正输入的特征向量,并对修正后的特征向量进行融合,来获得其中的后验优质内容。在另一种实现方法中,多目标反馈层可以先对输入的特征的向量进行融合,获得优质内容,并根据用户的反馈信息对优质内容进行修正,获得后验优质内容。
逻辑决策层1506的输入为先验优质内容和后验优质内容,输出为文章内容的优质内容。逻辑决策层1506会对先验优质内容和后验优质内容进行综合评价,来获得文章内容的优质内容。
该实施例将图文优质内容判定这一复杂场景从图文多模态、账号、文章排版体验、文章语言学类原子特征(如文章使用的词法多样性、文章是否使用比喻句排比句等多样化句法、文章是否引用古诗词等)等多个维度进行创新性拆解,并搭建融合图文模态子网络、客观先验特征子网络、文本子网络和排版子网络的集成模型,从而完成图文先验优质内容的识别与判定。
该模型主要运用在对内容算法研发中心图文内容进行质量判定的任务中,模型准确率达到94%,图文优质内容覆盖率达到16%。在浏览器和快报端侧对识别出来的图文优质内容进行推荐加权实验,实现了将优质内容优先推荐给用户,在业务侧取得了良好的业务效果。使用本申请所述图文先验优质识别算法进行优质内容加权推荐实验后,在浏览器侧整体大盘点击pv(page view,页面浏览量)提升0.38%,大盘曝光效率提升0.43%,大盘CTR(Click-Through-Rate,点击通过率)提升0.394%,用户时长提升0.17%;同时DAU(Daily Active User,日活跃用户数量)次日留存提升0.165%,互动指标数据中人均分享提升1.705%,人均点赞提升4.215%,人均评论提升0.188%。
下面为本申请的装置实施例,对于装置实施例中未详细描述的细节,可以结合参考上述方法实施例中相应的记载,本文不再赘述。
图16示出了本申请的一个示例性实施例提供的文章内容的评价装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为计算机设备的全部或一部分,该装置1600包括:
提取模块1601,用于提取所述文章内容中的图像信息和文本信息;
评价模块1602,用于根据所述图像信息和所述文本信息,获得所述文章内容的多个评价结果,所述多个评价结果包括图文评价结果、文本评价结果、客观先验评价结果和排版评价结果中的至少两种;
评价融合模块1603,用于融合所述多个评价结果,获得所述文章内容的多维度评价结果。
在本申请的一个可选设计中,所述提取模块1601,还用于提取所述图像信息和所述文本信息中的多模态特征信息。
所述评价模块1602,还用于将所述多模态特征信息输入图文先验优质评价模型,获得所述文章内容的所述多个评价结果,所述图文先验优质评价模型用于根据所述多模态特征信息获得多维度的所述多个评价结果。
在本申请的一个可选设计中,所述提取模块1601,还用于提取所述多模态特征信息中的图像特征向量和文章词向量,所述文章词向量为所述文章内容中词语对应的特征向量。
所述评价模块1602,还用于将所述图像特征向量和所述文章词向量输入所述图文多模态子网络,获得所述文章内容的所述图文评价结果。
在本申请的一个可选设计中,所述评价模块1602,还用于通过所述图文多模态子网络,生成融合图像信息的文本特征表示和融合文本信息的图像特征表示;通过所述图文多模态子网络,融合所述文本特征表示和所述图像特征表示,生成所述文章内容的所述图文评价结果。
在本申请的一个可选设计中,所述提取模块1601,还用于提取所述多模态特征信息中的客观先验特征,所述客观先验特征包括统计学特征、语言学特征、图像质量特征、账号特征中的至少一种。
所述评价模块1602,还用于将所述客观先验特征输入所述客观先验特征子网络中,获得所述文章内容的客观先验评价结果。
在本申请的一个可选设计中,所述提取模块1601,还用于提取所述多模态特征信息中的文章词向量。
所述评价模块1602,还用于将所述文章词向量输入到所述文本子网络中,获得所述文章内容的所述文本评价结果。
在本申请的一个可选设计中,所述提取模块1601,还用于提取所述多模态特征信息中的图像特征向量和文本特征向量,所述文本特征向量是所述文章内容中全部或部分的文字对应的特征向量。
所述评价模块1602,还用于将所述图像特征向量和所述文本特征向量输入到所述排版子网络中,获得所述文章内容的所述排版评价结果。
在本申请的一个可选设计中,所述评价融合模块1603,还用于通过图文先验优质评价模型和注意力机制,为所述多个评价结果赋予相应的权重值;通过图文先验优质评价模型和所述权重值,对所述多个评价结果进行加权平均,获得所述文章内容的所述多维度评价结果。
在本申请的一个可选设计中,所述装置还包括:训练模块1604。
所述训练模块1604,用于获得图文训练集,所述图文训练集包括样本文章和与样本文章对应的真实图文评价结果;提取所述样本文章中的样本图像信息和样本文本信息;根据所述样本图像信息和所述样本文本信息,提取样本图像特征向量和样本文本特征向量;将所述样本图像特征向量和所述样本文本特征向量输入所述图文多模态子网络,获得预测图文评价结果;根据所述预测图文评价结果和所述真实图文评价结果之间的误差损失,对所述图文多模态子网络进行训练。
在本申请的一个可选设计中,所述训练模块1604,还用于获得客观先验训练集,所述客观先验训练集包括样本文章和与样本文章对应的真实客观先验评价结果;提取样本文章中的样本图像信息和样本文本信息;根据所述样本图像信息和所述样本文本信息,获得所述样本文章的样本客观先验特征;将所述样本客观先验特征输入所述客观先验特征子网络,获得预测客观先验评价结果;根据所述预测客观先验评价结果和所述真实客观先验评价结果之间的误差损失,对所述客观先验特征子网络进行训练。
在本申请的一个可选设计中,所述训练模块1604,还用于获得文本训练集,所述文本训练集包括样本文章和于样本文章对应的真实文本评价结果;提取所述样本文章中的样本文本信息;根据所述样本文本信息,提取样本文章词向量;将所述样本文章词向量输入所述文本子网络,获得预测文本评价结果;根据所述预测文本评价结果和所述真实文本评价结果之间的误差损失,对所述文本子网络进行训练。
在本申请的一个可选设计中,所述训练模块1604,还用于获得排版训练集,所述排版训练集包括样本文章和与样本文章对应的真实排版评价结果;提取所述样本文章中的样本图像信息和样本文本信息;根据所述样本图像信息和所述样本文本信息,提取样本图像特征向量和样本文本特征向量;将所述样本图像向量和所述样本文本特征向量输入到所述排版子网络中,获得预测排版评价结果;根据所述预测排版评价结果与所述真实排版评价结果之间的误差损失,对所述排版子网络进行训练。
综上所述,本实施例通过融合文章内容的多维度的多个评价结果,从多个维度对文章内容做出相应的评价,使得最终得到的评价结果更加贴合用户的实际阅读体验。另一方面,由于最终的评价结果综合了多个维度的评价,可以有效减少错误的评价结果,提高整个方案的鲁棒性。
图17是根据一示例性实施例示出的一种计算机设备的结构示意图。所述计算机设备1700包括中央处理单元(Central Processing Unit,CPU)1701、包括随机存取存储器(Random Access Memory,RAM)1702和只读存储器(Read-Only Memory,ROM)1703的系统存储器1704,以及连接系统存储器1704和中央处理单元1701的系统总线1705。所述计算机设备1700还包括帮助计算机设备内的各个器件之间传输信息的基本输入/输出系统(Input/Output,I/O系统)1706,和用于存储操作系统1713、应用程序1714和其他程序模块1715的大容量存储设备1707。
所述基本输入/输出系统1706包括有用于显示信息的显示器1708和用于用户输入信息的诸如鼠标、键盘之类的输入设备1709。其中所述显示器1708和输入设备1709都通过连接到系统总线1705的输入输出控制器1710连接到中央处理单元1701。所述基本输入/输出系统1706还可以包括输入输出控制器1710以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1710还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备1707通过连接到系统总线1705的大容量存储控制器(未示出)连接到中央处理单元1701。所述大容量存储设备1707及其相关联的计算机设备可读介质为计算机设备1700提供非易失性存储。也就是说,所述大容量存储设备1707可以包括诸如硬盘或者只读光盘(Compact Disc Read-Only Memory,CD-ROM)驱动器之类的计算机设备可读介质(未示出)。
不失一般性,所述计算机设备可读介质可以包括计算机设备存储介质和通信介质。计算机设备存储介质包括以用于存储诸如计算机设备可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机设备存储介质包括RAM、ROM、可擦除可编程只读存储器(Erasable Programmable ReadOnly Memory,EPROM)、带电可擦可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,EEPROM),CD-ROM、数字视频光盘(Digital Video Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机设备存储介质不局限于上述几种。上述的系统存储器1704和大容量存储设备1707可以统称为存储器。
根据本公开的各种实施例,所述计算机设备1700还可以通过诸如因特网等网络连接到网络上的远程计算机设备运行。也即计算机设备1700可以通过连接在所述系统总线1705上的网络接口单元1712连接到网络1711,或者说,也可以使用网络接口单元1712来连接到其他类型的网络或远程计算机设备系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,中央处理器1701通过执行该一个或一个以上程序来实现上述文章内容的评价方法的全部或者部分步骤。
在示例性实施例中,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述各个方法实施例提供的文章内容的评价方法。
本申请还提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述方法实施例提供的文章内容的评价方法。
根据本申请的另一方面,提供了一种计算机程序产品或计算机程序,上述计算机程序产品或计算机程序包括计算机指令,上述计算机指令存储在计算机可读存储介质中。计算机设备的处理器从上述计算机可读存储介质读取上述计算机指令,上述处理器执行上述计算机指令,使得上述计算机设备执行如上方面所述的文章内容的评价方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种文章内容的评价方法,其特征在于,所述方法包括:
提取所述文章内容中的图像信息和文本信息;
根据所述图像信息和所述文本信息,获得所述文章内容的多个评价结果,所述多个评价结果包括图文评价结果、文本评价结果、客观先验评价结果和排版评价结果中的至少两种;
融合所述多个评价结果,获得所述文章内容的多维度评价结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述图像信息和所述文本信息,获得所述文章内容的多个评价结果,包括:
提取所述图像信息和所述文本信息中的多模态特征信息;
将所述多模态特征信息输入图文先验优质评价模型,获得所述文章内容的所述多个评价结果,所述图文先验优质评价模型用于根据所述多模态特征信息获得多维度的所述多个评价结果。
3.根据权利要求2所述的方法,其特征在于,所述图文先验优质评价模型包括:图文多模态子网络;所述多个评价结果包括:图文评价结果;
所述将所述多模态特征信息输入图文先验优质评价模型,获得所述文章内容的所述多个评价结果,包括:
提取所述多模态特征信息中的图像特征向量和文本特征向量,所述文本特征向量为所述文章内容中全部或部分的文字对应的特征向量;
将所述图像特征向量和所述文本特征向量输入所述图文多模态子网络,获得所述文章内容的所述图文评价结果。
4.根据权利要求3所述的方法,其特征在于,所述将所述图像特征向量和所述文章词向量输入所述图文多模态子网络,获得所述文章内容的所述图文评价结果,包括:
通过所述图文多模态子网络,生成融合图像信息的文本特征表示和融合文本信息的图像特征表示;
通过所述图文多模态子网络,将所述文本特征表示和所述图像特征表示进行融合,生成所述文章内容的所述图文评价结果。
5.根据权利要求2所述的方法,其特征在于,所述图文先验优质评价模型还包括:客观先验特征子网络;所述多个评价结果包括:客观先验评价结果;
所述将所述多模态特征信息输入图文先验优质评价模型,获得所述文章内容的所述多个评价结果,包括:
提取所述多模态特征信息中的客观先验特征,所述客观先验特征包括统计学特征、语言学特征、图像质量特征、账号特征中的至少一种;
将所述客观先验特征输入所述客观先验特征子网络中,获得所述文章内容的客观先验评价结果。
6.根据权利要求2所述的方法,其特征在于,所述图文先验优质评价模型还包括:文本子网络;所述多个评价结果还包括:文本评价结果;
所述将所述多模态特征信息输入图文先验优质评价模型,获得所述文章内容的所述多个评价结果,包括:
提取所述多模态特征信息中的文章词向量;
将所述文章词向量输入到所述文本子网络中,获得所述文章内容的所述文本评价结果。
7.根据权利要求2所述的方法,其特征在于,所述图文先验优质评价模型还包括:排版子网络;所述多个评价结果包括:排版评价结果;
所述将所述多模态特征信息输入图文先验优质评价模型,获得所述待测文章的多个评价结果,包括:
提取所述多模态特征信息中的图像特征向量和文本特征向量,所述文本特征向量是所述文章内容中全部或部分的文字对应的特征向量;
将所述图像特征向量和所述文本特征向量输入到所述排版子网络中,获得所述文章内容的所述排版评价结果。
8.根据权利要求1至7任一所述的方法,其特征在于,所述融合所述多个评价结果,获得所述文章内容的多维度评价结果,包括:
通过图文先验优质评价模型和注意力机制,为所述多个评价结果赋予相应的权重值;
通过图文先验优质评价模型和所述权重值,对所述多个评价结果进行加权计算,获得所述文章内容的所述多维度评价结果。
9.根据权利要求2至4任一所述的方法,其特征在于,所述图文多模态子网络是通过以下方法训练而成的;
获得图文训练集,所述图文训练集包括样本文章和与所述样本文章对应的真实图文评价结果;
提取所述样本文章中的样本图像信息和样本文本信息;
根据所述样本图像信息和所述样本文本信息,提取样本图像特征向量和样本文本特征向量;
将所述样本图像特征向量和所述样本文本特征向量输入所述图文多模态子网络,获得预测图文评价结果;
根据所述预测图文评价结果和所述真实图文评价结果之间的误差损失,对所述图文多模态子网络进行训练。
10.根据权利要求5所述的方法,其特征在于,所述客观先验特征子网络是通过以下方法训练而成的;
获得客观先验训练集,所述客观先验训练集包括样本文章和与所述样本文章对应的真实客观先验评价结果;
提取样本文章中的样本图像信息和样本文本信息;
根据所述样本图像信息和所述样本文本信息,获得所述样本文章的样本客观先验特征;
将所述样本客观先验特征输入所述客观先验特征子网络,获得预测客观先验评价结果;
根据所述预测客观先验评价结果和所述真实客观先验评价结果之间的误差损失,对所述客观先验特征子网络进行训练。
11.根据权利要求6所述的方法,其特征在于,所述文本子网络是通过以下方法训练而成的;
获得文本训练集,所述文本训练集包括样本文章和于所述样本文章对应的真实文本评价结果;
提取所述样本文章中的样本文本信息;
根据所述样本文本信息,提取样本文章词向量;
将所述样本文章词向量输入所述文本子网络,获得预测文本评价结果;
根据所述预测文本评价结果和所述真实文本评价结果之间的误差损失,对所述文本子网络进行训练。
12.根据权利要求7所述的方法,其特征在于,所述排版子网络是通过以下方法训练而成的;
获得排版训练集,所述排版训练集包括样本文章和与所述样本文章对应的真实排版评价结果;
提取所述样本文章中的样本图像信息和样本文本信息;
根据所述样本图像信息和所述样本文本信息,提取样本图像特征向量和样本文本特征向量;
将所述样本图像向量和所述样本文本特征向量输入到所述排版子网络中,获得预测排版评价结果;
根据所述预测排版评价结果与所述真实排版评价结果之间的误差损失,对所述排版子网络进行训练。
13.一种文章内容的评价装置,其特征在于,所述装置包括:
提取模块,用于提取所述文章内容中的图像信息和文本信息;
评价模块,用于根据所述图像信息和所述文本信息,获得所述文章内容的多个评价结果,所述多个评价结果包括图文评价结果、文本评价结果、客观先验评价结果和排版评价结果中的至少两种;
评价融合模块,用于融合所述多个评价结果,获得所述文章内容的多维度评价结果。
14.一种计算机设备,其特征在于,所述计算机设备包括:处理器和存储器,所述存储器存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现如权利要求1至12任一所述的文章内容的评价方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序由处理器加载并执行以实现如权利要求1至12任一所述的文章内容的评价方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110125965.3A CN114818691A (zh) | 2021-01-29 | 2021-01-29 | 文章内容的评价方法、装置、设备及介质 |
PCT/CN2022/074684 WO2022161470A1 (zh) | 2021-01-29 | 2022-01-28 | 内容的评价方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110125965.3A CN114818691A (zh) | 2021-01-29 | 2021-01-29 | 文章内容的评价方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114818691A true CN114818691A (zh) | 2022-07-29 |
Family
ID=82526671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110125965.3A Pending CN114818691A (zh) | 2021-01-29 | 2021-01-29 | 文章内容的评价方法、装置、设备及介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114818691A (zh) |
WO (1) | WO2022161470A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116346697A (zh) * | 2023-05-30 | 2023-06-27 | 亚信科技(中国)有限公司 | 业务质量评测方法、装置及电子设备 |
CN116578763A (zh) * | 2023-07-11 | 2023-08-11 | 卓谨信息科技(常州)有限公司 | 基于生成式ai认知模型的多源信息展览系统 |
CN116719930A (zh) * | 2023-04-28 | 2023-09-08 | 西安工程大学 | 基于视觉方面注意的多模态情感分析方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115170250B (zh) * | 2022-09-02 | 2022-12-30 | 杭州洋驼网络科技有限公司 | 一种电商平台的物品信息管理方法以及装置 |
CN116011893B (zh) * | 2023-03-27 | 2023-05-26 | 深圳新闻网传媒股份有限公司 | 基于垂直领域的市区融媒评价方法、装置及电子设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2634020A1 (en) * | 2008-05-30 | 2009-11-30 | Biao Wang | System and method for multi-level online learning |
US20120084155A1 (en) * | 2010-10-01 | 2012-04-05 | Yahoo! Inc. | Presentation of content based on utility |
CN111311554B (zh) * | 2020-01-21 | 2023-09-01 | 腾讯科技(深圳)有限公司 | 图文内容的内容质量确定方法、装置、设备及存储介质 |
CN111368075A (zh) * | 2020-02-27 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 文章质量预测方法、装置、电子设备及存储介质 |
CN111488931B (zh) * | 2020-04-10 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 文章质量评估方法、文章推荐方法及其对应的装置 |
CN112069802A (zh) * | 2020-08-26 | 2020-12-11 | 北京小米松果电子有限公司 | 文章质量评分方法、文章质量评分装置及存储介质 |
CN113407663B (zh) * | 2020-11-05 | 2024-03-15 | 腾讯科技(深圳)有限公司 | 基于人工智能的图文内容质量识别方法和装置 |
-
2021
- 2021-01-29 CN CN202110125965.3A patent/CN114818691A/zh active Pending
-
2022
- 2022-01-28 WO PCT/CN2022/074684 patent/WO2022161470A1/zh unknown
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116719930A (zh) * | 2023-04-28 | 2023-09-08 | 西安工程大学 | 基于视觉方面注意的多模态情感分析方法 |
CN116346697A (zh) * | 2023-05-30 | 2023-06-27 | 亚信科技(中国)有限公司 | 业务质量评测方法、装置及电子设备 |
CN116346697B (zh) * | 2023-05-30 | 2023-09-19 | 亚信科技(中国)有限公司 | 通信业务质量评测方法、装置及电子设备 |
CN116578763A (zh) * | 2023-07-11 | 2023-08-11 | 卓谨信息科技(常州)有限公司 | 基于生成式ai认知模型的多源信息展览系统 |
CN116578763B (zh) * | 2023-07-11 | 2023-09-15 | 卓谨信息科技(常州)有限公司 | 基于生成式ai认知模型的多源信息展览系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2022161470A1 (zh) | 2022-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444709B (zh) | 文本分类方法、装置、存储介质及设备 | |
CN110717017B (zh) | 一种处理语料的方法 | |
CN108319686B (zh) | 基于受限文本空间的对抗性跨媒体检索方法 | |
WO2022007823A1 (zh) | 一种文本数据处理方法及装置 | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
CN114818691A (zh) | 文章内容的评价方法、装置、设备及介质 | |
CN111026861B (zh) | 文本摘要的生成方法、训练方法、装置、设备及介质 | |
CN113590849A (zh) | 多媒体资源分类模型训练方法和多媒体资源推荐方法 | |
CN109033068A (zh) | 基于注意力机制的用于阅读理解的方法、装置和电子设备 | |
CN112163165A (zh) | 信息推荐方法、装置、设备及计算机可读存储介质 | |
CN111461174B (zh) | 多层次注意力机制的多模态标签推荐模型构建方法及装置 | |
CN114565104A (zh) | 语言模型的预训练方法、结果推荐方法及相关装置 | |
Liang et al. | A text GAN framework for creative essay recommendation | |
CN113761153B (zh) | 基于图片的问答处理方法、装置、可读介质及电子设备 | |
JP7315065B2 (ja) | 質問生成装置、質問生成方法及びプログラム | |
CN111488931A (zh) | 文章质量评估方法、文章推荐方法及其对应的装置 | |
Liu et al. | Fact-based visual question answering via dual-process system | |
CN116385937A (zh) | 一种基于多粒度的跨模态交互框架解决视频问答的方法及系统 | |
CN112131345A (zh) | 文本质量的识别方法、装置、设备及存储介质 | |
Meddeb et al. | Personalized smart learning recommendation system for arabic users in smart campus | |
Hao et al. | Sentiment recognition and analysis method of official document text based on BERT–SVM model | |
CN113326374B (zh) | 基于特征增强的短文本情感分类方法及系统 | |
CN117033609B (zh) | 文本视觉问答方法、装置、计算机设备和存储介质 | |
Wu et al. | Machine translation of English speech: Comparison of multiple algorithms | |
Qin | A study on automatic correction of English grammar errors based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |