CN105260488A - 一种用于语义理解的文本序列迭代方法 - Google Patents

一种用于语义理解的文本序列迭代方法 Download PDF

Info

Publication number
CN105260488A
CN105260488A CN201510861689.1A CN201510861689A CN105260488A CN 105260488 A CN105260488 A CN 105260488A CN 201510861689 A CN201510861689 A CN 201510861689A CN 105260488 A CN105260488 A CN 105260488A
Authority
CN
China
Prior art keywords
tlv triple
text
real number
background knowledge
knowledge storehouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510861689.1A
Other languages
English (en)
Other versions
CN105260488B (zh
Inventor
秦兵
刘挺
张牧宇
郑茂
李家琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology Institute of artificial intelligence Co.,Ltd.
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201510861689.1A priority Critical patent/CN105260488B/zh
Publication of CN105260488A publication Critical patent/CN105260488A/zh
Application granted granted Critical
Publication of CN105260488B publication Critical patent/CN105260488B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3335Syntactic pre-processing, e.g. stopword elimination, stemming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种用于语义理解的文本序列迭代方法,本发明涉及语义理解的文本序列迭代方法。本发明的目的是为了解决现有技术在语义相似度计算方面采用爬取搜索引擎检索数的方法,导致效率较低和重现代价过大,以及依赖于本体库和语义资源,需要人工校对或者纯人工构建,可扩展性方面有待提高,一定程度上限制了实际应用的问题。通过以下技术方案实现的:一、抽取原文三元组和背景知识库三元组;二、计算原文三元组的实数向量和背景知识库三元组的实数向量;三、计算语义相似度;四、计算背景知识库三元组的实数向量的权重值;五、构成序列迭代模型;六、采用支持向量机对原文进行文本分类,并对分类性能进行评估。本发明应用于计算机领域。

Description

一种用于语义理解的文本序列迭代方法
技术领域
本发明涉及语义理解的文本序列迭代方法。
背景技术
在传统的自然语言和文本挖掘[1](KaoA,PoteetSR.Naturallanguageprocessingandtextmining[M].SpringerScience&BusinessMedia,2007.)的研究中,将主要精力集中于词汇、短语和句子级别,但是随着应用场景逐渐复杂和技术的推陈出新,近年来篇章语义分析受到越来越多的关注并且逐渐成为当下的研究热点。
篇章语义分析将篇章作为研究对象,研究目标是分析文字背后的语义。在已有的语义分析研究中,大部分工作着眼于文本本身,忽略了与文本内容有关的背景信息。然而,在作者写文本时,为了更好地突出主体内容,通常会省略一些相关的背景信息,这样使得文章较为简洁的同时也导致了一定程度的信息缺失。可见,文本中某些信息的省略或缺失不会影响人类的阅读理解,然而对机器而言,由于缺少必要的背景知识,这些省略或缺失的信息则有可能影响整篇文章的语义分析结果。
目前来看,篇章语义分析的研究尚处于起步阶段,大部分研究人员侧重于文本内部信息的研究。在篇章结构分析方面,CarlsonL等[2](CarlsonL,MarcuD,OkurowskiME.Buildingadiscourse-taggedcorpusintheframeworkofrhetoricalstructuretheory[M].SpringerNetherlands,2003.)提出基RST理论的修辞结构理论树库(RhetoricalStructureTheoryDiscourseTreebank),PrasadR等[3](PrasadR,DineshN,LeeA,etal.ThePennDiscourseTreeBank2.0[C]//LREC.2008.)提出基于PDTB体系的宾州篇章树库(PennDiscourseTreeBank)。以上这些工作均取得了显著地成功,但是他们忽略了文本外部信息对文本挖掘的积极作用。
近年来,将文本外部信息引入文本内部的相关研究鲜有成果,其中具有代表性的研究是2014年Zhang等[4](ZhangM,QinB,LiuT,etal.TriplebasedBackgroundKnowledgeRankingforDocumentEnrichment[J].)提出用图模型计算外部知识与文本内容的语义关联,将外部知识作为文本内容的补充。该研究在英文上开展,分别将YAGO知识库和Reverb抽取结果作为外部知识库,利用了搜索引擎计算外部知识之间的语义相似度,通过图模型的迭代,计算出外部知识与文本的语义相关度,取得了较好的结果。但是该研究在语义相似度计算方面采用爬取搜索引擎检索数的方法,导致效率较低和重现代价过大等问题,并且该研究将外部知识引入文本后没有给出具体的应用场景和相关实验结果。
此外,引入外部知识还有两个研究方向。一是以维基百科、百度百科等大型公开百科型知识库为资源,将百科页面中的内容作为外部信息引入到文本中,辅助文本挖掘的相关任务。Cucerzan将维基百科中相关页面的信息应用于命名实体消岐的研究中[5](CucerzanS.Large-ScaleNamedEntityDisambiguationBasedonWikipediaData[C]//EMNLP-CoNLL.2007,7:708-716.),之后,ZhengyanHe等在此基础上用维基百科的文本信息学习命名实体的实数向量表示[6](HeZ,LiuS,LiM,etal.LearningEntityRepresentationforEntityDisambiguation[C]//ACL(2).2013:30-34.),进而对命名实体进行消岐。2010年ZhichengZheng等将维基百科作为知识库[7](ZhengZ,LiF,HuangM,etal.Learningtolinkentitieswithknowledgebase[C]//HumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics.AssociationforComputationalLinguistics,2010:483-491.),结合排序学习算法在实体链指任务上取得了突出的结果。Kataria等利用知识库的非结构化文本信息和页面的类别信息训练层次化主题模型(Wikipedia-basedPachinkoAllocationModel)[8](KatariaSS,KumarKS,RastogiRR,etal.Entitydisambiguationwithhierarchicaltopicmodels[C]//Proceedingsofthe17thACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining.ACM,2011:1037-1045.),在命名实体识别中大幅度超过state-of-the-art。上述工作利用百科知识库的非结构化文本信息和结构化信息计算语义相似度,不过均存在实体的覆盖率较高,准确率较低的情况。
第二个相关研究是将本体库和WordNet[9](Fellbaum,C.,ed.(1998),WordNet:anelectroniclexicaldatabase,MITPress.)等外部语义资源用于自动文摘或者词汇和短语级别的语义相似度计算。Li等开发了Ontology-enrichedMulti-DocumentSummarization(OMS)系统进行多文档自动文摘[10](LiL,WangD,ShenC,etal.Ontology-enrichedmulti-documentsummarizationindisastermanagement[C]//Proceedingsofthe33rdinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval.ACM,2010:819-820.);Wu和Liu人工构建限定领域的本体库[11](Ontology-basedtextsummarizationforbusinessnewsarticles[J].2003.),根据本体库中的树形结构抽取句子特征,完成自动文摘。Meng等总结了在WordNet上的语义相似度计算方法[12](MengL,HuangR,GuJ.Areviewofsemanticsimilaritymeasuresinwordnet[J].InternationalJournalofHybridInformationTechnology,2013,6(1):1-12.)。此一类的相关工作依赖于本体库和语义资源,这些资源目前大多需要人工校对或者纯人工构建,可扩展性方面有待提高,一定程度上限制了这方面研究的实际应用。
参考已有研究的相关优势和劣势,本文抽取结构化信息构建外部知识库,通过利用自动抽取技术规避了可扩展性方面的问题,提出序列迭代模型并优化算法效率。
语义分析的首要步骤是将文本中的主要信息合理、全面的呈现出来。传统的表示方式通常用Bag-of-words模型,该模型忽略了文本内容的顺序,对篇章分析不利。从语义理解的角度来看,文本表示方式的合理性取决于其是否接近人脑对文本的建模方式。也就是说,如果能近似的刻画出人脑对文本的建模结构,就找到了文本表示的较好形式化模型。为此,我们查找了相关文献和书籍,从中找到了一些宝贵的可借鉴信息。自然语言处理作为语言学、心理学和计算科学交叉的学科,我们从认知心理学中找到了相关研究成果。认知心理学[13](GroomeD.Anintroductiontocognitivepsychology:Processesanddisorders[M].PsychologyPress,2013.)中一个重要的分支是人类对知识的加工和贮存,该领域的研究在18世纪就已经开展并一直延续至今。认知心理学家们通过一系列语义提示测试,构建起了形式模型来描述人脑中的知识结构并模拟出知识提取的过程。一类广泛使用的形式模型是符号网络模型[14](PosnerMI,RothbartMK.Researchonattentionnetworksasamodelfortheintegrationofpsychologicalscience[J].Annu.Rev.Psychol.,2007,58:1-23.),如图2所示。
在图2中可能会造成一个假象:知识的成分就是词的组合,其实不然,经过心理学家多年的研究发现,严格来讲,知识的成分是概念。在符号网络中,概念通常用结点来表示,结点通过箭头与另一个结点联结,表明概念之间存在某种联系。在该模型中,知识的激发过程称为“记忆搜索”活动[15](ThorndykePW.Cognitivestructuresincomprehensionandmemoryofnarrativediscourse[J].Cognitivepsychology,1977,9(1):77-110.),类似于网络结点之间的搜索过程。该搜索过程是逐个结点进行,如果搜索过的知识可以回答我们一个特定的问题,那么搜索停止,否则该过程将继续直到发现答案或者放弃。Hannigan等心理学家的研究成果进一步表明[16](OrigitanoT,HanniganJ,CollinsMA.Ratbrainsalsolinolandblood-brainbarrier[J].Brainresearch,1981,224(2):446-451.),在知识的提取活动中需要动用情景记忆和语义记忆,通俗来讲就是情景知识和常识性知识。例如,“自行车是交通工具”和“自行车有车轮”都是常识性知识,“我的自行车是蓝色”显然是情景知识。
除了知识的来源和搜索机制,知识的组织形式也早有研究成果出现。R.Quillian(1968)的博士论文中,最早提出了可教的语言理解者(Teachable-LanguageComprehender,简称TLC)这一模型[17](CollinsAM,QuillianMR.Retrievaltimefromsemanticmemory[J].Journalofverballearningandverbalbehavior,1969,8(2):240-247.),该模型提供了一个良好的开端,其假设已被应用与许多模型中。TLC假设指出语义知识通过图3所示的方式来表述,并且知识的检索是由交叉搜索(intersectionsearch)来完成。该搜索开始于特点节点,然后同一时间扫描与开始结点相联结的所有节点,这种搜索假设没有能量的限制也就是没有扫描数量限制。
根据上述的认知心理学相关研究,确定了知识的组织形式和激发方式,下面讨论什么方式可以合理的将知识呈现出来。词汇来表达知识有其不可回避的问题,例如词汇的一词多义情况,较难准确表达概念意义,如果用短语表达虽然一定程度上弥补了这一问题,但是短语的语义依然会受到不同情境的影响。本文中采用三元组的形式表示知识的概念,减少了在应用场景中一词多义带来的影响,该表示形式也是目前语义知识库的主流表示方案[18](HoffartJ,SuchanekFM,BerberichK,etal.YAGO2:AspatiallyandtemporallyenhancedknowledgebasefromWikipedia[C]//ProceedingsoftheTwenty-ThirdinternationaljointconferenceonArtificialIntelligence.AAAIPress,2013:3161-3165.)。
隐含狄利克雷(LDA)模型是近年来研究较多的一种主题模型,由Blei等于2003年提出[20](BleiDM,NgAY,JordanMI.Latentdirichletallocation[J].theJournalofmachineLearningresearch,2003,3:993-1022.)。其主要特点是能够计算出文本的潜在语义信息,可将不定长度的文本映射到固定维度的潜在语义空间中。该模型是无监督的机器学习技术,可以抽象为三层贝叶斯模型,且假设文本是由多个潜在的主题生成。模型的输入为生文本语料,输出为每篇文本的主题分布θm和各主题下的词汇分布Φk。
发明内容
本发明的目的是为了解决现有技术在语义相似度计算方面采用爬取搜索引擎检索数的方法,导致效率较低和重现代价过大,以及依赖于本体库和语义资源,需要人工校对或者纯人工构建,可扩展性方面有待提高,一定程度上限制了实际应用的问题,而提出的一种用于语义理解的文本序列迭代方法。
上述的发明目的是通过以下技术方案实现的:
步骤一、抽取原文三元组和背景知识库三元组;
步骤二、计算原文三元组的实数向量和背景知识库三元组的实数向量;
步骤三、设置原文三元组的权重值为1,将原文三元组作为搜索起始点,通过Cosinesimilarity计算原文三元组的实数向量与背景知识库三元组的实数向量语义相似度;Cosinesimilarity为余弦相似度;
步骤四、根据原文三元组的实数向量与背景知识库三元组的实数向量的语义相似度的大小,对背景知识库三元组的实数向量按照语义相似度从大到小进行排序,得到从大到小排序的背景知识库三元组,计算背景知识库三元组的实数向量的权重值;
步骤五、将原文三元组按照T1、T2……TM进行排序,M为正整数,将排序后的原文三元组按T1、T2……TM的顺序依次对步骤四得到的从大到小排序的背景知识库三元组进行激发,重复执行步骤四,直至计算完所有原文三元组,构成序列迭代模型;
步骤六、将序列迭代模型中计算出的背景知识库三元组的实数向量的权重值从高到低进行排序,前N个背景知识库三元组作为原文的外部特征加入到原文的实数向量中,N为正整数,采用支持向量机对原文进行文本分类,并对分类性能进行评估。
发明效果
采用本发明的一种基于文本序列迭代模型的篇章语义理解方法,结合外部知识库,提出一种文本表示模型,并在该模型上设计一种高效算法,将外部知识库中的信息引入文本。首先将文本内部的信息与外部知识库中的信息抽象表示在一个序列模型中,随后模拟人的阅读和认知习惯,迭代的计算外部知识库中的信息与文本的语义相关性,根据最后一次迭代计算出的语义相关性对外部知识进行排序,并采用PN和MAP这两个排序评价指标进行评价。
1、针对某些研究在语义相似度计算方面采用爬取搜索引擎检索数的方法,导致效率较低和重现代价过大等问题,本文通过将三元组转换成实数向量,并通过余弦相似度来表示语义相似度。该方法效率较高,便于重现。
2、某些相关工作依赖于本体库和语义资源,这些资源目前大多需要人工校对或者纯人工构建,可扩展性方面有待提高,一定程度上限制了这方面研究的实际应用。本文中采用了一种自动抽取三元组来构建背景知识库的方法,不需要人工构建知识库,也不需要人工校对,大大节省人力。
3、背景三元组排序对比实验表明,本文提出的序列迭代模型排序性能明显优于其他方法,在P5、MAP(5)、MAP(10)等指标均超过现有方法10%,P10超过7%。
4、同时为了验证引入外部知识的效果,将该模型应用在文本分类任务上,把引入的外部知识作为文本特征的补充,并与未引入外部知识的分类方法进行对比,实验结果显示,引入外部知识的情况下,文本分类的F值提高1.5%,也说明了外部知识确实对文本信息的理解有帮助。
附图说明
图1为本发明流程图;
图2为符号网络模型图;
图3为TLC模型图;
图4为序列迭代模型图,T1~TM表示文本中的三元组,Si,j表示第i次迭代、第j条背景知识库三元组的权重值(具体的计算方法在4.3中详述),箭头表示激发过程,且每条文本中的三元组(Ti)均存在指向背景知识库中所有三元组的箭头,i和j为正整数,从1开始;
图5为P5、P10随L不同取值的变化趋势图,P5为单次搜索结果中前5条的准确率,P10为单次搜索结果中前10条的准确率,L用于表示所选取的权重值最高的前L条背景三元组,L和N为正整数;
图6为MAP(5)、MAP(10)随L不同取值的变化趋势图,MAP(5)为单次搜索结果中前5条的平均准确率,MAP(10)为单次搜索结果中前10条的平均准确率,L用于表示所选取的权重值最高的前L条背景三元组。
具体实施方式
具体实施方式一:结合图1说明本实施方式,本实施方式的一种用于语义理解的文本序列迭代方法,具体是按照以下步骤制备的:
步骤一、抽取背景知识库三元组和原文三元组,原文用于验证模型;
知识概念顾名思义是表达一个完整概念信息的单元,如4.2所述,在该模型中用三元组的形式表达。为了使三元组能充分表达文本中的语义信息,我们利用语义角色标注(SRL)对文本中的句子进行主干信息抽取[19](LiuT,CheW,LiS,etal.Semanticrolelableingsystemusingmaximumentropyclassifier[C]//ProceedingsoftheNinthConferenceonComputationalNaturalLanguageLearning.AssociationforComputationalLinguistics,2005:189-192.),主要是抽取A0-谓词-A1这样的三元组,通俗来讲可以认为是抽取句子的主、谓、宾信息。抽取结果举例如下,“我国航空工业-实现-跨越式发展”,“伊朗海军-试射-新型鱼雷”;
步骤二、计算原文三元组的实数向量和背景知识库三元组的实数向量(采用LDA、VSM、word2vec等模型);
步骤三、设置原文三元组的权重值为1,将原文三元组作为搜索起始点,通过Cosinesimilarity计算原文三元组的实数向量与背景知识库三元组的实数向量语义相似度;Cosinesimilarity为余弦相似度;
步骤四、根据原文三元组的实数向量与背景知识库三元组的实数向量的语义相似度的大小,对背景知识库三元组的实数向量按照语义相似度从大到小进行排序,得到从大到小排序的背景知识库三元组,计算背景知识库三元组的实数向量的权重值;
步骤五、将原文三元组按照T1、T2……TM进行排序,M为正整数,将排序后的原文三元组由T1、T2……TM的顺序依次对步骤四得到的从大到小排序的背景知识库三元组进行激发,重复执行步骤四,直至计算完所有原文三元组,构成序列迭代模型;
步骤六、将序列迭代模型中计算出的背景知识库三元组的实数向量的权重值从高到低进行排序,前N个(例如,权重值最高的前20个)背景知识库三元组作为原文的外部特征加入到原文的实数向量(可以通过VSM、LDA、tf-idf等模型得到文本实数向量)中,N为正整数,采用支持向量机(SVM)对原文进行文本分类,并对分类性能进行评估(计算precision、recall、F-measure)。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤一中抽取背景知识库三元组和原文三元组;具体过程为:
实验数据集来自搜狗实验室提供的互联网文本分类语料库,经过初步过滤(人为设置对其进行过滤,过滤掉文章中的非法字符,以及文字长度过段的文章,)可用文本数量为17,199篇,采用互联网文本分类语料库中9个类别文本,分别是财经、IT、健康、体育、旅游、教育、招聘、文化和军事,每类文本随机抽取200篇作为测试语料,共1800篇原文,抽取工具采用哈尔滨工业大学社会计算与信息检索研究中心LTP语言技术平台,利用该平台的语义角色标注工具抽取三元组;
对互联网文本分类语料库中其余文本(17199-1800)抽取背景三元组,随机选取2664条背景三元组,组成背景知识库,抽取工具采用哈尔滨工业大学社会计算与信息检索研究中心LTP语言技术平台,利用该平台的语义角色标注工具抽取三元组。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤三中设置原文三元组的权重值为1,将原文三元组作为搜索起始点,通过Cosinesimilarity(余弦相似度)计算原文三元组的实数向量与背景知识库三元组的实数向量语义相似度;具体过程为:
原文三元组的实数向量与背景知识库三元组的实数向量语义相似度公式为:
c o s ( θ ) = A · B | | A | | * | | B | | = Σ i = 1 n A i * B i Σ i = 1 n ( A i ) 2 * Σ i = 1 n ( B i ) 2
式中,A为原文三元组的实数向量,B为背景知识库三元组的实数向量,θ为A与B的夹角,·为向量的内积,*为乘法,n为向量的维数,为正整数,||A||为A的范数,||B||为B的范数,Ai为第i个原文三元组的实数向量,Bi为第i个背景知识库三元组的实数向量,i为正整数。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是:所述步骤四中根据原文三元组的实数向量与背景知识库三元组的实数向量的语义相似度的大小,对背景知识库三元组的实数向量按照语义相似度从大到小进行排序,得到从大到小排序的背景知识库三元组,计算背景知识库三元组的权重值;具体过程为:
根据原文三元组的实数向量与背景知识库三元组的实数向量的语义相似度的大小,对背景知识库三元组的实数向量按照语义相似度从大到小进行排序,得到从大到小排序的背景知识库三元组,通过 S i , j = { Σ k = 1 N [ c o s ( B k , B j ) * S i - 1 , k ] } * c o s ( B j , T i ) * W i 计算背景知识库三元组的权重值;
式中,N为背景知识库中的三元组数量,N为正整数,Si,j为第i次迭代、第j条背景知识库三元组的权重值,Bk为背景知识库中第k条三元组,Ti为原文中的第i条原文三元组,Wi为原文中第i条原文三元组的权重值,k为正整数,i为正整数,j为正整数,Bj为背景知识库中第j条背景知识库三元组,*为乘法,Si-1,k为第i-1次迭代、第k条背景三元组的权重。
其它步骤及参数与具体实施方式一至三之一相同。
采用以下实施例验证本发明的有益效果:
实施例一:
本实施例一种用于语义理解的文本序列迭代方法,具体是按照以下步骤制备的:
步骤一、抽取背景知识库和原文的三元组,原文用于验证模型;
实验数据集来自搜狗实验室提供的互联网文本分类语料库,经过初步过滤,可用文本数量为17,199篇。采用语料库中的9个类别的文本,分别是财经、IT、健康、体育、旅游、教育、招聘、文化、军事。每类文本随机抽取200篇作为测试语料,共1800篇原文。对语料库中其余文本抽取三元组,从抽取结果中随机选取2664条背景三元组,组成背景知识库。抽取工具采用哈尔滨工业大学社会计算与信息检索研究中心LTP语言技术平台,利用该平台的语义角色标注工具抽取三元组。
步骤二、计算原文三元组的实数向量和背景知识库三元组的实数向量(采用LDA、VSM、word2vec等模型);
选择向量空间模型(VSM)、词向量模型(WordEmbedding)和隐含狄利克雷模型(LDA)作为baseline。这里的LDA模型仅用作将本发明和三元组向量化表示,并不应用到层次化联想模型中。
步骤三、设置原文三元组的权重值为1,将原文三元组作为搜索起始点,通过Cosinesimilarity计算原文三元组的实数向量与背景知识库三元组的实数向量语义相似度;Cosinesimilarity为余弦相似度;
在VSM模型中,原文三元组与背景知识库中的三元组均用tf-idf表示,计算文本与三元组的Cosinesimilarity,将该值作为三元组的权重值。在WordEmbedding模型和LDA模型中,分别用词向量,按照三元组向量表示法将词向量合成文本和三元组向量,计算文本与三元组的Cosinesimilarity,将该值作为三元组的权重值。
三元组向量表示法为通过LDA模型,可以得到词在不同主题下的生成概率(Φk),将这些概率表示成一个向量的形式,可以将该向量看成是词在潜在语义空间中的表示。三元组是由多个词组合而成,这里我们假设三元组的语义是词语义的叠加。例如,三元组由N个词构成,每个词表示成K维向量V,那么三元组向量T也有K维,且每一维计算方法如下
T j = Σ i = 1 N V i , j Σ j = 1 K ( Σ i = 1 N V i , j ) 2
式中,Vi,j为第i个词的实数向量的第j维,Tj为三元组的第j维;
步骤四、根据与原文三元组语义相似度的大小,对背景知识库三元组按照语义相似度从大大小进行排序,计算背景知识库三元组的权重值;
步骤五、根据原文三元组的顺序(T1、T2……TM,M为正整数),按次序对背景知识库的三元组依次进行激发(T1分别按从大到小排序的背景知识库三元组的次序对背景知识库三元组依次进行激发,然后T2分别按从大到小排序的背景知识库三元组的次序对背景知识库三元组依次进行激发,……,然后TM分别按从大到小排序的背景知识库三元组的次序对背景知识库三元组依次进行激发),重复执行步骤四,直至计算完所有原文三元组,构成序列迭代模型;如图4;
OurModel:在序列迭代模型中,Wi表示文本中三元组的语义重要程度,在实验中将Wi均设为1。此外,为了更加直观证明本模型的有效性,我们去掉层次网络模型,将文本中的三元组全部抽取出来,每个背景知识库中的三元组与文本中所有的三元组的Cosinesimilarity加和作为该背景三元组的权重值,记为Ours-B,将层次联想模型记为Ours-A。
评价方案:在构建背景知识库的过程中,从已经有类别标签的文本抽取,记录每个背景知识库中的三元组出自哪个类别的文本。通过这样类似自动标注的方法得到了每个背景三元组的类别信息。假设文本类别为财经类,那么对于每一条背景三元组来说,如果它属于财经类,将其标为正例(1)称为相关三元组,否则标为负例(0),称为不相关三元组。
表1L不同取值下的排序结果
Tab.1TherankingresultsunderdifferentvaluesofL
表1中可见当L值为5时P5、P10的指标最高,L值为7时MAP(5)、MAP(10)的指标最高,但是L为5、7时,其他指标相差很小。这说明L为5时在top5和top10中,相关三元组数量最多,L为7时在top5和top10中,相关三元组数量相对L为5时有所减少,但是相关三元组的排名更加靠前。
再分析下四个指标的变化趋势,如图5和图6。图4为P5、P10随L不同取值的变化趋势图,PN本身是PrecisionN的简称,指的是对特定的查询,考虑位置因素,检测前N条结果的准确率,P5为单次搜索结果中前5条的准确率,P10为单次搜索结果中前10条的准确率,L用于表示所选取的权重值最高的前L条背景三元组,L和N为正整数;图5为MAP(5)、MAP(10)随L不同取值的变化趋势图,MAP方法是MeanAveragePrecison,即平均准确率的简称,MAP(5)为单次搜索结果中前5条的平均准确率,MAP(10)为单次搜索结果中前10条的平均准确率,L用于表示所选取的权重值最高的前L条背景三元组。
从趋势可以看出,随着L的增大(从1开始),P5、P10、MAP(5)、MAP(10)的结果均为先上升后下降。经过分析认为,导致该现象的原因主要是每个三元组所属的类别不一定只有一个,也就是每个三元组可能出现在不同的类别中。通过统计发现,仅在2664条背景三元组中,就有513条三元组属于多个类别,占到19.3%,由此可见,每个文本中的三元组和背景知识库中的三元组均有可能对应多个类别,那么对于一个三元组来说,与其同类别三元组之间的Cosinesimilarity值不一定为最高,也就导致了非同一个类别的背景三元组也有可能排在同类别背景三元组之前。
表2背景三元组排序对比实验结果
Tab.2Comparisonofrankingresults
表2中可见,Ours-A的各项指标均为最高,并且在P5、MAP(5)、P10、MAP(10)四个指标上分别高于LDA模型0.14、0.12、0.06、0.1,高于Ours-B模型0.25、0.12、0.06、0.1。
从实验结果可以看出,本文提出的模型排序性能明显优于其他baseline,也就是层次联想模型可以将与文本信息更相关的外部知识通过排序的形式找出。
实施例二:
该部分实验采用的语料为上部分5.1实验中的1800篇文本分类语料,每类200篇共9类。训练语料与测试语料比例为2:1,即每个类别的200篇文本中,134篇为训练,66篇为测试,故此共1206篇训练语料,594篇测试语料。
步骤一:采用经典方法将文本向量化。
采用文本分类中比较经典的VSM模型和LDA模型。在VSM模型中,每个词项权重计算分为:布尔型和tf-idf这两种。采用SVM分类器进行训练和测试。
步骤二、将序列迭代模型中计算出的权重值最高的前N个(本发明是前5个和前10个)背景知识库三元组作为原文的外部特征加入到原文的实数向量(可以通过VSM、LDA、tf-idf等模型得到文本实数向量)中,N为正整数,采用支持向量机(SVM)对原文进行文本分类,并对分类性能进行评估(计算precision、recall、F-measure)。
OurModel:将层次联想模型中计算出权重值较高的背景三元组作为文本外部特征引入到表示文本的实数向量中。分别对5.1中提到的Ours-A和Ours-B两个模型分别进行文本分类的实验,根据引入背景三元组的数量不同,分为Top5和Top10,分别对应引入权重值最高的前5个和前10个背景三元组。SVM模型采用lib-svm工具包。
评价指标:准确率(Precision)、召回率(Recall)以及F值(F-Measure),文本分类的实验结果采用宏平均的方式,计算Macro-P、Macro-R、Macro-F。
表3文本分类实验结果
Tab.3Comparisonoftextclassificationresults
表3可以看出,Ours-A(Top5)模型在P、R、F三项值上均为最高结果,且在macro-F指标上高于LDA模型1.50%。Ours-B的P5和P10均小于0.5,MAP值也是0.5附近,并且P10大于P5,可见引入的三元组数量越多,包含相关三元组的数量就越多,对文本分类的帮助也就越大。Ours-A正好相反,P5大于P10,并且MAP(5)大于MAP(10),故此对于Ours-A来说引入的三元组数量越多,包含的相关三元组数量减少并且不相关三元组在排序中的位置靠后。故此,对于Ours-B来说,在分类任务上Top10结果优于Top5的结果,对于Ours-A来说正好相反。
由于Ours-A和Ours-B的结果均高于两组baseline,说明外部知识对文本分类任务有帮助。如果将文本分类看成是语义理解的一个实例化任务,那么这样的实验结果也验证了外部知识对文本语义理解有帮助。同时Ours-A的结果优于Ours-B的结果说明层次联想模型的效果较好。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (4)

1.一种用于语义理解的文本序列迭代方法,具体是按照以下步骤制备的:
步骤一、抽取原文三元组和背景知识库三元组;
步骤二、计算原文三元组的实数向量和背景知识库三元组的实数向量;
步骤三、设置原文三元组的权重值为1,将原文三元组作为搜索起始点,通过Cosinesimilarity计算原文三元组的实数向量与背景知识库三元组的实数向量语义相似度;Cosinesimilarity为余弦相似度;
步骤四、根据原文三元组的实数向量与背景知识库三元组的实数向量的语义相似度的大小,对背景知识库三元组的实数向量按照语义相似度从大到小进行排序,得到从大到小排序的背景知识库三元组,计算背景知识库三元组的实数向量的权重值;
步骤五、将原文三元组按照T1、T2……TM进行排序,M为正整数,将排序后的原文三元组按T1、T2……TM的顺序依次对步骤四得到的从大到小排序的背景知识库三元组进行激发,重复执行步骤四,直至计算完所有原文三元组,构成序列迭代模型;
步骤六、将序列迭代模型中计算出的背景知识库三元组的实数向量的权重值从高到低进行排序,前N个背景知识库三元组作为原文的外部特征加入到原文的实数向量中,N为正整数,采用支持向量机对原文进行文本分类,并对分类性能进行评估。
2.根据权利要求1所述一种用于语义理解的文本序列迭代方法,其特征在于:所述步骤一中抽取原文三元组和背景知识库三元组;具体过程为:
实验数据集来自搜狗实验室提供的互联网文本分类语料库,可用文本数量为17,199篇,采用互联网文本分类语料库中9个类别文本,分别是财经、IT、健康、体育、旅游、教育、招聘、文化和军事,每类文本随机抽取200篇作为测试语料,共1800篇原文,抽取工具采用哈尔滨工业大学社会计算与信息检索研究中心LTP语言技术平台,利用该平台的语义角色标注工具抽取三元组;
对互联网文本分类语料库中其余文本抽取背景三元组,随机选取2664条背景三元组,组成背景知识库,抽取工具采用哈尔滨工业大学社会计算与信息检索研究中心LTP语言技术平台,利用该平台的语义角色标注工具抽取三元组。
3.根据权利要求2所述一种用于语义理解的文本序列迭代方法,其特征在于:所述步骤三中设置原文三元组的权重值为1,将原文三元组作为搜索起始点,通过Cosinesimilarity计算原文三元组的实数向量与背景知识库三元组的实数向量语义相似度;具体过程为:
原文三元组的实数向量与背景知识库三元组的实数向量语义相似度公式为:
c o s ( θ ) = A · B | | A | | * | | B | | = Σ i = 1 n A i * B i Σ i = 1 n ( A i ) 2 * Σ i = 1 n ( B i ) 2
式中,A为原文三元组的实数向量,B为背景知识库三元组的实数向量,θ为A与B的夹角,·为向量的内积,*为乘法,n为向量的维数,为正整数,||A||为A的范数,||B||为B的范数,Ai为第i个原文三元组的实数向量,Bi为第i个背景知识库的实数向量,i为正整数。
4.根据权利要求3所述一种用于语义理解的文本序列迭代方法,其特征在于:所述步骤四中根据原文三元组的实数向量与背景知识库三元组的实数向量的语义相似度的大小,对背景知识库三元组的实数向量按照语义相似度从大到小进行排序,得到从大到小排序的背景知识库三元组,计算背景知识库三元组的实数向量的权重值;具体过程为:
根据原文三元组的实数向量与背景知识库三元组的实数向量的语义相似度的大小,对背景知识库三元组的实数向量按照语义相似度从大到小进行排序,得到从大到小排序的背景知识库三元组,通过
S i , j = { Σ k = 1 N [ c o s ( B k , B j ) * S i - 1 , k ] } * c o s ( B j , T i ) * W i
计算背景知识库三元组的权重值;
式中,N为背景知识库中的三元组数量,N为正整数,Si,j为第i次迭代、第j条背景知识库三元组的权重值,Bk为背景知识库中第k条三元组,Ti为原文中的第i条原文三元组,Wi为原文中第i条原文三元组的权重值,k为正整数,i为正整数,j为正整数,Bj为背景知识库中第j条背景知识库三元组,*为乘法,Si-1,k为第i-1次迭代、第k条背景三元组的权重。
CN201510861689.1A 2015-11-30 2015-11-30 一种用于语义理解的文本序列迭代方法 Active CN105260488B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510861689.1A CN105260488B (zh) 2015-11-30 2015-11-30 一种用于语义理解的文本序列迭代方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510861689.1A CN105260488B (zh) 2015-11-30 2015-11-30 一种用于语义理解的文本序列迭代方法

Publications (2)

Publication Number Publication Date
CN105260488A true CN105260488A (zh) 2016-01-20
CN105260488B CN105260488B (zh) 2018-10-02

Family

ID=55100178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510861689.1A Active CN105260488B (zh) 2015-11-30 2015-11-30 一种用于语义理解的文本序列迭代方法

Country Status (1)

Country Link
CN (1) CN105260488B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106776576A (zh) * 2016-12-29 2017-05-31 竹间智能科技(上海)有限公司 基于CoNLL格式的分句和语义角色标记方法、系统
CN107665188A (zh) * 2016-07-27 2018-02-06 科大讯飞股份有限公司 一种语义理解方法及装置
CN108170689A (zh) * 2016-12-07 2018-06-15 富士通株式会社 对实体进行语义化的信息处理装置和信息处理方法
CN110597997A (zh) * 2019-07-19 2019-12-20 中国人民解放军国防科技大学 一种军事想定文本事件抽取语料库迭代式构建方法及装置
CN111581929A (zh) * 2020-04-22 2020-08-25 腾讯科技(深圳)有限公司 基于表格的文本生成方法及相关装置
CN112307908A (zh) * 2020-10-15 2021-02-02 武汉科技大学城市学院 一种视频语义提取方法及装置
WO2021033087A1 (en) * 2019-08-20 2021-02-25 International Business Machines Corporation Natural language processing using an ontology-based concept embedding model
CN112862604A (zh) * 2021-04-25 2021-05-28 腾讯科技(深圳)有限公司 卡证发行机构的信息处理方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080109212A1 (en) * 2006-11-07 2008-05-08 Cycorp, Inc. Semantics-based method and apparatus for document analysis
CN102023986A (zh) * 2009-09-22 2011-04-20 日电(中国)有限公司 参考外部知识构建文本分类器的方法和设备
CN103020283A (zh) * 2012-12-27 2013-04-03 华北电力大学 一种基于背景知识的动态重构的语义检索方法
CN103336852A (zh) * 2013-07-24 2013-10-02 清华大学 跨语言本体构建方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080109212A1 (en) * 2006-11-07 2008-05-08 Cycorp, Inc. Semantics-based method and apparatus for document analysis
CN102023986A (zh) * 2009-09-22 2011-04-20 日电(中国)有限公司 参考外部知识构建文本分类器的方法和设备
CN103020283A (zh) * 2012-12-27 2013-04-03 华北电力大学 一种基于背景知识的动态重构的语义检索方法
CN103336852A (zh) * 2013-07-24 2013-10-02 清华大学 跨语言本体构建方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LI L等: "Ontology-enriched multi-document summarization in disaster management", 《ACM》 *
MUYU ZHANG等: "Triple based background knowledge ranking for document enrichment", 《PROCEEDING IF COLING 2014》 *
RAJESH THIAGARAJAN等: "Computering semantic similarity using ontologies", 《LABS HP》 *
张牧宇等: "中文篇章级句间语义关系体系及标注", 《中文信息学报》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107665188A (zh) * 2016-07-27 2018-02-06 科大讯飞股份有限公司 一种语义理解方法及装置
CN108170689A (zh) * 2016-12-07 2018-06-15 富士通株式会社 对实体进行语义化的信息处理装置和信息处理方法
CN106776576A (zh) * 2016-12-29 2017-05-31 竹间智能科技(上海)有限公司 基于CoNLL格式的分句和语义角色标记方法、系统
CN110597997A (zh) * 2019-07-19 2019-12-20 中国人民解放军国防科技大学 一种军事想定文本事件抽取语料库迭代式构建方法及装置
CN110597997B (zh) * 2019-07-19 2022-03-22 中国人民解放军国防科技大学 一种军事想定文本事件抽取语料库迭代式构建方法及装置
WO2021033087A1 (en) * 2019-08-20 2021-02-25 International Business Machines Corporation Natural language processing using an ontology-based concept embedding model
US11176323B2 (en) 2019-08-20 2021-11-16 International Business Machines Corporation Natural language processing using an ontology-based concept embedding model
GB2601697A (en) * 2019-08-20 2022-06-08 Ibm Natural language processing using an ontology-based concept embedding model
CN111581929A (zh) * 2020-04-22 2020-08-25 腾讯科技(深圳)有限公司 基于表格的文本生成方法及相关装置
CN111581929B (zh) * 2020-04-22 2022-09-27 腾讯科技(深圳)有限公司 基于表格的文本生成方法及相关装置
CN112307908A (zh) * 2020-10-15 2021-02-02 武汉科技大学城市学院 一种视频语义提取方法及装置
CN112307908B (zh) * 2020-10-15 2022-07-26 武汉科技大学城市学院 一种视频语义提取方法及装置
CN112862604A (zh) * 2021-04-25 2021-05-28 腾讯科技(深圳)有限公司 卡证发行机构的信息处理方法、装置、设备及存储介质
CN112862604B (zh) * 2021-04-25 2021-08-24 腾讯科技(深圳)有限公司 卡证发行机构的信息处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN105260488B (zh) 2018-10-02

Similar Documents

Publication Publication Date Title
CN105260488A (zh) 一种用于语义理解的文本序列迭代方法
Grishman Information extraction
Wang et al. Structure learning via parameter learning
CN110888991A (zh) 一种弱标注环境下的分段式语义标注方法
Hussein Arabic document similarity analysis using n-grams and singular value decomposition
Hussein Visualizing document similarity using n-grams and latent semantic analysis
Chen et al. Affinity regularized non-negative matrix factorization for lifelong topic modeling
Leonhardt et al. Extractive explanations for interpretable text ranking
Wei et al. I know what you want to express: sentence element inference by incorporating external knowledge base
Möller et al. Survey on english entity linking on wikidata
Li et al. A semi-explicit short text retrieval method combining Wikipedia features
Xie et al. A New Intelligent Topic Extraction Model on Web.
Rao et al. Enhancing multi-document summarization using concepts
CN106599305A (zh) 一种基于众包的异构媒体语义融合方法
Neiswanger et al. Modeling citation networks using latent random offsets
Günther et al. Learning from textual data in database systems
Hassan Ontology Learning Using Formal Concept Analysis and WordNet
Wang et al. Knowledge graph-based semantic ranking for efficient semantic query
Wu et al. Structured composition of semantic vectors
Xu et al. Understanding the semantic intent of natural language query
Rei et al. Parser lexicalisation through self-learning
Shivashankar et al. Reaching out for the Answer: Answer Type Prediction.
Li et al. Single Document Viewpoint Summarization based on Triangle Identification in Dependency Graph
Turenne et al. Exploration of a balanced reference corpus with a wide variety of text mining tools
Boese et al. Semantic document networks to support concept retrieval

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210408

Address after: Room 206-10, building 16, 1616 Chuangxin Road, Songbei District, Harbin City, Heilongjiang Province

Patentee after: Harbin jizuo technology partnership (L.P.)

Patentee after: Harbin Institute of Technology Asset Management Co.,Ltd.

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Patentee before: HARBIN INSTITUTE OF TECHNOLOGY

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210618

Address after: Room 206-12, building 16, 1616 Chuangxin Road, Songbei District, Harbin City, Heilongjiang Province

Patentee after: Harbin Institute of Technology Institute of artificial intelligence Co.,Ltd.

Address before: Room 206-10, building 16, 1616 Chuangxin Road, Songbei District, Harbin City, Heilongjiang Province

Patentee before: Harbin jizuo technology partnership (L.P.)

Patentee before: Harbin Institute of Technology Asset Management Co.,Ltd.

TR01 Transfer of patent right