CN113935334A - 文本信息处理方法、装置、设备和介质 - Google Patents
文本信息处理方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN113935334A CN113935334A CN202111331684.XA CN202111331684A CN113935334A CN 113935334 A CN113935334 A CN 113935334A CN 202111331684 A CN202111331684 A CN 202111331684A CN 113935334 A CN113935334 A CN 113935334A
- Authority
- CN
- China
- Prior art keywords
- information
- keyword
- sentence
- text
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 41
- 238000003672 processing method Methods 0.000 title claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 20
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012797 qualification Methods 0.000 description 4
- 230000001105 regulatory effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种文本信息处理方法、装置、设备、介质和程序产品,可以应用于人工智能技术领域。该文本信息处理方法包括:从待处理文本信息中提取多个关键词信息与多个句子信息;基于多个关键词信息与多个句子信息,生成关键词关联信息,其中,关键词关联信息用于表征不同的关键词信息之间的关联属性;基于多个关键词信息与多个句子信息,确定与每个关键词信息关联的句子信息;将多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息输入第一神经网络,输出关键词特征信息,其中,关键词特征信息用于表征待处理文本的语义特征。本公开还提供了一种文本信息处理装置、设备、存储介质和程序产品。
Description
技术领域
本公开涉及人工智能领域,具体地涉及一种文本信息处理方法、装置、设备、介质和程序产品。
背景技术
随着法规、规范或标准的发布,相关组织或机构需要依据最新发布的法规或规范修改内部的管理制度,以保证内部的管理制度符合最新发布的相关法规或规范。
在实现本公开构思的过程中,发明人发现相关技术中至少存在以下技术问题:针对法规、规范、标准或内部管理制度等文本信息的所提取的语义特征存在片面性,语义理解准确度较低。
发明内容
鉴于上述问题,本公开提供了提高语义理解准确度的文本信息处理方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种文本信息处理方法,包括:
从待处理文本信息中提取多个关键词信息与多个句子信息;
基于多个上述关键词信息与多个上述句子信息,生成关键词关联信息,其中,上述关键词关联信息用于表征不同的上述关键词信息之间的关联属性;
基于多个上述关键词信息与多个上述句子信息,确定与每个上述关键词信息关联的句子信息;
将多个上述关键词信息、与每个上述关键词信息关联的句子信息以及上述关键词关联信息输入第一神经网络,输出关键词特征信息,其中,上述关键词特征信息用于表征上述待处理文本的语义特征。
根据本公开的实施例,上述第一神经网络包括:门循环神经网络层与图卷积神经网络层;
将多个上述关键词信息、与每个上述关键词信息关联的句子信息以及上述关键词关联信息输入第一神经网络,输出关键词特征信息包括:
将多个上述关键词信息,以及与每个上述关键词信息关联的句子信息输入上述门循环神经网络层,以便将上述句子信息中的语义特征融合至与上述句子信息关联的关键词信息中,得到多个融合关键词信息;
将多个上述融合关键词信息与上述关键词关联信息输入上述图卷积神经网络层,以便将不同的上述关键词信息之间的关联属性与多个上述融合关键词信息融合,输出上述关键词特征信息。
根据本公开的实施例,基于多个上述关键词信息与多个上述句子信息,生成关键词关联信息包括:
基于多个上述关键词信息中,每两个不同的上述关键词信息在上述句子信息中出现的次数,生成关键词关联信息。
根据本公开的实施例,基于多个上述关键词信息与多个上述句子信息,确定与每个上述关键词信息关联的句子信息包括:
基于上述关键词信息与上述句子信息的相似度,确定与每个上述关键词信息关联的句子信息。
根据本公开的实施例,上述待处理文本信息包括第一类待处理文本信息与第二类待处理文本信息,上述第一类待处理文本信息的关键词特征信息包括第一关键词特征信息,上述第二类待处理文本信息的关键词特征信息包括第二关键词特征信息;
上述文本信息处理的方法还包括:
将上述第一关键词特征信息与上述第二关键词特征信息输入第二神经网络,输出上述第一类待处理文本信息与上述第二类待处理文本信息的文本匹配结果。
根据本公开的实施例,上述第二神经网络包括:顺序连接的全连接层、最大池化层与分类层。
本公开的第二方面提供了一种文本信息处理装置,包括:
提取模块,用于从待处理文本信息中提取多个关键词信息与多个句子信息;
第一关联模块,用于基于多个上述关键词信息与多个上述句子信息,生成关键词关联信息,其中,上述关键词关联信息用于表征不同的上述关键词信息之间的关联属性;
第二关联模块,用于基于多个上述关键词信息与多个上述句子信息,确定与每个上述关键词信息关联的句子信息;
特征输出模块,用于将多个上述关键词信息、与每个上述关键词信息关联的句子信息以及上述关键词关联信息输入第一神经网络,输出关键词特征信息,其中,上述关键词特征信息用于表征上述待处理文本的语义特征。
本公开的第三方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述文本信息处理方法。
本公开的第四方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述文本信息处理方法。
本公开的第五方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述文本信息处理方法。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的文本信息处理方法、装置的应用场景图;
图2示意性示出了根据本公开实施例的文本信息处理方法的流程图;
图3示意性示出了根据本公开实施例的文本信息处理的应用场景图;
图4示意性示出了根据本公开实施例的第一神经网络的网络结构图;
图5示意性示出了根据本公开实施例的第二神经网络的网络结构图;
图6示意性示出了根据本公开实施例的文本信息处理装置的结构框图;以及
图7示意性示出了根据本公开实施例的适于实现文本信息处理方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
随着法规、规范或标准的发布,相关组织或机构需要依据最新发布的法规或规范修改内部的管理制度,以保证内部的管理制度符合最新发布的相关法规或规范。
在实现本公开构思的过程中,发明人发现相关技术中至少存在以下技术问题:法规、规范、标准或内部管理制度等文本信息的文本篇章较长,导致针对法规、规范、标准或内部管理制度等文本信息的所提取的语义特征存在片面性,且容易出现语义缺失,导致语义理解准确度较低。
为至少部分地解决相关技术中存在的技术问题,本公开的实施例提供了一种文本信息处理方法、装置、设备、介质和程序产品,可以应用于金融领域、人工智能领域,例如在在银行、保险等金融机构中,针对相关部门最新发布的法规,可以应用本公开提供的文本信息处理方法提高针对最新发布的法规的语义理解准确度。但不仅限于此,也可用于除金融领域、人工智能领域之外的任意领域,本公开实施例提供的方法、装置、电子设备、介质和程序产品的应用领域不做限定。
本公开的实施例提供了一种文本信息处理方法包括:
从待处理文本信息中提取多个关键词信息与多个句子信息;基于多个关键词信息与多个句子信息,生成关键词关联信息,其中,关键词关联信息用于表征不同的关键词信息之间的关联属性;基于多个关键词信息与多个句子信息,确定与每个关键词信息关联的句子信息;将多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息输入第一神经网络,输出关键词特征信息,其中,关键词特征信息用于表征待处理文本的语义特征。
根据本公开的实施例,基于多个关键词信息与多个句子信息,生成关键词关联信息,可以提取多个关键词之间的关联属性;确定与每个关键词信息关联的句子信息,可以确定关键词信息与句子信息的关联属性;利用第一神经网络处理多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息,得到待处理文本的语义特征,可以将关键词信息与句子信息的语义信息进行融合,并结合关键词信息之间的关联属性,得到用于表征待处理文本的语义特征的关键词特征信息,从而可以提高针对待处理文本语义特征提取的准确度与全面性。
图1示意性示出了根据本公开实施例的文本信息处理方法、装置的应用场景图。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的文本信息处理方法一般可以由服务器105执行。相应地,本公开实施例所提供的文本信息处理装置一般可以设置于服务器105中。本公开实施例所提供的文本信息处理方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的文本信息处理装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
需要说明的是,本公开实施例的文本信息处理方法和装置可用于人工智能领域,也可用于除人工智能领域之外的任意领域。以下将结合附图和具体实施例详细阐述本公开。
在本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
图2示意性示出了根据本公开实施例的文本信息处理方法的流程图。
如图2所示,该实施例的文本信息处理方法可以包括操作S210~操作S240。
在操作S210,从待处理文本信息中提取多个关键词信息与多个句子信息。
根据本公开的实施例,关键词信息可以包括表征待处理文本信息主题的词信息,例如待处理文本信息中包含有“从事证券业务的专业人员,应当按照本办法规定,取得从业资格和执业证书。……资格考试由协会统一组织。参加考试的人员考试合格的,取得从业资格。从业资格不实行专业分类考试。资格考试内容包括一门基础性科目和一门专业性科目。”,关键词信息可以包括:“证券”、“从业资格”、“考试”。句子信息可以包括待处理文本信息中的句子,在本公开的实施例中,待处理文本信息的篇幅较长,因此待处理文本信息中包含有多个句子信息。
根据本公开的实施例,可以基于统计学方法从待处理文本信息中提取关键词信息,例如可以利用TextRank算法提取在待处理文本信息中出现次数最多的一个或多个词信息,作为关键词信息。
在操作S220,基于多个关键词信息与多个句子信息,生成关键词关联信息,其中,关键词关联信息用于表征不同的关键词信息之间的关联属性。
根据本公开的实施例,句子信息中可以包含有一个或多个关键词信息,因此可以基于句子信息中出现不同关键词信息的次数,生成关键词关联信息,以表征不同关键词信息之间的关联属性。
在操作S230,基于多个关键词信息与多个句子信息,确定与每个关键词信息关联的句子信息。
根据本公开的实施例,与关键词信息关联的句子信息可以包括包含有该关键词信息的句子信息,或者包含有该关键词信息的语义信息的句子信息。
在操作S240,将多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息输入第一神经网络,输出关键词特征信息,其中,关键词特征信息用于表征待处理文本的语义特征。
根据本公开的实施例,第一神经网络可以是经过训练后的神经网络,例如经过训练后的门循环神经网络,或者还可以是基于图卷积神经网络构建的神经网络。利用第一神经网络处理多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息,可以有效提升输出关键词特征信息的速度,提升获取待处理文本信息的语义特征的效率。
应该理解的是,在输入第一神经网络前,需要对关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息进行编码,转换为可以被第一神经网络处理的编码信息,例如可以利用Bert模型进行编码,但不仅限于此,还可以通过word2vec模型进行编码,本领域技术人员可以根据实际需求选择进行编码的模型。
根据本公开的实施例,基于多个关键词信息与多个句子信息,生成关键词关联信息,可以提取多个关键词之间的关联属性;确定与每个关键词信息关联的句子信息,可以确定关键词信息与句子信息的关联属性;利用第一神经网络处理多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息,得到待处理文本的语义特征,可以将关键词信息与句子信息的语义信息进行融合,并结合关键词信息之间的关联属性,得到用于表征待处理文本的语义特征的关键词特征信息,从而可以提高针对待处理文本语义特征提取的准确度与全面性。
根据本公开的实施例,操作S220,基于多个关键词信息与多个句子信息,生成关键词关联信息可以包括:
基于多个关键词信息中,每两个不同的关键词信息在句子信息中出现的次数,生成关键词关联信息。
根据本公开的实施例,关键词关联信息可以是矩阵编码信息,可以根据每两个不同的关键词信息是否同时出现在同一个句子信息中,生成关键词关联信息。
例如,关键词信息可以包括k1、k2、k3、k4和k5,在待处理文信息所包含的句子信息中,在一个句子信息中同时包含k1与k2的情况下,k1与k2的之间的关联信息可以为1,在所有的句子信息中均没有包含k2与k3的情况下,k2与k3的之间的关联信息可以为0。将关键词信息k1至k5中,每个关键词信息均与关键词信息k1至k5进行比对,可以生成5×5维矩阵A。关键词关联信息可以表示为矩阵A,矩阵A可以用于表征不同的关键词信息之间的关联属性。
根据本公开的实施例,操作S230,基于多个关键词信息与多个句子信息,确定与每个关键词信息关联的句子信息可以包括:
基于关键词信息与句子信息的相似度,确定与每个关键词信息关联的句子信息。
根据本公开的实施例,可以通过确定关键词信息与句子信息的相似度计算结果,在该相似度计算结果大于或等于预设相似度阈值的情况下,确定与关键词信息关联的句子信息。
需要说明的是,预设相似度阈值可以根据实际需求进行设定,本公开的实施例对预设相似度阈值的具体数值不做限定。
例如,待处理文本信息中,关键词信息可以包括k1至kn,句子信息可以包括S1至Sm。对关键词信息k1至kn进行编码,生成关键词编码信息e1至en;对句子信息S1至Sm进行编码,生成句子编码信息es1至esm。针对关键词信息ki,确定关键词编码信息ei(1≤i≤n)与句子编码信息es1至esm中每一个句子编码信息的余弦相似度计算结果,在余弦相似度计算结果大于预设相似度阈值的情况下,确定该句子信息与关键词信息ki关联。通过计算余弦相似度,可以确定与关键词信息ki关联的句子信息包括S1......Sj(1<j≤n),即可以确定与关键词信息ki关联的句子信息包括j个。
图3示意性示出了根据本公开实施例的文本信息处理的应用场景图。
如图3所示,可以从待处理文本信息310中提取多个关键词信息321和多个句子信息322,多个关键词信息321可以包括关键词信息ka1、ka2、ka3;多个句子信息322可以包括句子信息Sa1、Sa2、Sa3、Sa4、Sa5。在本实施例中,可以利用TextRank算法从待处理文本信息中提取关键词信息ka1、ka2、ka3。
将关键词信息ka1、ka2、ka3输入编码器331,可以将关键词信息ka1、ka2、ka3转换为多个关键词编码信息341,多个关键词编码信息341可以包括关键词编码信息ea1、ea2、ea3。将句子信息Sa1、Sa2、Sa3、Sa4、Sa5输入编码器332,可以将句子信息Sa1、Sa2、Sa3、Sa4、Sa5转换为多个句子编码信息342,多个句子编码信息342可以包括句子编码信息esa1、esa2、esa3、esa4、esa5。
针对关键词信息ka1,在操作S350中,将关键词编码信息ea1分别与句子编码信息esa1、esa2、esa3、esa4、esa5进行相似度关联,确定与关键词信息ka1关联的句子编码信息361可以包括句子编码信息esal、esa2、esa3。因此,可以确定与关键词信息ka1关联的句子信息为Sa1、Sa2、Sa3。
需要说明的是,在本实施例的操作S350中,可以通过计算关键词编码信息ea1分别与句子编码信息esal、esa2、esa3、esa4、esa5的余弦相似度计算结果,在余弦相似度计算结果大于或等于预设相似度阈值的情况下,将句子编码信息esa1、esa2、esa3确定为与关键词信息ka1关联的句子编码信息。
采用相同的方法,可以确定与关键词信息ka2关联的句子编码信息362可以包括句子编码信息esa1、esa2、esa5;可以确定与关键词信息ka3关联的句子编码信息363可以包括句子编码信息esa3、esa4、esa5。
需要说明的是,图3中关键词信息与句子信息的数量仅仅是示意性的。根据实际需求,待处理文本信息中可以具有任意数量的关键词信息与句子信息。
根据本公开的实施例,第一神经网络可以包括:门循环神经网络层与图卷积神经网络层。
操作S240,将多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息输入第一神经网络,输出关键词特征信息可以包括:
将多个关键词信息,以及与每个关键词信息关联的句子信息输入门循环神经网络层,以便将句子信息中的语义特征融合至与句子信息关联的关键词信息中,得到多个融合关键词信息;将多个融合关键词信息与关键词关联信息输入图卷积神经网络层,以便将不同的关键词信息之间的关联属性与多个融合关键词信息融合,输出关键词特征信息。
图4示意性示出了根据本公开实施例的第一神经网络的网络结构图。
如图4所示,第一神经网络410可以包括门循环神经网络层411与图卷积神经网络层412。其中,待处理文本信息可以包括多个关键词信息421与多个句子信息422。多个关键词信息421可以包括关键词信息e1、e2、e3;多个句子信息422可以包括S11、S12、S13、S21、S22、S23、S31、S32、S33。与关键词信息e1关联的句子信息可以包括句子信息S11、S12、S13;与关键词信息e2关联的句子信息可以包括句子信息S21、522、S23;与关键词信息e3关联的句子信息可以包括句子信息S31、S32、S33。
将关键词信息e1,以及与关键词信息e1关联的句子信息S11、S12、S13输入门循环神经网络(GRU)层411,可以将句子信息S11、S12、S13中的语义特征融合至关键词信息e1中,得到融合关键词信息f1。相应地,可以将关键词信息e2和句子信息S21、S22、S23输入门循环神经网络(GRU)层411,得到融合关键词信息f2,融合关键词信息f2包含有句子信息S21、S22、S23的语义特征;将关键词信息e3和句子信息S31、S32、S33输入门循环神经网络(GRU)层411,得到融合关键词信息f3,融合关键词信息f3包含有句子信息S31、S32、S33的语义特征。因此,多个融合关键词信息423可以包括融合关键词信息f1、f2、f3。
将多个融合关键词信息423与关键词关联信息424输入图卷积神经网络(GCN)层412,可以将不同的关键词信息之间的关联属性与融合关键词信息f1、f2、f3融合,输出关键词特征信息432。因此,关键词特征信息432包含有多个句子信息422的语义特征,以及不同的关键词信息之间的关联属性,融合待处理文本信息的关键词信息之间的关联属性以及句子信息的语义特征,可以避免抽取信息的片面性,减少信息遗忘,从而可以全面地反映待处理文本信息的语义特征与关键词信息之间的关联属性,进而可以提高针对待处理文本语义特征提取的准确度与全面性。
根据本公开的实施例,待处理文本信息可以包括第一类待处理文本信息与第二类待处理文本信息,第一类待处理文本信息的关键词特征信息包括第一关键词特征信息,第二类待处理文本信息的关键词特征信息包括第二关键词特征信息;
文本信息处理的方法还可以包括:将第一关键词特征信息与第二关键词特征信息输入第二神经网络,输出第一类待处理文本信息与第二类待处理文本信息的文本匹配结果。
根据本公开的实施例,文本匹配结果可以包括针对第一关键词特征信息与第二关键词特征信息的二分类计算结果,例如,在二分类计算结果为0的情况下,可以表示第一类待处理文本信息与第二类待处理文本信息不匹配;在二分类计算结果为1的情况下,可以表示第一类待处理文本信息与第二类待处理文本信息匹配。
根据本公开的实施例,第二神经网络可以包括:顺序连接的全连接层、最大池化层与分类层。
图5示意性示出了根据本公开实施例的第二神经网络的网络结构图。
如图5所示,第二神经网络510可以包括顺序连接的全连接层511、最大池化层512与分类层513,分类层513可以包括多层感知机(MLP,Multilayer Perceptron)网络层。
可以利用上述文本信息处理方法分别处理第一类待处理文本信息与第二类待处理文本信息,得到第一关键词特征信息521和第二关键词特征信息522。其中,第一关键词特征信息521基于第一类待处理文本信息得到,第二关键词特征信息522基于第二类待处理文本信息得到。
将第一关键词特征信息521与第二关键词特征信息522输入第二神经网络510中的全连接层511,第一关键词特征信息521与第二关键词特征信息522经全连接层511、最大池化层512与分类层513处理后,可以得到针对第一关键词特征信息521与第二关键词特征信息522的二分类计算结果530。在二分类计算结果530为0的情况下,可以表示第一类待处理文本信息与第二类待处理文本信息不匹配;在二分类计算结果530为1的情况下,可以表示第一类待处理文本信息与第二类待处理文本信息匹配。
第一关键词特征信息融合有第一类待处理文本信息的关键词信息之间的关联属性以及句子信息的语义特征,因此,第一关键词特征信息可以全面地反映第一类待处理文本信息的语义特征与第一类待处理文本信息中的关键词信息之间的关联属性。相应地,第二关键词特征信息可以全面地反映第二类待处理文本信息的语义特征与第二类待处理文本信息中的关键词信息之间的关联属性。
通过第二神经网络处理第一关键词特征信息与第二关键词特征信息,得到第一类待处理文本信息与第二类待处理文本信息的文本匹配结果,可以综合反映第一类待处理文本信息与第二类待处理文本信息的文本语义信息与关键词语义信息,减少信息遗忘,提高文本匹配的准确性。
基于上述文本信息处理方法,本公开还提供了一种文本信息处理装置。以下将结合图6对该装置进行详细描述。
图6示意性示出了根据本公开实施例的文本信息处理装置的结构框图。
如图6所示,该实施例的文本信息处理装置600包括提取模块610、第一关联模块620、第二关联模块630和特征输出模块640。
提取模块610用于从待处理文本信息中提取多个关键词信息与多个句子信息。
第一关联模块620用于基于多个关键词信息与多个句子信息,生成关键词关联信息,其中,关键词关联信息用于表征不同的关键词信息之间的关联属性。
第二关联模块630用于基于多个关键词信息与多个句子信息,确定与每个关键词信息关联的句子信息。
特征输出模块640用于将多个关键词信息、与每个关键词信息关联的句子信息以及关键词关联信息输入第一神经网络,输出关键词特征信息,其中,关键词特征信息用于表征待处理文本的语义特征。
根据本公开的实施例,第一神经网络包括:门循环神经网络层与图卷积神经网络层。
特征输出模块包括:第一融合子模块和第二融合子模块。
第一融合子模块用于将多个关键词信息,以及与每个关键词信息关联的句子信息输入门循环神经网络层,以便将句子信息中的语义特征融合至与句子信息关联的关键词信息中,得到多个融合关键词信息。
第二融合子模块用于将多个融合关键词信息与关键词关联信息输入图卷积神经网络层,以便将不同的关键词信息之间的关联属性与多个融合关键词信息融合,输出关键词特征信息。
根据本公开的实施例,第一关联模块可以包括第一关联子模块。
第一关联子模块用于基于多个关键词信息中,每两个不同的关键词信息在句子信息中出现的次数,生成关键词关联信息。
根据本公开的实施例,第二关联模块可以包括第二关联子模块。
第二关联子模块基于关键词信息与句子信息的相似度,确定与每个关键词信息关联的句子信息。
根据本公开的实施例,待处理文本信息包括第一类待处理文本信息与第二类待处理文本信息,第一类待处理文本信息的关键词特征信息包括第一关键词特征信息,第二类待处理文本信息的关键词特征信息包括第二关键词特征信息;
该文本信息处理装置还包括匹配模块。
匹配模块用于将第一关键词特征信息与第二关键词特征信息输入第二神经网络,输出第一类待处理文本信息与第二类待处理文本信息的文本匹配结果。
根据本公开的实施例,第二神经网络包括顺序连接的全连接层、最大池化层与分类层。
根据本公开的实施例,提取模块610、第一关联模块620、第二关联模块630和特征输出模块640中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,提取模块610、第一关联模块620、第二关联模块630和特征输出模块640中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,提取模块610、第一关联模块620、第二关联模块630和特征输出模块640中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图7示意性示出了根据本公开实施例的适于实现文本信息处理方法的电子设备的方框图。
如图7所示,根据本公开实施例的电子设备700包括处理器701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。处理器701例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器701还可以包括用于缓存用途的板载存储器。处理器701可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 703中,存储有电子设备700操作所需的各种程序和数据。处理器701、ROM702以及RAM 703通过总线704彼此相连。处理器701通过执行ROM 702和/或RAM 703中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 702和RAM 703以外的一个或多个存储器中。处理器701也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备700还可以包括输入/输出(I/O)接口705,输入/输出(I/O)接口705也连接至总线704。电子设备700还可以包括连接至I/O接口705的以下部件中的一项或多项:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 702和/或RAM 703和/或ROM 702和RAM 703以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的文本信息处理方法。
在该计算机程序被处理器701执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分709被下载和安装,和/或从可拆卸介质711被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被处理器701执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (10)
1.一种文本信息处理方法,包括:
从待处理文本信息中提取多个关键词信息与多个句子信息;
基于多个所述关键词信息与多个所述句子信息,生成关键词关联信息,其中,所述关键词关联信息用于表征不同的所述关键词信息之间的关联属性;
基于多个所述关键词信息与多个所述句子信息,确定与每个所述关键词信息关联的句子信息;
将多个所述关键词信息、与每个所述关键词信息关联的句子信息以及所述关键词关联信息输入第一神经网络,输出关键词特征信息,其中,所述关键词特征信息用于表征所述待处理文本的语义特征。
2.根据权利要求1所述的方法,其中,所述第一神经网络包括:门循环神经网络层与图卷积神经网络层;
将多个所述关键词信息、与每个所述关键词信息关联的句子信息以及所述关键词关联信息输入第一神经网络,输出关键词特征信息包括:
将多个所述关键词信息,以及与每个所述关键词信息关联的句子信息输入所述门循环神经网络层,以便将所述句子信息中的语义特征融合至与所述句子信息关联的关键词信息中,得到多个融合关键词信息;
将多个所述融合关键词信息与所述关键词关联信息输入所述图卷积神经网络层,以便将不同的所述关键词信息之间的关联属性与多个所述融合关键词信息融合,输出所述关键词特征信息。
3.根据权利要求1所述的方法,其中,基于多个所述关键词信息与多个所述句子信息,生成关键词关联信息包括:
基于多个所述关键词信息中,每两个不同的所述关键词信息在所述句子信息中出现的次数,生成关键词关联信息。
4.根据权利要求1所述的方法,其中,基于多个所述关键词信息与多个所述句子信息,确定与每个所述关键词信息关联的句子信息包括:
基于所述关键词信息与所述句子信息的相似度,确定与每个所述关键词信息关联的句子信息。
5.根据权利要求1所述的方法,其中,所述待处理文本信息包括第一类待处理文本信息与第二类待处理文本信息,所述第一类待处理文本信息的关键词特征信息包括第一关键词特征信息,所述第二类待处理文本信息的关键词特征信息包括第二关键词特征信息;
所述文本信息处理的方法还包括:
将所述第一关键词特征信息与所述第二关键词特征信息输入第二神经网络,输出所述第一类待处理文本信息与所述第二类待处理文本信息的文本匹配结果。
6.根据权利要求5所述的方法,其中,所述第二神经网络包括:顺序连接的全连接层、最大池化层与分类层。
7.一种文本信息处理装置,包括:
提取模块,用于从待处理文本信息中提取多个关键词信息与多个句子信息;
第一关联模块,用于基于多个所述关键词信息与多个所述句子信息,生成关键词关联信息,其中,所述关键词关联信息用于表征不同的所述关键词信息之间的关联属性;
第二关联模块,用于基于多个所述关键词信息与多个所述句子信息,确定与每个所述关键词信息关联的句子信息;
特征输出模块,用于将多个所述关键词信息、与每个所述关键词信息关联的句子信息以及所述关键词关联信息输入第一神经网络,输出关键词特征信息,其中,所述关键词特征信息用于表征所述待处理文本的语义特征。
8.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~6中任一项所述的方法。
9.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~6中任一项所述的方法。
10.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111331684.XA CN113935334A (zh) | 2021-11-11 | 2021-11-11 | 文本信息处理方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111331684.XA CN113935334A (zh) | 2021-11-11 | 2021-11-11 | 文本信息处理方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113935334A true CN113935334A (zh) | 2022-01-14 |
Family
ID=79286096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111331684.XA Pending CN113935334A (zh) | 2021-11-11 | 2021-11-11 | 文本信息处理方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113935334A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725153A (zh) * | 2023-09-22 | 2024-03-19 | 书行科技(北京)有限公司 | 文本匹配方法、装置、电子设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101679A (ja) * | 2013-01-30 | 2013-05-23 | Nippon Telegr & Teleph Corp <Ntt> | テキストセグメンテーション装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体 |
CN108197111A (zh) * | 2018-01-10 | 2018-06-22 | 华南理工大学 | 一种基于融合语义聚类的文本自动摘要方法 |
CN109829104A (zh) * | 2019-01-14 | 2019-05-31 | 华中师范大学 | 基于语义相似度的伪相关反馈模型信息检索方法及系统 |
CN110263323A (zh) * | 2019-05-08 | 2019-09-20 | 清华大学 | 基于栅栏式长短时记忆神经网络的关键词抽取方法及系统 |
CN110968684A (zh) * | 2019-12-18 | 2020-04-07 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、设备及存储介质 |
CN113239668A (zh) * | 2021-05-31 | 2021-08-10 | 平安科技(深圳)有限公司 | 关键词智能提取方法、装置、计算机设备及存储介质 |
-
2021
- 2021-11-11 CN CN202111331684.XA patent/CN113935334A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101679A (ja) * | 2013-01-30 | 2013-05-23 | Nippon Telegr & Teleph Corp <Ntt> | テキストセグメンテーション装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体 |
CN108197111A (zh) * | 2018-01-10 | 2018-06-22 | 华南理工大学 | 一种基于融合语义聚类的文本自动摘要方法 |
CN109829104A (zh) * | 2019-01-14 | 2019-05-31 | 华中师范大学 | 基于语义相似度的伪相关反馈模型信息检索方法及系统 |
CN110263323A (zh) * | 2019-05-08 | 2019-09-20 | 清华大学 | 基于栅栏式长短时记忆神经网络的关键词抽取方法及系统 |
CN110968684A (zh) * | 2019-12-18 | 2020-04-07 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、设备及存储介质 |
CN113239668A (zh) * | 2021-05-31 | 2021-08-10 | 平安科技(深圳)有限公司 | 关键词智能提取方法、装置、计算机设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725153A (zh) * | 2023-09-22 | 2024-03-19 | 书行科技(北京)有限公司 | 文本匹配方法、装置、电子设备和存储介质 |
CN117725153B (zh) * | 2023-09-22 | 2024-09-24 | 书行科技(北京)有限公司 | 文本匹配方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210166142A1 (en) | Original idea extraction from written text data | |
CN113507419B (zh) | 流量分发模型的训练方法、流量分发方法及装置 | |
CN113407677B (zh) | 评估咨询对话质量的方法、装置、设备和存储介质 | |
CN114358147A (zh) | 异常账户识别模型的训练方法、识别方法、装置及设备 | |
CN107766498B (zh) | 用于生成信息的方法和装置 | |
CN114201964A (zh) | 舆情风险识别方法、装置、电子设备及存储介质 | |
CN113935334A (zh) | 文本信息处理方法、装置、设备和介质 | |
CN117314558A (zh) | 产品推荐方法、装置、电子设备及存储介质 | |
CN117216393A (zh) | 信息推荐方法、信息推荐模型的训练方法及装置、设备 | |
CN116155628B (zh) | 网络安全检测方法、训练方法、装置、电子设备和介质 | |
CN117435471A (zh) | 测试案例的推荐方法、装置、设备、存储介质和程序产品 | |
CN116956891A (zh) | 信息抽取方法、信息抽取装置、电子设备及可读存储介质 | |
CN113360672B (zh) | 用于生成知识图谱的方法、装置、设备、介质和产品 | |
CN116308602A (zh) | 推荐产品信息的生成方法、装置、电子设备和介质 | |
CN113010666B (zh) | 摘要生成方法、装置、计算机系统及可读存储介质 | |
CN115525781A (zh) | 多模态虚假信息检测方法、装置和设备 | |
CN114219601A (zh) | 信息处理方法、装置、设备及存储介质 | |
CN113392215A (zh) | 生产问题分类模型的训练方法、生产问题分类方法及装置 | |
US12045270B2 (en) | Retrieving documents according to temporal similarity | |
CN114386484A (zh) | 文本匹配方法、训练方法、装置、设备及介质 | |
CN117909764A (zh) | 信息匹配方法、装置、设备、介质及程序产品 | |
CN117933267A (zh) | 文本特征提取方法、装置、设备、存储介质和程序产品 | |
CN115034476A (zh) | 项目风险预测方法、装置、设备、介质和程序产品 | |
CN114707486A (zh) | 文本处理方法、装置、设备、介质和程序产品 | |
CN115238058A (zh) | 内容匹配方法、装置、设备、介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |