CN116028618B - 文本处理、文本检索方法、装置、电子设备及存储介质 - Google Patents
文本处理、文本检索方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116028618B CN116028618B CN202211690177.XA CN202211690177A CN116028618B CN 116028618 B CN116028618 B CN 116028618B CN 202211690177 A CN202211690177 A CN 202211690177A CN 116028618 B CN116028618 B CN 116028618B
- Authority
- CN
- China
- Prior art keywords
- text
- recall
- attention
- target
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000012545 processing Methods 0.000 title claims abstract description 25
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 238000003672 processing method Methods 0.000 title claims description 36
- 239000013598 vector Substances 0.000 claims description 181
- 238000004364 calculation method Methods 0.000 claims description 66
- 230000004927 fusion Effects 0.000 claims description 25
- 230000011218 segmentation Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 12
- 238000005192 partition Methods 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 25
- 238000004422 calculation algorithm Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 238000013507 mapping Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 230000002441 reversible effect Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 108010001267 Protein Subunits Proteins 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 241000238413 Octopus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了文本处理、文本检索方法、装置、电子设备及存储介质,涉及人工智能技术领域,尤其涉及自然语言处理、知识图谱等领域。具体实现方案为:针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点;根据第一召回关注点和第二召回关注点,确定候选关注点;根据候选关注点和目标文本段落,得到候选关注点的关注度,关注度表征候选关注点在目标文本段落中的关注度;以及根据第一预设阈值和关注度,确定文本中要关注的目标关注点。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及自然语言处理、知识图谱等领域,具体地,涉及一种文本处理、文本检索方法、装置、电子设备及存储介质。
背景技术
随着互联网文本数据呈指数级增长,快速有效地从文本数据中抽取和整理关键信息作为标签成为一个重要的研究课题。关注点计算本质上是对文本打上用户所关注的标签,文本标签计算应用场景很多,比如新闻个性化推荐、相似文章聚合、文本内容分析等等场景都有文本标签的身影。
发明内容
本公开提供了一种文本处理、文本检索方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种文本处理方法,包括:针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点;根据所述第一召回关注点和所述第二召回关注点,确定候选关注点;根据所述候选关注点和所述目标文本段落,得到所述候选关注点的关注度,所述关注度表征所述候选关注点在所述目标文本段落中的关注度;以及根据第一预设阈值和所述关注度,确定所述文本中要关注的目标关注点。
根据本公开的另一方面,提供了一种文本检索方法,包括:获取检索词;确定与所述检索词相关的文本标签,其中,所述文本标签是利用根据本公开所述的文本处理方法确定的目标关注点确定的;以及根据所述文本标签,得到目标文本,作为基于所述检索词的检索结果。
根据本公开的另一方面,提供了一种文本处理装置,包括:第一确定模块,用于针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点;第二确定模块,用于根据所述第一召回关注点和所述第二召回关注点,确定候选关注点;第一获得模块,用于根据所述候选关注点和所述目标文本段落,得到所述候选关注点的关注度,所述关注度表征所述候选关注点在所述目标文本段落中的关注度;以及第三确定模块,用于根据第一预设阈值和所述关注度,确定所述文本中要关注的目标关注点。
根据本公开的另一方面,提供了一种文本检索装置,包括:获取模块,用于获取检索词;第四确定模块,用于确定与所述检索词相关的文本标签,其中,所述文本标签是利用根据本公开所述的文本处理装置确定的目标关注点确定的;以及第二获得模块,用于根据所述文本标签,得到目标文本,作为基于所述检索词的检索结果。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开的文本处理方法和文本检索方法其中至少一种方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本公开的文本处理方法和文本检索方法其中至少一种方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序存储于可读存储介质和电子设备其中至少之一上,所述计算机程序在被处理器执行时实现本公开的文本处理方法和文本检索方法其中至少一种方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开实施例的可以应用文本处理方法和文本检索方法其中至少一种方法及相应装置的示例性系统架构;
图2示意性示出了根据本公开实施例的内容处理方法的流程图;
图3示意性示出了根据本公开实施例的基于UIE模型召回关注点的示意图;
图4示意性示出了根据本公开实施例的根据预设段落标识对文本进行分段的示意图;
图5示意性示出了根据本公开实施例的局部敏感哈希计算的示意图;
图6示意性示出了根据本公开实施例的基于UIE+Reformer的文本处理方法的整体流程图;
图7示意性示出了根据本公开实施例的文本检索方法的流程图;
图8示意性示出了根据本公开实施例的文本处理装置的框图;
图9示意性示出了根据本公开实施例的文本检索装置的框图;以及
图10示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
文本标签计算模型可以分为生成式标签计算模型和抽取式标签计算模型。
生成式标签计算模型主要是根据文本的语义信息,通过神经网络进行内容理解并自动地生成一个标签。该种方式对训练语料的质量和数量要求较高,并且由于该种方式通过端到端模型输出标签结果,会导致标签计算结果可控性较低,如果出现极其恶劣的badcase(坏案例)不好解决。
抽取式标签计算模型分为有监督模型和无监督模型。
无监督的文本标签计算模型包括TF-IDF(Term Frequency-Inverse DocumentFrequency,词频-逆文本频率)和TextRank(抽取型文本摘要算法)。TF-IDF基于文本信息,认为在当前文本提及最多(TF)且在其他文本提及较少(IDF)的短语是最重要的标签。TextRank则是将文本中的候选词构建出一张图,然后从图中选择节点重要度最高的词作为文本的核心标签。该些方法比较古老且过时。
基于深度神经网络的有监督标签抽取式模型可以细分成两类:端到端的标签抽取式模型和基于召回+排序两步走的标签抽取模型。
端到端的标签抽取式模型主要是基于NER(Named Entity Recognition,命名实体识别),去对文本进行端到端的抽取。具体抽取方法是,先通过CNN(Convolutional NeuralNetworks,卷积神经网络)、LSTM(Long Short-Term Memory,长短期记忆网络)、Transformer(变压器)等深度神经网络对输入文本编码进行,提取文本的语义特征。然后,利用CRF(Conditional Random Field,条件随机域)作为序列标注层,预测出信息边界,抽取出标签。
基于召回+排序两步走的标签抽取模型主要是先离线构建标签池子。然后,使用字面匹配+语义匹配的方式计算文本和标签池子的相关性,将相关的标签召回作为候选标签。再利用ERNIE-Sim、BERT(Bidirectional Encoder Representation from Transformers,一种语言表示模型)等深度神经网络文本匹配模型,计算相关标签和文本的核心度,并根据核心度排序抽取得到核心标签。
发明人在实现本公开构思的过程中发现,对于关注点分布较为稀疏的场景,从稀疏的文本中抽取出核心关注点较为困难,使得针对稀疏文本构建文本标签较为困难。
图1示意性示出了根据本公开实施例的可以应用文本处理方法和文本检索方法其中至少一种方法及相应装置的示例性系统架构。
需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。例如,在另一实施例中,可以应用文本处理方法和文本检索方法其中至少一种方法及相应装置的示例性系统架构可以包括终端设备,但终端设备可以无需与服务器进行交互,即可实现本公开实施例提供的文本处理方法和文本检索方法其中至少一种方法及相应装置。
如图1所示,根据该实施例的系统架构100可以包括第一终端设备101、第二终端设备102、第三终端设备103,网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、第三终端设备103上可以安装有各种通讯客户端应用,例如知识阅读类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、第三终端设备103所浏览的内容提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(″Virtual Private Server″,或简称″VPS″)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
需要说明的是,本公开实施例所提供的文本处理方法和文本检索方法其中至少一种方法一般可以由第一终端设备101、第二终端设备102或第三终端设备103执行。相应地,本公开实施例所提供的文本处理装置和文本检索装置其中至少一种装置也可以设置于第一终端设备101、第二终端设备102或第三终端设备103中。
或者,本公开实施例所提供的文本处理方法和文本检索方法其中至少一种方法一般也可以由服务器105执行。相应地,本公开实施例所提供的文本处理装置和文本检索装置其中至少一种装置一般可以设置于服务器105中。本公开实施例所提供的文本处理方法和文本检索方法其中至少一种方法也可以由不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的文本处理装置和文本检索装置其中至少一种装置也可以设置于不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群中。
例如,在文本处理时,第一终端设备101、第二终端设备102、第三终端设备103可以获取文本,然后将获取的文本发送给服务器105,由服务器105针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点,根据第一召回关注点和第二召回关注点,确定候选关注点,根据候选关注点和目标文本段落,得到候选关注点的关注度,关注度表征候选关注点在目标文本段落中的关注度,并根据第一预设阈值和关注度,确定文本中要关注的目标关注点。或者由能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群对文本进行处理,并实现确定文本中要关注的目标关注点。
例如,在文本检索时,第一终端设备101、第二终端设备102、第三终端设备103可以获取检索词,然后将获取的检索词发送给服务器105,由服务器105确定与检索词相关的文本标签,其中,文本标签是利用根据本公开的文本处理方法确定的目标关注点确定的,并根据文本标签,得到目标文本,作为基于检索词的检索结果。或者由能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群对文本进行检索,并实现得到目标文本,作为基于检索词的检索结果。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
端到端的抽取式和生成式标签计算模型,需要较多的训练语料,且需要较高质量的训练语料。但在真实的工业场景中,为了获得高质量和多数量的训练语料,需要耗费大量的人力去做人工标注,以及对标注结果进行review(评价)。基于召回+排序两步走的标签抽取模型,在候选标签召回时,由于使用模糊匹配的方式,会使得召回的候选标签存在断章取义的问题,比如“云建图算法优化”会召回“图算法”。
本公开提供了一种内容处理方法,可以结合文本中各文本段落的召回关注点,确定候选关注点,并根据各文本段落的候选关注点,确定文本的目标关注点。
图2示意性示出了根据本公开实施例的内容处理方法的流程图。
如图2所示,该方法包括操作S210~S240。
在操作S210,针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点。
在操作S220,根据第一召回关注点和第二召回关注点,确定候选关注点。
在操作S230,根据候选关注点和目标文本段落,得到候选关注点的关注度,关注度表征候选关注点在目标文本段落中的关注度。
在操作S240,根据第一预设阈值和关注度,确定文本中要关注的目标关注点。
根据本公开的实施例,文本可以包括由一个或多个文本段落构成的关注点稀疏的文本。关注点稀疏例如可以表征为关注点在文本中的提及频率小于预设频率。预设频率可以根据文本环境自定义设定,例如可以包括3%、5%、9%等频率,且可不限于此。例如,某个文本表示按照项目的维度,一段段进行描述的文本,该文本想要表达的某个核心关注点可能不会多次提及,例如仅在某一段中提及一次,但根据项目顺序以及语义来说,它确实是该文本需要核心关注的关注点,该文本可以被确定为关注点稀疏的文本。
根据本公开的实施例,目标文本段落可以表示文本中任意一段或多段文本段落。目标文本段落中可以包括上述核心关注点,也可以不包括上述核心关注点。
根据本公开的实施例,第一召回关注点可以为采用第一召回算法,针对目标文本段落召回的关注点。第二召回关注点可以为采用第二召回算法,针对目标文本段落召回的关注点。第一召回算法和第二召回算法不同。第一召回关注点和第二召回关注点可以完全相同、部分相同或完全不同。
根据本公开的实施例,在获得第一召回关注点和第二召回关注点之后,可以将第一召回关注点确定为候选关注点,也可以将第二召回关注点确定为候选关注点,也可以将第一召回关注点和第二召回关注点的交集确定为候选关注点,也可以将部分第一召回关注点和部分第二召回关注点确定为候选关注点,在此不做限定。例如,本实施例中,可以将第一关注点和第二关注点的并集确定为候选关注点。
根据本公开的实施例,在需要计算候选关注点在目标文本段落中的关注度的情况下,可以根据预设的关注度计算公式,通过计算候选关注点和目标文本段落的关联性,得到候选关注点的关注度。也可以结合attention(注意力机制),计算得到候选关注点在目标文本段落中的关注度。
根据本公开的实施例,第一预设阈值可以预定义设定,用于对候选关注点进行筛选,得到目标关注点。例如,可以将关注度大于或等于第一预设阈值的候选关注点确定为目标关注点。还可以从关注度大于或等于第一预设阈值的候选关注点中,随机抽取部分关注点作为目标关注点。还可以根据关注度对候选关注点进行排序,并根据排序结果,将关注度较大的预设数目个候选关注点确定为目标关注点。
根据本公开的实施例,目标关注点可以作为针对文本的文本标签。
通过本公开的上述实施例,由于根据针对目标文本段落确定的第一召回关注点和第二召回关注点确定候选关注点,可以结合段落上下文信息确定召回关注点,提升关注点计算效果。该方法尤其适用于关注点分布稀疏的文本,可以从关注点稀疏的文本中有效地抽取出核心关注点,并可提升核心关注点的计算准确率。
下面结合具体实施例,对图2所示的方法做进一步说明。
生成式标签计算模型是端到端通过模型来输出标签结果,会导致标签计算结果可控性较低,如果出现极其恶劣的badcase不好控制。
根据本公开的实施例,为获取第一召回关注点和第二召回关注点,上述操作S210可以包括:对文本进行分段,得到目标文本段落。基于倒排索引的方法,对目标文本段落进行关注点召回,得到第一召回关注点。将目标文本段落输入通用信息抽取模型,得到第二召回关注点。
根据本公开的实施例,在对文本进行分段时,可以根据段落结构,将一个文本段落确定为一个目标文本段落。例如,文本中包括多个文本段落,可以将每一个文本段落均确定为目标文本段落。也可以根据文本结构,将一个或多个文本段落确定为一个目标文本段落。例如,文本中包括第一部分文本、第二部分文本等,第一部分文本可以包括一个文本段落,第二部分文本可以包括多个文本段落,可以将第一部分文本中的文本段落确定为目标文本段落,将第二部分文本中的文本段落确定为另一个目标文本段落。
根据本公开的实施例,倒排索引和通用信息抽取模型均可以用于从目标文本段落中召回关注点。倒排索引还可以替换为信息匹配的方法。基于倒排索引或信息匹配的方法召回的关注点可以作为第一关注点。基于通用信息抽取模型召回的关注点可以作为第二关注点。基于通用信息抽取模型召回的关注点可以比基于倒排索引或信息匹配的方法召回的关注点具有更高的权重。
根据本公开的实施例,在基于倒排索引的方法召回第一召回关注点的情况下,可以首先构建倒排索引信息。然后,从目标文本段落中获得词信息,并结合倒排索引信息中的词信息,确定第一召回关注点,得到的第一召回关注点可以包括从目标文本段落中获得词信息,以及倒排索引信息中与该词信息相关的信息。
根据本公开的实施例,在基于信息匹配的方法召回第一召回关注点的情况下可以首先确定预定义信息。然后,根据预定义信息,从目标文本段落中获取预定义信息的匹配信息,并将匹配信息确定第一召回关注点,得到的第一召回关注点可以包括目标文本段落中存在的预定义信息。预定义信息可以由用户预先设定,也可以根据与文本内容相关的领域内的通用检索词确定。
根据本公开的实施例,通用信息抽取模型(简称UIE模型,全称为UniversalInformation Extraction)可以基于ERNIE 3.0(一种语义理解框架)知识增强预训练模型训练得到。在关注点计算冷启动场景,UIE模型能够支持零样本的快速冷启动,并具备优秀的小样本微调能力,实现仅使用少量样本即可快速训练得到适用于召回关注点的UIE模型。
图3示意性示出了根据本公开实施例的基于UIE模型召回关注点的示意图。
如图3所示,UIE模型300的输入信息可以包括文本关注点310和目标文本段落320。CLS为起始符,可以表征输入信息的开始。文本关注点310可以表征UIE模型300的输出为输入文本的关注点。输入文本可以包括一个或多个目标文本段落320。多个目标文本段落320之间,以及文本关注点310和目标文本段落320之间,可以使用隔离符SEP进行隔离,实现基于UIE模型310对各个目标文本段落320进行信息抽取,得到各个目标文本段落320的第二召回关注点330,如图3中可以包括第二关注点1和第二关注点2等,且可不限于此。针对一个目标文本段落320可以召回一个或多个第二召回关注点。
需要说明的是,上述基于ERNIE 3.0训练得到UIE模型的方法仅是示例性实施例,但不限于此,还可以包括本领域已知的其他模型训练方法,只要能够得到适用于召回文本中关注点的模型即可。
通过本公开的上述实施例,结合使用倒排索引+UIE模型,针对分段得到的目标文本段落召回候选关注点,可以在计算关注点时,增加文本段落的上下文信息,降低断章取义关注点的召回权重。尤其适用于关注点分布稀疏的文本,通过该种方式,可有效提升召回的关注点的效果及质量。
根据本公开的实施例,上述对文本进行分段,得到目标文本段落可以包括:根据预设段落标识,对文本进行分段,得到目标文本段落。
根据本公开的实施例,在文本叙述有规律可循的情况下,可以根据文本叙述规律,确定预设段落标识。预设段落标识可以包括可表征不同段落的分段标识。分段标识可以根据文本内容预先定义,如可以包括“项目”、“部分”等预定义标识,还可以包括回车、换行等文本结构标识,且可不限于此。在需要对文本进行分段时,可以根据如“项目”等分段标识,将不同项目的文本划分为不同的目标文本段落。
图4示意性示出了根据本公开实施例的根据预设段落标识对文本进行分段的示意图。
如图4所示,待分段的文本410包括项目一及其相关信息,以及项目二及其相关信息。针对文本410,如果以单句话的维度进行关注点计算,会自然的将“语义知识图谱”和“语义检索”都作为核心关注点进行输出。但进一步分析文本410的内容可以发现“语义知识图谱”当前没有人力投入,而“语义检索”是当前正在做并需关注的工作。因此将“语义知识图谱”和“语义检索”均作为需要关注的核心关注点是不合适的。如果将文本410的所有内容进行关注点计算,又会引进不相关的内容,进而降低关注点计算的准确率。例如,在对“语义检索”进行关注点计算时,会引入“语义知识图谱的当前进展:pending,暂无人力”,影响对“语义检索”关注点的计算准确率。
根据本公开的实施例,可以基于文本410的叙述规律对文本410进行分段。如图4所示,针对该文本410,可以以“项目”作为分段标识,进行文本分段,得到包括项目一及其相关信息的第一目标文本段落420以及包括项目二及其相关信息的第二目标文本段落430。
通过本公开的上述实施例,根据文本的规律进行段落划分,在进行关注点计算时,可以增加文本的上下文信息,提升关注点计算的效果。尤其适用于关注点分布稀疏的文本,通过该种方式,可有效提高召回的关注点的准确率。
根据本公开的实施例,上述对文本进行分段,得到目标文本段落还可以包括:获取与文本相对应的超文本标记语言内容。根据超文本标记语言标签,对文本进行分段,得到目标文本段落。
根据本公开的实施例,超文本标记语言内容可以表征文本的HTML(超文本标记语言)格式的内容。超文本标记语言标签可以包括多种HTML标签,如可以包括如下中的至少之一:标题标签<h>...</h>、换行标签<br>、加粗标签<b>...</b>等,且可不限于此。
根据本公开的实施例,在存在超文本标记语言内容的情况下,可以首先获取文本的原始HTML内容。然后,例如可以根据HTML内容里的标题标签,对文本进行分段。标题标签h表示网页HTML中对文本标题进行着重强调的一种标签。h可以包括h1-h6,分别表示不同的标题展示方式,用于表征不同类别的标题标签。根据不同类别的标题标签,可以对文本进行更加细粒度的分段。
需要说明的是,在某些实施例中,也可以根据换行标签、加粗标签及其他标签等其中至少一种标签,实现对文本的分段。
通过本公开的上述实施例,可以结合多种划分方式,对文本进行段落划分,尤其适用于关注点分布稀疏的文本,在进行关注点计算时,可以结合目标文本段落的上下文信息,提升关注点计算的效果,提高召回的关注点的准确率。
根据本公开的实施例,上述基于倒排索引的方法,对目标文本段落进行关注点召回,得到第一召回关注点可以包括:获取预设关注点池,预设关注点池中包括根据关注点词和关注点扩展词构建的键值对确定的倒排索引,关注点词作为键值对中的键,关注点扩展词作为键值对中的值。对目标文本段落进行分词,得到目标关注点词。根据目标关注点词,从预设关注点池中获得目标关注点词的目标关注点扩展词。根据目标关注点词和目标关注点扩展词,得到第一召回关注点。
根据本公开的实施例,预设关注点池中的关注点词和关注点扩展词可以是从公开文本集中挖掘得到的。关注点扩展词也可以是在关注点词的基础上进行语义扩展得到的。预设关注点池中可以包括多个key-value(键值)对,每个key-value对可以表现为倒排索引的形式。预设关注点池中的每一个key-value(键值)对可以表现为<关注点词,[关注点扩展词1,关注点扩展词2,关注点3扩展词...]>的形式。例如,关注点词为“知识”,基于该关注点词构建的倒排索引可以表现为<知识,[知识图谱,知识管理,知识计算...]>。
根据本公开的实施例,在对文本进行分段得到目标文本段落之后,可以针对每个目标文本段落,对该目标文本段落进行分词处理,得到一个或多个目标关注点词。然后,可以基于该目标关注点词,从预设关注点池的倒排索引中确定与该目标关注点词相匹配的key,并获取该key的部分或全部value,作为目标关注点扩展词。从而可以基于倒排索引的方式,根据目标关注点词和目标关注点扩展词,得到第一召回关注点。
通过本公开的上述实施例,基于倒排索引的方式,可以为每个关注点词构建相对应的关注点扩展词,根据关注点词和关注点扩展词确定第一召回关注点,可以提高针对目标文本段落召回的第一召回关注点的丰富度及完整性,提高关注点召回效果。
根据本公开的实施例,在获得第一召回关注点和第二召回关注点之后,上述操作S220可以包括:对第一召回关注点和第二召回关注点进行融合,得到融合结果。根据融合结果,确定候选关注点。
根据本公开的实施例,在对第一召回关注点和第二召回关注点进行融合时,可以通过求和的方式进行融合。例如,第一召回关注点为“高精地图”,第二召回关注点为“地图”,融合结果可以包括“高精地图”和“地图”。
根据本公开的实施例,在对第一召回关注点和第二召回关注点进行融合时,也可以通过求并集的方式进行融合。例如,第一召回关注点为“高精地图”,第二召回关注点为“地图”,融合结果可以包括“高精地图”,并可以不包括“地图”。
通过本公开的上述实施例,由于根据第一召回关注点和第二召回关注点的融合结果确定侯选关注点,可以提高针对目标文本段落召回的侯选关注点的数据量及丰富度,有利于提高目标关注点的计算准确率。
根据本公开的实施例,基于倒排索引或信息匹配的方式召回第一召回关注点可以对应第一权重,基于UIE模型召回的第二召回关注点可以对应第二权重,第二权重可以大于第一权重。上述对第一召回关注点和第二召回关注点进行融合,得到融合结果可以包括:响应于确定第一召回关注点和第二召回关注点的相似度大于或等于第二预设阈值,将第二召回关注点确定为融合结果。响应于确定第一召回关注点与第二召回关注点的相似度小于第三预设阈值,将第一关注点和第二关注点均确定为融合结果。第三预设阈值小于或等于第二预设阈值。
根据本公开的实施例,第一召回关注点和第二召回关注点的相似度可以根据两关注点间的匹配字数确定。第二预设阈值和第三预设阈值可以由预定义设定,用于根据第一召回关注点和第二召回关注点的相似度,对第一召回关注点和第二召回关注点进行归类,如可以归为属于相似关注点的一类,或者不属于相似关注点的一类。
根据本公开的实施例,采用倒排索引或信息匹配的方式召回的第一召回关注点可以作为初次召回的结果。使用UIE模型召回的第二召回关注点可以作为二次召回的结果。在得到两次召回结果之后,可以使用二次召回的第二召回关注点对初次召回的第一召回关注点进行修正。修正方式可以包括:如果初次召回的第一召回关注点被二次召回的第二召回关注点包含,则直接使用二次召回的第二召回关注点。否则,二次召回的第二召回关注点的权重会比初次召回的第一召回关注点的权重更高,更可信。例如,对于“云建图算法优化”,基于倒排索引的方法可以召回“图算法”,基于UIE模型可以召回“云建图算法”,“图算法”和“云建图算法”具有较高的相似度,例如该相似度大于第二预设阈值,则修正后召回的关注点可以是“云建图算法”。
根据本公开的实施例,在确定第一召回关注点和第二召回关注点被确定为不属于相似关注点的情况下,可以基于前述求和的方式,确定上述融合结果。
通过本公开的上述实施例,由于基于第二召回关注点对第一召回关注点进行修正,可以降低断章取义关注点的召回权重,提升关注点计算时的覆盖率,有效提升候选关注点的召回质量。
根据本公开的实施例,在根据第一召回关注点和第二召回关注点确定候选关注点之后,上述操作S230可以包括:根据目标文本段落的多个词向量,得到与候选关注点相对应的权重矩阵。根据权重矩阵和候选关注点的特征向量,得到候选关注点的关注度。
根据本公开的实施例,通过将目标文本段落输入编码器,可以得到目标文本段落的多个词向量。通过对目标文本段落进行向量转换,也可以得到目标文本段落的多个词向量。在确定权重矩阵的过程中,可以首先定义线性变换矩阵query、key。然后,在得到多个词向量之后,通过对多个词向量进行query线性变换和key线性变换,可以得到多个词向量的Q向量和K向量。通过对多个词向量的Q向量和K向量进行相乘计算,结合第一缩放因子,可以得到与该目标文本段落的候选关注点相对应的权重矩阵。
根据本公开的实施例,通过将候选关注点输入编码器,可以得到候选关注点的特征向量。通过对候选关注点进行向量转换,也可以得到候选关注点的特征向量。在确定关注度的过程中,通过对权重矩阵和特征向量进行相乘计算,可以得到该特征向量对应的候选关注点的关注度。在确定关注度的过程中,还可以首先定义线性变换矩阵value。然后,通过对线性变换矩阵value和特征向量进行相乘计算,得到特征向量的加权向量。通过对权重矩阵和加权向量进行相乘计算,可以得到该特征向量对应的候选关注点的关注度。
根据本公开的实施例,上述相乘计算例如可以基于Transformer或Reformer模型等实现,在此不做限定。
通过本公开的上述实施例,由于在计算候选关注点的关注度的过程中,增加了与候选关注点相对应的目标文本段落的上下文信息,可有效提升计算效果,提高确定的目标关注点的准确性。
基础的预训练Transformer模型,虽然有丰富的文本编码表达,但由于占用内存较高的问题,Transformer模型对输入文本的最大长度限制在512个字符,这使得Transformer在对长文本进行编码时存在长度限制。即使Transformer-XL、Compressive Transformer(压缩变压器)等文本切片方法试图打破多个文本切片的隔阂,但文本切片后分别编码本身就意味着切片之间的信息交互不够充分。这样会导致在重要信息分布稀疏的场景上,对长文本进行编码时会丢失较多重要的语义信息。此外,基于Transformer的多头注意力机制进行Q和K的相乘计算时,时间复杂度是O(L2),L表示句子长度,由此可得,如果待计算的文本很长,该部分计算会非常耗时。
根据本公开的实施例,可以使用Reformer模型代替Transformer模型,执行上述计算过程。Reformer模型可以通过局部敏感哈希和可逆残差的方式,缓解Transformer计算效率慢和内存占用过多的问题。
根据本公开的实施例,在将Reformer模型应用到本公开的计算场景的过程中,上述根据目标文本段落的多个词向量,得到与候选关注点相对应的权重矩阵可以包括:对多个词向量进行局部敏感哈希计算,得到多个哈希值。根据多个哈希值,对多个词向量进行分桶。对划分至同一个桶的词向量进行相乘计算,得到乘积值。根据乘积值,得到权重矩阵。
根据本公开的实施例,进行局部敏感哈希计算时使用的算法可以包括如下中的至少之一:自定义构建的hash(哈希)算法、K-均值聚类算法等,且可不限于此。Hash算法可以包括多种计算方式不同的算法。在使用hash算法进行局部敏感哈希计算的情况下,针对每个词向量计算得到的结构可以被确定为该词向量的哈希值。在使用K-均值聚类算法进行局部敏感哈希计算的情况下,可以将同一个簇的词向量的哈希值确定为相同的数值,将不同簇的词向量的哈希值确定为不同的数值。
根据本公开的实施例,在得到多个词向量的多个哈希值之后,可以将哈希值相同的词向量划分至同一个桶。也可以根据哈希值的数值相似度,将相似度较高的词向量划分至同一个桶。
根据本公开的实施例,基于局部敏感哈希的思想:如果两个向量Q和K是相似的,则hash(Q)和hash(K)也可以是相似的,即可以将它们分到同一个桶中。上述根据多个哈希值,对多个词向量进行分桶可以包括:响应于确定多个哈希值中的第一哈希值和第二哈希值之差小于第四预设阈值,将与第一哈希值相对应的词向量以及与第二哈希值相对应的词向量划分至同一个桶。
根据本公开的实施例,计算Q和K的相乘,主要是为了得到Q和K的相似部分。在对多个词向量的Q向量和K向量进行相乘计算的过程中,基于局部敏感哈希,可以仅对相似的Q向量和K向量进行计算,即可仅对划分至同一个桶的词向量的Q向量和K向量进行相乘计算,得到各个桶的乘积值。然后,可以根据各个桶的乘积值,结合第二缩放因子,得到权重矩阵。
需要说明的是,第一缩放因子和第二缩放因子可以相同或不同。
通过本公开的上述实施例,由于结合局部敏感哈希先对多个词向量进行分桶后再进行相乘计算,可有效减少计算量,提升计算效率。
根据本公开的实施例,上述对划分至同一个桶的词向量进行相乘计算,得到乘积值可以包括:根据桶的标识信息,对多个词向量进行分组,得到多个词向量的分组排列结果。对分组排列结果进行分块,得到至少一个分块,分块中包括预设数目个词向量。以分块为单位,对划分至同一个桶的词向量进行相乘计算,得到乘积值。
根据本公开的实施例,在对多个词向量分桶的过程中,不同的桶可以具有不同的标识信息。分组的过程可以将同一个桶的词向量互粉之一起。分组排列结果可以表征以分组为单位排律的多个词向量。
根据本公开的实施例,在对分组排列结果进行分块时,可以将一个分组的词向量划分为一个分块。在该种情况下,不同的分块包括的词向量的数目可以不同。也可以根据分组排列结果,将每预设数目个词向量划分为一个分块。在该种情况下,不同的分块包括的词向量的数目相同,均为预设数目个。
根据本公开的实施例,在对划分至同一个桶的词向量的Q向量和K向量进行相乘计算的过程中,可以根据分块结果,以分块为单位,对划分至同一个桶的词向量的Q向量和K向量进行相乘计算,以得到各个桶内词向量的乘积值。该过程可以包括:在确定分块中的词向量均属于同一个桶的情况下,可以对该分块中的词向量的Q向量和K向量进行相乘计算。在确定某一个分块中的词向量至少属于第一桶和第二桶的情况下,可以对该某一个分块中属于第一桶的词向量进行相乘计算,对该分块中属于第二桶的词向量进行相乘计算,并可在确定其他分块中包括属于第一桶或第二桶的词向量的情况下,对该某一个分块中第一桶的计算结果和其他分块中属于第一桶的词向量进行相乘计算,或者对该某一个分块中第二桶的计算结果和其他分块中属于第二桶的词向量进行相乘计算,以得到各个桶的乘积值。
需要说明的是,上述相乘计算均可以表征词向量的Q向量和K向量的相乘计算,在此不再赘述。
通过本公开的上述实施例,以分块为单位进行相乘计算,可以有效降低计算时的时间复杂度,提高计算效率。
根据本公开的实施例,上述根据桶的标识信息,对多个词向量进行分组,得到多个词向量的分组排列结果可以包括:根据桶的标识信息,对多个词向量进行分组,得到至少一个初始分组,初始分组中包括被划分至同一个桶的词向量集合。根据词向量集合中的词向量在目标文本段落中的位置信息,对与词向量集合相对应的初始分组中的词向量进行排序,得到排序后分组。根据至少一个排序后分组,得到多个词向量的分组排列结果。
根据本公开的实施例,根据词在文本中的排列位数等信息,例如可以确定词向量在目标文本段落中的位置信息。对每一个初始分组中的词向量,可以根据词向量的位置信息,对初始分组中的词向量进行重排,以得到根据位置信息排列的词向量的排序后分组。在对每个初始分组均进行前述方式的重排之后,可以根据所有初始分组对应的排序后分组,得到分组排列结果。
需要说明的是,分组排列结果中不同的排序后分组可以随机排列,在此不进行限定。
通过本公开的上述实施例,在分组排列结果中引入词向量的位置信息进行计算,可以进一步提高计算效率。
图5示意性示出了根据本公开实施例的局部敏感哈希计算的示意图。
如图5所示,在对目标文本段落进行向量化处理后例如可以得到包括多个词向量的向量集510。对向量集510中的每个词向量进行LSH计算,可以得到多个词向量的多个哈希值,根据多个哈希值对词向量进行分桶,确保每个词向量都在各自的桶中,例如可以得到分桶结果520。根据分桶结果520,将属于同一个桶的词向量放到一起,并在同一个桶里,按照词向量原本的position(位置)信息进行排序,例如可以得到分组排列结果530。针对分布排列结果530进行分块,例如可以将每4个词向量划分为一个分块,可以得到分块结果540。在分块结果540的每个分块内,可以对同一个桶内的词向量计算attention。例如,参见分块结果540和计算过程550所示,可以分别对第一分块541、第四分块544中的四个词向量计算attention。如果在前一个分块内还有当前分块内词向量所属桶的词向量,可以结合前一个分块内相同桶的词向量计算attention。例如,针对第三分块543中的词向量543_1,由于第二分块542中的第二词向量542_2、第三词向量542_3、第四词向量542_4与该词向量543_1属于同一个桶,可以对第二分块542中的第二词向量542_2、第三词向量542_3、第四词向量542_4和第三分块543中的词向量543_1计算attention。
根据本公开的实施例,针对向量集510中的每个词向量,可以使得每个词向量的query==key,以得到每个词向量的Q向量和K向量。通过对Q向量和K向量继续相乘计算,实现每个query都能关注到key,以及每个key都能被query关注到。
根据本公开的实施例,在上述计算过程中,例如可以包括多个网络层的计算,每一个网络层可以接收前一个网络层的输入值,如可以包括目标文本段落信息以及前一个网络层计算得到的attention,计算得到输出值,如可以包括当前网络层计算得到的attention。根据最后一个网络层计算得到的attention,例如可以得到候选关注点的关注度。在本实施例中,基于Reformer模型的可逆残差,可以仅保存最后一个网络层的输入,其他各层网络层的输入可以结合可逆残差计算得到。通过该中方式,可以减少大量的内存空间。
通过本公开的上述实施例,利用局部敏感哈希可有效减少计算量,提升计算效率。利用可逆残差可有效降低内存消耗,并可提高Reformer模型可处理的输入文本的最大长度。基于上述计算方式,选用Reformer模型来计算候选关注点在目标文本段落中的关注度,可缓解长文本编码时切片导致语义信息交互不充分的问题,提升整体的计算效果。
根据本公开的实施例,在基于上述方式计算得到候选关注点的关注度之后,上述操作S240可以包括:根据候选关注点的关注度和目标权重,确定候选关注点的目标关注度。目标权重为基于倒排索引召回的第一召回关注点对应的第一权重或基于UIE模型召回的第二召回关注点对应的第二权重。根据第一预设阈值和目标关注度,确定文本中要关注的目标关注点。
根据本公开的实施例,在候选关注点为基于倒排索引召回的关注点的情况下,候选关注点的目标关注度可以根据第一权重和候选关注点的关注度确定。在候选关注点为基于UIE模型或基于倒排索引和UIE模型召回的关注点的情况下,候选关注点的目标关注度可以根据第二权重和候选关注点的关注度确定。
根据本公开的实施例,在根据第一预设阈值和目标关注度,确定文本中要关注的目标关注点的过程中,例如,可以将目标关注度大于或等于第一预设阈值的候选关注点确定为目标关注点。还可以从目标关注度大于或等于第一预设阈值的候选关注点中,随机抽取部分关注点作为目标关注点。还可以根据目标关注度对候选关注点进行排序,并根据排序结果,将目标关注度较大的预设数目个候选关注点确定为目标关注点。
通过本公开的上述实施例,由于针对倒排索引的模糊匹配方法配置第一权重,针对召回结果更精确的UIE模型配置相较于第一权重较大的第二权重,并结合第一权重和第二权重确定目标关注点,可以进一步提高确定的目标关注点的准确性。
图6示意性示出了根据本公开实施例的基于UIE+Reformer的文本处理方法的整体流程图。
如图6所示,针对每一个分段得到的目标文本段落610,可以在预先挖掘的预设关注点池621的基础上,结合倒排索引模块622,得到第一召回关注点623。并可以基于UIE模型631进行关注度召回操作,得到第二召回关注点632。然后,可以利用第二召回关注点632对第一召回关注点623进行修正及重排,得到候选关注点640。之后,可以将候选关注点640和目标文本段落610输入Reformer模型650,结合局部敏感哈希和可逆残差,计算得到目标关注点660。
根据本公开的实施例,上述流程尤其可适用于关注点分布稀疏的文本,具有较强的实践意义和较高的扩展性。
根据本公开的实施例,在获得关注点稀疏的文本的目标关注点之后,可以根据目标关注点,将与目标关注点相关的已有的实践、经验、知识及时高效地推荐给用户。
例如,上述文本处理方法可应用于知识分发系统一智能知识助手项目的用户关注点计算模块中,该项目可以针对关注点分布稀疏的文本,挖掘核心关注点需求,从而建立用户与知识、知识与用户、用户与用户的充分连接,使知识流动得更加合理和高效。
通过本公开的上述实施例,针对关注点分布稀疏的场景,通过对文本进行段落划分,可以增加文本的上下文信息,提升关注点计算的效果。使用倒排索引+UIE模型融合召回关注点的方式,可以提高关注点召回数量及丰富度,并可有效缓解模糊匹配召回带来的断章取义的问题。选用Reformer模型来计算文本和候选关注点的核心度得分,利用局部敏感哈希可以减少计算量,提升计算效率,使用可逆残差可以降低内存消耗,通过上述方式可有效缓长文本编码时语义信息交互不充分的问题,可提升整体的计算效果及准确率,并具有较强的实践意义。
需要说明的是,上述文本处理方法可以通过在基于召回+排序两步走的标签抽取模型上,进行针对性的改进和优化来实现。在基于召回+排序两步走的标签抽取模型上,进行针对性的改进和优化仅是示例性实施例,但不限于此,还可以在本领域已知的其他模型上进行改进和优化,只要能够实现上述文本处理方法即可。
图7示意性示出了根据本公开实施例的文本检索方法的流程图。
如图7所示,该方法包括操作S710~S730。
在操作S710,获取检索词。
在操作S720,确定与检索词相关的文本标签。文本标签是利用文本处理方法确定的目标关注点确定的。
在操作S730,根据文本标签,得到目标文本,作为基于检索词的检索结果。
根据本公开的实施例,基于本公开的文本处理方法,对文本进行处理后可以得到一个或多个目标关注点。该一个或多个目标关注点均可作为该文本的文本标签,用于检索时获得目标文本。例如,在检索词与已有文本标签相匹配的情况下,可以将与检索词匹配的文本标签对应的目标文本确定为基于检索词的检索结果。在检索词与已有文本标签不匹配的情况下,可以从已有文本标签中确定与检索词的相似度较高的目标文本标签。然后,可以将目标文本标签对应的目标文本确定为基于检索词的检索结果。
通过本公开的上述实施例,可以将文本处理方法应用于文本检索场景,尤其是对于关注点分布稀疏的文本的检索,具有较强的实用意义。
图8示意性示出了根据本公开实施例的文本处理装置的框图。
如图8所示,文本处理装置800包括第一确定模块810、第二确定模块820、第一获得模块830和第三确定模块840。
第一确定模块810,用于针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点。
第二确定模块820,用于根据第一召回关注点和第二召回关注点,确定候选关注点。
第一获得模块830,用于根据候选关注点和目标文本段落,得到候选关注点的关注度,关注度表征候选关注点在目标文本段落中的关注度。
第三确定模块840,用于根据第一预设阈值和关注度,确定文本中要关注的目标关注点。
根据本公开的实施例,第一确定模块包括分段子模块、第一获得子模块和第二获得子模块。
分段子模块,用于对文本进行分段,得到目标文本段落。
第一获得子模块,用于基于倒排索引的方法,对目标文本段落进行关注点召回,得到第一召回关注点。
第二获得子模块,用于将目标文本段落输入通用信息抽取模型,得到第二召回关注点。
根据本公开的实施例,分段子模块包括第一分段单元。
第一分段单元,用于根据预设段落标识,对文本进行分段,得到目标文本段落。
根据本公开的实施例,分段子模块包括获取单元和第二分段单元。
获取单元,用于获取与文本相对应的超文本标记语言内容。
第二分段单元,用于根据超文本标记语言标签,对文本进行分段,得到目标文本段落。
根据本公开的实施例,超文本标记语言标签包括如下中的至少之一:标题标签、换行标签、加粗标签。
根据本公开的实施例,第一获得子模块包括获取单元、分词单元、第一获得单元和第二获得单元。
获取单元,用于获取预设关注点池,预设关注点池中包括根据关注点词和关注点扩展词构建的键值对确定的倒排索引,关注点词作为键值对中的键,关注点扩展词作为键值对中的值。
分词单元,用于对目标文本段落进行分词,得到目标关注点词。
第一获得单元,用于根据目标关注点词,从预设关注点池中获得目标关注点词的目标关注点扩展词。
第二获得单元,用于根据目标关注点词和目标关注点扩展词,得到第一召回关注点。
根据本公开的实施例,第二确定模块包括融合子模块和第一确定子模块。
融合子模块,用于对第一召回关注点和第二召回关注点进行融合,得到融合结果。
第一确定子模块,用于根据融合结果,确定候选关注点。
根据本公开的实施例,第一召回关注点对应第一权重,第二召回关注点对应第二权重,第二权重大于第一权重。第二确定模块包括第二确定子模块和第三确定子模块。
第二确定子模块,用于响应于确定第一召回关注点和第二召回关注点的相似度大于或等于第二预设阈值,将第二召回关注点确定为融合结果。
第三确定子模块,用于响应于确定第一召回关注点与第二召回关注点的相似度小于第三预设阈值,将第一关注点和第二关注点均确定为融合结果,其中,第三预设阈值小于或等于第二预设阈值。
根据本公开的实施例,第一获得模块包括第三获得子模块和第四获得子模块。
第三获得子模块,用于根据目标文本段落的多个词向量,得到与候选关注点相对应的权重矩阵。
第四获得子模块,用于根据权重矩阵和候选关注点的特征向量,得到候选关注点的关注度。
根据本公开的实施例,第三获得子模块包括第一计算单元、分桶单元、第二计算单元和第三获得单元。
第一计算单元,用于对多个词向量进行局部敏感哈希计算,得到多个哈希值。
分桶单元,用于根据多个哈希值,对多个词向量进行分桶。
第二计算单元,用于对划分至同一个桶的词向量进行相乘计算,得到乘积值。
第三获得单元,用于根据乘积值,得到权重矩阵。
根据本公开的实施例,分桶单元包括分桶子单元。
分桶子单元,用于响应于确定多个哈希值中的第一哈希值和第二哈希值之差小于第四预设阈值,将与第一哈希值相对应的词向量以及与第二哈希值相对应的词向量划分至同一个桶。
根据本公开的实施例,第二计算单元包括第一分组子单元、分块子单元和计算子单元。
第一分组子单元,用于根据桶的标识信息,对多个词向量进行分组,得到多个词向量的分组排列结果。
分块子单元,用于对分组排列结果进行分块,得到至少一个分块,分块中包括预设数目个词向量。
计算子单元,用于以分块为单位,对划分至同一个桶的词向量进行相乘计算,得到乘积值。
根据本公开的实施例,第一分组子单元包括第二分组子单元、排序子单元和获得子单元。
第二分组子单元,用于根据桶的标识信息,对多个词向量进行分组,得到至少一个初始分组,初始分组中包括被划分至同一个桶的词向量集合。
排序子单元,用于根据词向量集合中的词向量在目标文本段落中的位置信息,对与词向量集合相对应的初始分组中的词向量进行排序,得到排序后分组。
获得子单元,用于根据至少一个排序后分组,得到多个词向量的分组排列结果。
根据本公开的实施例,第一召回关注点对应第一权重,第二召回关注点对应第二权重,第二权重大于第一权重。第三确定模块包括第四确定子模块和第五确定子模块。
第四确定子模块,用于根据候选关注点的关注度和目标权重,确定候选关注点的目标关注度,其中,目标权重为第一权重或第二权重。
第五确定子模块,用于根据第一预设阈值和目标关注度,确定文本中要关注的目标关注点。
图9示意性示出了根据本公开实施例的文本检索装置的框图。
如图9所示,文本检索装置900包括获取模块910、第四确定模块920和第二获得模块930。
获取模块910,用于获取检索词。
第四确定模块920,用于确定与检索词相关的文本标签。文本标签是利用本公开的文本处理方法确定的目标关注点确定的。
第二获得模块930,用于根据文本标签,得到目标文本,作为基于检索词的检索结果。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开的文本处理方法和文本检索方法其中至少一种方法。
根据本公开的实施例,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开的文本处理方法和文本检索方法其中至少一种方法。
根据本公开的实施例,一种计算机程序产品,包括计算机程序,计算机程序存储于可读存储介质和电子设备其中至少之一上,计算机程序在被处理器执行时实现本公开的文本处理方法和文本检索方法其中至少一种方法。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如文本处理方法和文本检索方法其中至少一种方法。例如,在一些实施例中,文本处理方法和文本检索方法其中至少一种方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的文本处理方法和文本检索方法其中至少一种方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行文本处理方法和文本检索方法其中至少一种方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (27)
1.一种文本处理方法,包括:
针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点;
根据所述第一召回关注点和所述第二召回关注点,确定候选关注点;
根据所述候选关注点和所述目标文本段落,得到所述候选关注点的关注度,包括:
对所述目标文本段落的多个词向量进行局部敏感哈希计算,得到多个哈希值;
根据所述多个哈希值,对所述多个词向量进行分桶,包括:响应于确定所述多个哈希值中的第一哈希值和第二哈希值之差小于第四预设阈值,将与所述第一哈希值相对应的词向量以及与所述第二哈希值相对应的词向量划分至同一个桶;
对划分至同一个桶的词向量进行相乘计算,得到乘积值;
根据所述乘积值,得到权重矩阵;以及
根据所述权重矩阵和所述候选关注点的特征向量,得到所述候选关注点的关注度;所述关注度表征所述候选关注点在所述目标文本段落中的关注度;以及
根据第一预设阈值和所述关注度,确定所述文本中要关注的目标关注点,所述目标关注点作为针对所述文本的文本标签。
2.根据权利要求1所述的方法,其中,所述针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点包括:
对所述文本进行分段,得到所述目标文本段落;
基于倒排索引的方法,对所述目标文本段落进行关注点召回,得到所述第一召回关注点;以及
将所述目标文本段落输入通用信息抽取模型,得到所述第二召回关注点。
3.根据权利要求2所述的方法,其中,所述对所述文本进行分段,得到所述目标文本段落包括:
根据预设段落标识,对所述文本进行分段,得到所述目标文本段落。
4.根据权利要求2所述的方法,其中,所述对所述文本进行分段,得到所述目标文本段落包括:
获取与所述文本相对应的超文本标记语言内容;以及
根据超文本标记语言标签,对所述文本进行分段,得到所述目标文本段落。
5.根据权利要求4所述的方法,其中,所述超文本标记语言标签包括如下中的至少之一:标题标签、换行标签、加粗标签。
6.根据权利要求2所述的方法,其中,所述基于倒排索引的方法,对所述目标文本段落进行关注点召回,得到所述第一召回关注点包括:
获取预设关注点池,所述预设关注点池中包括根据关注点词和关注点扩展词构建的键值对确定的倒排索引,所述关注点词作为所述键值对中的键,所述关注点扩展词作为所述键值对中的值;
对所述目标文本段落进行分词,得到目标关注点词;
根据所述目标关注点词,从所述预设关注点池中获得所述目标关注点词的目标关注点扩展词;以及
根据所述目标关注点词和所述目标关注点扩展词,得到所述第一召回关注点。
7.根据权利要求1-6中任一项所述的方法,其中,所述根据所述第一召回关注点和所述第二召回关注点,确定候选关注点包括:
对所述第一召回关注点和所述第二召回关注点进行融合,得到融合结果;以及
根据所述融合结果,确定所述候选关注点。
8.根据权利要求7所述的方法,其中,所述第一召回关注点对应第一权重,所述第二召回关注点对应第二权重,所述第二权重大于所述第一权重;
所述对所述第一召回关注点和所述第二召回关注点进行融合,得到融合结果包括:
响应于确定所述第一召回关注点和所述第二召回关注点的相似度大于或等于第二预设阈值,将所述第二召回关注点确定为所述融合结果;以及
响应于确定所述第一召回关注点与所述第二召回关注点的相似度小于第三预设阈值,将所述第一召回关注点和所述第二召回关注点均确定为所述融合结果,其中,所述第三预设阈值小于或等于所述第二预设阈值。
9.根据权利要求1所述的方法,其中,所述对划分至同一个桶的词向量进行相乘计算,得到乘积值包括:
根据所述桶的标识信息,对所述多个词向量进行分组,得到所述多个词向量的分组排列结果;
对所述分组排列结果进行分块,得到至少一个分块,所述分块中包括预设数目个所述词向量;以及
以所述分块为单位,对划分至同一个桶的词向量进行相乘计算,得到所述乘积值。
10.根据权利要求9所述的方法,其中,所述根据所述桶的标识信息,对所述多个词向量进行分组,得到所述多个词向量的分组排列结果包括:
根据所述桶的标识信息,对所述多个词向量进行分组,得到至少一个初始分组,所述初始分组中包括被划分至同一个桶的词向量集合;
根据所述词向量集合中的词向量在所述目标文本段落中的位置信息,对与所述词向量集合相对应的初始分组中的词向量进行排序,得到排序后分组;以及
根据至少一个所述排序后分组,得到所述多个词向量的分组排列结果。
11.根据权利要求1-10中任一项所述的方法,其中,所述第一召回关注点对应第一权重,所述第二召回关注点对应第二权重,所述第二权重大于所述第一权重;
所述根据第一预设阈值和所述关注度,确定所述文本中要关注的目标关注点包括:
根据所述候选关注点的关注度和目标权重,确定所述候选关注点的目标关注度,其中,所述目标权重为所述第一权重或所述第二权重;以及
根据所述第一预设阈值和所述目标关注度,确定所述文本中要关注的目标关注点。
12.一种文本检索方法,包括:
获取检索词;
确定与所述检索词相关的文本标签,其中,所述文本标签是利用根据权利要求1-11中任一项所述的方法确定的目标关注点确定的;以及
根据所述文本标签,得到目标文本,作为基于所述检索词的检索结果。
13.一种文本处理装置,包括:
第一确定模块,用于针对文本中的目标文本段落,确定第一召回关注点和第二召回关注点;
第二确定模块,用于根据所述第一召回关注点和所述第二召回关注点,确定候选关注点;
第一获得模块,用于根据所述候选关注点和所述目标文本段落,得到所述候选关注点的关注度,所述第一获得模块包括:
第一计算单元,用于对所述目标文本段落的多个词向量进行局部敏感哈希计算,得到多个哈希值;
分桶单元,用于根据所述多个哈希值,对所述多个词向量进行分桶,所述分桶单元包括:分桶子单元,用于响应于确定所述多个哈希值中的第一哈希值和第二哈希值之差小于第四预设阈值,将与所述第一哈希值相对应的词向量以及与所述第二哈希值相对应的词向量划分至同一个桶;
第二计算单元,用于对划分至同一个桶的词向量进行相乘计算,得到乘积值;
第三获得单元,用于根据所述乘积值,得到权重矩阵;以及
第四获得子模块,用于根据所述权重矩阵和所述候选关注点的特征向量,得到所述候选关注点的关注度;所述关注度表征所述候选关注点在所述目标文本段落中的关注度;以及
第三确定模块,用于根据第一预设阈值和所述关注度,确定所述文本中要关注的目标关注点,所述目标关注点作为针对所述文本的文本标签。
14.根据权利要求13所述的装置,其中,所述第一确定模块包括:
分段子模块,用于对所述文本进行分段,得到所述目标文本段落;
第一获得子模块,用于基于倒排索引的方法,对所述目标文本段落进行关注点召回,得到所述第一召回关注点;以及
第二获得子模块,用于将所述目标文本段落输入通用信息抽取模型,得到所述第二召回关注点。
15.根据权利要求14所述的装置,其中,所述分段子模块包括:
第一分段单元,用于根据预设段落标识,对所述文本进行分段,得到所述目标文本段落。
16.根据权利要求14所述的装置,其中,所述分段子模块包括:
获取单元,用于获取与所述文本相对应的超文本标记语言内容;以及
第二分段单元,用于根据超文本标记语言标签,对所述文本进行分段,得到所述目标文本段落。
17.根据权利要求16所述的装置,其中,所述超文本标记语言标签包括如下中的至少之一:标题标签、换行标签、加粗标签。
18.根据权利要求14所述的装置,其中,所述第一获得子模块包括:
获取单元,用于获取预设关注点池,所述预设关注点池中包括根据关注点词和关注点扩展词构建的键值对确定的倒排索引,所述关注点词作为所述键值对中的键,所述关注点扩展词作为所述键值对中的值;
分词单元,用于对所述目标文本段落进行分词,得到目标关注点词;
第一获得单元,用于根据所述目标关注点词,从所述预设关注点池中获得所述目标关注点词的目标关注点扩展词;以及
第二获得单元,用于根据所述目标关注点词和所述目标关注点扩展词,得到所述第一召回关注点。
19.根据权利要求13-18中任一项所述的装置,其中,所述第二确定模块包括:
融合子模块,用于对所述第一召回关注点和所述第二召回关注点进行融合,得到融合结果;以及
第一确定子模块,用于根据所述融合结果,确定所述候选关注点。
20.根据权利要求19所述的装置,其中,所述第一召回关注点对应第一权重,所述第二召回关注点对应第二权重,所述第二权重大于所述第一权重;
所述第二确定模块包括:
第二确定子模块,用于响应于确定所述第一召回关注点和所述第二召回关注点的相似度大于或等于第二预设阈值,将所述第二召回关注点确定为所述融合结果;以及
第三确定子模块,用于响应于确定所述第一召回关注点与所述第二召回关注点的相似度小于第三预设阈值,将所述第一召回关注点和所述第二召回关注点均确定为所述融合结果,其中,所述第三预设阈值小于或等于所述第二预设阈值。
21.根据权利要求13所述的装置,其中,所述第二计算单元包括:
第一分组子单元,用于根据所述桶的标识信息,对所述多个词向量进行分组,得到所述多个词向量的分组排列结果;
分块子单元,用于对所述分组排列结果进行分块,得到至少一个分块,所述分块中包括预设数目个所述词向量;以及
计算子单元,用于以所述分块为单位,对划分至同一个桶的词向量进行相乘计算,得到所述乘积值。
22.根据权利要求21所述的装置,其中,所述第一分组子单元包括:
第二分组子单元,用于根据所述桶的标识信息,对所述多个词向量进行分组,得到至少一个初始分组,所述初始分组中包括被划分至同一个桶的词向量集合;
排序子单元,用于根据所述词向量集合中的词向量在所述目标文本段落中的位置信息,对与所述词向量集合相对应的初始分组中的词向量进行排序,得到排序后分组;以及
获得子单元,用于根据至少一个所述排序后分组,得到所述多个词向量的分组排列结果。
23.根据权利要求13-22中任一项所述的装置,其中,所述第一召回关注点对应第一权重,所述第二召回关注点对应第二权重,所述第二权重大于所述第一权重;
所述第三确定模块包括:
第四确定子模块,用于根据所述候选关注点的关注度和目标权重,确定所述候选关注点的目标关注度,其中,所述目标权重为所述第一权重或所述第二权重;以及
第五确定子模块,用于根据所述第一预设阈值和所述目标关注度,确定所述文本中要关注的目标关注点。
24.一种文本检索装置,包括:
获取模块,用于获取检索词;
第四确定模块,用于确定与所述检索词相关的文本标签,其中,所述文本标签是利用根据权利要求13-23中任一项所述的装置确定的目标关注点确定的;以及
第二获得模块,用于根据所述文本标签,得到目标文本,作为基于所述检索词的检索结果。
25.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-12中任一项所述的方法。
26.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-12中任一项所述的方法。
27.一种计算机程序产品,包括计算机程序,所述计算机程序存储于可读存储介质和电子设备其中至少之一上,所述计算机程序在被处理器执行时实现根据权利要求1-12中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211690177.XA CN116028618B (zh) | 2022-12-27 | 2022-12-27 | 文本处理、文本检索方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211690177.XA CN116028618B (zh) | 2022-12-27 | 2022-12-27 | 文本处理、文本检索方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116028618A CN116028618A (zh) | 2023-04-28 |
CN116028618B true CN116028618B (zh) | 2023-10-27 |
Family
ID=86077231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211690177.XA Active CN116028618B (zh) | 2022-12-27 | 2022-12-27 | 文本处理、文本检索方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116028618B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116662811B (zh) * | 2023-06-13 | 2024-02-06 | 无锡物联网创新中心有限公司 | 一种工业设备的时序状态数据重构方法及相关装置 |
CN117093717B (zh) * | 2023-10-20 | 2024-01-30 | 湖南财信数字科技有限公司 | 一种相似文本聚合方法、装置、设备及其存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107291895A (zh) * | 2017-06-21 | 2017-10-24 | 浙江大学 | 一种快速的层次化文档查询方法 |
CN107491518A (zh) * | 2017-08-15 | 2017-12-19 | 北京百度网讯科技有限公司 | 一种搜索召回方法和装置、服务器、存储介质 |
CN109271598A (zh) * | 2018-08-01 | 2019-01-25 | 数据地平线(广州)科技有限公司 | 一种抽取新闻网页内容的方法、装置及存储介质 |
CN110119445A (zh) * | 2018-01-15 | 2019-08-13 | 北京京东尚科信息技术有限公司 | 生成特征向量和基于特征向量进行文本分类的方法和装置 |
CN110309355A (zh) * | 2018-06-15 | 2019-10-08 | 腾讯科技(深圳)有限公司 | 内容标签的生成方法、装置、设备及存储介质 |
CN111967262A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 实体标签的确定方法和装置 |
CN112131350A (zh) * | 2020-09-30 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 文本标签确定方法、装置、终端及可读存储介质 |
CN112214593A (zh) * | 2020-11-05 | 2021-01-12 | 腾讯科技(深圳)有限公司 | 问答处理方法、装置、电子设备及存储介质 |
CN112711953A (zh) * | 2021-01-19 | 2021-04-27 | 湖南大学 | 一种基于注意力机制和gcn的文本多标签分类方法和系统 |
CN114461748A (zh) * | 2022-02-14 | 2022-05-10 | 北京百度网讯科技有限公司 | 标签抽取方法、装置、存储介质以及电子设备 |
CN114722141A (zh) * | 2021-01-06 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 文本检测方法及装置 |
CN114818681A (zh) * | 2022-06-24 | 2022-07-29 | 西南财经大学 | 一种实体识别方法及系统、计算机可读存储介质及终端 |
CN115309996A (zh) * | 2022-09-16 | 2022-11-08 | 中孚安全技术有限公司 | 一种基于多路召回的信息推荐方法及系统 |
-
2022
- 2022-12-27 CN CN202211690177.XA patent/CN116028618B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107291895A (zh) * | 2017-06-21 | 2017-10-24 | 浙江大学 | 一种快速的层次化文档查询方法 |
CN107491518A (zh) * | 2017-08-15 | 2017-12-19 | 北京百度网讯科技有限公司 | 一种搜索召回方法和装置、服务器、存储介质 |
CN110119445A (zh) * | 2018-01-15 | 2019-08-13 | 北京京东尚科信息技术有限公司 | 生成特征向量和基于特征向量进行文本分类的方法和装置 |
CN110309355A (zh) * | 2018-06-15 | 2019-10-08 | 腾讯科技(深圳)有限公司 | 内容标签的生成方法、装置、设备及存储介质 |
CN109271598A (zh) * | 2018-08-01 | 2019-01-25 | 数据地平线(广州)科技有限公司 | 一种抽取新闻网页内容的方法、装置及存储介质 |
CN111967262A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 实体标签的确定方法和装置 |
CN112131350A (zh) * | 2020-09-30 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 文本标签确定方法、装置、终端及可读存储介质 |
CN112214593A (zh) * | 2020-11-05 | 2021-01-12 | 腾讯科技(深圳)有限公司 | 问答处理方法、装置、电子设备及存储介质 |
CN114722141A (zh) * | 2021-01-06 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 文本检测方法及装置 |
CN112711953A (zh) * | 2021-01-19 | 2021-04-27 | 湖南大学 | 一种基于注意力机制和gcn的文本多标签分类方法和系统 |
CN114461748A (zh) * | 2022-02-14 | 2022-05-10 | 北京百度网讯科技有限公司 | 标签抽取方法、装置、存储介质以及电子设备 |
CN114818681A (zh) * | 2022-06-24 | 2022-07-29 | 西南财经大学 | 一种实体识别方法及系统、计算机可读存储介质及终端 |
CN115309996A (zh) * | 2022-09-16 | 2022-11-08 | 中孚安全技术有限公司 | 一种基于多路召回的信息推荐方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116028618A (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116028618B (zh) | 文本处理、文本检索方法、装置、电子设备及存储介质 | |
CN107301170B (zh) | 基于人工智能的切分语句的方法和装置 | |
US20220318275A1 (en) | Search method, electronic device and storage medium | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN112541125B (zh) | 序列标注模型训练方法、装置及电子设备 | |
CN113434636B (zh) | 基于语义的近似文本搜索方法、装置、计算机设备及介质 | |
CN113660541B (zh) | 新闻视频的摘要生成方法及装置 | |
CN112506864B (zh) | 文件检索的方法、装置、电子设备及可读存储介质 | |
CN112579729A (zh) | 文档质量评价模型的训练方法、装置、电子设备和介质 | |
CN113806660A (zh) | 数据评估方法、训练方法、装置、电子设备以及存储介质 | |
CN113010752A (zh) | 召回内容的确定方法、装置、设备以及存储介质 | |
CN112925912A (zh) | 文本处理方法、同义文本召回方法及装置 | |
CN116597443A (zh) | 素材标签处理方法、装置、电子设备及介质 | |
CN114491232B (zh) | 信息查询方法、装置、电子设备和存储介质 | |
CN113378015B (zh) | 搜索方法、装置、电子设备、存储介质和程序产品 | |
CN112860626B (zh) | 一种文档排序方法、装置及电子设备 | |
CN112528644B (zh) | 实体挂载的方法、装置、设备以及存储介质 | |
CN112926297B (zh) | 处理信息的方法、装置、设备和存储介质 | |
CN112784600A (zh) | 信息排序方法、装置、电子设备和存储介质 | |
CN114662480B (zh) | 同义标签判断方法、装置、计算机设备和存储介质 | |
CN115878784B (zh) | 基于自然语言理解的摘要生成方法、装置及电子设备 | |
CN115795023B (zh) | 文档推荐方法、装置、设备以及存储介质 | |
CN115828915B (zh) | 实体消歧方法、装置、电子设备和存储介质 | |
CN113220841B (zh) | 确定鉴别信息的方法、装置、电子设备和存储介质 | |
CN114662480A (zh) | 同义标签判断方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |