CN114519356A - 目标词语的检测方法、装置、电子设备及存储介质 - Google Patents
目标词语的检测方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114519356A CN114519356A CN202210160972.1A CN202210160972A CN114519356A CN 114519356 A CN114519356 A CN 114519356A CN 202210160972 A CN202210160972 A CN 202210160972A CN 114519356 A CN114519356 A CN 114519356A
- Authority
- CN
- China
- Prior art keywords
- target
- entity
- vector
- text
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本申请提供了一种目标词语的检测方法、装置、电子设备及存储介质,属于人工智能技术领域。该方法包括:获取待检测的原始言论数据;通过预设的特征提取模型对原始言论数据进行实体特征提取,得到文本实体特征;根据文本实体特征对预设知识图谱进行知识抽取,得到实体三元组;通过预设的目标词语检测模型对原始言论数据、文本实体特征、实体三元组进行特征抽取,得到目标文本特征向量、目标实体特征向量、目标属性特征向量;通过目标词语检测模型对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,得到目标言论表征向量,并对目标言论表征向量进行目标词语检测,得到目标词语数据。本申请能够提高检测目标词语的准确性。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种目标词语的检测方法、装置、电子设备及存储介质。
背景技术
目前,检测目标词语的方法大多数是基于人工构建的特征来对言论中的目标词语进行检测,而人工构建特征往往需要技术人员具有较强的业务知识和领域知识,这会使得基于人工构建的特征具有一定的局限性,影响目标词语的检测准确性,因此,如何提高检测目标词语的准确性,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出一种目标词语的检测方法、装置、电子设备及存储介质,旨在提高检测目标词语的准确性。
为实现上述目的,本申请实施例的第一方面提出了一种目标词语的检测方法,所述方法包括:
获取待检测的原始言论数据;
通过预先训练的特征提取模型对所述原始言论数据进行实体特征提取,得到文本实体特征;
根据所述文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组;
通过预先训练的目标词语检测模型对所述原始言论数据进行特征抽取,得到目标文本特征向量,并通过所述目标词语检测模型对所述文本实体特征进行特征抽取,得到目标实体特征向量;
通过所述目标词语检测模型对所述实体三元组进行特征抽取,得到目标属性特征向量;
通过所述目标词语检测模型对所述目标文本特征向量、所述目标属性特征向量、所述目标实体特征向量进行加权计算,得到目标言论表征向量;
通过所述目标词语检测模型对所述目标言论表征向量进行目标词语检测,得到目标词语数据。
在一些实施例,所述特征提取模型包括第一嵌入层、Bi-LSTM层以及CRF层,所述通过预先训练的特征提取模型对所述原始言论数据进行实体特征提取,得到文本实体特征的步骤,包括:
通过所述第一嵌入层对所述原始言论数据进行词嵌入处理,得到文本词向量;
通过所述Bi-LSTM层的预设函数、预设特征类别标签以及所述文本词向量进行标签概率计算,得到每一预设特征类别标签的预测概率值;
根据所述CRF层的预设约束因子和所述预测概率值进行特征提取,得到所述文本实体特征。
在一些实施例,所述根据所述文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组的步骤,包括:
根据所述文本实体特征,遍历所述知识图谱的每一知识节点,得到与所述文本实体特征对应的候选属性特征;
根据所述知识图谱的特征连接路径,对所述候选属性特征进行筛选处理,得到目标属性特征;
对所述目标属性特征和所述文本实体特征进行拼接处理,得到所述实体三元组。
在一些实施例,所述目标词语检测模型包括第二嵌入层、第三嵌入层、第一GRU层以及第二GRU层,所述通过预先训练的目标词语检测模型对所述原始言论数据进行特征抽取,得到目标文本特征向量,并通过所述目标词语检测模型对所述文本实体特征进行特征抽取,得到目标实体特征向量的步骤,包括:
通过所述第二嵌入层对所述原始言论数据进行编码处理,得到初始文本特征向量;
通过所述第三嵌入层对所述文本实体特征进行编码处理,得到初始实体特征向量;
通过所述第一GRU层对所述初始文本特征向量进行特征抽取,得到所述目标文本特征向量;
通过所述第二GRU层对所述初始实体特征向量进行特征抽取,得到所述目标实体特征向量。
在一些实施例,所述目标词语检测模型包括第四嵌入层和图卷积网络层,所述通过所述目标词语检测模型对所述实体三元组进行特征抽取,得到目标属性特征向量的步骤,包括:
通过所述第四嵌入层对所述实体三元组进行编码处理,得到初始属性特征向量;
通过所述图卷积网络层对所述初始属性特征向量进行图卷积处理,得到所述目标属性特征向量。
在一些实施例,所述目标词语检测模型包括第一注意力机制层、第二注意力机制层以及第三注意力机制层,所述通过所述目标词语检测模型对所述目标文本特征向量、所述目标属性特征向量、所述目标实体特征向量进行加权计算,得到目标言论表征向量的步骤,包括:
通过所述第一注意力机制层和预设的第一权重比例对所述目标文本特征向量、所述目标实体特征向量进行加权计算,得到第一表征向量;
通过所述第二注意力机制层和预设的第二权重比例对所述目标实体特征向量、所述目标属性特征向量进行加权计算,得到第二表征向量;
通过所述第三注意力机制层和预设的第三权重比例对所述第一表征向量、所述第二表征向量进行加权计算,得到所述目标言论表征向量。
在一些实施例,所述目标词语检测模型包括全连接层和预测层,所述通过所述目标词语检测模型对所述目标言论表征向量进行目标词语检测,得到目标词语数据的步骤,包括:
通过所述全连接层将所述目标言论表征向量映射到预设的向量空间,得到标准言论表征向量;
通过所述预测层的预测函数、言论类别标签以及所述标准言论表征向量进行标签概率计算,得到每一所述言论类别标签的预测概率值;
根据所述预测概率值与预设的预测概率阈值的大小关系,得到所述目标词语数据。
为实现上述目的,本申请实施例的第二方面提出了一种目标词语的检测装置,所述装置包括:
数据获取模块,用于获取待检测的原始言论数据;
实体特征提取模块,用于通过预先训练的特征提取模型对所述原始言论数据进行实体特征提取,得到文本实体特征;
知识抽取模块,用于根据所述文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组;
第一特征提取模块,用于通过预先训练的目标词语检测模型对所述原始言论数据进行特征抽取,得到目标文本特征向量,并通过所述目标词语检测模型对所述文本实体特征进行特征抽取,得到目标实体特征向量;
第二特征提取模块,用于通过所述目标词语检测模型对所述实体三元组进行特征抽取,得到目标属性特征向量;
加权计算模块,用于通过所述目标词语检测模型对所述目标文本特征向量、所述目标属性特征向量、所述目标实体特征向量进行加权计算,得到目标言论表征向量;
目标词语检测模块,用于通过所述目标词语检测模型对所述目标言论表征向量进行目标词语检测,得到目标词语数据。
为实现上述目的,本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现上述第一方面所述的方法。
为实现上述目的,本申请实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述第一方面所述的方法。
本申请提出的目标词语的检测方法、装置、电子设备及存储介质,其通过获取待检测的原始言论数据;通过预先训练的特征提取模型对原始言论数据进行实体特征提取,得到文本实体特征,能够使得得到的文本实体特征更加符合检测需求。进而,根据文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组,并通过预先训练的目标词语检测模型对原始言论数据、文本实体特征以及实体三元组进行特征抽取,得到目标文本特征向量、目标实体特征向量以及目标属性特征向量,提高了特征提取效率。进一步地,通过目标词语检测模型对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,得到目标言论表征向量,这样一来,能够较为准确地对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,提高目标言论表征向量的准确性。最后,通过目标词语检测模型对目标言论表征向量进行目标词语检测,得到目标词语数据,能够提高检测目标词语的准确性。
附图说明
图1是本申请实施例提供的目标词语的检测方法的流程图;
图2是图1中的步骤S102的流程图;
图3是图1中的步骤S103的流程图;
图4是图1中的步骤S104的流程图;
图5是图1中的步骤S105的流程图;
图6是图1中的步骤S106的流程图;
图7是图1中的步骤S107的流程图;
图8是本申请实施例提供的目标词语的检测装置的结构示意图;
图9是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(natural language processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息意图识别、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
信息抽取(Information Extraction,NER):从自然语言文本中抽取指定类型的实体、关系、事件等事实信息,并形成结构化数据输出的文本处理技术。信息抽取是从文本数据中抽取特定信息的一种技术。文本数据是由一些具体的单位构成的,例如句子、段落、篇章,文本信息正是由一些小的具体的单位构成的,例如字、词、词组、句子、段落或是这些具体的单位的组合。抽取文本数据中的名词短语、人名、地名等都是文本信息抽取,当然,文本信息抽取技术所抽取的信息可以是各种类型的信息。
知识图谱(Knowledge Graph):是通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的现代理论。知识图谱主要目标是用来描述真实世界中存在的各种实体和概念,以及他们之间的强关系,我们用关系去描述两个实体之间的关联。在Web视角下,知识图谱如同简单文本之间的超链接一样,通过建立数据之间的语义链接,支持语义搜索。在自然语言处理视角下,知识图谱就是从文本中抽取语义和结构化的数据。在人工智能视角下,知识图谱是利用知识库来辅助理解人类语言的工具。在数据库视角下,知识图谱是利用图的方式去存储知识的方法。知识图谱是比较通用的语义知识的形式化描述框架,用节点表示语义符号,用边表示语义之间的关系。知识图谱旨在描述真实世界中存在的各种实体或概念及其关系,其构成一张巨大的语义网络图,节点表示实体或概念,边则由属性或关系构成。现在的知识图谱已被用来泛指各种大规模的知识库。知识图谱又被称作语义网络(semantic network),从早期开始,语义网络就推动了基于图的知识表示,例如,推动RDF标准的过程中,在这样一个基于图的知识表示体系里面,实体作为图的节点,节点之间的连线作为关系。在构建知识图谱的过程中,往往需要将文本向量化,因此基于文本数据的 Word2Vec应运而生,其通过浅神经网络语言模型将每个词用一个向量表示,通过构建输入层、映射层和输出层,利用神经网络学习可预测在该词上下文中出现概率最大的词语。通过对文本词库的训练将文本转化为n维向量空间中的向量,并通过在空间中的余弦相似度代表词语在语义上的接近程度。
实体:指具有可区别性且独立存在的某种事物。如某一个人、某一个城市、某一种植物等、某一种商品等等。世界万物有具体事物组成,此指实体。实体是知识图谱中的最基本元素,不同的实体间存在不同的关系。
关系:实体与实体之间、不同的概念与概念之间、概念与实体之间存在的某种相互关系。关系形式化为一个函数,它把k个点映射到一个布尔值。在知识图谱上,关系则是一个把k个图节点(实体、语义类、属性值)映射到布尔值的函数。
属性(值):实体指定属性的值,是从一个实体指向它的属性值。不同的属性类型对应于不同类型属性的边。属性值主要指对象指定属性的值。例如:“面积”、“人口”、“首都”是几种不同的属性。属性值主要指对象指定属性的值,例如960万平方公里等。
属性(值):实体指定属性的值,是从一个实体指向它的属性值。不同的属性类型对应于不同类型属性的边。属性值主要指对象指定属性的值。例如:“面积”、“人口”、“首都”是几种不同的属性。属性值主要指对象指定属性的值,例如960万平方公里等。
嵌入(embedding):embedding是一种向量表征,是指用一个低维的向量表示一个物体,该物体可以是一个词,或是一个商品,或是一个电影等等;这个embedding向量的性质是能使距离相近的向量对应的物体有相近的含义,比如embedding(复仇者联盟)和embedding(钢铁侠)之间的距离就会很接近,但 embedding(复仇者联盟)和embedding(乱世佳人)的距离就会远一些。embedding 实质是一种映射,从语义空间到向量空间的映射,同时尽可能在向量空间保持原样本在语义空间的关系,如语义接近的两个词汇在向量空间中的位置也比较接近。embedding能够用低维向量对物体进行编码还能保留其含义,常应用于机器学习,在机器学习模型构建过程中,通过把物体编码为一个低维稠密向量再传给DNN,以提高效率。
注意力机制(Attention Mechanism):注意力机制源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。上述机制通常被称为注意力机制。注意力一般分为两种:一种是自上而下的有意识的注意力,称为聚焦式(focus)注意力。聚焦式注意力是指有预定目的、依赖任务的、主动有意识地聚焦于某一对象的注意力;另一种是自下而上的无意识的注意力,称为基于显著性(saliency-based) 的注意力。基于显著性的注意力是由外界刺激驱动的注意,不需要主动干预,也和任务无关。如果一个对象的刺激信息不同于其周围信息,门控(gating) 机制就可以把注意力转向这个对象。注意力机制的变体包括多头注意力 (multi-headattention)和硬性注意力(hardattention),多头注意力是利用多个查询,来平行地计算从输入信息中选取多个信息。每个注意力关注输入信息的不同部分。硬性注意力有两种实现方式,一种是选取最高概率的输入信息。另一种硬性注意力可以通过在注意力分布式上随机采样的方式实现。
双向长短时记忆(Bi-directional Long Short-Term Memory,Bi-LSTM):是由前向LSTM与后向LSTM组合而成。在自然语言处理任务中都常被用来建模上下文信息。Bi-LSTM在LSTM的基础上,结合了输入序列在前向和后向两个方向上的信息。对于t时刻的输出,前向LSTM层具有输入序列中t时刻以及之前时刻的信息,而后向LSTM层中具有输入序列中t时刻以及之后时刻的信息。前向LSTM层t时刻的输出记作,后向LSTM层t时刻的输出结果记作,两个LSTM 层输出的向量可以使用相加、平均值或连接等方式进行处理。
条件随机场算法(conditional random field algorithm,CRF):是一种数学算法;结合了最大熵模型和隐马尔可夫模型的特点,是一种无向图模型,近年来在分词、词性标注和命名实体识别等序列标注任务中取得了很好的效果。条件随机场是一个典型的判别式模型,其联合概率可以写成若干势函数联乘的形式,其中最常用的是线性链条件随机场。若让x=(x1,x2,…xn)表示被观察的输入数据序列,y=(y1,y2,…yn)表示一个状态序列,在给定一个输入序列的情况下,线性链的CRF模型定义状态序列的联合条件概率为p(y|x)=exp{} (2-14);Z(x)={}(2-15);其中:Z是以观察序列x为条件的概率归一化因子; fj(yi-1,yi,x,i)是一个任意的特征函数。
门控循环单元(GRU,gated recurrent unit):GRU是为了解决长期记忆和反向传播中的梯度等问题而提出来的。GRU作为LSTM的一种变体,将忘记门和输入门合成了一个单一的更新门。同样还混合了细胞状态和隐藏状态,加诸其他一些改动。最终的模型比标准的LSTM模型要简单,也是非常流行的变体。在GRU模型中只有两个门:分别是更新门和重置门。
目前,检测目标词语的方法大多数是基于人工构建的特征来对言论中的目标词语进行检测,而人工构建特征往往需要技术人员具有较强的业务知识和领域知识,这会使得基于人工构建的特征具有一定的局限性,影响目标词语的检测准确性,因此,如何提高检测目标词语的准确性,成为了亟待解决的技术问题。
基于此,本申请实施例提供了一种目标词语的检测方法、装置、电子设备及存储介质,旨在提高检测目标词语的准确性。
本申请实施例提供的目标词语的检测方法、装置、电子设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的目标词语的检测方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的目标词语的检测方法,涉及人工智能技术领域。本申请实施例提供的目标词语的检测方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现目标词语的检测方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
图1是本申请实施例提供的目标词语的检测方法的一个可选的流程图,图1 中的方法可以包括但不限于包括步骤S101至步骤S107。
步骤S101,获取待检测的原始言论数据;
步骤S102,通过预先训练的特征提取模型对原始言论数据进行实体特征提取,得到文本实体特征;
步骤S103,根据文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组;
步骤S104,通过预先训练的目标词语检测模型对原始言论数据进行特征抽取,得到目标文本特征向量,并通过目标词语检测模型对文本实体特征进行特征抽取,得到目标实体特征向量;
步骤S105,通过目标词语检测模型对实体三元组进行特征抽取,得到目标属性特征向量;
步骤S106,通过目标词语检测模型对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,得到目标言论表征向量;
步骤S107,通过目标词语检测模型对目标言论表征向量进行目标词语检测,得到目标词语数据。
本申请实施例的步骤S101至步骤S107,通过预先训练的特征提取模型对原始言论数据进行实体特征提取,能够使得得到的文本实体特征更加符合检测需求。根据文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组,并通过预先训练的目标词语检测模型对原始言论数据、文本实体特征以及实体三元组进行特征抽取,得到目标文本特征向量、目标实体特征向量以及目标属性特征向量,能够提高特征提取效率。通过目标词语检测模型对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,能够较为准确地对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,提高目标言论表征向量的准确性。最后,通过目标词语检测模型对目标言论表征向量进行目标词语检测,得到目标词语数据,能够提高检测目标词语的准确性。
在一些实施例的步骤S101中,可以通过编写网络爬虫,设置好数据源之后进行有目标性地爬取数据,得到待检测的原始言论数据。需要说明的是,该原始言论数据可以从不同类型的社交媒体上获取到,例如,新浪微博、知识论坛、百度贴吧等等,不限于此。原始言论数据可以包括用户发布的社会新闻、通知公告等信息,例如,原始言论数据可以是“某小学的寒假时间推迟”等等。
在一些实施例中,步骤S102之前,该方法还包括预训练特征提取模型,该特征提取模型可以根据命名实体识别算法(Named Entity Recognition,NER) 训练得到,例如,通过BERT模型+条件随机场算法(CRF)、Bi-LSTM算法+条件随机场算法(CRF)等等对初始模型进行训练,得到特征提取模型,其中,特征提取模型包括第一嵌入层、Bi-LSTM层以及CRF层。
请参阅图2,在一些实施例中,步骤S102可以包括但不限于包括步骤S201 至步骤S203:
步骤S201,通过第一嵌入层对原始言论数据进行词嵌入处理,得到文本词向量;
步骤S202,通过Bi-LSTM层的预设函数、预设特征类别标签以及文本词向量进行标签概率计算,得到每一预设特征类别标签的预测概率值;
步骤S203,根据CRF层的预设约束因子和预测概率值进行特征提取,得到文本实体特征。
在一些实施例的步骤S201中,通过第一嵌入层的Embedding能够用低维向量对原始言论数据进行词嵌入处理,得到文本词向量。
在一些实施例的步骤S202中,预设函数可以为softmax函数。Bi-LSTM层的bi-LSTM算法通过左到右的长短记忆和右向左的长短时记忆在输出被连接的位置生成单一的输出层。通过这一输出层可以将输入的文本词向量直接传递到 softmax函数上,通过softmax函数在预设特征类别标签上创建一个概率分布,从而根据概率分布对文本词向量进行标记分类,得到标注文本词向量和每一预设特征类别标签的预测概率值。
在一些实施例的步骤S203中,根据CRF层的预设约束因子和预测概率值对特征类别标签进行筛选处理,保留符合要求的特征类别标签,从而根据符合要求的特征类别标签得到对应的文本实体特征。例如,约束因子可以是句子中第一个词总是以标签“B-”或“O”开始,而不是“I-”。或者标签“B-label1 I-label2 I-label3 I-…”,label1,label2,label3应该属于同一类实体。例如,“B-Person I-Person”是合法的序列,但是“B-Person I-Organization”是非法标签序列。通过CRF层的预设约束因子能够提高特征提取的准确性,得到符合检测需求的文本实体特征。
请参阅图3,在一些实施例中,步骤S103可以包括但不限于包括步骤S301 至步骤S303:
步骤S301,根据文本实体特征,遍历知识图谱的每一知识节点,得到与文本实体特征对应的候选属性特征;
步骤S302,根据知识图谱的特征连接路径,对候选属性特征进行筛选处理,得到目标属性特征;
步骤S303,对目标属性特征和文本实体特征进行拼接处理,得到实体三元组。
在一些实施例的步骤S301中,通过遍历知识图谱的每一知识节点,可以得到每一条言论中涉及到的有关属性,即与文本实体特征对应的所有属性特征,将其作为候选属性特征。需要说明的是,这一知识图谱的构建过程可以是:根据已知知识图谱构建初始知识图谱的模式图,其中已知知识图谱基于选定的社交媒体的言论数据构建;将已知知识图谱中的结构化数据和非结构化数据转换成实体-属性-属性值的三元组,将三元组通过知识融合的方式整合到知识图谱中,获得初始知识图谱的数据图以及调整后的模式图;根据知识图谱的推理功能对初始知识图谱进行逻辑检查,获得最终的知识图谱。
在一些实施例的步骤S302中,根据知识图谱的特征连接路径,选取与文本实体特征直接相连的候选属性特征作为目标属性特征。进一步地,为了扩大数据量,还可以选取与文本实体特征间接连接的候选属性特征。通过这一方式能够对候选属性特征进行筛选处理,得到目标属性特征。
在一些实施例的步骤S303中,将目标属性特征与文本实体特征以及目标属性特征对应的属性值进行拼接、实体对齐处理,得到实体关系三元组,即实体三元组,该实体三元组可以表示为实体-属性-属性值。
在一些实施例中,步骤S104之前,该方法还包括预训练目标词语检测模型,该目标词语检测模型可以基于注意力机制算法进行构建。具体地,该目标词语检测模型的第一部分包括第二嵌入层、第三嵌入层、第一GRU层以及第二GRU 层以及图卷积网络层,用于对输入的特征数据进行编码处理和特征抽取,得到更能够体现出言论类别的特征向量。该目标词语检测模型的第二部分包括第一注意力机制层、第二注意力机制层以及第三注意力机制层,用于利用注意力机制算法对不同重要等级的特征向量赋予不同大小的权重,得到目标言论表征向量。该目标词语检测模型的第三部分包括全连接层和预测层,用于对目标言论表征向量进行目标词语预测,得到目标词语数据。
请参阅图4,在一些实施例中,目标词语检测模型包括第二嵌入层、第三嵌入层、第一GRU层以及第二GRU层,步骤S104可以包括但不限于包括步骤S401 至步骤S404:
步骤S401,通过第二嵌入层对原始言论数据进行编码处理,得到初始文本特征向量;
步骤S402,通过第三嵌入层对文本实体特征进行编码处理,得到初始实体特征向量;
步骤S403,通过第一GRU层对初始文本特征向量进行特征抽取,得到目标文本特征向量;
步骤S404,通过第二GRU层对所述初始实体特征向量进行特征抽取,得到目标实体特征向量。
在一些实施例的步骤S401和步骤S402中,通过第一嵌入层对原始言论数据进行内容(Content)编码,得到初始文本特征向量;通过第二嵌入层分别对对文本实体特征进行实体(Entity)编码,得到初始实体特征向量。
在一些实施例的步骤S403中,将初始文本特征向量送入第一GRU层,通过第一GRU层捕捉初始文本特征向量的时序信息,抽取到内容编码的高级特征,得到目标文本特征向量。
在一些实施例的步骤S404中,将初始实体特征向量送入第二GRU层,通过第二GRU层捕捉初始实体特征向量的时序信息,抽取到实体编的高级特征,得到目标实体特征向量。
请参阅图5,在一些实施例中,目标词语检测模型包括第四嵌入层和图卷积网络层,步骤S105可以包括但不限于包括步骤S501至步骤S502:
步骤S501,通过第四嵌入层对实体三元组进行编码处理,得到初始属性特征向量;
步骤S502,通过图卷积网络层对初始属性特征向量进行图卷积处理,得到目标属性特征向量。
在一些实施例的步骤S501中,通过第四嵌入层对实体三元组进行属性编码,得到初始属性特征向量。
在一些实施例的步骤S502中,通过图卷积网络层中的softmax函数对初始属性特征向量的每一节点进行实体分类,得到标签实体,进而根据图卷积网络层中自编码器和标签实体重构图的边,得到实体特征图,最后通过图卷积网络层对实体特征图进行卷积处理,得到目标属性特征向量。
请参阅图6,在一些实施例中,目标词语检测模型包括第一注意力机制层、第二注意力机制层以及第三注意力机制层,步骤S106可以包括但不限于包括步骤S601至步骤S603:
步骤S601,通过第一注意力机制层和预设的第一权重比例对目标文本特征向量、目标实体特征向量进行加权计算,得到第一表征向量;
步骤S602,通过第二注意力机制层和预设的第二权重比例对目标实体特征向量、目标属性特征向量进行加权计算,得到第二表征向量;
步骤S603,通过第三注意力机制层和预设的第三权重比例对第一表征向量、第二表征向量进行加权计算,得到目标言论表征向量。
在一些实施例的步骤S601中,将目标文本特征向量(Content Feature)、目标实体特征向量(Entity Feature)输入至第一注意力机制层(C&E attention 层),通过第一注意力机制层的注意力机制算法和第一权重比例对目标文本特征向量、目标实体特征向量进行加权计算,对重要程度更高的特征赋予更高的权重,得到第一表征向量F(C&E)。
在一些实施例的步骤S602中,将目标属性特征向量(Entity AttributeFeature)、目标实体特征向量(Entity Feature)输入至第二注意力机制层(E&EAattention层),通过第二注意力机制层的注意力机制算法和第二权重比例对目标属性特征向量、目标实体特征向量进行加权计算,得到第二表征向量F(E&EA)。
在一些实施例的步骤S603中,将第一注意力机制层输出的第一表征向量 F(C&E)作为Query(Q),将第二注意力机制层输出的第二表征向量F(E&EA)作为 Key(K)和Value(V)送入第三注意力机制层(C&E&EA attention层),通过第三注意力机制层的注意力机制算法和第三权重对一表征向量、第二表征向量进行加权计算,获得该言论的高级特征表达S,即目标言论表征向量。
请参阅图7,在一些实施例中,目标词语检测模型包括全连接层和预测层,步骤S107可以包括但不限于包括步骤S701至步骤S703:
步骤S701,通过全连接层将目标言论表征向量映射到预设的向量空间,得到标准言论表征向量;
步骤S702,通过预测层的预测函数、言论类别标签以及标准言论表征向量进行标签概率计算,得到每一言论类别标签的预测概率值;
步骤S703,根据预测概率值与预设的预测概率阈值的大小关系,得到目标词语数据。
在一些实施例的步骤S701中,通过全连接层中的MLP网络以及言论类别标签的特征维度,将目标言论表征向量映射到预设的向量空间,使得得到的标准言论表征向量与言论类别标签处于同一特征维度。
在一些实施例的步骤S702中,该预测函数可以为softmax函数。例如,通过softmax函数在每一言论类别标签上创建一个概率分布,得到标准言论表征向量属于每一言论类别的预测概率值。
在一些实施例的步骤S703中,提取在言论类别标签中,预测概率值大于或者等于预测概率阈值的标准言论表征向量,将该标准言论表征向量对应的言论数据作为目标词语数据。
本申请实施例通过获取待检测的原始言论数据;通过预先训练的特征提取模型对原始言论数据进行实体特征提取,得到文本实体特征,能够使得得到的文本实体特征更加符合检测需求。进而,根据文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组,并通过预先训练的目标词语检测模型对原始言论数据、文本实体特征以及实体三元组进行特征抽取,得到目标文本特征向量、目标实体特征向量以及目标属性特征向量,提高了特征提取效率。进一步地,通过目标词语检测模型对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,得到目标言论表征向量,这样一来,能够较为准确地对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,提高目标言论表征向量的准确性。最后,通过目标词语检测模型对目标言论表征向量进行目标词语检测,得到目标词语数据,能够提高检测目标词语的准确性。
请参阅图8,本申请实施例还提供一种目标词语的检测装置,可以实现上述目标词语的检测方法,该装置包括:
数据获取模块801,用于获取待检测的原始言论数据;
实体特征提取模块802,用于通过预先训练的特征提取模型对原始言论数据进行实体特征提取,得到文本实体特征;
知识抽取模块803,用于根据文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组;
第一特征提取模块804,用于通过预先训练的目标词语检测模型对原始言论数据进行特征抽取,得到目标文本特征向量,并通过目标词语检测模型对文本实体特征进行特征抽取,得到目标实体特征向量;
第二特征提取模块805,用于通过目标词语检测模型对实体三元组进行特征抽取,得到目标属性特征向量;
加权计算模块806,用于通过目标词语检测模型对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,得到目标言论表征向量;
目标词语检测模块807,用于通过目标词语检测模型对目标言论表征向量进行目标词语检测,得到目标词语数据。
该目标词语的检测装置的具体实施方式与上述目标词语的检测方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种电子设备,电子设备包括:存储器、处理器、存储在存储器上并可在处理器上运行的程序以及用于实现处理器和存储器之间的连接通信的数据总线,程序被处理器执行时实现上述目标词语的检测方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图9,图9示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器901,可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器902,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行本申请实施例的目标词语的检测方法;
输入/输出接口903,用于实现信息输入及输出;
通信接口904,用于实现本设备与其他设备的通信交互,可以通过有线方式 (例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线905,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口904)之间传输信息;
其中处理器901、存储器902、输入/输出接口903和通信接口904通过总线905实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,存储介质为计算机可读存储介质,用于计算机可读存储,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现上述目标词语的检测方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的目标词语的检测方法、目标词语的检测装置、电子设备及存储介质,其通过获取待检测的原始言论数据;通过预先训练的特征提取模型对原始言论数据进行实体特征提取,得到文本实体特征,能够使得得到的文本实体特征更加符合检测需求。进而,根据文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组,并通过预先训练的目标词语检测模型对原始言论数据、文本实体特征以及实体三元组进行特征抽取,得到目标文本特征向量、目标实体特征向量以及目标属性特征向量,提高了特征提取效率。进一步地,通过目标词语检测模型的注意力机制层和预设的权重比例对目标文本特征向量、目标属性特征向量、目标实体特征向量进行加权计算,能够关注到更为重要的属性特征,提高获取到的目标言论表征向量的准确性。最后,通过目标词语检测模型的预测函数、言论类别标签对目标言论表征向量进行目标词语检测,得到目标词语数据,能够提高检测目标词语的准确性。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1-7中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在 A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括: U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器 (Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。
Claims (10)
1.一种目标词语的检测方法,其特征在于,所述方法包括:
获取待检测的原始言论数据;
通过预先训练的特征提取模型对所述原始言论数据进行实体特征提取,得到文本实体特征;
根据所述文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组;
通过预先训练的目标词语检测模型对所述原始言论数据进行特征抽取,得到目标文本特征向量,并通过所述目标词语检测模型对所述文本实体特征进行特征抽取,得到目标实体特征向量;
通过所述目标词语检测模型对所述实体三元组进行特征抽取,得到目标属性特征向量;
通过所述目标词语检测模型对所述目标文本特征向量、所述目标属性特征向量、所述目标实体特征向量进行加权计算,得到目标言论表征向量;
通过所述目标词语检测模型对所述目标言论表征向量进行目标词语检测,得到目标词语数据。
2.根据权利要求1所述的目标词语的检测方法,其特征在于,所述特征提取模型包括第一嵌入层、Bi-LSTM层以及CRF层,所述通过预先训练的特征提取模型对所述原始言论数据进行实体特征提取,得到文本实体特征的步骤,包括:
通过所述第一嵌入层对所述原始言论数据进行词嵌入处理,得到文本词向量;
通过所述Bi-LSTM层的预设函数、预设特征类别标签以及所述文本词向量进行标签概率计算,得到每一预设特征类别标签的预测概率值;
根据所述CRF层的预设约束因子和所述预测概率值进行特征提取,得到所述文本实体特征。
3.根据权利要求1所述的目标词语的检测方法,其特征在于,所述根据所述文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组的步骤,包括:
根据所述文本实体特征,遍历所述知识图谱的每一知识节点,得到与所述文本实体特征对应的候选属性特征;
根据所述知识图谱的特征连接路径,对所述候选属性特征进行筛选处理,得到目标属性特征;
对所述目标属性特征和所述文本实体特征进行拼接处理,得到所述实体三元组。
4.根据权利要求1所述的目标词语的检测方法,其特征在于,所述目标词语检测模型包括第二嵌入层、第三嵌入层、第一GRU层以及第二GRU层,所述通过预先训练的目标词语检测模型对所述原始言论数据进行特征抽取,得到目标文本特征向量,并通过所述目标词语检测模型对所述文本实体特征进行特征抽取,得到目标实体特征向量的步骤,包括:
通过所述第二嵌入层对所述原始言论数据进行编码处理,得到初始文本特征向量;
通过所述第三嵌入层对所述文本实体特征进行编码处理,得到初始实体特征向量;
通过所述第一GRU层对所述初始文本特征向量进行特征抽取,得到所述目标文本特征向量;
通过所述第二GRU层对所述初始实体特征向量进行特征抽取,得到所述目标实体特征向量。
5.根据权利要求1所述的目标词语的检测方法,其特征在于,所述目标词语检测模型包括第四嵌入层和图卷积网络层,所述通过所述目标词语检测模型对所述实体三元组进行特征抽取,得到目标属性特征向量的步骤,包括:
通过所述第四嵌入层对所述实体三元组进行编码处理,得到初始属性特征向量;
通过所述图卷积网络层对所述初始属性特征向量进行图卷积处理,得到所述目标属性特征向量。
6.根据权利要求5所述的目标词语的检测方法,其特征在于,所述目标词语检测模型包括第一注意力机制层、第二注意力机制层以及第三注意力机制层,所述通过所述目标词语检测模型对所述目标文本特征向量、所述目标属性特征向量、所述目标实体特征向量进行加权计算,得到目标言论表征向量的步骤,包括:
通过所述第一注意力机制层和预设的第一权重比例对所述目标文本特征向量、所述目标实体特征向量进行加权计算,得到第一表征向量;
通过所述第二注意力机制层和预设的第二权重比例对所述目标实体特征向量、所述目标属性特征向量进行加权计算,得到第二表征向量;
通过所述第三注意力机制层和预设的第三权重比例对所述第一表征向量、所述第二表征向量进行加权计算,得到所述目标言论表征向量。
7.根据权利要求1至6任一项所述的目标词语的检测方法,其特征在于,所述目标词语检测模型包括全连接层和预测层,所述通过所述目标词语检测模型对所述目标言论表征向量进行目标词语检测,得到目标词语数据的步骤,包括:
通过所述全连接层将所述目标言论表征向量映射到预设的向量空间,得到标准言论表征向量;
通过所述预测层的预测函数、言论类别标签以及所述标准言论表征向量进行标签概率计算,得到每一所述言论类别标签的预测概率值;
根据所述预测概率值与预设的预测概率阈值的大小关系,得到所述目标词语数据。
8.一种目标词语的检测装置,其特征在于,所述装置包括:
数据获取模块,用于获取待检测的原始言论数据;
实体特征提取模块,用于通过预先训练的特征提取模型对所述原始言论数据进行实体特征提取,得到文本实体特征;
知识抽取模块,用于根据所述文本实体特征对预设的知识图谱进行知识抽取,得到实体三元组;
第一特征提取模块,用于通过预先训练的目标词语检测模型对所述原始言论数据进行特征抽取,得到目标文本特征向量,并通过所述目标词语检测模型对所述文本实体特征进行特征抽取,得到目标实体特征向量;
第二特征提取模块,用于通过所述目标词语检测模型对所述实体三元组进行特征抽取,得到目标属性特征向量;
加权计算模块,用于通过所述目标词语检测模型对所述目标文本特征向量、所述目标属性特征向量、所述目标实体特征向量进行加权计算,得到目标言论表征向量;
目标词语检测模块,用于通过所述目标词语检测模型对所述目标言论表征向量进行目标词语检测,得到目标词语数据。
9.一种电子设备,其特征在于,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现如权利要求1至7任一项所述的目标词语的检测方法的步骤。
10.一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现权利要求1至7中任一项所述的目标词语的检测方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210160972.1A CN114519356B (zh) | 2022-02-22 | 2022-02-22 | 目标词语的检测方法、装置、电子设备及存储介质 |
PCT/CN2022/090743 WO2023159767A1 (zh) | 2022-02-22 | 2022-04-29 | 目标词语的检测方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210160972.1A CN114519356B (zh) | 2022-02-22 | 2022-02-22 | 目标词语的检测方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114519356A true CN114519356A (zh) | 2022-05-20 |
CN114519356B CN114519356B (zh) | 2023-07-18 |
Family
ID=81599882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210160972.1A Active CN114519356B (zh) | 2022-02-22 | 2022-02-22 | 目标词语的检测方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114519356B (zh) |
WO (1) | WO2023159767A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115496039A (zh) * | 2022-11-17 | 2022-12-20 | 荣耀终端有限公司 | 一种词语提取方法及计算机设备 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117195913B (zh) * | 2023-11-08 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、电子设备、存储介质及程序产品 |
CN117521639B (zh) * | 2024-01-05 | 2024-04-02 | 湖南工商大学 | 一种结合学术文本结构的文本检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826303A (zh) * | 2019-11-12 | 2020-02-21 | 中国石油大学(华东) | 一种基于弱监督学习的联合信息抽取方法 |
CN111444709A (zh) * | 2020-03-09 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、存储介质及设备 |
CN112215004A (zh) * | 2020-09-04 | 2021-01-12 | 中国电子科技集团公司第二十八研究所 | 一种基于迁移学习在军事装备文本实体抽取中的应用方法 |
CN113761893A (zh) * | 2021-11-11 | 2021-12-07 | 深圳航天科创实业有限公司 | 一种基于模式预训练的关系抽取方法 |
US20220036003A1 (en) * | 2020-07-31 | 2022-02-03 | Netapp, Inc. | Methods and systems for automated detection of personal information using neural networks |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180232443A1 (en) * | 2017-02-16 | 2018-08-16 | Globality, Inc. | Intelligent matching system with ontology-aided relation extraction |
US11144726B2 (en) * | 2019-02-14 | 2021-10-12 | Wipro Limited | Method and system for identifying user intent from user statements |
CN110263324B (zh) * | 2019-05-16 | 2021-02-12 | 华为技术有限公司 | 文本处理方法、模型训练方法和装置 |
CN113792818B (zh) * | 2021-10-18 | 2023-03-10 | 平安科技(深圳)有限公司 | 意图分类方法、装置、电子设备及计算机可读存储介质 |
-
2022
- 2022-02-22 CN CN202210160972.1A patent/CN114519356B/zh active Active
- 2022-04-29 WO PCT/CN2022/090743 patent/WO2023159767A1/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826303A (zh) * | 2019-11-12 | 2020-02-21 | 中国石油大学(华东) | 一种基于弱监督学习的联合信息抽取方法 |
CN111444709A (zh) * | 2020-03-09 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、存储介质及设备 |
US20220036003A1 (en) * | 2020-07-31 | 2022-02-03 | Netapp, Inc. | Methods and systems for automated detection of personal information using neural networks |
CN112215004A (zh) * | 2020-09-04 | 2021-01-12 | 中国电子科技集团公司第二十八研究所 | 一种基于迁移学习在军事装备文本实体抽取中的应用方法 |
CN113761893A (zh) * | 2021-11-11 | 2021-12-07 | 深圳航天科创实业有限公司 | 一种基于模式预训练的关系抽取方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115496039A (zh) * | 2022-11-17 | 2022-12-20 | 荣耀终端有限公司 | 一种词语提取方法及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114519356B (zh) | 2023-07-18 |
WO2023159767A1 (zh) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114519356B (zh) | 目标词语的检测方法、装置、电子设备及存储介质 | |
CN111324696B (zh) | 实体抽取方法、实体抽取模型的训练方法、装置及设备 | |
CN113887215A (zh) | 文本相似度计算方法、装置、电子设备及存储介质 | |
CN113901191A (zh) | 问答模型的训练方法及装置 | |
CN114897060B (zh) | 样本分类模型的训练方法和装置、样本分类方法和装置 | |
CN114722069A (zh) | 语言转换方法和装置、电子设备及存储介质 | |
CN114358007A (zh) | 多标签识别方法、装置、电子设备及存储介质 | |
CN114626097A (zh) | 脱敏方法、脱敏装置、电子设备及存储介质 | |
CN114722826B (zh) | 模型的训练方法和装置、电子设备、存储介质 | |
CN114240552A (zh) | 基于深度聚类算法的产品推荐方法、装置、设备及介质 | |
CN114841146B (zh) | 文本摘要生成方法和装置、电子设备及存储介质 | |
CN114358201A (zh) | 基于文本的情感分类方法和装置、计算机设备、存储介质 | |
CN114359810A (zh) | 视频摘要生成方法、装置、电子设备及存储介质 | |
CN116258137A (zh) | 文本纠错方法、装置、设备和存储介质 | |
CN114637847A (zh) | 模型的训练方法、文本分类方法和装置、设备、介质 | |
CN114613462A (zh) | 医疗数据处理方法和装置、电子设备及存储介质 | |
CN114492661A (zh) | 文本数据分类方法和装置、计算机设备、存储介质 | |
CN116956925A (zh) | 电子病历命名实体识别方法和装置、电子设备及存储介质 | |
CN116719999A (zh) | 文本相似度检测方法和装置、电子设备及存储介质 | |
CN114398903B (zh) | 意图识别方法、装置、电子设备及存储介质 | |
CN114998041A (zh) | 理赔预测模型的训练方法和装置、电子设备及存储介质 | |
CN115795007A (zh) | 智能问答方法、智能问答装置、电子设备及存储介质 | |
CN114936274A (zh) | 模型训练方法、对话生成方法和装置、设备及存储介质 | |
CN115270746A (zh) | 问题样本生成方法和装置、电子设备及存储介质 | |
CN115033674A (zh) | 问答匹配方法、问答匹配装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |