CN112560497B - 语义理解方法、装置、电子设备和存储介质 - Google Patents
语义理解方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112560497B CN112560497B CN202011455490.6A CN202011455490A CN112560497B CN 112560497 B CN112560497 B CN 112560497B CN 202011455490 A CN202011455490 A CN 202011455490A CN 112560497 B CN112560497 B CN 112560497B
- Authority
- CN
- China
- Prior art keywords
- word
- text
- semantic understanding
- association
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000010354 integration Effects 0.000 claims description 50
- 238000011176 pooling Methods 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 4
- 238000005065 mining Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供一种语义理解方法、装置、电子设备和存储介质,该方法包括:确定待理解的文本;将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。本发明实施例提供的方法、装置、电子设备和存储介质,能够从词层面上提取文本中包含的语义信息,避免了传统的语义理解模型以字为单元进行建模导致语义信息遗漏的问题,提高了语义理解的准确性。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种语义理解方法、装置、电子设备和存储介质。
背景技术
随着人工智能技术的迅猛发展,以智能语音交互为核心的人机交互系统的应用越来越广泛,例如,智能家居、智能客服、聊天机器人、早教机器人等。要实现人机交互,机器需要对用户输入的语料进行语义理解。
语义理解是指,机器依据用户给出的自然语言,理解出用户的意图,进一步地,还可以做出相应的操作。目前,语义理解多通过预训练的深度学习模型实现。而通用的深度学习模型多是以字为基础单元进行建模的,并不符合中文的用语习惯,存在语义信息的损失,导致语义理解的准确性偏低。
发明内容
本发明实施例提供一种语义理解方法、装置、电子设备和存储介质,用以解决现有技术中语义理解存在语义信息的损失,导致准确性低的缺陷。
第一方面,本发明实施例提供一种语义理解方法,包括:
确定待理解的文本;
将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;
其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;
所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
可选地,所述将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果,具体包括:
将所述文本中每个字的字编码特征输入至所述语义理解模型的字关联层,得到所述字关联层输出的所述文本中每个字的字关联特征,任一字的字关联特征表征所述任一字与所述文本中的其余每个字之间的关系;
将每个字的字关联特征和所述文本的句法结构输入至所述语义理解模型的词关联层,得到所述词关联层输出的所述文本中每个分词的词关联特征,任一分词的词关联特征表征所述任一分词与所述文本中的其余分词之间的关系;
将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解模型的语义理解层中,得到所述语义理解层输出的语义理解结果。
可选地,所述将每个字的字关联特征和所述文本的句法结构输入至所述语义理解模型的词关联层,得到所述词关联层输出的所述文本中每个分词的词关联特征,具体包括:
将属于所述文本中任一分词的每个字的字关联特征输入至所述词关联层的词特征整合层,得到所述词特征整合层输出的所述任一分词的词整合特征;
将所述文本中每个分词的词整合特征和所述文本的句法结构输入至所述词关联层的关联加强层,得到所述关联加强层输出的每个分词的词关联特征。
可选地,所述将属于所述文本中任一分词的每个字的字关联特征输入至所述词关联层的词特征整合层,得到所述词特征整合层输出的所述任一分词的词整合特征,具体包括:
将属于所述文本中任一分词的每个字的字关联特征输入至所述词特征整合层,由所述词特征整合层对所述任一分词的每个字的字关联特征进行池化,将池化结果赋值给所述任一分词中的每个字,得到所述词特征整合层输出的所述任一分词中每个字的池化结果作为所述任一分词的词整合特征。
可选地,所述将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解模型的语义理解层中,得到所述语义理解层输出的语义理解结果,具体包括:
将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解层的关联编码层,由所述关联编码层基于每个分词的词关联特征对每个字的字编码特征进行关联增强,得到所述关联编码层输出的每个字的关联编码特征;
将每个字的关联编码特征,或者每个字的关联编码特征和字编码特征输入至所述语义理解层的结果输出层,得到所述结果输出层输出的语义理解结果。
可选地,所述句法结构是基于如下步骤确定的:
对所述文本进行句法分析,得到所述文本中每个分词之间的句法依赖关系;
基于每个分词之间的句法依赖关系,构建表征所述文本中每个字所属分词与其他字所属分词之间的句法依赖关系的矩阵,作为所述句法结构。
可选地,每个字的字编码特征是基于语言表示模型BERT编码得到的。
第二方面,本发明实施例提供一种语义理解装置,包括:
文本确定单元,用于确定待理解的文本;
语义理解单元,用于将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;
其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;
所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面提供的语义理解方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面提供的语义理解方法的步骤。
本发明实施例提供的语义理解方法、装置、电子设备和存储介质,通过在语义理解中融合文本的句法结果确定文本中各个分词之间的关系,使得语义理解更加贴近中文实际的用语习惯,能够从词层面上提取文本中包含的语义信息,避免了传统的语义理解模型以字为单元进行建模导致语义信息遗漏的问题,提高了语义理解的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的语义理解方法的流程示意图;
图2为本发明实施例提供的句法分析结果示意图;
图3为本发明另一实施例提供的语义理解方法的流程示意图;
图4为本发明实施例提供的词关联方法的流程示意图;
图5为本发明实施例提供的语义理解层的执行方法的流程示意图;
图6为本发明实施例提供的句法结构的确定方法的流程示意图;
图7为本发明另一实施例提供的句法分析结果示意图;
图8为本发明又一实施例提供的语义理解方法的流程示意图;
图9为本发明实施例提供的语义理解装置的结构示意图;
图10为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,语义理解的实现方式主要有两种,一是依赖浅层次的规则匹配语义表达,二是通过预训练的深度学习模型进行语义理解。依赖浅层次的规则匹配,例如文本规则匹配、拼音匹配或者文法正则匹配等,虽然满足了一般的交互要求,但是缺少泛化能力,很难覆盖线上用户丰富的语义表达。而最常被用在于捕捉语义信息的深度学习模型BERT(Bidirectional Encoder Representations from Transformers)虽然可以在基于简单任务场景进行微调fine-tune达到良好的效果,但是BERT的中文建模方式是以字作为基础单元,而中文的最小的语义单元是以词为基础的,BERT仅在字层面上建模必然会造成语义信息的损失,导致语义理解的准确性偏低。
对此,本发明实施例提供一种语义理解方法。图1为本发明实施例提供的语义理解方法的流程示意图,如图1所示,该方法包括:
步骤110,确定待理解的文本。
此处,待理解的文本即需要进行语义理解的文本,待理解的文本可以是用户直接输入的文本,也可以是对语音交互过程中采集到的用户语音进行语音识别得到的。例如,用户正在使用手机语音助手,在手机语音助手说出“打开卧室空调”,此处“打开卧室空调”即为待理解的文本。
步骤120,将文本及其句法结构输入至语义理解模型,得到语义理解模型输出的语义理解结果;
其中,语义理解模型基于文本中各个字之间的关系和文本的句法结构,确定所本中各个分词之间的关系,并基于各个分词之间的关系对文本进行语义理解;语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
具体地,文本的句法结构是通过对文本进行句法分析得到的,句法分析具体可以通过分析文本内各分词之间的依存关系揭示其句法结构,例如图2为本发明实施例提供的句法分析结果示意图,如图2所示,文本“帮我开卧室风扇静音风”经句法分析可知,分词“帮”、“我”、“开”、“卧室”、“风扇”、“静音风”分别是动词v、代词r、动词v、名词n、名词n、名词n。其中,“帮”是文本中的核心关系HED,“我”是“帮”的兼语DBL,“帮”和“开”之间存在动宾关系VOB,“开”和“静音风”之间存在动宾关系VOB,“风扇”和“静音风”之间、“卧室”和“风扇”之间存在定中关系ATT。上述句法分析结果中所体现出来的分词之间的依存关系,即文本的句法结构。
相较于传统的语义理解模型仅基于输入的文本的字信息进行语义理解,本发明实施例中的语义理解模型融合了输入的文本中各个字之间的关系,以及文本的句法结构来分析文本中各个分词之间的关系,更加贴近中文实际的用语习惯,从词层面上提取文本中包含的语义信息,由此得到文本中各个分词之间的关系。此处,文本中各个分词之间的关系可以体现出各个分词在文本中的重要程度,语义理解模型基于文本中的各个分词之间的关系进行语义理解,从而在语义理解的过程中更多地关注在文本中重要程度更高的分词,由此得到更加准确的语义理解结果。
此处的语义理解结果可以具体包括文本中每个字对应的槽类别基于每个字在对应槽类别中的位置,槽类别可以是预先根据语义理解的应用场景确定的,例如在家电控制系统中,槽类别可以包括设备device、房间room、操作operation、属性attribute、功能function等,可以采用序列标注方式例如BIO、BIESO标记每个字在对应槽类别中的位置。例如,文本“帮我开卧室风扇静音风”的语义理解结果可以体现为:
其中,O表示对应字不属于任何槽类别,S、I、E分别表示对应字为槽类别下的实体中的开头,中间和结尾。
在执行步骤120之前,还可以预先训练得到语义理解模型,具体可以通过执行如下步骤实现:首先,收集大量样本文本,通过人工标注或者常用的句法分析工具确定样本文本的样本句法结构,并通过人工标注得到样本文本的样本语义理解结果。随即,基于样本文本及其样本句法结构和样本语义理解结果对初始模型进行训练,从而得到语义理解模型。
本发明实施例提供的方法,通过在语义理解中融合文本的句法结果确定文本中各个分词之间的关系,使得语义理解更加贴近中文实际的用语习惯,能够从词层面上提取文本中包含的语义信息,避免了传统的语义理解模型以字为单元进行建模导致语义信息遗漏的问题,提高了语义理解的准确性。
基于上述实施例,语义理解模型包括字关联层、词关联层和语义理解层。对应地,图3为本发明另一实施例提供的语义理解方法的流程示意图,如图3所示,步骤120具体包括:
步骤121,将文本中每个字的字编码特征输入至语义理解模型的字关联层,得到字关联层输出的文本中每个字的字关联特征,任一字的字关联特征表征该字与文本中的其余每个字之间的关系。
具体地,文本中每个字的字编码特征用于反映每个字在语义层面上的信息,具体可以是对应字的字向量,也可以是包含了对应字的上下文信息的隐层向量,本发明实施例对此不作具体限定。字关联层可以基于每个字的字编码特征,挖掘文本中各个字在语义层面上的关系,进而输出能够表征每个字和文本中的其余各个字之间关系的字关联特征。
此处,每个字均对应有一个字关联特征,各个字之间的关系的挖掘可以通过自注意力机制(Self-attention Mechanism)实现。假设文本中所有字的字编码特征可以表示为H,可以通过如下公式得到每个字的字关联特征,具体表示为A:
式中,Hk和Hq均是对H进行线性变换得到的,d是Hk和Hq的向量维度。
步骤122,将每个字的字关联特征和文本的句法结构输入至语义理解模型的词关联层,得到词关联层输出的文本中每个分词的词关联特征,任一分词的词关联特征表征该分词与文本中的其余分词之间的关系。
具体地,文本中各个字的字关联特征体现了文本中的各个字在语义层面上的关系,文本的句法结构体现了文本中的各个分词在句法层面上的关系。词关联层可以将此两者结合起来,挖掘文本中的各个分词在语义和句法两个层面上所体现出来的关系,进而输出能够表征每个分词和文本中的其余各个分词之间关系的词关联特征。
步骤123,将每个字的字编码特征以及每个分词的词关联特征输入至语义理解模型的语义理解层中,得到语义理解层输出的语义理解结果。
具体地,文本中每个分词的词关联特征可以表征文本中每个分词在语义和句法层面上的重要程度,进而指导语义理解层在语义理解的过程中,将注意力更多地集中在属于重要程度更高的分词中字的字编码特征所表征的语义信息进行语义理解,从而得到语义理解结果。
此处,词关联层输出的每个分词的词关联特征,可以视为在对文本进行语义信息挖掘的过程中,对文本进行注意力转换时针对于每个字的注意力权重,相较于字关联层输出的每个字的字关联特征,词关联特征包含了词级别的信息,更加能够为注意力转换提供有效的限制和指导,从而避免语义理解模型由于关注焦点出现偏差影响语义理解效果。
本发明实施例提供的方法,通过字关联层获取文本中各个字之间的关系,通过词关联层获取文本中各个分词之间的关系,使得语义理解层可以基于各个分词之间的关系进行语义理解,从而得到更加准确的语义理解结果。
基于上述任一实施例,图4为本发明实施例提供的词关联方法的流程示意图,如图4所示,步骤122具体包括:
步骤1221,将属于文本中任一分词的每个字的字关联特征输入至词关联层的词特征整合层,得到词特征整合层输出的该分词的词整合特征。
具体地,词特征整合层用于将输入的属于文本中任一分词的每个字的字关联特征进行整合,将整合后所得的特征作为该分词与文本中除该分词以外的每个字之间的关系,得到该分词的词整合特征并输出。
词特征整合层以分词为单位,对文本中分属于不同分词的字的字关联特征进行整合,由此得到的每个分词的词关联特征更加能够从分词层面上反映文本中的语义关系,也更加贴合中文实际的用语习惯。
步骤1222,将文本中每个分词的词整合特征和文本的句法结构输入至词关联层的关联加强层,得到关联加强层输出的每个分词的词关联特征。
具体地,每个分词的词整合特征能够表征分词层面上文本的语义关系,文本的句法结构能够表征分词层面上文本的句法关系,关联加强层用于将分词层面上反映出的文本的语义关系和句法关系结合在一起,从而加强每个分词的词整合特征所能体现出来的关联性,得到每个分词的词关联特征并输出。
基于上述任一实施例,步骤1221具体包括:
将属于文本中任一分词的每个字的字关联特征输入至词特征整合层,由词特征整合层对该分词的每个字的字关联特征进行池化,将池化结果赋值给该分词中的每个字,得到词特征整合层输出的该分词中每个字的池化结果作为该分词的词整合特征。
具体地,假设文本S={c1,c2,c3,…,cn},n为文本长度,c1,c2,c3,…,cn分别为文本中的第1、2、3、…、n个字。文本中的第i个分词wi={cj,…,cj+l-1},其中j为小于等于n的正整数,l为分词wi的长度。
词特征整合层在以分词为单位进行关联特征整合时,根据目前对应中文词语的认知规律,默认分词中的每个字都是同等重要的,因此可以将任一分词中的所有字的字关联特征进行池化,从而抽象出该分词与文本中其余各个字之间的关联性,具体在进行池化时,可以通过max pooling(区域最大值池化)、mean pooling(区域均值池化)等方式实现。
例如,可以通过如下公式得到分词wi的池化结果
式中,为cj,…,cj+l-1的字关联特征。
随后,将池化结果作为赋予分词wi中每个字的池化结果,得到包含每个字的池化结果的分词wi的词整合结果。
在此基础上,还可以进一步得到文本中所有分词的词整合特征,具体表示为中包含了文本中的每个字在所属分词中的池化结果。
基于上述任一实施例,语义理解层包括关联编码层和结果输出层。图5为本发明实施例提供的语义理解层的执行方法的流程示意图,如图5所示,步骤123具体包括:
步骤1231,将每个字的字编码特征以及每个分词的词关联特征输入至语义理解层的关联编码层,由关联编码层基于每个分词的词关联特征对每个字的字编码特征进行关联增强,得到关联编码层输出的每个字的关联编码特征。
具体地,单个分词的词关联特征反映了该分词与文本中其余各个分词之间的关联性,关联编码层将每个分词的词关联特征对应到文本中的每个字,作为每个字的注意力权重,从而调整文本中每个字的字编码特征所体现信息的强弱,凸现文本与其余分词之间关联性更强的分词对应的字的字编码特征所体现的信息,弱化文本中与其余分词之间关联性更弱的分词对应字的自编码特征所体现的信息,将调整后的每个字的字编码特征作为每个字的关联编码特征输出。
进一步地,假设表示文本中所有分词的词关联特征,H表示文本中所有字的字编码特征,关联编码层可以通过如下公式对H进行关联增强:
式中,即关联增强后文本中所有字的关联编码特征。
步骤1232,将每个字的关联编码特征,或者每个字的关联编码特征和字编码特征输入至语义理解层的结果输出层,得到结果输出层输出的语义理解结果。
具体地,结果输出层可以基于文本中每个字的关联编码特征进行语义理解,或者也可以结合文本中每个字的关联编码特征和字编码特征进行语义理解,进而输出文本的语义理解结果。
进一步地,当结果输出层基于每个字的关联编码特征和字编码特征进行语义理解时,可以按照预先设定的权重对每个字的关联编码特征和字编码特征进行加权融合,并基于加权融合的结果进行语义理解,此处,加权融合结果可以体现为如下公式:
式中,α即预先设定的权重。
基于上述任一实施例,图6为本发明实施例提供的句法结构的确定方法的流程示意图,如图6所示,句法结构是基于如下步骤确定的:
步骤610,对文本进行句法分析,得到文本中每个分词之间的句法依赖关系。
步骤620,基于每个分词之间的句法依赖关系,构建表征文本中每个字所属分词与其他字所属分词之间的句法依赖关系的矩阵,作为句法结构。
具体地,通过句法分析得到的每个分词之间的句法依赖关系可以表示为如2所示的形式。为了便于将句法分析所得的结果输入到语义理解模型中,需要对上述形式进行变形。具体可以将句法分析的结果转换为矩阵的形式,进而作为句法结果输入到语义模型中。
具体可以基于每个分词之间的句法依赖关系,确定其中一个分词与其余各个分词之间是否存在句法依赖关系,进而生成表征该分词中的每个字与其余各个分词中的每个字之间句法依赖关系的向量,将表征每一分词与其余各个分词之间句法依赖关系的向量进行拼接,即可得到矩阵形式的句法结果。
假设文本长度为N,设置句法结构M的矩阵大小为N×N,每行对应文本中的一个字,行向量中的值表示该字所在的分词与其余分词的依赖关系。
句法结构中任一元素M[i,j]的取值可以通过如下公式确定:
式中,如果文本中第j个字属于第i个字的父节点,即j∈ancestor of i,也就是说第j个字所属的分词与第i个字所属的分词之间存在句法依赖关系,且第j个字所属的分词属于第i个字所属的分词的父节点,则将M[i,j]的值置为1,否则将M[i,j]的值置为0。
图7为本发明另一实施例提供的句法分析结果示意图,图7示出的句法依赖关系中,带箭头的弧线可以反映两个分词在句法依赖关系中分属于父节点和子节点,由此得到的句法结构如下表所示:
基于上述任一实施例,每个字的字编码特征是基于语言表示模型BERT编码得到的。
具体地,BERT模型本身应用在语义理解领域,能够捕捉丰富的语义信息,在此基础上,将BERT模型编码得到的文本中每个字的字编码特征与分词层面上的语义信息和句法信息相结合,能够在应用BERT模型充分挖掘文本中语义信息的同时,克服BERT模型以字为单元建模容易导致语义信息损失的问题,从而进一步提高语义理解的准确性。
基于上述任一实施例,图8为本发明又一实施例提供的语义理解方法的流程示意图,如图8所示,该方法包括:
首先,确定待理解的文本,将文本以字为单元输入至BERT语言表示模型中进行编码,得到每个字的字编码特征。
同时,对文本进行句法分析,得到文本的句法结构。此处句法分析可以通过LTP4.0句法分析工具实现。
接着,将每个字的字编码特征和文本的句法结构输入到语义理解模型的注意力层中,注意力层包括字关联层、词关联层和关联编码层,其中字关联层基于每个字的字编码特征挖掘每个字之间的关系,输出每个字的字关联特征,词关联层基于每个字的字关联特征和文本的句法结构挖掘每个分词之间的关系,输出每个分词的词关联特征,关联编码层在注意力机制下,通过每个分词的词关联特征对每个字的字编码特征进行关联增强,输出每个字的关联编码特征。
随后,将每个字的关联编码特征和字编码特征进行融合,并将融合后的结果输入至结果输出层,由结果输出层基于融合结果进行语义理解,并输出语义理解结果。
基于上述任一实施例,图9为本发明实施例提供的语义理解装置的结构示意图,如图9所示,语义理解装置包括文本确定单元910和语义理解单元920;
其中,文本确定单元910用于确定待理解的文本;
语义理解单元920用于将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;
其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;
所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
本发明实施例提供的装置,通过在语义理解中融合文本的句法结果确定文本中各个分词之间的关系,使得语义理解更加贴近中文实际的用语习惯,能够从词层面上提取文本中包含的语义信息,避免了传统的语义理解模型以字为单元进行建模导致语义信息遗漏的问题,提高了语义理解的准确性。
基于上述任一实施例,语义理解单元920具体包括:
字关联子单元,用于将所述文本中每个字的字编码特征输入至所述语义理解模型的字关联层,得到所述字关联层输出的所述文本中每个字的字关联特征,任一字的字关联特征表征所述任一字与所述文本中的其余每个字之间的关系;
词关联子单元,用于将每个字的字关联特征和所述文本的句法结构输入至所述语义理解模型的词关联层,得到所述词关联层输出的所述文本中每个分词的词关联特征,任一分词的词关联特征表征所述任一分词与所述文本中的其余分词之间的关系;
语义理解子单元,用于将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解模型的语义理解层中,得到所述语义理解层输出的语义理解结果。
基于上述任一实施例,词关联子单元具体包括:
词整合模块,用于将属于所述文本中任一分词的每个字的字关联特征输入至所述词关联层的词特征整合层,得到所述词特征整合层输出的所述任一分词的词整合特征;
词关联模块,用于将所述文本中每个分词的词整合特征和所述文本的句法结构输入至所述词关联层的关联加强层,得到所述关联加强层输出的每个分词的词关联特征。
基于上述任一实施例,词整合模块具体用于:
将属于所述文本中任一分词的每个字的字关联特征输入至所述词特征整合层,由所述词特征整合层对所述任一分词的每个字的字关联特征进行池化,将池化结果赋值给所述任一分词中的每个字,得到所述词特征整合层输出的所述任一分词中每个字的池化结果作为所述任一分词的词整合特征。
基于上述任一实施例,语义理解子单元具体用于:
将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解层的关联编码层,由所述关联编码层基于每个分词的词关联特征对每个字的字编码特征进行关联增强,得到所述关联编码层输出的每个字的关联编码特征;
将每个字的关联编码特征,或者每个字的关联编码特征和字编码特征输入至所述语义理解层的结果输出层,得到所述结果输出层输出的语义理解结果。
基于上述任一实施例,该装置还包括句法结构确定单元,句法结构确定单元用于:
对所述文本进行句法分析,得到所述文本中每个分词之间的句法依赖关系;
基于每个分词之间的句法依赖关系,构建表征所述文本中每个字所属分词与其他字所属分词之间的句法依赖关系的矩阵,作为所述句法结构。
基于上述任一实施例,每个字的字编码特征是基于语言表示模型BERT编码得到的。
图10为本发明实施例提供的电子设备的结构示意图,如图10所示,该电子设备可以包括:处理器(processor)1010、通信接口(Communications Interface)1020、存储器(memory)1030和通信总线1040,其中,处理器1010,通信接口1020,存储器1030通过通信总线1040完成相互间的通信。处理器1010可以调用存储器1030中的逻辑命令,以执行如下方法:
确定待理解的文本;
将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;
其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;
所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
此外,上述的存储器1030中的逻辑命令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:
确定待理解的文本;
将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;
其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;
所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种语义理解方法,其特征在于,包括:
确定待理解的文本;
将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;
其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;所述各个字之间的关系表示所述各个字在语义层面上的关系,所述句法结构表示各个分词在句法层面上的关系,所述各个分词之间的关系表示各个分词在文本中的重要程度;
所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
2.根据权利要求1所述的语义理解方法,其特征在于,所述将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果,具体包括:
将所述文本中每个字的字编码特征输入至所述语义理解模型的字关联层,得到所述字关联层输出的所述文本中每个字的字关联特征,任一字的字关联特征表征所述任一字与所述文本中的其余每个字之间的关系;
将每个字的字关联特征和所述文本的句法结构输入至所述语义理解模型的词关联层,得到所述词关联层输出的所述文本中每个分词的词关联特征,任一分词的词关联特征表征所述任一分词与所述文本中的其余分词之间的关系;
将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解模型的语义理解层中,得到所述语义理解层输出的语义理解结果。
3.根据权利要求2所述的语义理解方法,其特征在于,所述将每个字的字关联特征和所述文本的句法结构输入至所述语义理解模型的词关联层,得到所述词关联层输出的所述文本中每个分词的词关联特征,具体包括:
将属于所述文本中任一分词的每个字的字关联特征输入至所述词关联层的词特征整合层,得到所述词特征整合层输出的所述任一分词的词整合特征;
将所述文本中每个分词的词整合特征和所述文本的句法结构输入至所述词关联层的关联加强层,得到所述关联加强层输出的每个分词的词关联特征。
4.根据权利要求3所述的语义理解方法,其特征在于,所述将属于所述文本中任一分词的每个字的字关联特征输入至所述词关联层的词特征整合层,得到所述词特征整合层输出的所述任一分词的词整合特征,具体包括:
将属于所述文本中任一分词的每个字的字关联特征输入至所述词特征整合层,由所述词特征整合层对所述任一分词的每个字的字关联特征进行池化,将池化结果赋值给所述任一分词中的每个字,得到所述词特征整合层输出的所述任一分词中每个字的池化结果作为所述任一分词的词整合特征。
5.根据权利要求2所述的语义理解方法,其特征在于,所述将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解模型的语义理解层中,得到所述语义理解层输出的语义理解结果,具体包括:
将每个字的字编码特征以及每个分词的词关联特征输入至所述语义理解层的关联编码层,由所述关联编码层基于每个分词的词关联特征对每个字的字编码特征进行关联增强,得到所述关联编码层输出的每个字的关联编码特征;
将每个字的关联编码特征,或者每个字的关联编码特征和字编码特征输入至所述语义理解层的结果输出层,得到所述结果输出层输出的语义理解结果。
6.根据权利要求1至5中任一项所述的语义理解方法,其特征在于,所述句法结构是基于如下步骤确定的:
对所述文本进行句法分析,得到所述文本中每个分词之间的句法依赖关系;
基于每个分词之间的句法依赖关系,构建表征所述文本中每个字所属分词与其他字所属分词之间的句法依赖关系的矩阵,作为所述句法结构。
7.根据权利要求2至5中任一项所述的语义理解方法,其特征在于,每个字的字编码特征是基于语言表示模型BERT编码得到的。
8.一种语义理解装置,其特征在于,包括:
文本确定单元,用于确定待理解的文本;
语义理解单元,用于将所述文本及其句法结构输入至语义理解模型,得到所述语义理解模型输出的语义理解结果;
其中,所述语义理解模型基于所述文本中各个字之间的关系和所述文本的句法结构,确定所述文本中各个分词之间的关系,并基于各个分词之间的关系对所述文本进行语义理解;所述各个字之间的关系表示所述各个字在语义层面上的关系,所述句法结构表示各个分词在句法层面上的关系,所述各个分词之间的关系表示各个分词在文本中的重要程度;
所述语义理解模型是基于样本文本及其样本句法结构和样本语义理解结构训练得到的。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述的语义理解方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述的语义理解方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011455490.6A CN112560497B (zh) | 2020-12-10 | 2020-12-10 | 语义理解方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011455490.6A CN112560497B (zh) | 2020-12-10 | 2020-12-10 | 语义理解方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112560497A CN112560497A (zh) | 2021-03-26 |
CN112560497B true CN112560497B (zh) | 2024-02-13 |
Family
ID=75061916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011455490.6A Active CN112560497B (zh) | 2020-12-10 | 2020-12-10 | 语义理解方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112560497B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622338A (zh) * | 2012-02-24 | 2012-08-01 | 北京工业大学 | 一种短文本间语义距离的计算机辅助计算方法 |
WO2020119075A1 (zh) * | 2018-12-10 | 2020-06-18 | 平安科技(深圳)有限公司 | 通用文本信息提取方法、装置、计算机设备和存储介质 |
CN111753550A (zh) * | 2020-06-28 | 2020-10-09 | 汪秀英 | 一种自然语言的语义解析方法 |
CN111914551A (zh) * | 2020-07-29 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 语言表示模型系统、预训练方法、装置、设备及介质 |
CN111930942A (zh) * | 2020-08-07 | 2020-11-13 | 腾讯云计算(长沙)有限责任公司 | 文本分类方法、语言模型训练方法、装置及设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7475010B2 (en) * | 2003-09-03 | 2009-01-06 | Lingospot, Inc. | Adaptive and scalable method for resolving natural language ambiguities |
US7899666B2 (en) * | 2007-05-04 | 2011-03-01 | Expert System S.P.A. | Method and system for automatically extracting relations between concepts included in text |
-
2020
- 2020-12-10 CN CN202011455490.6A patent/CN112560497B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622338A (zh) * | 2012-02-24 | 2012-08-01 | 北京工业大学 | 一种短文本间语义距离的计算机辅助计算方法 |
WO2020119075A1 (zh) * | 2018-12-10 | 2020-06-18 | 平安科技(深圳)有限公司 | 通用文本信息提取方法、装置、计算机设备和存储介质 |
CN111753550A (zh) * | 2020-06-28 | 2020-10-09 | 汪秀英 | 一种自然语言的语义解析方法 |
CN111914551A (zh) * | 2020-07-29 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 语言表示模型系统、预训练方法、装置、设备及介质 |
CN111930942A (zh) * | 2020-08-07 | 2020-11-13 | 腾讯云计算(长沙)有限责任公司 | 文本分类方法、语言模型训练方法、装置及设备 |
Non-Patent Citations (3)
Title |
---|
一种基于词对齐的中文深层语义解析模型;郑晓东;胡汉辉;赵林度;吕永涛;;计算机工程与应用(第20期);全文 * |
一种基于语义关系与条件随机场模型的电子商务情感评价单元识别方法;陈苹;冯林;余游;徐其凤;;系统科学与数学(第01期);全文 * |
基于中文的自然语言理解初探;赵川;杜玲;岳鹏;刘少君;林征胜;赵荣海;;现代电子技术(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112560497A (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110428820B (zh) | 一种中英文混合语音识别方法及装置 | |
JP5901001B1 (ja) | 音響言語モデルトレーニングのための方法およびデバイス | |
CN103065630B (zh) | 用户个性化信息语音识别方法及系统 | |
CN112100349A (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
CN114547329A (zh) | 建立预训练语言模型的方法、语义解析方法和装置 | |
CN112836514B (zh) | 嵌套实体识别方法、装置、电子设备和存储介质 | |
WO2020119432A1 (zh) | 一种语音识别方法、装置、设备和存储介质 | |
CN110782880B (zh) | 一种韵律生成模型的训练方法及装置 | |
JP2005084681A (ja) | 意味的言語モデル化および信頼性測定のための方法およびシステム | |
CN111341293B (zh) | 一种文本语音的前端转换方法、装置、设备和存储介质 | |
JP2009193448A (ja) | 対話システム、方法及びプログラム | |
CN108538294B (zh) | 一种语音交互方法及装置 | |
CN112633007B (zh) | 一种语义理解模型构建方法及装置、语义理解方法及装置 | |
CN110021293A (zh) | 语音识别方法及装置、可读存储介质 | |
CN113705315B (zh) | 视频处理方法、装置、设备及存储介质 | |
KR20160058531A (ko) | 딥 러닝을 이용하는 구문 분석 모델 구축 방법 및 이를 수행하는 장치 | |
CN112463942A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN114020906A (zh) | 基于孪生神经网络的中文医疗文本信息匹配方法及系统 | |
CN109933773A (zh) | 一种多重语义语句解析系统及方法 | |
CN111399629A (zh) | 一种终端设备的操作引导方法、终端设备及存储介质 | |
CN114004231A (zh) | 一种中文专词抽取方法、系统、电子设备及存储介质 | |
CN113326367A (zh) | 基于端到端文本生成的任务型对话方法和系统 | |
CN111209297A (zh) | 数据查询方法、装置、电子设备及存储介质 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN111400489B (zh) | 对话文本摘要生成方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230509 Address after: 230026 No. 96, Jinzhai Road, Hefei, Anhui Applicant after: University of Science and Technology of China Applicant after: IFLYTEK Co.,Ltd. Address before: 230088 666 Wangjiang West Road, Hefei hi tech Development Zone, Anhui Applicant before: IFLYTEK Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |