CN111160041B - 语义理解方法、装置、电子设备和存储介质 - Google Patents
语义理解方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111160041B CN111160041B CN201911403995.5A CN201911403995A CN111160041B CN 111160041 B CN111160041 B CN 111160041B CN 201911403995 A CN201911403995 A CN 201911403995A CN 111160041 B CN111160041 B CN 111160041B
- Authority
- CN
- China
- Prior art keywords
- path
- text
- semantic
- representation
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000003993 interaction Effects 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000013136 deep learning model Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种语义理解方法、装置、电子设备和存储介质,其中方法包括:确定待理解文本,以及待理解文本的关键信息;基于关键信息,以及预设知识图谱,确定若干条候选语义路径;将待理解文本以及每一候选语义路径输入至路径相关度模型,得到路径相关度模型输出的待理解文本与每一候选语义路径的相关度;其中,路径相关度模型是基于样本文本、样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;基于待理解文本与每一候选语义路径的相关度,确定待理解文本的文本语义路径。本发明实施例提供的方法、装置、电子设备和存储介质,能够深层次挖掘待理解文本的语义,提高语义理解精度。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种语义理解方法、装置、电子设备和存储介质。
背景技术
随着人工智能技术的迅猛发展,以智能语音交互为核心的人机交互系统的应用越来越广泛,例如,智能家居、智能客服、聊天机器人、早教机器人等。要实现人机交互,机器需要对用户输入的语料进行语义理解。
语义理解是指机器依据用户给出的自然语言,理解出用户的意图。然而,由于人类语言具有多样性和复杂性,当前用于语义理解的深度学习模型通常只能学习到自然语言的浅层信息,语义理解的能力十分有限,尤其是针对于复杂语句,当前的深度学习模型难以准确理解其语义。
发明内容
本发明实施例提供一种语义理解方法、装置、电子设备和存储介质,用以解决现有的语义理解准确度低的问题。
第一方面,本发明实施例提供一种语义理解方法,包括:
确定待理解文本,以及所述待理解文本的关键信息;
基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径;
将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度;其中,所述路径相关度模型是基于样本文本、所述样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;
基于所述待理解文本与每一候选语义路径的相关度,确定所述待理解文本的文本语义路径。
优选地,所述基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径,具体包括:
确定所述关键信息在所述预设知识图谱中对应的每一关联节点;
确定包含每一关联节点的最小生成子树,作为知识子树;
基于所述知识子树,确定若干条候选语义路径。
优选地,所述基于所述知识子树,确定若干条候选语义路径,具体包括:
将所述知识子树中任一叶子节点,与距离所述任一叶子节点最近的起始节点之间的路径作为所述候选语义路径;其中,所述起始节点为所述知识子树的根节点或节点间关系为操作类型的父节点。
优选地,所述将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度,具体包括:
将所述待理解文本与任一候选语义路径输入至所述路径相关度模型的编码层,得到所述编码层输出的文本表示特征,以及路径表示特征;
将所述文本表示特征和所述路径表示特征输入至所述路径相关度模型的注意力交互层,得到所述注意力交互层输出的文本注意力表示,以及路径注意力表示;
将所述文本注意力表示和所述路径注意力表示输入至所述路径相关度模型的输出层,得到所述输出层输出的所述待理解文本与所述任一候选语义路径的相关度。
优选地,所述将所述文本表示特征和所述路径表示特征输入至所述路径相关度模型的注意力交互层,得到所述注意力交互层输出的文本注意力表示,以及路径注意力表示,具体包括:
对所述文本表示特征和所述路径表示特征进行注意力交互,得到文本相关度特征和路径相关度特征;
基于所述文本表示特征与所述文本相关度特征,确定所述文本注意力表示;
基于所述路径表示特征与所述路径相关度特征,确定所述路径注意力表示。
优选地,所述基于所述文本表示特征与所述文本相关度特征,确定所述文本注意力表示,具体包括:
基于所述文本表示特征、所述文本相关度特征,以及所述文本表示特征与所述文本相关度特征的差和/或积,确定所述文本注意力表示;
所述基于所述路径表示特征与所述路径相关度特征,确定所述路径注意力表示,具体包括:
基于所述路径表示特征、所述路径相关度特征,以及所述路径表示特征与所述路径相关度特征的差和/或积,确定所述路径注意力表示。
优选地,所述路径相关度模型训练的损失函数是基于正样本相关度和负样本相关度的差确定的;
其中,所述正样本相关度为所述样本文本与所述样本候选语义路径中的正样本语义路径的相关度,所述负样本相关度为所述样本文本与所述样本候选语义路径中的负样本语义路径的相关度。
第二方面,本发明实施例提供一种语义理解装置,包括:
文本信息确定单元,用于确定待理解文本,以及所述待理解文本的关键信息;
候选路径确定单元,用于基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径;
路径相关度确定单元,用于将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度;其中,所述路径相关度模型是基于样本文本、所述样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;
路径选择单元,用于基于所述待理解文本与每一候选语义路径的相关度,确定所述待理解文本的文本语义路径。
第三方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑命令,以执行如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种语义理解方法、装置、电子设备和存储介质,通过预设知识图谱确定若干条候选语义路径,通过结合预设知识图谱中包含的知识,能够深层次挖掘待理解文本的语义,提高语义理解精度;在此基础上,通过路径相关度模型确定待理解文本与每一候选语义路径的相关度,进而确定文本语义路径,实现了准确可靠的语义理解。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的语义理解方法的流程示意图;
图2为本发明实施例提供的预设知识图谱的示意图;
图3为本发明实施例提供的候选语义路径的确定方法流程示意图;
图4为本发明实施例提供的知识子树的确定流程示意图;
图5为本发明实施例提供的候选语义路径示意图;
图6为本发明实施例提供的路径相关度模型的运行流程示意图;
图7为本发明实施例提供的注意力交互层的运行流程示意图;
图8为本发明实施例提供的路径相关度模型训练过程的结构示意图;
图9为本发明实施例提供的语义理解装置的结构示意图;
图10为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着人工智能技术的不断突破和各种智能终端设备的日益普及,人机交互在人们日常工作和生活中出现的频率越来越高。而在人机交互对话系统中如何理解用户的意图是最为关键的技术。
当前的语义理解通常通过空间向量模型或者深度学习模型实现,其中空间向量模型在词表过大时,计算效率低下,且语义表示能力弱,没有考虑词与词之间的顺序和语义关系,因此得到的语义理解结果准确度欠佳;深度学习模型通常只能学习到自然语言的浅层信息,语义理解的能力十分有限,尤其是针对于复杂语句,当前的深度学习模型难以准确理解其语义。
针对这一问题,本发明实施例提供了一种语义理解方法。图1为本发明实施例提供的语义理解方法的流程示意图,如图1所示,该方法包括:
步骤110,确定待理解文本,以及待理解文本的关键信息。
具体地,待理解文本即需要进行语义理解的文本,待理解文本可以是人机交互过程时用户直接输入的交互文本,也可以是对用户输入的语音进行语音识别得到的。
关键信息是通过对待理解文本进行关键信息抽取得到的,关键信息可以包括若干个文本实体。关键信息的抽取可以通过序列化标注技术实现,此处,用于序列化标注的模型可以是条件随机场CRF或者BERT+CRF等形式,本发明实施例对此不作具体限定。
例如,待理解文本为“那个我之前购买过你们的寿险产品嘛,就是现在保单丢了,能帮我找一下我的保单号吗?”,通过序列化标注得到的文本为“那个我之前[购买]办理购买过你们的[寿险]寿险产品嘛,就是现在[保单]保单[丢了]丢失,能帮我[找一下]查询我的[保单号]保单号吗?”,其中[]内的字符为标注的字符,[]外的下标为标注字符对应的文本实体,即抽取得到的关键信息。上述待理解文本的关键信息包括“办理”、“寿险”、“保单”、“丢失”、“查询”和“保单号”。
步骤120,基于关键信息,以及预设知识图谱,确定若干条候选语义路径。
具体地,预设知识图谱为预先设定的知识图谱,预设知识图谱可以是针对于常识设置的常识知识图谱,也可以是针对于不同领域分别设置的领域知识图谱,本发明实施例对此不作具体限定。预设知识图谱由节点和连接节点的边构成,其中节点用于表示业务、操作等各种类型的文本实体,边用于表示节点之间的关系。例如,图2为本发明实施例提供的预设知识图谱的示意图,图2中,“退保”、“寿险”、“查询”、“保单”等均为节点,“退保”与“寿险”之间的关系为操作,“查询”与“保单”之间的关系为内容。
在已经确定关键信息的情况下,可以确定关键信息中的每一文本实体在预设知识图谱中所对应的节点,进而基于关键信息在预设知识图谱中对应的各个节点,得到各个节点构成的路径,作为候选语义路径。此处,候选语义路径可以是一条或者多条。由此得到的候选语义理解不仅包含了待理解文本的关键信息,还包含了预设知识图谱中的相关知识,有助于实现待理解文本语义的深度挖掘。
步骤130,将待理解文本以及每一候选语义路径输入至路径相关度模型,得到路径相关度模型输出的待理解文本与每一候选语义路径的相关度;其中,路径相关度模型是基于样本文本、样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的。
具体地,相关度用于衡量待理解文本与任一候选语义路径在语义层面的相关程度,相关度越高,则对应的候选语义路径对待理解文本的语义理解更加准确。
路径相关度模型用于分析输入的待理解文本与候选语义路径的相关性,并输出两者之间的相关度。在执行步骤130之前,还可以预先训练得到路径相关度模型,具体可通过如下方式训练得到路径相关度模型:首先,收集大量样本文本,以及样本文本的样本候选语义路径。可以通过人工标记方式,确定每一样本语义路径的相关标记,此处相关标记用于指示样本文本与样本候选语义路径的相关度,若样本候选语义路径为样本文本的语义所对应的路径,则该样本语义路径的相关标记为1,该样本语义路径为正样本语义路径,否则该样本语义路径的相关标记为0,该样本语义路径为负样本语义路径。随即,基于样本文本、样本文本的样本候选语义路径,以及样本候选语义路径的相关标记,训练初始模型,从而得到路径相关度模型。
步骤140,基于待理解文本与每一候选语义路径的相关度,确定待理解文本的文本语义路径。
具体地,在得到待理解文本与每一候选语义路径的相关度后,即可确定待理解文本的文本语义路径。此处,文本语义路径即待理解文本的语义理解结果,用于表征待理解文本的语义,文本语义路径是从上述若干条候选语义路径中选取的一条候选语义路径,可以是相关度大于预设相关度阈值的候选语义路径,或者是相关度最高的候选语义路径等,本发明实施例对此不做具体限定。
本发明实施例提供的方法,通过预设知识图谱确定若干条候选语义路径,通过结合预设知识图谱中包含的知识,能够深层次挖掘待理解文本的语义,提高语义理解精度;在此基础上,通过路径相关度模型确定待理解文本与每一候选语义路径的相关度,进而确定文本语义路径,实现了准确可靠的语义理解。
基于上述实施例,图3为本发明实施例提供的候选语义路径的确定方法流程示意图,如图3所示,步骤120具体包括:
步骤121,确定关键信息在预设知识图谱中对应的每一关联节点。
具体地,在已经确定关键信息的情况下,可以确定关键信息中的每一文本实体在预设知识图谱中所对应的节点,作为关键信息在预设知识图谱中的对应的关联节点。例如,关键信息包括“办理”、“寿险”、“保单”、“丢失”、“查询”和“保单号”,对应在图2示出的预设知识图谱中的关联节点包括“办理”、“寿险”、“保单”、“丢失”、“查询”和“保单号”。
步骤122,确定包含每一关联节点的最小生成子树,作为知识子树。
具体地,在确定关键信息在预设知识图谱中对应的每一关联节点后,从预设知识图谱中抽取包含每一关联节点的最小生成子树,作为知识子树。其中,最小生成子树是指包含每一关联节点的所有生成树中代价最小的生成树,此处的代价为生成树上各边的权值之和。
图4为本发明实施例提供的知识子树的确定流程示意图,图4中,左侧为预设知识图谱,右侧为从预设知识图谱中抽取的知识子树,其中标注有下划线的节点为关联节点。
步骤123,基于知识子树,确定若干条候选语义路径。
具体地,在得到知识子树后,可以通过遍历知识子树,得到若干条候选语义路径。
本发明实施例提供的方法,通过从预设知识图谱中抽取包含每一关联节点的最小生成子树作为知识子树,得到若干条候选语义路径,由此得到的候选语义理解不仅包含了待理解文本的关键信息,还包含了预设知识图谱中的相关知识,实现了待理解文本语义的深层次挖掘。
基于上述任一实施例,步骤123具体包括:将知识子树中任一叶子节点,与距离该叶子节点最近的起始节点之间的路径作为候选语义路径;其中,起始节点为知识子树的根节点或节点间关系为操作类型的父节点。
具体地,知识子树中可以包含一个或者多个起始节点,此处的起始节点可以是知识子树的根节点或节点间关系为操作类型的父节点。其中,节点间关系为操作类型时,对应的子节点通常为动词,与具体的语义之间具有较强的相关性。选取任一叶子节点与距离该叶子节点最近的节点间关系为操作类型的父节点之间的路径作为候选语义路径,可以避免单一候选语义路径中存在两个或者两个以上的动词,导致语义理解出现歧义。
针对于任一叶子节点,向父节点的方向遍历,直至遇到节点间关系为操作类型的父节点,或者遇到根节点,将由此生成的路径作为候选语义路径。步骤123中,每一叶子节点对应一条候选语义路径,知识子树中叶子节点的数量即为基于知识子树得到的候选语义路径的数量。
例如,图5为本发明实施例提供的候选语义路径示意图,如图5所示,三条候选语义路径分别由不同的线型框出。其中,叶子节点“办理”对应的候选语义路径由点划线框出,表示为“寿险→办理”,对应语义为办理寿险。叶子节点“保单号”对应候选语义路径由实线框出,表示为“寿险→查询→保单→保单号”,对应语义为查询寿险的保单号。叶子节点“丢失”对应的候选语义路径由虚线框出,表示为“保单→挂失→丢失”,对应语义为保单挂失。
候选语义路径“保单→挂失→丢失”中,“挂失”的意图在待理解文本中并没有显式提及,但是通过预设知识图谱,可以将待理解文本中没有显式提及的意图在候选语义路径中补全,从而提高语义理解的准确性。
基于上述任一实施例,路径相关度模型包括编码层、注意力交互层和输出层;图6为本发明实施例提供的路径相关度模型的运行流程示意图,如图6所示,步骤130具体包括:
步骤131,将待理解文本与任一候选语义路径输入至路径相关度模型的编码层,得到编码层输出的文本表示特征,以及路径表示特征。
具体地,编码层用于对输入的文本进行编码,进而得到文本中每一分词或者每个字对应的向量表示。此处,文本表示特征即编码层对待理解文本进行编码得到的待理解文本中每一分词或者每个字所对应的向量表示,路径表示特征即编码层对候选语义路径进行编码得到的候选语义路径中每一分词或者每个字所对应的向量表示。其中,每一分词或者每个字所对应的向量表示可以是词向量、字向量等,也可以是分词或者字的上下文向量等,本发明实施例对此不作具体限定。例如,编码层可以通过BERT得到每一分词的词向量。
步骤132,将文本表示特征和路径表示特征输入至路径相关度模型的注意力交互层,得到注意力交互层输出的文本注意力表示,以及路径注意力表示。
具体地,注意力交互层用于对输入的文本表述特征和路径表示特征进行注意力交互,并输出对应于待理解文本的文本注意力表示,以及对应于候选语义路径的路径注意力表示。此处,文本注意力表示用于体现待理解文本与候选语义路径之间的相关性和差异性,路径注意力表示用于体现候选语义路径与待理解文本之间的相关性和差异性。
步骤133,将文本注意力表示和路径注意力表示输入至路径相关度模型的输出层,得到输出层输出的待理解文本与该候选语义路径的相关度。
具体地,输出层用于分析输入的文本注意力表示和路径注意力表示,以衡量待理解文本与候选语义路径之间的相关性,并输出两者之间的相关度。
本发明实施例提供的方法,通过注意力交互层衡量待理解文本与候选语义路径之间的相关性和差异性,从而提高路径相关度模型输出的待理解文本与候选语义路径的相关度的准确性。
基于上述任一实施例,图7为本发明实施例提供的注意力交互层的运行流程示意图,如图7所示,
步骤1321,对文本表示特征和路径表示特征进行注意力交互,得到文本相关度特征和路径相关度特征。
具体地,对文本表示特征和路径表示特征进行注意力交互,即可得到包含文本表示特征中的每一向量与路径表示特征中的每一向量之间的相关度的矩阵,即相关度矩阵。
在此基础上,可以将文本表示特征中任一向量与路径表示特征中每一向量之间的相关度作为权重,对路径表示特征中每一向量进行加权求和,进而得到文本表示特征中该向量与路径表示特征的相关度。文本相关度特征即文本表示特征中的每一向量与路径表示特征的相关度。
同样地,可以将文本表示特征中每一向量与路径表示特征中任一向量之间的相关度作为权重,对文本表示特征中每一向量进行加权求和,进而得到路径表示特征中该向量与文本表示特征的相关度。路径相关度特征即路径表示特征中的每一向量与文本表示特征的相关度。
步骤1322,基于文本表示特征与文本相关度特征,确定文本注意力表示;基于路径表示特征与路径相关度特征,确定路径注意力表示。
具体地,文本注意力表示是基于文本表示特征与文本相关度特征确定的,例如文本注意力表示可以由文本表示特征与文本相关度特征拼接得到,文本注意力表示还可以包括文本表示特征与文本相关度特征的差值,本发明实施例对此不做具体限定。
同样地,路径注意力表示是基于路径表示特征与路径相关度特征确定的,例如路径注意力表示可以由路径表示特征与路径相关度特征拼接得到,路径注意力表示还可以包括路径表示特征与路径相关度特征的差值,本发明实施例对此不做具体限定。
基于上述任一实施例,步骤1322具体包括:基于文本表示特征、文本相关度特征,以及文本表示特征与文本相关度特征的差和/或积,确定文本注意力表示;基于路径表示特征、路径相关度特征,以及路径表示特征与路径相关度特征的差和/或积,确定路径注意力表示。
具体地,针对于待理解文本,文本表示特征与文本相关度特征的差,以及文本表示特征与文本相关度特征的积,均可以用于表征文本表示特征与路径表示特征之间的差异性。由此得到文本注意力表示的确定方式有多种,例如可以拼接文本表示特征、文本相关度特征,以及文本表示特征与文本相关度特征的差和/或积后,通过自注意力转换得到,也可以对文本表示特征、文本相关度特征,以及文本表示特征与文本相关度特征的差和/或积求均值得到,本发明实施例对此不做具体限定。
同样地,针对于候选语义路径,路径表示特征与路径相关度特征的差,以及路径表示特征与路径相关度特征的积,均可以用于表征路径表示特征与文本表示特征之间的差异性。由此得到路径注意力表示的确定方式有多种,例如可以拼接路径表示特征、路径相关度特征,以及路径表示特征与路径相关度特征的差和/或积后,通过自注意力转换得到,也可以对路径表示特征、路径相关度特征,以及路径表示特征与路径相关度特征的差和/或积求均值得到,本发明实施例对此不做具体限定。
本发明实施例提供的方法,通过文本表示特征与文本相关度特征的差和/或积,以及路径表示特征与路径相关度特征的差和/或积的应用,突出了文本注意力表示和路径注意力表示中文本表示特征与路径表示特征之间的差异性,有助于提高路径相关度模型输出相关度的准确性。
基于上述任一实施例,路径相关度模型训练的损失函数是基于正样本相关度和负样本相关度的差确定的;其中,正样本相关度为样本文本与样本候选语义路径中的正样本语义路径的相关度,负样本相关度为样本文本与样本候选语义路径中的负样本语义路径的相关度。
具体地,正样本语义路径即样本文本的样本候选语义路径中,人工选取的样本文本所对应的文本语义路径,正样本语义路径反映了样本文本的实际语义;负样本语义路径即样本文本的样本候选语义路径中,正样本语义路径之外的其余候选语义路径。
在路径相关度模型的训练中,其训练目标在于提高正样本相关度,降低负样本相关度,扩大正样本相关度和负样本相关度之间的差。基于正样本相关度和负样本相关度的差即可确定路径相关度模型的训练损失,即正样本相关度和负样本相关度的差越大,训练损失越小。损失值可以通过从期望差值与实际差值两者的差,以及0中选取最大值得到。此处,期望差值即预先设定的正样本相关度和负样本相关度的差的最小值,实际差值即正样本相关度和负样本相关度的差。由此得到的损失函数loss可以设置为如下形式:
loss=max[0,λ-(s+-s-)]
式中,λ为预先设定的期望差值,s+为正样本相关度,s-为负样本相关度。当正样本相关度和负样本相关度的差大于λ时,loss=0,当正样本相关度和负样本相关度的差小于等于λ时,loss=λ-(s+-s-)。
本发明实施例提供的方法,基于正样本相关度和负样本相关度的差确定的损失函数训练路径相关模型,能够增强路径相关模型对于正确和错误路径的区分性,从而提高路径相关模型的语义理解能力,保证语义理解的准确性。
基于上述任一实施例,图8为本发明实施例提供的路径相关度模型训练过程的结构示意图,如图8所示,一组训练实例包括样本文本、样本文本对应的正样本语义路径和负样本语义路径,本发明实施例不对单组训练实例中正样本语义路径和负样本语义路径的数量做具体限定。例如,样本文本为“那个我之前购买过你们的寿险产品嘛,就是现在保单丢了,能帮我找一下我的保单号吗”,正样本语义路径为“寿险→查询→保单→保单号”,负样本语义路径为“寿险→办理”。
将样本文本、样本文本对应的正样本语义路径和负样本语义路径分别输入至编码层,得到编码层输出的样本文本的文本表示特征,以及正样本语义路径的正路径表示特征和负样本语义路径的负路径表示特征。其中,文本表示特征记为nS为样本文本长度,正路径表示特征记为/>为正样本语义路径长度,负路径表示特征记为/>为负样本语义路径长度,/>d为隐向量维度。
将文本表示特征,以及正路径表示特征和负路径表示特征输入至注意力交互层,在注意力交互层中,将文本表示特征与正路径表示特征作点积,得到两者的相关度矩阵如下式所示:
其中,
接着,对上述相关度矩阵分别按行、列进行归一化,再基于如下公式计算文本相关度特征/>和正路径相关度特征/>
其中,
为了进一步捕获文本表示特征与正路径表示特征之间的相关性和差异性,基于文本表示特征HS和文本相关度特征以及正路径表示特征/>和正路径相关度特征/>执行如下操作:
其中,为文本表示特征与文本相关度特征的差,/>为文本表示特征与文本相关度特征的积;/>为路径表示特征与路径相关度特征的差,/>为路径表示特征与路径相关度特征的积。
随后,通过自注意力机制将H′S和分别表示为文本注意力表示ns和路径注意力表示/>nS、/>
最后将文本注意力表示ns和路径注意力表示输入至输出层,由输出层将映射为正样本相关度s+。基于上述同样的方法,可以通过路径相关度模型得到负样本相关度s-,此处不再赘述。
基于上述任一实施例,图9为本发明实施例提供的语义理解装置的结构示意图,如图9所示,该装置包括文本信息确定单元910、候选路径确定单元920、路径相关度确定单元930和路径选择单元940;
其中,文本信息确定单元910用于确定待理解文本,以及所述待理解文本的关键信息;
候选路径确定单元920用于基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径;
路径相关度确定单元930用于将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度;其中,所述路径相关度模型是基于样本文本、所述样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;
路径选择单元940用于基于所述待理解文本与每一候选语义路径的相关度,确定所述待理解文本的文本语义路径。
本发明实施例提供的装置,通过预设知识图谱确定若干条候选语义路径,通过结合预设知识图谱中包含的知识,能够深层次挖掘待理解文本的语义,提高语义理解精度;在此基础上,通过路径相关度模型确定待理解文本与每一候选语义路径的相关度,进而确定文本语义路径,实现了准确可靠的语义理解。
基于上述任一实施例,候选路径确定单元920包括:
节点确定子单元,用于确定所述关键信息在所述预设知识图谱中对应的每一关联节点;
知识子树确定子单元,用于确定包含每一关联节点的最小生成子树,作为知识子树;
候选路径确定子单元,用于基于所述知识子树,确定若干条候选语义路径。
基于上述任一实施例,所述候选路径确定子单元具体用于:
将所述知识子树中任一叶子节点,与距离所述任一叶子节点最近的起始节点之间的路径作为所述候选语义路径;其中,所述起始节点为所述知识子树的根节点或节点间关系为操作类型的父节点。
基于上述任一实施例,所述路径相关度确定单元930包括:
编码子单元,用于将所述待理解文本与任一候选语义路径输入至所述路径相关度模型的编码层,得到所述编码层输出的文本表示特征,以及路径表示特征;
注意力子单元,用于将所述文本表示特征和所述路径表示特征输入至所述路径相关度模型的注意力交互层,得到所述注意力交互层输出的文本注意力表示,以及路径注意力表示;
输出子单元,用于将所述文本注意力表示和所述路径注意力表示输入至所述路径相关度模型的输出层,得到所述输出层输出的所述待理解文本与所述任一候选语义路径的相关度。
基于上述任一实施例,所述注意力子单元具体包括:
交互模块,用于对所述文本表示特征和所述路径表示特征进行注意力交互,得到文本相关度特征和路径相关度特征;
注意力模块,用于基于所述文本表示特征与所述文本相关度特征,确定所述文本注意力表示;基于所述路径表示特征与所述路径相关度特征,确定所述路径注意力表示。
基于上述任一实施例,注意力模块具体用于:
基于所述文本表示特征、所述文本相关度特征,以及所述文本表示特征与所述文本相关度特征的差和/或积,确定所述文本注意力表示;
基于所述路径表示特征、所述路径相关度特征,以及所述路径表示特征与所述路径相关度特征的差和/或积,确定所述路径注意力表示。
基于上述任一实施例,所述路径相关度模型训练的损失函数是基于正样本相关度和负样本相关度的差确定的;
其中,所述正样本相关度为所述样本文本与所述样本候选语义路径中的正样本语义路径的相关度,所述负样本相关度为所述样本文本与所述样本候选语义路径中的负样本语义路径的相关度。
图10为本发明实施例提供的电子设备的结构示意图,如图10所示,该电子设备可以包括:处理器(processor)1010、通信接口(Communications Interface)1020、存储器(memory)1030和通信总线1040,其中,处理器1010,通信接口1020,存储器1030通过通信总线1040完成相互间的通信。处理器1010可以调用存储器1030中的逻辑命令,以执行如下方法:确定待理解文本,以及所述待理解文本的关键信息;基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径;将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度;其中,所述路径相关度模型是基于样本文本、所述样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;基于所述待理解文本与每一候选语义路径的相关度,确定所述待理解文本的文本语义路径。
此外,上述的存储器1030中的逻辑命令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:确定待理解文本,以及所述待理解文本的关键信息;基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径;将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度;其中,所述路径相关度模型是基于样本文本、所述样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;基于所述待理解文本与每一候选语义路径的相关度,确定所述待理解文本的文本语义路径。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种语义理解方法,其特征在于,包括:
确定待理解文本,以及所述待理解文本的关键信息;
基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径;
将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度;其中,所述路径相关度模型是基于样本文本、所述样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;
基于所述待理解文本与每一候选语义路径的相关度,确定所述待理解文本的文本语义路径;
所述基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径,具体包括:
确定所述关键信息在所述预设知识图谱中对应的每一关联节点;
确定包含每一关联节点的最小生成子树,作为知识子树;
基于所述知识子树,确定若干条候选语义路径。
2.根据权利要求1所述的语义理解方法,其特征在于,所述基于所述知识子树,确定若干条候选语义路径,具体包括:
将所述知识子树中任一叶子节点,与距离所述任一叶子节点最近的起始节点之间的路径作为所述候选语义路径;其中,所述起始节点为所述知识子树的根节点或节点间关系为操作类型的父节点。
3.根据权利要求1所述的语义理解方法,其特征在于,所述将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度,具体包括:
将所述待理解文本与任一候选语义路径输入至所述路径相关度模型的编码层,得到所述编码层输出的文本表示特征,以及路径表示特征;
将所述文本表示特征和所述路径表示特征输入至所述路径相关度模型的注意力交互层,得到所述注意力交互层输出的文本注意力表示,以及路径注意力表示;
将所述文本注意力表示和所述路径注意力表示输入至所述路径相关度模型的输出层,得到所述输出层输出的所述待理解文本与所述任一候选语义路径的相关度。
4.根据权利要求3所述的语义理解方法,其特征在于,所述将所述文本表示特征和所述路径表示特征输入至所述路径相关度模型的注意力交互层,得到所述注意力交互层输出的文本注意力表示,以及路径注意力表示,具体包括:
对所述文本表示特征和所述路径表示特征进行注意力交互,得到文本相关度特征和路径相关度特征;
基于所述文本表示特征与所述文本相关度特征,确定所述文本注意力表示;
基于所述路径表示特征与所述路径相关度特征,确定所述路径注意力表示。
5.根据权利要求4所述的语义理解方法,其特征在于,所述基于所述文本表示特征与所述文本相关度特征,确定所述文本注意力表示,具体包括:
基于所述文本表示特征、所述文本相关度特征,以及所述文本表示特征与所述文本相关度特征的差和/或积,确定所述文本注意力表示;
所述基于所述路径表示特征与所述路径相关度特征,确定所述路径注意力表示,具体包括:
基于所述路径表示特征、所述路径相关度特征,以及所述路径表示特征与所述路径相关度特征的差和/或积,确定所述路径注意力表示。
6.根据权利要求1至5中任一项所述的语义理解方法,其特征在于,所述路径相关度模型训练的损失函数是基于正样本相关度和负样本相关度的差确定的;
其中,所述正样本相关度为所述样本文本与所述样本候选语义路径中的正样本语义路径的相关度,所述负样本相关度为所述样本文本与所述样本候选语义路径中的负样本语义路径的相关度。
7.一种语义理解装置,其特征在于,包括:
文本信息确定单元,用于确定待理解文本,以及所述待理解文本的关键信息;
候选路径确定单元,用于基于所述关键信息,以及预设知识图谱,确定若干条候选语义路径;
路径相关度确定单元,用于将所述待理解文本以及每一候选语义路径输入至路径相关度模型,得到所述路径相关度模型输出的所述待理解文本与每一候选语义路径的相关度;其中,所述路径相关度模型是基于样本文本、所述样本文本的样本候选语义路径,以及每一样本候选语义路径的相关标记训练得到的;
路径选择单元,用于基于所述待理解文本与每一候选语义路径的相关度,确定所述待理解文本的文本语义路径;
所述候选路径确定单元具体用于:
确定所述关键信息在所述预设知识图谱中对应的每一关联节点;
确定包含每一关联节点的最小生成子树,作为知识子树;
基于所述知识子树,确定若干条候选语义路径。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6中任一项所述的语义理解方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至6中任一项所述的语义理解方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911403995.5A CN111160041B (zh) | 2019-12-30 | 2019-12-30 | 语义理解方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911403995.5A CN111160041B (zh) | 2019-12-30 | 2019-12-30 | 语义理解方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160041A CN111160041A (zh) | 2020-05-15 |
CN111160041B true CN111160041B (zh) | 2024-02-13 |
Family
ID=70559636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911403995.5A Active CN111160041B (zh) | 2019-12-30 | 2019-12-30 | 语义理解方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160041B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111613341B (zh) * | 2020-05-22 | 2024-02-02 | 云知声智能科技股份有限公司 | 基于语义成分的实体链接方法及装置 |
CN111814487B (zh) * | 2020-07-17 | 2024-05-31 | 科大讯飞股份有限公司 | 一种语义理解方法、装置、设备及存储介质 |
CN112668334B (zh) * | 2020-12-16 | 2024-02-13 | 科大讯飞股份有限公司 | 实体识别方法以及电子设备、存储装置 |
CN113553834B (zh) * | 2021-06-30 | 2023-09-22 | 北京百度网讯科技有限公司 | 文本纠错方法、装置、电子设备及存储介质 |
CN114358144B (zh) * | 2021-12-16 | 2023-09-26 | 西南交通大学 | 一种图像分割质量评估方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001088747A2 (en) * | 2000-05-17 | 2001-11-22 | Microsoft Corporation | System and method for matching a textual input to a lexical knowledge base and for utilizing results of that match |
CN106844368A (zh) * | 2015-12-03 | 2017-06-13 | 华为技术有限公司 | 用于人机对话的方法、神经网络系统和用户设备 |
CN107291783A (zh) * | 2016-04-12 | 2017-10-24 | 芋头科技(杭州)有限公司 | 一种语义匹配方法及智能设备 |
CN107665188A (zh) * | 2016-07-27 | 2018-02-06 | 科大讯飞股份有限公司 | 一种语义理解方法及装置 |
CN108475264A (zh) * | 2016-08-01 | 2018-08-31 | 微软技术许可有限责任公司 | 机器翻译方法和装置 |
CN109739964A (zh) * | 2018-12-27 | 2019-05-10 | 北京拓尔思信息技术股份有限公司 | 知识数据提供方法、装置、电子设备和存储介质 |
CN110147451A (zh) * | 2019-05-10 | 2019-08-20 | 北京云知声信息技术有限公司 | 一种基于知识图谱的对话命令理解方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IN2013CH01237A (zh) * | 2013-03-21 | 2015-08-14 | Infosys Ltd |
-
2019
- 2019-12-30 CN CN201911403995.5A patent/CN111160041B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001088747A2 (en) * | 2000-05-17 | 2001-11-22 | Microsoft Corporation | System and method for matching a textual input to a lexical knowledge base and for utilizing results of that match |
CN106844368A (zh) * | 2015-12-03 | 2017-06-13 | 华为技术有限公司 | 用于人机对话的方法、神经网络系统和用户设备 |
CN107291783A (zh) * | 2016-04-12 | 2017-10-24 | 芋头科技(杭州)有限公司 | 一种语义匹配方法及智能设备 |
CN107665188A (zh) * | 2016-07-27 | 2018-02-06 | 科大讯飞股份有限公司 | 一种语义理解方法及装置 |
CN108475264A (zh) * | 2016-08-01 | 2018-08-31 | 微软技术许可有限责任公司 | 机器翻译方法和装置 |
CN109739964A (zh) * | 2018-12-27 | 2019-05-10 | 北京拓尔思信息技术股份有限公司 | 知识数据提供方法、装置、电子设备和存储介质 |
CN110147451A (zh) * | 2019-05-10 | 2019-08-20 | 北京云知声信息技术有限公司 | 一种基于知识图谱的对话命令理解方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111160041A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160041B (zh) | 语义理解方法、装置、电子设备和存储介质 | |
CN106776544B (zh) | 人物关系识别方法及装置和分词方法 | |
CN107480143B (zh) | 基于上下文相关性的对话话题分割方法和系统 | |
CN112632225B (zh) | 基于案事件知识图谱的语义搜索方法、装置和电子设备 | |
WO2021139247A1 (zh) | 医学领域知识图谱的构建方法、装置、设备及存储介质 | |
CN111708869B (zh) | 人机对话的处理方法及装置 | |
JP2018190188A (ja) | 要約生成装置、要約生成方法及びコンピュータプログラム | |
CN113705196A (zh) | 基于图神经网络的中文开放信息抽取方法和装置 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
KR20180094664A (ko) | 텍스트 데이터로부터 정보를 추출하기 위한 정보 추출 방법 및 장치 | |
CN110795572A (zh) | 一种实体对齐方法、装置、设备及介质 | |
CN106484678A (zh) | 一种短文本相似度计算方法及装置 | |
US20210319481A1 (en) | System and method for summerization of customer interaction | |
CN115658846A (zh) | 一种适用于开源软件供应链的智能搜索方法及装置 | |
CN110516125A (zh) | 识别异常字符串的方法、装置、设备及可读存储介质 | |
CN112559691B (zh) | 语义相似度的确定方法及确定装置、电子设备 | |
CN103473243A (zh) | 生成语义网络服务文档的方法和设备 | |
CN111125379B (zh) | 知识库扩充方法、装置、电子设备和存储介质 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN111611793B (zh) | 数据处理方法、装置、设备及存储介质 | |
CN111401070B (zh) | 词义相似度确定方法及装置、电子设备及存储介质 | |
CN114579606B (zh) | 预训练模型数据处理方法、电子设备及计算机存储介质 | |
JP2015018372A (ja) | 表現抽出モデル学習装置、表現抽出モデル学習方法、および、コンピュータ・プログラム | |
CN110245331A (zh) | 一种语句转换方法、装置、服务器及计算机存储介质 | |
JP2018077677A (ja) | 文字列変換装置、モデル学習装置、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |