CN112084779B - 用于语义识别的实体获取方法、装置、设备及存储介质 - Google Patents

用于语义识别的实体获取方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112084779B
CN112084779B CN202010931247.0A CN202010931247A CN112084779B CN 112084779 B CN112084779 B CN 112084779B CN 202010931247 A CN202010931247 A CN 202010931247A CN 112084779 B CN112084779 B CN 112084779B
Authority
CN
China
Prior art keywords
vector
information
statement
sentence
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010931247.0A
Other languages
English (en)
Other versions
CN112084779A (zh
Inventor
朱俊祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Property and Casualty Insurance Company of China Ltd
Original Assignee
Ping An Property and Casualty Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Property and Casualty Insurance Company of China Ltd filed Critical Ping An Property and Casualty Insurance Company of China Ltd
Priority to CN202010931247.0A priority Critical patent/CN112084779B/zh
Publication of CN112084779A publication Critical patent/CN112084779A/zh
Application granted granted Critical
Publication of CN112084779B publication Critical patent/CN112084779B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例属于人工智能领域,涉及一种用于语义识别的实体获取方法、装置、计算机设备及存储介质,此外,本申请还涉及区块链技术,用户的用户当前语句信息可存储于区块链中。该用于语义识别的实体获取方法基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。

Description

用于语义识别的实体获取方法、装置、设备及存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种用于语义识别的实体获取方法、装置、计算机设备及存储介质。
背景技术
智能对话是体现人工智能的重要领域,人类天生具有分析对话状态、主题、语气的能力,而智能体实现这些功能需要耗费巨大的开发量,因此通过深度学习模型来学习对话中潜在的交互信息,能够有效提高智能体的学习效果和效率。
现有一种语义实体获取方法,通过分析用户当前输入的语义内容信息,基于实体信息抽取、意图识别和对话状态管理达到获取语义实体的目的,系统开发方需要归纳完成场景任务所需要的实体信息,这些信息就是对话系统的槽位。同时,为了应对用户可能说的话,需要梳理用户可能表达的意图。系统根据用户提供的实体信息和意图状态,决定智能终端对用户采取追问或者提供信息等动作。
然而,传统的语义实体获取方法普遍不智能,在实际应用中,当用户输入的语义信息存在多种含义时,例如“美味源餐馆”,该“美味源餐馆”既可以是实体商铺,也可以是地址信息,通过传统的语义实体获取方法无法获知用户实际输入的语义信息,从而导致语义实体识别的准确性无法得到保障,即传统的语义实体获取方法存在准确性较低。
发明内容
本申请实施例的目的在于提出一种用于语义识别的实体获取方法、装置、计算机设备及存储介质,以解决传统的语义实体获取方法准确性较低的问题。
为了解决上述技术问题,本申请实施例提供一种用于语义识别的实体获取方法,采用了如下所述的技术方案:
获取语句采集装置发送的用户当前语句信息;
获取与所述当前语句信息相对应的机器上轮语句信息;
将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;
将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;
基于所述条件性句子向量构建残差网络,获取残差向量;
将所述残差向量以及所述用户语句向量矩阵进行拼接操作,获得目标向量矩阵;
将所述目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。
为了解决上述技术问题,本申请实施例还提供用于语义识别的实体获取装置,采用了如下所述的技术方案:
用户信息获取模块,用于获取语句采集装置发送的用户当前语句信息;
机器信息获取模块,用于获取与所述当前语句信息相对应的机器上轮语句信息;
编码模块,用于将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;
句子向量获取模块,用于将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;
残差向量获取模块,用于基于所述条件性句子向量构建残差网络,获取残差向量;
向量矩阵获取模块,用于将所述残差向量以及所述用户语句向量矩阵进行拼接操作,获得目标向量矩阵;
目标实体获取模块,用于将所述目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
包括存储器和处理器,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述用于语义识别的实体获取方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述用于语义识别的实体获取方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请提供了一种用于语义识别的实体获取方法,包括:获取语句采集装置发送的用户当前语句信息;获取与所述当前语句信息相对应的机器上轮语句信息;将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;基于所述条件性句子向量构建残差网络,获取残差向量;将所述残差向量以及所述用户语句向量矩阵进行拼接操作,获得目标向量矩阵;将所述目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是申请实施例一提供的用于语义识别的实体获取方法的实现流程图;
图2是图1中步骤S104的实现流程图;
图3是本申请实施例一提供的语句信息预处理的实现流程图;
图4是本申请实施例一提供的残差向量获取方法的实现流程图;
图5是本申请实施例一提供的实体识别模型获取方法的实现流程图;
图6是本申请实施例二提供的用于语义识别的实体获取装置的结构示意图;
图7是本申请实施例二提供的句子向量获取模块的结构示意图;
图8是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
实施例一
参阅图1,示出了本申请实施例一提供的用于语义识别的实体获取方法的实现流程图,为了便于说明,仅示出与本申请相关的部分。
在步骤S101中,获取语句采集装置发送的用户当前语句信息。
在本申请实施例中,语句采集装置主要用于采集用户输入的语句信息,该语句信息可以是语音信息或者文本信息。该语句采集装置可以是诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端,应当理解,此处对语句采集装置的举例仅为方便理解,不用于限定本申请。
在本申请实施例中,用户当前语句信息指的是上述语句采集装置采集到的当前用户输入的语句信息。
在步骤S102中,获取与当前语句信息相对应的机器上轮语句信息。
在本申请实施例中,由于语句采集装置采集到的用户当前语句信息可以通过时间进行标识,基于该时间标识,通过在本地数据库中获取与该用户当前语句信息的时间标识最接近的机器语句,即为上述机器上轮语句信息。
在步骤S103中,将用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量。
在本申请实施例中,预训练模型主要用于对语句信息进行编码操作,这里使用的预训练模型是BERT。根据BERT的原理,句子每一个字都会被模型转换成一个768维的字向量。例如,“我要去新天地”长度是6,那么BERT模型会输出6个768维的向量。其中用户语句U经过BERT编码后,得到跟原句字数长度一样的向量矩阵Eu,矩阵中每一行对应一个字向量。为了得到智能终端语句的表征向量,我们简单地对句子所有字向量进行相加,得到包含该句子上下文的句子表示Eb
在步骤S104中,将机器上轮语句向量作为条件语义,并基于注意力机制获取与用户当前语句信息相对应的条件性句子向量。
在本申请实施例中,注意力机制指的是选择性地关注所有信息的一部分,同时忽略其他可见的信息。在本申请中,该注意力机制采用的是点乘注意力(dot-productattention)。
在步骤S105中,基于条件性句子向量构建残差网络,获取残差向量。
在本申请实施例中,残差网络主要用于增加网络的深度,通过增加网络的深度可以提高该网络的性能。
在步骤S106中,将残差向量以及用户语句向量矩阵进行拼接操作,获得目标向量矩阵。
在本申请实施例中,需要把残差向量于用户语句向量矩阵中每一行的字向量进行拼接,得到基于智能终端句子语义表示的用户句向量矩阵。这个矩阵既包含用户原句的语义信息,又包含从智能终端语句角度看,这句话的信息。最后把这个矩阵向量输入到常规的CRF层,用于实体识别。
在步骤S107中,将目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。
在实际应用中,例如:
智能终端:请问投保机构是?
用户:福田区美味源餐厅
智能终端:请问在哪里发生意外呢?
用户:福田区美味源餐厅
上面例子中,用户说了两次“福田区美味源餐厅”,一次用于表达投保机构,一次用于表达意外发生地。但是对于单句模型来说,同一个表述只会识别成“投保机构”或“意外发生地”,不能根据上文去判断槽位属性。为了解决这种情况,模型进行识别分类时候,需要引入智能终端的表述。
1、把智能终端和用户的一次对话看做两轮对话:
智能终端:请问投保机构是?
用户:福田区美味源餐厅
2、把这两句话,输入到上面的模型流程图进行输入。用户说的话就是“用户语句”,智能终端的话就是“上一轮智能终端语句”。
3、这时候,模型就会把“福田区美味源餐厅”识别成投保机构。如果输入的智能终端语句是“请问在哪里发生意外呢?”,模型可以识别成“意外发生地”。
中间步骤:
①.用户语句转化成向量Eu,智能终端语句转化成向量Eb
②.通过Eu,Eb计算出Eu’
③.Eu,Eb,Eu’拼接输入到CRF层进行输出
本申请提供了一种用于语义识别的实体获取方法,包括:获取语句采集装置发送的用户当前语句信息;获取与当前语句信息相对应的机器上轮语句信息;将用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;将机器上轮语句向量作为条件语义,并基于注意力机制获取与用户当前语句信息相对应的条件性句子向量;基于条件性句子向量构建残差网络,获取残差向量;将残差向量以及用户语句向量矩阵进行拼接操作,获得目标向量矩阵;将目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。
继续参考图2,示出了图1中步骤S104的实现流程图,为了便于说明,仅示出与本申请相关的部分。
作为本申请实施例一的一些可选实现方式中,上述步骤S104具体包括:步骤S201以及步骤S202。
在步骤S201中,在用户当前语句信息中获取每个字的相关性权重ai,权重ai表示为:
Figure BDA0002670313900000081
其中,q是query向量,相当充当条件向量,约束查找所有跟q相关的信息,对应机器上轮语句向量;ki是key向量,代表用户语句中每个字的自向量,对应用户语句向量矩阵中的行向量;dK是规范化因子,用来按行进行归一化。
在步骤S202中,基于相关性权重ai计算条件性句子向量E′u,条件性句子向量E′u表示为:
Figure BDA0002670313900000082
其中,au是第n个字与机器上轮语句向量的相关性权重;kn是第n个子的key向量。
作为本申请实施例一的一些可选实现方式中,上述步骤S105具体包括以下步骤:
将机器上轮语句向量、条件性句子向量以及用户语句向量矩阵中每一行的字向量相加,获得残差向量。
在本申请实施例中,为了加强智能终端语句的语义对于实体识别信息的影响,把之前计算的Eb向量、受智能终端语义角度影响的上下文向量E′u、用户语句向量矩阵Eu中每一行的字向量
Figure BDA0002670313900000083
进行相加得到
Figure BDA0002670313900000084
继续参考图3,示出了本申请实施例一提供的语句信息预处理的实现流程图,为了便于说明,仅示出于本申请相关的部分。
作为本申请实施例一的一些可选实现方式中,上述步骤S103之前,该方法还包括:步骤S301、步骤S302以及步骤S303,上述步骤S103具体包括:步骤S404。
在步骤S301中,获取用户当前语句信息的类型信息。
在本申请实施例中,由于用户通过语句采集装置输入的信息存在文本信息以及非文本信息(例如:语音信息等),而为了保证本申请的语义实体获取方法的准确性,需要规范预训练模型的输入信息只能为文本信息。
在步骤S302中,判断类型信息是否为文本信息。
在步骤S303中,若类型信息为文本信息,则执行将机器上轮语句向量作为条件语义,并基于注意力机制获取与用户当前语句信息相对应的条件性句子向量的步骤。
在步骤S304中,若类型信息不是文本信息,则对用户当前语句信息进行文本转换操作,获取输入文本信息。
在本申请实施例中,文本转换操作主要用户将非文本信息转换成文本信息,例如,当用户输入的信息为语音信息时,则通过语音识别功能将该段语音数据转换成文本数据,即可实现文本转换操作。
在步骤S305中,将输入文本信息以及机器上轮语句信息输入至所述预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量。
在本申请实施例中,在将用户当前语句信息输入至预训练模型之前,通过对用户当前语句信息进行预处理操作,统一转换成为文本信息,从而进一步保证本申请提供的用于语义识别的实体获取方法的准确性,提高模型的识别效率。
继续参考图4,示出了本申请实施例一提供的残差向量获取方法的实现流程图,为了便于说明,仅示出于本申请相关的部分。
作为本申请实施例一的一些可选实现方式中,上述步骤S103之后,还包括:步骤S401;上述步骤S104具体包括:步骤S402以及步骤S403;上述步骤S105具体包括:步骤S404。
在步骤S401中,将机器上轮语句向量输入至第一全连接神经网络进行特征转换操作,获得语义特征向量。
在本申请实施例中,由于预训练模型BERT输出的特征向量,都是偏向于原预训练任务的,里面包含的信息特征丰富而冗余。因此需要进行特征的自动转换和过滤,具体地,对于上下文的句子表示Eb,我们让其输入到双层全连接神经网络当中。其中,全连接神经网络的第一层输出是768*4,第二层输出是768。这样设计的目的是,希望句子丰富的语义特征在经过第一层时候进行离散化映射,拆分出各个信息。然后利用第二层去挑选对下游NER任务相关的语义信息特征,得到语义特征向量E′b
在本申请实施例中,第一全连接神经网络指的是上述双层全连接神经网络。
在步骤S402中,将语义特征向量作为条件语义,并基于注意力机制获取与用户当前语句信息相对应的条件性句子向量。
在步骤S403中,将语义特征向量输入至第二全连接神经网络进行分类预测操作,获得分类评定向量。
在本申请实施例中,步骤S401产生的语义特征向量E′b需要输入到单层的全连接神经网络分类器进行分类预测,其中分类的类别就是机器人话术模板的所属类别。经过全连接神经网络后,输出的logits向量E″b包含着分类类别的概率分布原始信息,可以用于提示机器人上一句语义类别。
在本申请实施例中,第二全连接申请网络指的是上述单层的全连接神经网络分类器。
在步骤S404中,基于分类评定向量、条件性句子向量以及用户语句向量矩阵构建残差网络,获取残差向量。
在实际应用中,例如:
机器人:请问投保机构是?
客户:福田区美味源餐厅
机器人:请问在哪里发生意外呢?
客户:福田区美味源餐厅
上面例子中,客户说了两次“福田区美味源餐厅”,一次用于表达投保机构,一次用于表达意外发生地。但是对于单句模型来说,同一个表述只会识别成“投保机构”或“意外发生地”,不能根据上文去判断槽位属性。为了解决这种情况,模型进行识别分类时候,需要引入机器人的表述。并且为了加强机器人语句对于预测类别的影响,引入了多任务学习,同时预测机器人语句的意图。
1、把机器人和客户的一次对话看做两轮对话:
机器人:请问投保机构是?
客户:福田区美味源餐厅
2、把这两句话,输入到上面的模型流程图进行输入。客户说的话就是“用户语句”,机器人的话就是“上一轮机器人语句”。
3、这时候,模型就会把“福田区美味源餐厅”识别成投保机构。如果输入的机器人语句是“请问在哪里发生意外呢?”,模型可以识别成“意外发生地”。
中间步骤:
①、用户语句经过BERT模型,转化成向量Eu,机器人语句转化成向量Eb
②、Eb经过全连接神经网络,得到用于注意力key的Eb’
③、把Eb’作为key,Eu作为value,算出注意力向量Eu’
④、Eb’输入到全连接神经网络得到意图分类概率分布
⑤、Eu’,Eb’,Eu全部拼接输入到CRF进行预测
继续参考图5,示出了本申请实施例一提供的实体识别模型获取方法的实现流程图,为了便于说明,仅示出于本申请相关的部分。
作为本申请实施例一的一些可选实现方式中,上述步骤S107之前,还包括:步骤S501、步骤S502、步骤S503以及步骤S504。
在步骤S501中,获取训练文本,并对训练文本进行分词操作,获得训练分词数据。
在步骤S502中,对训练分词数据中的命名实体进行标注操作,获取标注分词数据。
在本申请实施例中,对进行分词后的训练文本中的命名实体进行标注操作可以为:对上述训练文本的分词是否属于命名实体、上述训练文本的分词在其所属命名实体中的位置和/或上述训练文本的分词所属命名实体的类型进行标注。
在实际应用中,可以采用BI0标注和/或IOBES标注的方式对训练文本中的命名实体进行标注操作。当命名实体识别模型为Bi-LSTM模型时,对训练文本可以按照IOBES(Inside、Other、Begin、End、Sing1e)的方式进行标注;当命名实体识别模型为Bi-LSTM+CRF模型时,对训练文本可以按照BI0的方式进行标注,即B-PER、I-PER代表人名首字、人名非首字,B-LOC、I-LOC代表地名首字、地名非首字,B-ORG、I-ORG代表组织机构名首字、组织机构名非首字,0代表该字不属于命名实体的一部分。
在步骤S503中,将标注分词数据进行映射操作,得到映射词向量。
在本申请实施例中,将训练文本分离出来的每一个字、字符通过查找分词向量映射表得到对应的词向量。这里的分词向量映射表是预先存储或加载的分词向量映射表。
在步骤S504中,将映射词向量输入待训练的实体识别模型进行逐层运算,获得实体识别模型。
在本申请实施例中,待训练的实体识别模型是没有经过训练的,因此待训练的实体识别模型输出的训练文本的命名实体的识别结果与步骤502中标注的命名实体之间可能存在误差。
在本申请实施例中,待训练的实体识别模型进行逐层运算可以是采用以下算法之一或组合:Bi-LSTM、CRF和CNN。对待训练的实体识别模型进行训练,也就是对待训练的实体识别模型逐层运算的参数以及各隐藏层的隐藏节点被赋予的注意力权重进行训练。
综上,本申请提供了一种用于语义识别的实体获取方法,包括:获取语句采集装置发送的用户当前语句信息;获取与当前语句信息相对应的机器上轮语句信息;将用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;将机器上轮语句向量作为条件语义,并基于注意力机制获取与用户当前语句信息相对应的条件性句子向量;基于条件性句子向量构建残差网络,获取残差向量;将残差向量以及用户语句向量矩阵进行拼接操作,获得目标向量矩阵;将目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。同时,为了加强智能终端语句的语义对于实体识别信息的影响,把之前计算的Eb向量、受智能终端语义角度影响的上下文向量E′u、用户语句向量矩阵Eu中每一行的字向量
Figure BDA0002670313900000131
进行相加得到
Figure BDA0002670313900000132
在将用户当前语句信息输入至预训练模型之前,通过对用户当前语句信息进行预处理操作,统一转换成为文本信息,从而进一步保证本申请提供的用于语义识别的实体获取方法的准确性,提高模型的识别效率。
需要强调的是,为进一步保证上述用户当前语句信息的私密和安全性,上述用户当前语句信息还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
实施例二
进一步参考图6,作为上述图1所示方法的实现,本申请提供了一种用于语义识别的实体获取装置,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本申请实施例二提供的用于语义识别的实体获取装置100包括:用户信息获取模块110、机器信息获取模块120、编码模块130、句子向量获取模块140、残差向量获取模块150、向量矩阵获取模块160以及目标实体获取模块170。其中:
用户信息获取模块110,用于获取语句采集装置发送的用户当前语句信息;
机器信息获取模块120,用于获取与所述当前语句信息相对应的机器上轮语句信息;
编码模块130,用于将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;
句子向量获取模块140,用于将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;
残差向量获取模块150,用于基于所述条件性句子向量构建残差网络,获取残差向量;
向量矩阵获取模块160,用于将所述残差向量以及所述用户语句向量矩阵进行拼接操作,获得目标向量矩阵;
目标实体获取模块170,用于将所述目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。
在本申请实施例中,语句采集装置主要用于采集用户输入的语句信息,该语句信息可以是语音信息或者文本信息。该语句采集装置可以是诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端,应当理解,此处对语句采集装置的举例仅为方便理解,不用于限定本申请。
在本申请实施例中,用户当前语句信息指的是上述语句采集装置采集到的当前用户输入的语句信息。
在本申请实施例中,由于语句采集装置采集到的用户当前语句信息可以通过时间进行标识,基于该时间标识,通过在本地数据库中获取与该用户当前语句信息的时间标识最接近的机器语句,即为上述机器上轮语句信息。
在本申请实施例中,预训练模型主要用于对语句信息进行编码操作,这里使用的预训练模型是BERT。根据BERT的原理,句子每一个字都会被模型转换成一个768维的字向量。例如,“我要去新天地”长度是6,那么BERT模型会输出6个768维的向量。其中用户语句U经过BERT编码后,得到跟原句字数长度一样的向量矩阵Eu,矩阵中每一行对应一个字向量。为了得到智能终端语句的表征向量,我们简单地对句子所有字向量进行相加,得到包含该句子上下文的句子表示Eb
在本申请实施例中,注意力机制指的是选择性地关注所有信息的一部分,同时忽略其他可见的信息。在本申请中,该注意力机制采用的是点乘注意力(dot-productattention)。
在本申请实施例中,残差网络主要用于增加网络的深度,通过增加网络的深度可以提高该网络的性能。
在本申请实施例中,需要把残差向量于用户语句向量矩阵中每一行的字向量进行拼接,得到基于智能终端句子语义表示的用户句向量矩阵。这个矩阵既包含用户原句的语义信息,又包含从智能终端语句角度看,这句话的信息。最后把这个矩阵向量输入到常规的CRF层,用于实体识别。
在实际应用中,例如:
智能终端:请问投保机构是?
用户:福田区美味源餐厅
智能终端:请问在哪里发生意外呢?
用户:福田区美味源餐厅
上面例子中,用户说了两次“福田区美味源餐厅”,一次用于表达投保机构,一次用于表达意外发生地。但是对于单句模型来说,同一个表述只会识别成“投保机构”或“意外发生地”,不能根据上文去判断槽位属性。为了解决这种情况,模型进行识别分类时候,需要引入智能终端的表述。
1、把智能终端和用户的一次对话看做两轮对话:
智能终端:请问投保机构是?
用户:福田区美味源餐厅
2、把这两句话,输入到上面的模型流程图进行输入。用户说的话就是“用户语句”,智能终端的话就是“上一轮智能终端语句”。
3、这时候,模型就会把“福田区美味源餐厅”识别成投保机构。如果输入的智能终端语句是“请问在哪里发生意外呢?”,模型可以识别成“意外发生地”。
中间步骤:
①.用户语句转化成向量Eu,智能终端语句转化成向量Eb
②.通过Eu,Eb计算出Eu’
③.Eu,Eb,Eu’拼接输入到CRF层进行输出
本申请提供了一种用于语义识别的实体获取装置,基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。
继续参考图7,示出了本申请实施例二提供的句子向量获取模块140的结构示意图,为了便于说明,仅示出与本申请相关的部分。
在本申请实施例二的一些可选的实现方式中,如图7所示,上述句子向量获取模块140包括:权重获取子模块141以及句子向量获取子模块142。其中:
权重获取子模块141,用于在用户当前语句信息中获取每个字的相关性权重ai,所述权重ai表示为:
Figure BDA0002670313900000171
其中,q是query向量,相当充当条件向量,约束查找所有跟q相关的信息,对应所述机器上轮语句向量;ki是key向量,代表用户语句中每个字的自向量,对应所述用户语句向量矩阵中的行向量;dK是规范化因子,用来按行进行归一化;
句子向量获取子模块142,用于基于相关性权重ai计算所述条件性句子向量E′u,所述条件性句子向量E′u表示为:
Figure BDA0002670313900000172
其中,an是第n个字与所述机器上轮语句向量的相关性权重;kn是第n个子的key向量。
在本申请实施例二的一些可选的实现方式中,上述残差向量获取模块150还包括:残差向量获取子模块。其中:
残差向量获取子模块,用于将所述机器上轮语句向量、条件性句子向量以及用户语句向量矩阵中每一行的字向量相加,获得所述残差向量。
在本申请实施例中,为了加强智能终端语句的语义对于实体识别信息的影响,把之前计算的Eb向量、受智能终端语义角度影响的上下文向量E′u、用户语句向量矩阵Eu中每一行的字向量
Figure BDA0002670313900000181
进行相加得到
Figure BDA0002670313900000182
在本申请实施例二的一些可选的实现方式中,上述用于语义识别的实体获取装置100还包括:类型获取模块、类型判断模块、文本正确模块以及文本转换模块;上述编码模块,具体包括:编码子模块。其中:
类型获取模块,用于获取所述用户当前语句信息的类型信息;
类型判断模块,用于判断所述类型信息是否为文本信息;
文本正确模块,用于若所述类型信息为文本信息,则执行所述将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量的步骤;
文本转换模块,用于若所述类型信息不是文本信息,则对所述用户当前语句信息进行文本转换操作,获取输入文本信息;
所述编码模块,具体包括:
编码子模块,用于将所述输入文本信息以及机器上轮语句信息输入至所述预训练模型进行编码操作,获取所述用户语句向量矩阵以及所述机器上轮语句向量。
在本申请实施例二的一些可选的实现方式中,上述用于语义识别的实体获取装置100还包括:特征转换模块;上述句子向量获取模块140包括:句子向量获取子模块以及评定向量获取子模块;上述残差向量获取模块150包括:残差向量获取子模块。其中:
特征转换模块,用于将所述机器上轮语句向量输入至第一全连接神经网络进行特征转换操作,获得语义特征向量。
句子向量获取子模块,用于将所述语义特征向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量。
评定向量获取子模块,用于将语义特征向量输入至第二全连接神经网络进行分类预测操作,获得分类评定向量。
残差向量获取子模块,用于基于所述分类评定向量、条件性句子向量以及用户语句向量矩阵构建残差网络,获取所述残差向量。
在本申请实施例二的一些可选的实现方式中,上述用于语义识别的实体获取装置100还包括:训练分词获取模块、标注分词获取模块、映射操作模块以及识别模型获取模块。其中:
训练分词获取模块,用于获取训练文本,并对所述训练文本进行分词操作,获得训练分词数据;
标注分词获取模块,用于对所述训练分词数据中的命名实体进行标注操作,获取标注分词数据;
映射操作模块,用于将所述标注分词数据进行映射操作,得到映射词向量;
识别模型获取模块,用于将所述映射词向量输入待训练的实体识别模型进行逐层运算,获得所述实体识别模型。
综上所述,本申请提供了一种用于语义识别的实体获取装置,包括:用户信息获取模块,用于获取语句采集装置发送的用户当前语句信息;机器信息获取模块,用于获取与所述当前语句信息相对应的机器上轮语句信息;编码模块,用于将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;句子向量获取模块,用于将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;残差向量获取模块,用于基于所述条件性句子向量构建残差网络,获取残差向量;向量矩阵获取模块,用于将所述残差向量以及所述用户语句向量矩阵进行拼接操作,获得目标向量矩阵;目标实体获取模块,用于将所述目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据。基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。同时,为了加强智能终端语句的语义对于实体识别信息的影响,把之前计算的Eb向量、受智能终端语义角度影响的上下文向量E′u、用户语句向量矩阵Eu中每一行的字向量
Figure BDA0002670313900000201
进行相加得到
Figure BDA0002670313900000202
在将用户当前语句信息输入至预训练模型之前,通过对用户当前语句信息进行预处理操作,统一转换成为文本信息,从而进一步保证本申请提供的用于语义识别的实体获取方法的准确性,提高模型的识别效率。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图8,图8为本实施例计算机设备基本结构框图。
所述计算机设备8包括通过系统总线相互通信连接存储器81、处理器82、网络接口83。需要指出的是,图中仅示出了具有组件81-83的计算机设备8,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器81至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器81可以是所述计算机设备8的内部存储单元,例如该计算机设备8的硬盘或内存。在另一些实施例中,所述存储器81也可以是所述计算机设备8的外部存储设备,例如该计算机设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器81还可以既包括所述计算机设备8的内部存储单元也包括其外部存储设备。本实施例中,所述存储器81通常用于存储安装于所述计算机设备8的操作系统和各类应用软件,例如用于语义识别的实体获取方法的计算机可读指令等。此外,所述存储器81还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器82在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器82通常用于控制所述计算机设备8的总体操作。本实施例中,所述处理器82用于运行所述存储器81中存储的计算机可读指令或者处理数据,例如运行所述用于语义识别的实体获取方法的计算机可读指令。
所述网络接口83可包括无线网络接口或有线网络接口,该网络接口83通常用于在所述计算机设备8与其他电子设备之间建立通信连接。
基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的用于语义识别的实体获取方法的步骤。
基于用户输入的当前语句信息,再结合与该当前语句信息相对应的机器上轮语句信息进行语义识别,并利用预训练网络,细粒度地抽取到用户语句和智能终端语句语义和词法上的特征,最后进行NER抽取。能够有效提高模型对于不同语义角色的实体判断,提升实体获取的准确性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (9)

1.一种用于语义识别的实体获取方法,其特征在于,包括下述步骤:
获取语句采集装置发送的用户当前语句信息;
获取与所述当前语句信息相对应的机器上轮语句信息;
将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;
将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;
基于所述条件性句子向量构建残差网络,获取残差向量;
将所述残差向量以及所述用户语句向量矩阵进行拼接操作,获得目标向量矩阵;
将所述目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据;
在所述将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量的步骤之后,还包括:
将所述机器上轮语句向量输入至第一全连接神经网络进行特征转换操作,获得语义特征向量,其中,所述第一全连接神经网络为双层全连接神经网络;
所述将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量的步骤,具体包括:
将所述语义特征向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;
将语义特征向量输入至第二全连接神经网络进行分类预测操作,获得分类评定向量;
所述基于所述条件性句子向量构建残差网络,获取残差向量的步骤,具体包括:
基于所述分类评定向量、条件性句子向量以及用户语句向量矩阵构建残差网络,获取所述残差向量。
2.根据权利要求1所述的用于语义识别的实体获取方法,其特征在于,所述将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量的步骤,具体包括:
在所述用户当前语句信息中获取每个字的相关性权重ai,所述权重ai表示为:
Figure FDA0003942675780000021
其中,q是query向量,相当充当条件向量,约束查找所有跟q相关的信息,对应所述机器上轮语句向量;ki是key向量,代表用户语句中每个字的自向量,对应所述用户语句向量矩阵中的行向量;dK是规范化因子,用来按行进行归一化;
基于相关性权重ai计算所述条件性句子向量E′u,所述条件性句子向量E′u表示为:
Figure FDA0003942675780000022
其中,an是第n个字与所述机器上轮语句向量的相关性权重;kn是第n个子的key向量。
3.根据权利要求1所述的用于语义识别的实体获取方法,其特征在于,所述基于所述条件性句子向量构建残差网络,获取残差向量的步骤,具体包括:
将所述机器上轮语句向量、条件性句子向量以及用户语句向量矩阵中每一行的字向量相加,获得所述残差向量。
4.根据权利要求1所述的用于语义识别的实体获取方法,其特征在于,在将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量的步骤之前,还包括:
获取所述用户当前语句信息的类型信息;
判断所述类型信息是否为文本信息;
若所述类型信息为文本信息,则执行所述将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量的步骤;
若所述类型信息不是文本信息,则对所述用户当前语句信息进行文本转换操作,获取输入文本信息;
所述将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量的步骤,具体包括:
将所述输入文本信息以及机器上轮语句信息输入至所述预训练模型进行编码操作,获取所述用户语句向量矩阵以及所述机器上轮语句向量。
5.根据权利要求1所述的用于语义识别的实体获取方法,其特征在于,在所述将所述目标向量矩阵输入至实体识别模型进行实体识别操作,获取目标实体数据的步骤之前,还包括:
获取训练文本,并对所述训练文本进行分词操作,获得训练分词数据;
对所述训练分词数据中的命名实体进行标注操作,获取标注分词数据;
将所述标注分词数据进行映射操作,得到映射词向量;
将所述映射词向量输入待训练的实体识别模型进行逐层运算,获得所述实体识别模型。
6.根据权利要求1所述的用于语义识别的实体获取方法,其特征在于,在所述获取语句采集装置发送的用户当前语句信息的步骤之后,还包括:
将所述用户当前语句信息存储至区块链中。
7.一种用于语义识别的实体获取装置,其特征在于,所述装置包括:
用户信息获取模块,用于获取语句采集装置发送的用户当前语句信息;
机器信息获取模块,用于获取与所述当前语句信息相对应的机器上轮语句信息;
编码模块,用于将所述用户当前语句信息以及机器上轮语句信息输入至预训练模型进行编码操作,获取用户语句向量矩阵以及机器上轮语句向量;
句子向量获取模块,用于将所述机器上轮语句向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;
残差向量获取模块,用于基于所述条件性句子向量构建残差网络,获取残差向量;
向量矩阵获取模块,用于将所述残差向量以及所述用户语句向量矩阵进行拼接操作,获得目标向量矩阵;
目标实体获取模块,用于将所述目标向量矩阵输入至CRF层进行实体识别操作,获取目标实体数据;
所述装置还包括:特征转换模块,所述句子向量获取模块包括:句子向量获取子模块以及评定向量获取子模块,所述残差向量获取模块包括:残差向量获取子模块,其中:
所述特征转换模块,用于将所述机器上轮语句向量输入至第一全连接神经网络进行特征转换操作,获得语义特征向量,其中,所述第一全连接神经网络为双层全连接神经网络;
所述句子向量获取子模块,用于将所述语义特征向量作为条件语义,并基于注意力机制获取与所述用户当前语句信息相对应的条件性句子向量;
所述评定向量获取子模块,用于将语义特征向量输入至第二全连接神经网络进行分类预测操作,获得分类评定向量;
所述残差向量获取子模块,用于基于所述分类评定向量、条件性句子向量以及用户语句向量矩阵构建残差网络,获取所述残差向量。
8.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至6中任一项所述的用于语义识别的实体获取方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至6中任一项所述的用于语义识别的实体获取方法的步骤。
CN202010931247.0A 2020-09-07 2020-09-07 用于语义识别的实体获取方法、装置、设备及存储介质 Active CN112084779B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010931247.0A CN112084779B (zh) 2020-09-07 2020-09-07 用于语义识别的实体获取方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010931247.0A CN112084779B (zh) 2020-09-07 2020-09-07 用于语义识别的实体获取方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112084779A CN112084779A (zh) 2020-12-15
CN112084779B true CN112084779B (zh) 2023-04-18

Family

ID=73732038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010931247.0A Active CN112084779B (zh) 2020-09-07 2020-09-07 用于语义识别的实体获取方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112084779B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113064997B (zh) * 2021-04-22 2024-05-07 中国平安财产保险股份有限公司 基于bert模型的意图分析方法、装置、设备及介质
CN113297849B (zh) * 2021-05-17 2023-05-09 陕西合友网络科技有限公司 基于区块链技术的财务预提费用管理方法
CN117496542B (zh) * 2023-12-29 2024-03-15 恒生电子股份有限公司 文档信息提取方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110502738A (zh) * 2018-05-18 2019-11-26 阿里巴巴集团控股有限公司 中文命名实体识别方法、装置、设备和查询系统
CN110852106A (zh) * 2019-11-06 2020-02-28 腾讯科技(深圳)有限公司 基于人工智能的命名实体处理方法、装置及电子设备
CN111597816A (zh) * 2020-05-22 2020-08-28 北京慧闻科技(集团)有限公司 一种自注意力命名实体识别方法、装置、设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110502738A (zh) * 2018-05-18 2019-11-26 阿里巴巴集团控股有限公司 中文命名实体识别方法、装置、设备和查询系统
CN110852106A (zh) * 2019-11-06 2020-02-28 腾讯科技(深圳)有限公司 基于人工智能的命名实体处理方法、装置及电子设备
CN111597816A (zh) * 2020-05-22 2020-08-28 北京慧闻科技(集团)有限公司 一种自注意力命名实体识别方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Named Entity Recognition with stack residual LSTM and tranable bias decoding;Quan Tran et al;《arXiv》;20170711;第1-10页 *

Also Published As

Publication number Publication date
CN112084779A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
CN112084779B (zh) 用于语义识别的实体获取方法、装置、设备及存储介质
CN112101041B (zh) 基于语义相似度的实体关系抽取方法、装置、设备及介质
CN113505601A (zh) 一种正负样本对构造方法、装置、计算机设备及存储介质
CN111353311A (zh) 一种命名实体识别方法、装置、计算机设备及存储介质
CN112328786A (zh) 基于bert的文本分类方法、装置、计算机设备及存储介质
CN111783471A (zh) 自然语言的语义识别方法、装置、设备及存储介质
CN112084752A (zh) 基于自然语言的语句标注方法、装置、设备及存储介质
CN112686053A (zh) 一种数据增强方法、装置、计算机设备及存储介质
CN113887237A (zh) 多意图文本的槽位预测方法、装置及计算机设备
CN112528654A (zh) 自然语言处理方法、装置及电子设备
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN115544560A (zh) 一种敏感信息的脱敏方法、装置、计算机设备及存储介质
CN115730597A (zh) 多级语义意图识别方法及其相关设备
CN115757731A (zh) 对话问句改写方法、装置、计算机设备及存储介质
CN113822040A (zh) 一种主观题阅卷评分方法、装置、计算机设备及存储介质
CN111324738B (zh) 一种确定文本标签的方法和系统
CN113420161A (zh) 一种节点文本融合方法、装置、计算机设备及存储介质
CN112232052A (zh) 文本拼接方法、装置、计算机设备及存储介质
CN115730237B (zh) 垃圾邮件检测方法、装置、计算机设备及存储介质
CN115687934A (zh) 意图识别方法、装置、计算机设备及存储介质
CN113420119B (zh) 基于知识卡片的智能问答方法、装置、设备及存储介质
CN115730603A (zh) 基于人工智能的信息提取方法、装置、设备及存储介质
CN112364649B (zh) 命名实体的识别方法、装置、计算机设备及存储介质
CN114091451A (zh) 一种文本分类方法、装置、设备及存储介质
CN114417891A (zh) 基于粗糙语义的回复语句确定方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant