CN112287069B - 基于语音语义的信息检索方法、装置及计算机设备 - Google Patents
基于语音语义的信息检索方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN112287069B CN112287069B CN202011182344.0A CN202011182344A CN112287069B CN 112287069 B CN112287069 B CN 112287069B CN 202011182344 A CN202011182344 A CN 202011182344A CN 112287069 B CN112287069 B CN 112287069B
- Authority
- CN
- China
- Prior art keywords
- question
- sentence
- inventory
- sentences
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例属于人工智能领域,应用于智慧城市领域中,涉及一种基于语音语义的信息检索方法、装置、计算机设备及存储介质,方法包括获取匹配语句对以及候选语句;删除候选语句中的实体得到无实体语句;将匹配语句对设置为正样本,并将候选语句及无实体语句设置为负样本;根据正样本和负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型;获取用户问句;通过语句匹配模型在预设的问答库中确定与用户问句匹配的库存问句,并展示库存问句的答案信息。此外,本申请还涉及区块链技术,匹配语句可存储于区块链中。本申请提高了信息检索的准确性。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于语音语义的信息检索方法、装置、计算机设备及存储介质。
背景技术
随着人工智能的发展,智能问答的应用越来越广泛。智能问答涉及人工智能领域中的语义解析及语音识别等,通常是由计算机获取用户问句,对用户问句进行分析并检索到对应的答案信息后进行展示,智能问答可以针对某个专用场景设计,例如医疗、商业和旅游等。智能问答系统通常会预存多组可能的问句及其答案,根据用户问句查找相关的预存问句,并输出预存问句的答案完成智能问答。
智能问答中用户的问句多种多样,因此准确理解用户的查询意图并准确快速地检索到答案信息,是实现智能问答的关键。然而传统的智能问答技术在应用中,有时面对两个结构相似、但实体不同的句子,却会判定为两个句子相似、向用户返回错误句子的答案信息,使得信息检索的准确性较低。
发明内容
本申请实施例的目的在于提出一种基于语音语义的信息检索方法、装置、计算机设备及存储介质,以解决信息检索的准确性较低的问题。
为了解决上述技术问题,本申请实施例提供一种基于语音语义的信息检索方法,采用了如下所述的技术方案:
获取匹配语句对以及候选语句;
删除所述候选语句中的实体得到无实体语句;
将所述匹配语句对设置为正样本,并将所述候选语句及所述无实体语句设置为负样本;
根据所述正样本和所述负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型;
获取用户问句;
通过所述语句匹配模型在预设的问答库中确定与所述用户问句匹配的库存问句,并展示所述库存问句的答案信息,其中,所述预设的问答库中存储有多个预设的库存问句以及与所述库存问句对应的答案信息。
进一步的,负样本的构造方法还包括:
获取预设的每个实体的库存问句,其中,针对所述每个实体的库存问句中均包括若干类相似库存问句,其中,所述相似库存问句为语义相同但结构不同的库存问句;
对所述每个实体的若干类相似库存问句进行随机组合,并将组合后的库存问句对设置为负样本;
对不同实体的库存问句进行随机组合,并将组合后的库存问句对设置为负样本。
进一步的,所述根据所述正样本和所述负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型的步骤包括:
给所述正样本和所述负样本添加样本标签,得到训练样本;
将所述训练样本输入预设的初始语句匹配模型,并通过所述注意力机制对所述训练样本进行特征融合,得到所述训练样本的特征向量;
对所述特征向量进行计算,得到所述训练样本语句间的相似度;
根据所述相似度和所述样本标签计算模型损失;
基于所述模型损失调整所述初始语句匹配模型的模型参数,直至模型收敛,得到所述语句匹配模型。
进一步的,所述将所述训练样本输入预设的初始语句匹配模型,并通过所述注意力机制对所述训练样本进行特征融合,得到所述训练样本的特征向量的步骤包括:
分别生成所述训练样本中第一语句的第一词向量矩阵和第二语句的第二词向量矩阵;
基于所述注意力机制,对所述第一词向量矩阵和第二词向量矩阵进行交互计算,得到第一注意力特征矩阵和第二注意力特征矩阵;
将所述第一词向量矩阵和所述第一注意力特征矩阵进行矩阵融合得到第一融合矩阵,以及将所述第二词向量矩阵和所述第二注意力特征矩阵进行矩阵融合得到第二融合矩阵;
通过所述初始语句匹配模型对所述第一融合矩阵和第二融合矩阵进行处理,得到所述第一语句和所述第二语句的特征向量。
进一步的,所述获取用户问句的步骤包括:
获取初始用户问句;
根据预设热词表对所述初始用户问句进行分词,并通过预设词典对分词后的初始用户问句进行编码,得到第一编码;
将所述第一编码输入至训练完毕的文本纠正模型,得到第二编码;
根据所述预设词典对所述第二编码进行解码,得到所述用户问句。
进一步的,所述通过所述语句匹配模型在预设的问答库中确定与所述用户问句匹配的库存问句,并展示所述库存问句的答案信息的步骤包括:
通过所述语句匹配模型计算所述用户问句与预设的问答库中库存问句的相似度;
根据计算得到的相似度选取与所述用户问句匹配的库存问句;
将选取的库存问句所对应的答案信息发送至终端进行展示。
进一步的,所述通过所述语句匹配模型计算所述用户问句与预设的问答库中库存问句的相似度的步骤包括:
识别所述用户问句中的问句实体;
根据所述问句实体对预设的问答库中的库存问句进行筛选;
通过所述语句匹配模型计算所述用户问句与筛选到的库存问句的相似度。
为了解决上述技术问题,本申请实施例还提供一种基于语音语义的信息检索装置,采用了如下所述的技术方案:
语句获取模块,用于获取匹配语句对以及候选语句;
实体删除模块,用于删除所述候选语句中的实体得到无实体语句;
语句设置模块,用于将所述匹配语句对设置为正样本,并将所述候选语句及所述无实体语句设置为负样本;
模型训练模块,用于根据所述正样本和所述负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型;
问句获取模块,用于获取用户问句;
问句确定模块,用于通过所述语句匹配模型在预设的问答库中确定与所述用户问句匹配的库存问句,并展示所述库存问句的答案信息,其中,所述预设的问答库中存储有多个预设的库存问句以及与所述库存问句对应的答案信息。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述所述的基于语音语义的信息检索方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述所述的基于语音语义的信息检索方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:获取到匹配语句对以及候选语句后,将匹配语句对作为正样本,识别候选语句中的实体并进行删除,得到无实体语句,将候选语句及其对应的无实体语句作为负样本,在训练初始语句匹配模型时,面对两个相似度较高但互为负样本的句子,可以基于注意力机制捕捉实体信息,强化了语句匹配时句子中实体的重要性,提高了训练完毕得到的语句匹配模型匹配的准确性;将用户问句输入语句匹配模型,即可准确地从问答库中确定与用户问句匹配的库存语句,同时展示与库存语句对应的答案信息,从而提高了信息检索的准确性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的基于语音语义的信息检索方法的一个实施例的流程图;
图3是根据本申请的基于语音语义的信息检索装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于语音语义的信息检索方法一般由服务器执行,相应地,基于语音语义的信息检索装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于语音语义的信息检索方法的一个实施例的流程图。所述的基于语音语义的信息检索方法,包括以下步骤:
步骤S201,获取匹配语句对以及候选语句。
在本实施例中,基于语音语义的信息检索方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式与终端进行通信。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
具体地,服务器获取匹配语句对以及候选语句。匹配语句对可以是由语义匹配的句子组成的句子对;候选语句可以是单独的句子;在一个实施例中,可以从问答库中获取匹配语句对,从匹配语句对中随机抽取语句,得到候选语句,或者从问答库中随机抽取语句得到候选语句。匹配语句对与候选语句在语义上可以相关,也可以无关。举例说明,匹配语句对中有两个句子“糖尿病应该吃什么”和“糖尿病吃什么好呢”,这两个句子虽然句子结构组成不同,但是语义相似;可以从“糖尿病应该吃什么”和“糖尿病吃什么好呢”中抽取任意一个句子作为候选语句,也可以将另一个与匹配语句对完全无关的句子“高血压治疗方法有哪些”作为候选语句。
需要强调的是,为进一步保证上述匹配语句对的私密和安全性,上述匹配语句对还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
步骤S202,删除候选语句中的实体得到无实体语句。
具体地,服务器对候选语句进行解析,通过命名实体识别(Named EntityRecognition,简称NER,又称专名识别)识别候选语句中的实体,包括人名、地名、机构名、数字、日期、货币、地址、专有名词等。
服务器删除识别到的实体,将剩余的部分句子作为无实体语句,无实体语句与删除实体前的候选语句相对应。
步骤S203,将匹配语句对设置为正样本,并将候选语句及无实体语句设置为负样本。
具体地,服务器将匹配语句对设置为正样本;为了解决语句匹配模型将两个结构相似、但实体不同的两个句子判定为相似的问题,将候选语句及其对应的无实体语句设置为负样本。
举例说明,匹配语句对中的两个句子“糖尿病应该吃什么”和“糖尿病吃什么好呢”将被设置为正样本;候选语句为“糖尿病应该吃什么”,识别候选语句中的实体“糖尿病”并将其删除,得到无实体语句“应该吃什么”,将“糖尿病应该吃什么”和“应该吃什么”设置为负样本。
步骤S204,根据正样本和负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型。
其中,初始语句匹配模型可以是尚未完成训练的语句匹配模型。初始语句匹配模型可以基于多种神经网络搭建,在一个实施例中,初始语句匹配模型可以基于CNN网络(Convolutional Neural Networks,CNN,卷积神经网络)搭建。
在一个实施例中,还可以采用基于CNN的孪生网络,其中,孪生网络中的每一个CNN网络各处理一个样本中的语句。在模型应用时,一个CNN网络处理用户问句,一个CNN网络用于处理库存问句,以提高处理效率。
具体地,服务器将正样本和负样本输入初始语句匹配模型,根据正样本和负样本进行训练。初始语句匹配模型具有注意力机制,候选语句及其对应的无实体语句作为负样本,在训练中,初始语句匹配模型通过注意力机制捕捉负样本的两个句子之间的差异,并强化实体在语句匹配中的重要性。训练完毕后,得到语句匹配模型。举例说明,“糖尿病应该吃什么”和“应该吃什么”仅仅差了一个实体“糖尿病”,但两个语句互为负样本,初始语句匹配模型在训练中会通过注意力机制捕捉两个语句间的差异,强化实体“糖尿病”的重要性。
步骤S205,获取用户问句。
其中,用户问句可以是用户通过终端输入的问句。
具体地,本申请可以应用于智能问答或智能检索。用户可以在终端以文本形式输入用户问句,由终端将用户问句发送至服务器。用户也可以输入语音,输入的语音经过语音识别转换为文本形式的用户问句。用户可以通过支持语音输入的输入法进行语音输入;也可以终端中的页面调用第三方提供的应用程序接口对语音进行转换,也可以由终端将语音发送至服务器,由服务器进行语音到文字的转换。
步骤S206,通过语句匹配模型在预设的问答库中确定与用户问句匹配的库存问句,并展示库存问句的答案信息,其中,预设的问答库中存储有多个预设的库存问句以及与库存问句对应的答案信息。
具体地,服务器接收到用户问句后,将用户问句输入语句匹配模型。问答库是预先构建好的,存储有大量库存问句,库存问句具有对应的答案信息。服务器通过语句匹配模型在问答库中查询与用户问句匹配的库存问句,将库存问句对应的答案信息发送至终端进行展示,完成信息检索。
本实施例中,获取到匹配语句对以及候选语句后,将匹配语句对作为正样本,识别候选语句中的实体并进行删除,得到无实体语句,将候选语句及其对应的无实体语句作为负样本,在训练初始语句匹配模型时,面对两个相似度较高但互为负样本的句子,可以基于注意力机制捕捉实体信息,强化了语句匹配时句子中实体的重要性,提高了训练完毕得到的语句匹配模型匹配的准确性;将用户问句输入语句匹配模型,即可准确地从问答库中确定与用户问句匹配的库存语句,同时展示与库存语句对应的答案信息,从而提高了信息检索的准确性。
进一步的,负样本的构造方法还可以包括:获取预设的每个实体的库存问句,其中,针对每个实体的库存问句中均包括若干类相似库存问句,其中,相似库存问句为语义相同但结构不同的库存问句;对每个实体的若干类相似库存问句进行随机组合,并将组合后的库存问句对设置为负样本;对不同实体的库存问句进行随机组合,并将组合后的库存问句对设置为负样本。
具体地,在训练初始语句匹配模型时,负样本除了候选语句及其对应的无实体语句,还可以包括其他种类的负样本。
问答库中预设了多个实体,问答库中的库存问句(可以是FAQ,Frequently AskedQuestions)可以根据实体进行归类存储,而每一个实体又可以有若干类相似库存问句,相似库存问句是由语义相同、但是句子结构组成不同的语句构成。举例说明,在医疗领域的问答库中,库存问句以疾病实体归类存储,“糖尿病”和“高血压”的库存问句分开存储;而“糖尿病”又由若干类相似库存问句组成,例如第一类相似库存问句FAQ1关于“糖尿病的饮食注意事项”,第二类相似库存问句FAQ2关于“糖尿病的治疗方法”,FAQ1中又有多个相似的库存问句FAQ11“糖尿病饮食有什么要注意的”、FAQ12“糖尿病的饮食注意事项有哪些”、FAQ13“糖尿病吃什么好呢”......,FAQ2中又有多个相似的库存问句FAQ21“糖尿病应该怎么治”、FAQ22“糖尿病的治疗方法有什么”、FAQ23“如何治疗糖尿病”......。
可以从一个实体的不同类相似库存语句中,随机抽取库存问句作为负样本,例如,从“糖尿病”的FAQ1中随机抽取库存问句FAQ11“糖尿病饮食有什么要注意的”,从“糖尿病”的FAQ2中随机抽取库存问句FAQ22“糖尿病的治疗方法有什么”,得到一种负样本。
还可以从不同类别实体的库存问句中随机抽取库存问句进行组合,得到负样本。例如,可以从“糖尿病”的FAQ中抽取库存问句“糖尿病饮食有什么要注意的”,从“高血压”的FAQ中抽取库存问句“高血压有哪些症状”,得到另一种负样本。通过不同方式构建负样本,丰富了负样本的构成,保证了可以对初始语句匹配模型进行充分的训练。
本实施例中,从一个实体的不同类别相似库存问句中,随机抽取库存问句组合为负样本,或者从不同实体的库存问句中随机抽取组合为负样本,丰富了负样本的构成方式。
进一步的,上述步骤S204可以包括:
步骤S2041,给正样本和负样本添加样本标签,得到训练样本。
具体地,服务器给正样本和负样本添加样本标签,正样本的样本标签取一个值,例如1,负样本的样本标签取另一个值,例如0。添加样本标签后,正样本和负样本将作为训练样本,初始语句匹配模型对训练样本中的正样本和负样本处理方式相同。
步骤S2042,将训练样本输入预设的初始语句匹配模型,并通过注意力机制对训练样本进行特征融合,得到训练样本的特征向量。
具体地,服务器将样本标签中的句子转换为向量,输入至初始语句匹配模型,以根据句子的向量计算注意力矩阵,注意力矩阵从样本标签的两个句子中各取信息计算得到,融合了两个句子的特征,通过注意力矩阵加入了句子之间的交互注意力表征,使得初始语句匹配模型可以学习到两个句子之间的差异。其中,初始语句匹配模型是预设的,即已经预先构建,并完成了初始化。
初始语句匹配模型根据注意力矩阵对两个句子的向量继续进行卷积、池化处理,得到训练样本中两个句子的特征向量。
步骤S2043,对特征向量进行计算,得到训练样本语句间的相似度。
具体地,服务器计算训练样本两个语句间的相似度,例如通过余弦相似度算法计算相似度。计算得到的相似度的取值范围为[0,1]。
步骤S2044,根据相似度和样本标签计算模型损失。
具体地,可以根据相似度给训练样本添加一个二分类结果,当相似度大于预设的值时,判定训练样本中的两个句子匹配,当相似度小于预设的值时,判定训练样本中的两个句子不匹配。
添加二分类结果后,可以根据样本标签计算交叉熵得到模型损失。
步骤S2045,基于模型损失调整初始语句匹配模型的模型参数,直至模型收敛,得到语句匹配模型。
具体地,服务器以减小模型损失为目标,调整初始语句匹配模型的模型参数,然后将训练样本输入参数调整后的初始语句匹配模型重新训练,直至模型收敛,得到语句匹配模型。
本实施例中,将训练样本输入初始语句分类模型后,通过注意力机制对训练样本进行特征融合以学习训练样本中两个句子之间的差异;计算得到相似度后,根据相似度和样本标签计算模型损失并调整模型参数,可以得到能准确进行语句匹配的语句匹配模型。
进一步的,上述步骤S2042可以包括:
S20421,分别生成训练样本中第一语句的第一词向量矩阵和第二语句的第二词向量矩阵。
具体地,每个训练样本中包括两个语句,此处以第一语句和第二语句加以指代。服务器可以先对第一语句和第二语句进行分词,然后将分词结果转换为词向量,得到第一语句的第一词向量矩阵和第二语句的第二词向量矩阵。
在一个实施例中,可以通过word2vec将第一语句和第二语句转换为词向量矩阵。
S20422,基于注意力机制,对第一词向量矩阵和第二词向量矩阵进行交互计算,得到第一注意力特征矩阵和第二注意力特征矩阵。
具体地,初始语句匹配模型中具有注意力机制,基于注意力机制对第一词向量矩阵和第二词向量矩阵进行计算,得到注意力矩阵A,其中:
Ai,j=score(F0,r[:,i],F1,r[:,j]) (1)
其中,Fi,r[:,k]为第i个句子中第k个词向量,且可以取:
注意力矩阵A是对第一语句和第二语句的交互,加入了句子之间的交互信息,使得初始语句匹配模型可以更充分地提取语句中的特征,得到更多语句间的相似度信息,并发现语句间的差异。
得到注意力矩阵A后,再按照如下公式计算第一语句的第一注意力特征矩阵,以及第二语句的第二注意力特征矩阵:
F0,a=W0AT (3)
F1,a=W1A (4)
其中,F0,a为第一语句的第一注意力特征矩阵,F1,a为第二语句的第二注意力特征矩阵,W0和W1是初始语句匹配模型的模型参数。
S20423,将第一词向量矩阵和第一注意力特征矩阵进行矩阵融合得到第一融合矩阵,以及将第二词向量矩阵和第二注意力特征矩阵进行矩阵融合得到第二融合矩阵。
具体地,第一词向量矩阵、第一注意力特征矩阵、第二词向量矩阵和第二注意力特征矩阵的维度相同。将第一词向量矩阵和第一注意力特征矩阵中对应位置处的元素进行融合,使得第一词向量矩阵中每个位置处的元素提升一维,增加的一个维度是第一注意力特征矩阵对应位置处的元素,从而将融合有交互信息的第一注意力特征矩阵进一步融合到第一词向量矩阵中,得到第一融合矩阵;对第二词向量矩阵和第二注意力特征矩阵进行同样的融合处理,得到第二融合矩阵。
S20424,通过初始语句匹配模型对第一融合矩阵和第二融合矩阵进行处理,得到第一语句和第二语句的特征向量。
具体地,服务器将第一融合矩阵和第二融合矩阵输入初始语句匹配模型的卷积层进行卷积,将卷积结果输入池化层进行池化,最终得到第一语句和第二语句的特征向量。
本实施例中,将语句转换为词向量矩阵,然后对两个词向量矩阵进行交互计算以加入交互信息,最终得到表征两个语句的特征向量,保证了两个语句相似度计算的实现。
进一步的,上述步骤S205可以包括:获取初始用户问句;根据预设热词表对初始用户问句进行分词,并通过预设词典对分词后的初始用户问句进行编码,得到第一编码;将第一编码输入至训练完毕的文本纠正模型,得到第二编码;根据预设词典对第二编码进行解码,得到用户问句。
具体地,初始用户问句由用户直接输入得到,或者是对语音进行转换得到,初始用户问句中可能包含错别字,为了提高匹配的准确性,可以先对初始用户问句进行文本纠错。
可以预设一个热词表,热词表根据问答系统的应用环境设置包含不同种类的热词,根据热词将初始用户问句划分为多个字符。例如,根据预设热词表将初始用户问句“糖尿病应该七什么”其划分为“糖尿病”、“应该”、“七”、“什么”。
服务器获取预设词典,预设词典中记录字符对应的索引,且一个字符对应一个索引,可以通过词典对初始用户问句进行编码,即根据预设词典查找初始用户问句中每个字符对应的索引,将该索引进行组合,得到初始用户问句的第一编码。例如,上述的待纠错文本分词之后的“糖尿病”、“应该”、“七”、“什么”这四个字符,在预设的词典中查找每个字符对应的索引45、113、7、165,将其组合形成初始用户问句的第一编码[45,113,7,165]。
文本纠正模型经过预先训练的到,可以对输入的第一编码进行纠错,输出纠错后的第二编码。文本纠正模型在训练时,训练样本包括错误文本编码与正确文本编码,将错误文本编码作为输入,正确文本编码作为输出对初始文本纠正模型进行训练,调整初始文本纠正模型的模型参数,得到文本纠正模型,可以对错误句子进行文本纠错。在一个实施例中,文本纠错模型基于双向循环神经网络(BRNN,Bidirectional RNN)搭建。
得到纠错后文本的第二编码后,再根据预设词典对第二编码进行解码,即可得到无误的用户问句。例如,得到第二编码[45,113,3,165]之后,根据预设词典对第二编码进行解码,得到用户问句“糖尿病应该吃什么”。
本实施例中,通过文本纠错模型对初始用户问句进行文本纠错,消除初始用户问句中的文本错误,使得语句匹配模型可以更准确地进行语句匹配,进一步提高了信息检索的准确性。
进一步的,上述步骤S206可以包括:
步骤S2061,通过语句匹配模型计算用户问句与预设的问答库中库存问句的相似度。
具体地,服务器通过语句匹配模型,计算用户问句与预设的问答库中各库存问句的相似度。在一个实施例中,可以预先生成各库存问句的词向量矩阵,将词向量矩阵与库存问句对应存储,在根据用户问句计算相似度时,可以直接调用库存问句的词向量矩阵,减少匹配时间,提高匹配效率。
步骤S2062,根据计算得到的相似度选取与用户问句匹配的库存问句。
具体地,服务器根据计算得到的相似度对用户问句进行排序,具体可以根据相似度数值由大到小进行排列,获取具有最高相似度的库存问句,并校验最高的相似度是否大于预设的相似度阈值,若最高的相似度大于预设的相似度阈值,则选定最高的相似度所对应的库存问句。
步骤S2063,将选取的库存问句所对应的答案信息发送至终端进行展示。
具体地,服务器提取选取到的库存问句所对应的答案信息,并将答案信息发送至用户的终端进行答案展示,完成信息检索。服务器还可以将选取到的库存问句及其答案信息一同发送至终端进行展示。
训练完毕的语句匹配模型可以对两个结构相似但实体不同的句子进行准确地区分,保证了语句匹配的准确性,信息检索在语句匹配的基础上进行,从而提高了信息检索的准确性。
本实施例中,通过语句匹配模型准确地计算用户问句与库存问句间的相似度,根据相似度筛选与用户问句最为匹配的库存问句并返回对应的答案信息,保证了信息检索的准确性。
进一步的,上述步骤S2061可以包括:识别用户问句中的问句实体;根据问句实体对预设的问答库中的库存问句进行筛选;通过语句匹配模型计算用户问句与筛选到的库存问句的相似度。
具体地,在进行语句匹配时,可以先识别用户问句中的问句实体。问句实体为用户问句中的命名实体,可以通过实体识别模型识别用户问句中的问句实体,例如通过基于CNN的实体识别模型识别问句实体。
问答库中的库存问句可以根据实体进行归类存储,服务器可以先在问答库中查询与问句实体匹配的实体,从而缩小计算范围,在查询到的实体所对应的库存问句中,通过语句匹配模型进一步计算用户问句与筛选到的库存问句间的相似度,以提高语句匹配效率。
本实施例中,先识别用户问句中的问句实体,然后在问答库中进行实体匹配以约束查询范围,只需计算部分库存问句与用户问句间的相似度,提高了语句匹配的效率。
本申请可应用于智慧城市领域中,从而推动智慧城市的建设。例如,本申请可应用于智慧社区领域中的社区管理等,将问答系统设置于指示牌中,为用户提供导航等信息服务;同样也可应用于智慧医疗、智慧教育等多种涉及问答的应用领域。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种基于语音语义的信息检索装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的基于语音语义的信息检索装置300包括:语句获取模块301、实体删除模块302、语句设置模块303、模型训练模块304、问句获取模块305以及问句确定模块306,其中:
语句获取模块301,用于获取匹配语句对以及候选语句。
实体删除模块302,用于删除候选语句中的实体得到无实体语句。
语句设置模块303,用于将匹配语句对设置为正样本,并将候选语句及无实体语句设置为负样本。
模型训练模块304,用于根据正样本和负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型。
问句获取模块305,用于获取用户问句。
问句确定模块306,用于通过语句匹配模型在预设的问答库中确定与用户问句匹配的库存问句,并展示库存问句的答案信息,其中,预设的问答库中存储有多个预设的库存问句以及与库存问句对应的答案信息。
本实施例中,获取到匹配语句对以及候选语句后,将匹配语句对作为正样本,识别候选语句中的实体并进行删除,得到无实体语句,将候选语句及其对应的无实体语句作为负样本,在训练初始语句匹配模型时,面对两个相似度较高但互为负样本的句子,可以基于注意力机制捕捉实体信息,强化了语句匹配时句子中实体的重要性,提高了训练完毕得到的语句匹配模型匹配的准确性;将用户问句输入语句匹配模型,即可准确地从问答库中确定与用户问句匹配的库存语句,同时展示与库存语句对应的答案信息,从而提高了信息检索的准确性。
在本实施例的一些可选的实现方式中,基于语音语义的信息检索装置300还包括负样本构造模块,所述负样本构造模块包括:库存获取子模块、问句组合子模块以及随机组合子模块,其中:
库存获取子模块,用于获取预设的每个实体的库存问句,其中,针对每个实体的库存问句中均包括若干类相似库存问句,其中,相似库存问句为语义相同但结构不同的库存问句。
问句组合子模块,用于对每个实体的若干类相似库存问句进行随机组合,并将组合后的库存问句对设置为负样本。
随机组合子模块,用于对不同实体的库存问句进行随机组合,并将组合后的库存问句对设置为负样本。
本实施例中,从一个实体的不同类别相似库存问句中,随机抽取库存问句组合为负样本,或者从不同实体的库存问句中随机抽取组合为负样本,丰富了负样本的构成方式。
在本实施例的一些可选的实现方式中,模型训练模块304包括:标签添加子模块、特征融合子模块、向量计算子模块、损失计算子模块以及参数调整子模块,其中:
标签添加子模块,用于给正样本和负样本添加样本标签,得到训练样本。
特征融合子模块,用于将训练样本输入预设的初始语句匹配模型,并通过注意力机制对训练样本进行特征融合,得到训练样本的特征向量。
向量计算子模块,用于对特征向量进行计算,得到训练样本语句间的相似度。
损失计算子模块,用于根据相似度和样本标签计算模型损失。
参数调整子模块,用于基于模型损失调整初始语句匹配模型的模型参数,直至模型收敛,得到语句匹配模型。
本实施例中,将训练样本输入初始语句分类模型后,通过注意力机制对训练样本进行特征融合以学习训练样本中两个句子之间的差异;计算得到相似度后,根据相似度和样本标签计算模型损失并调整模型参数,可以得到能准确进行语句匹配的语句匹配模型。
在本实施例的一些可选的实现方式中,特征融合子模块包括:矩阵生成单元、交互计算单元、矩阵融合单元以及矩阵处理单元,其中:
矩阵生成单元,用于分别生成训练样本中第一语句的第一词向量矩阵和第二语句的第二词向量矩阵。
交互计算单元,用于基于注意力机制,对第一词向量矩阵和第二词向量矩阵进行交互计算,得到第一注意力特征矩阵和第二注意力特征矩阵。
矩阵融合单元,用于将第一词向量矩阵和第一注意力特征矩阵进行矩阵融合得到第一融合矩阵,以及将第二词向量矩阵和第二注意力特征矩阵进行矩阵融合得到第二融合矩阵。
矩阵处理单元,用于通过初始语句匹配模型对第一融合矩阵和第二融合矩阵进行处理,得到第一语句和第二语句的特征向量。
本实施例中,将语句转换为词向量矩阵,然后对两个词向量矩阵进行交互计算以加入交互信息,最终得到表征两个语句的特征向量,保证了两个语句相似度计算的实现。
在本实施例的一些可选的实现方式中,问句获取模块305包括:问句获取子模块、问句编码子模块、编码输入子模块以及解码子模块,其中:
问句获取子模块,用于获取初始用户问句。
问句编码子模块,用于根据预设热词表对初始用户问句进行分词,并通过预设词典对分词后的初始用户问句进行编码,得到第一编码。
编码输入子模块,用于将第一编码输入至训练完毕的文本纠正模型,得到第二编码。
解码子模块,用于根据预设词典对第二编码进行解码,得到用户问句。
本实施例中,通过文本纠错模型对初始用户问句进行文本纠错,消除初始用户问句中的文本错误,使得语句匹配模型可以更准确地进行语句匹配,进一步提高了信息检索的准确性。
在本实施例的一些可选的实现方式中,问句确定模块306包括:相似度计算子模块、问句选取子模块以及答案发送子模块,其中:
相似度计算子模块,用于通过语句匹配模型计算用户问句与预设的问答库中库存问句的相似度。
问句选取子模块,用于根据计算得到的相似度选取与用户问句匹配的库存问句。
答案发送子模块,用于将选取的库存问句所对应的答案信息发送至终端进行展示。
本实施例中,通过语句匹配模型准确地计算用户问句与库存问句间的相似度,根据相似度筛选与用户问句最为匹配的库存问句并返回对应的答案信息,保证了信息检索的准确性。
在本实施例的一些可选的实现方式中,相似度计算子模块包括:实体识别单元、问句筛选单元以及相似度计算单元,其中:
实体识别单元,用于识别用户问句中的问句实体。
问句筛选单元,用于根据问句实体对预设的问答库中的库存问句进行筛选。
相似度计算单元,用于通过语句匹配模型计算用户问句与筛选到的库存问句的相似度。
本实施例中,先识别用户问句中的问句实体,然后在问答库中进行实体匹配以约束查询范围,只需计算部分库存问句与用户问句间的相似度,提高了语句匹配的效率。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如基于语音语义的信息检索方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述基于语音语义的信息检索方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本实施例中提供的计算机设备可以执行上述基于语音语义的信息检索方法的步骤。此处基于语音语义的信息检索方法的步骤可以是上述各个实施例的基于语音语义的信息检索方法中的步骤。
本实施例中,获取到匹配语句对以及候选语句后,将匹配语句对作为正样本,识别候选语句中的实体并进行删除,得到无实体语句,将候选语句及其对应的无实体语句作为负样本,在训练初始语句匹配模型时,面对两个相似度较高但互为负样本的句子,可以基于注意力机制捕捉实体信息,强化了语句匹配时句子中实体的重要性,提高了训练完毕得到的语句匹配模型匹配的准确性;将用户问句输入语句匹配模型,即可准确地从问答库中确定与用户问句匹配的库存语句,同时展示与库存语句对应的答案信息,从而提高了信息检索的准确性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于语音语义的信息检索方法的步骤。
本实施例中,获取到匹配语句对以及候选语句后,将匹配语句对作为正样本,识别候选语句中的实体并进行删除,得到无实体语句,将候选语句及其对应的无实体语句作为负样本,在训练初始语句匹配模型时,面对两个相似度较高但互为负样本的句子,可以基于注意力机制捕捉实体信息,强化了语句匹配时句子中实体的重要性,提高了训练完毕得到的语句匹配模型匹配的准确性;将用户问句输入语句匹配模型,即可准确地从问答库中确定与用户问句匹配的库存语句,同时展示与库存语句对应的答案信息,从而提高了信息检索的准确性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (8)
1.一种基于语音语义的信息检索方法,其特征在于,包括下述步骤:
获取匹配语句对以及候选语句;
删除所述候选语句中的实体得到无实体语句;
将所述匹配语句对设置为正样本,并将所述候选语句及所述无实体语句设置为负样本;
根据所述正样本和所述负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型;
获取用户问句;
通过所述语句匹配模型在预设的问答库中确定与所述用户问句匹配的库存问句,并展示所述库存问句的答案信息,其中,所述预设的问答库中存储有多个预设的库存问句以及与所述库存问句对应的答案信息;
所述根据所述正样本和所述负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型的步骤包括:
给所述正样本和所述负样本添加样本标签,得到训练样本;
分别生成所述训练样本中第一语句的第一词向量矩阵和第二语句的第二词向量矩阵;
基于所述注意力机制,对所述第一词向量矩阵和第二词向量矩阵进行交互计算,得到第一注意力特征矩阵和第二注意力特征矩阵;
将所述第一词向量矩阵和所述第一注意力特征矩阵进行矩阵融合得到第一融合矩阵,以及将所述第二词向量矩阵和所述第二注意力特征矩阵进行矩阵融合得到第二融合矩阵;
通过所述初始语句匹配模型对所述第一融合矩阵和第二融合矩阵进行处理,得到所述第一语句和所述第二语句的特征向量;
对所述特征向量进行计算,得到所述训练样本语句间的相似度;
根据所述相似度和所述样本标签计算模型损失;
基于所述模型损失调整所述初始语句匹配模型的模型参数,直至模型收敛,得到所述语句匹配模型。
2.根据权利要求1所述的基于语音语义的信息检索方法,其特征在于,负样本的构造方法还包括:
获取预设的每个实体的库存问句,其中,针对所述每个实体的库存问句中均包括若干类相似库存问句,其中,所述相似库存问句为语义相同但结构不同的库存问句;
对所述每个实体的若干类相似库存问句进行随机组合,并将组合后的库存问句对设置为负样本;
对不同实体的库存问句进行随机组合,并将组合后的库存问句对设置为负样本。
3.根据权利要求1所述的基于语音语义的信息检索方法,其特征在于,所述获取用户问句的步骤包括:
获取初始用户问句;
根据预设热词表对所述初始用户问句进行分词,并通过预设词典对分词后的初始用户问句进行编码,得到第一编码;
将所述第一编码输入至训练完毕的文本纠正模型,得到第二编码;
根据所述预设词典对所述第二编码进行解码,得到所述用户问句。
4.根据权利要求1所述的基于语音语义的信息检索方法,其特征在于,所述通过所述语句匹配模型在预设的问答库中确定与所述用户问句匹配的库存问句,并展示所述库存问句的答案信息的步骤包括:
通过所述语句匹配模型计算所述用户问句与预设的问答库中库存问句的相似度;
根据计算得到的相似度选取与所述用户问句匹配的库存问句;
将选取的库存问句所对应的答案信息发送至终端进行展示。
5.根据权利要求4所述的基于语音语义的信息检索方法,其特征在于,所述通过所述语句匹配模型计算所述用户问句与预设的问答库中库存问句的相似度的步骤包括:
识别所述用户问句中的问句实体;
根据所述问句实体对预设的问答库中的库存问句进行筛选;
通过所述语句匹配模型计算所述用户问句与筛选到的库存问句的相似度。
6.一种基于语音语义的信息检索装置,其特征在于,所述的基于语音语义的信息检索装置实现如权利要求1至5中任一项所述的基于语音语义的信息检索方法的步骤,所述基于语音语义的信息检索装置包括:
语句获取模块,用于获取匹配语句对以及候选语句;
实体删除模块,用于删除所述候选语句中的实体得到无实体语句;
语句设置模块,用于将所述匹配语句对设置为正样本,并将所述候选语句及所述无实体语句设置为负样本;
模型训练模块,用于根据所述正样本和所述负样本对基于注意力机制的初始语句匹配模型进行训练,得到语句匹配模型;
问句获取模块,用于获取用户问句;
问句确定模块,用于通过所述语句匹配模型在预设的问答库中确定与所述用户问句匹配的库存问句,并展示所述库存问句的答案信息,其中,所述预设的问答库中存储有多个预设的库存问句以及与所述库存问句对应的答案信息。
7.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至5中任一项所述的基于语音语义的信息检索方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至5中任一项所述的基于语音语义的信息检索方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011182344.0A CN112287069B (zh) | 2020-10-29 | 2020-10-29 | 基于语音语义的信息检索方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011182344.0A CN112287069B (zh) | 2020-10-29 | 2020-10-29 | 基于语音语义的信息检索方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112287069A CN112287069A (zh) | 2021-01-29 |
CN112287069B true CN112287069B (zh) | 2023-07-25 |
Family
ID=74354033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011182344.0A Active CN112287069B (zh) | 2020-10-29 | 2020-10-29 | 基于语音语义的信息检索方法、装置及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112287069B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113064972A (zh) * | 2021-04-12 | 2021-07-02 | 平安国际智慧城市科技股份有限公司 | 智能问答方法、装置、设备及存储介质 |
CN113515605B (zh) * | 2021-05-20 | 2023-12-19 | 中晨田润实业有限公司 | 基于人工智能的智能机器人问答方法和智能机器人 |
CN113505224B (zh) * | 2021-07-08 | 2023-01-10 | 万翼科技有限公司 | 结构化信息提取及模型构建方法、设备及存储介质 |
CN113656581B (zh) * | 2021-08-17 | 2023-09-22 | 北京百度网讯科技有限公司 | 文本分类及模型训练的方法、装置、设备以及存储介质 |
CN114020887B (zh) * | 2021-10-29 | 2023-11-07 | 北京有竹居网络技术有限公司 | 用于确定响应语句的方法、设备、装置和介质 |
CN114676227B (zh) * | 2022-04-06 | 2023-07-18 | 北京百度网讯科技有限公司 | 样本生成方法、模型的训练方法以及检索方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111159370A (zh) * | 2019-12-20 | 2020-05-15 | 中国建设银行股份有限公司 | 一种短会话新问题生成方法、存储介质和人机交互装置 |
CN111427995A (zh) * | 2020-02-26 | 2020-07-17 | 平安科技(深圳)有限公司 | 基于内部对抗机制的语义匹配方法、装置及存储介质 |
US10769374B1 (en) * | 2019-04-24 | 2020-09-08 | Honghui CHEN | Answer selection method for question answering system and the system |
CN111767385A (zh) * | 2020-07-09 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 一种智能问答方法及装置 |
CN111782763A (zh) * | 2020-05-22 | 2020-10-16 | 平安科技(深圳)有限公司 | 基于语音语义的信息检索方法、及其相关设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10509860B2 (en) * | 2016-02-10 | 2019-12-17 | Weber State University Research Foundation | Electronic message information retrieval system |
-
2020
- 2020-10-29 CN CN202011182344.0A patent/CN112287069B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10769374B1 (en) * | 2019-04-24 | 2020-09-08 | Honghui CHEN | Answer selection method for question answering system and the system |
CN111159370A (zh) * | 2019-12-20 | 2020-05-15 | 中国建设银行股份有限公司 | 一种短会话新问题生成方法、存储介质和人机交互装置 |
CN111427995A (zh) * | 2020-02-26 | 2020-07-17 | 平安科技(深圳)有限公司 | 基于内部对抗机制的语义匹配方法、装置及存储介质 |
CN111782763A (zh) * | 2020-05-22 | 2020-10-16 | 平安科技(深圳)有限公司 | 基于语音语义的信息检索方法、及其相关设备 |
CN111767385A (zh) * | 2020-07-09 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 一种智能问答方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112287069A (zh) | 2021-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112287069B (zh) | 基于语音语义的信息检索方法、装置及计算机设备 | |
WO2021082953A1 (zh) | 机器阅读理解方法、设备、存储介质及装置 | |
WO2020232861A1 (zh) | 命名实体识别方法、电子装置及存储介质 | |
CN110442841B (zh) | 识别简历的方法及装置、计算机设备、存储介质 | |
CN111241237B (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
WO2021135469A1 (zh) | 基于机器学习的信息抽取方法、装置、计算机设备及介质 | |
CN112818093B (zh) | 基于语义匹配的证据文档检索方法、系统及存储介质 | |
WO2021218028A1 (zh) | 基于人工智能的面试内容精炼方法、装置、设备及介质 | |
CN112131881B (zh) | 信息抽取方法及装置、电子设备、存储介质 | |
CN112925898B (zh) | 基于人工智能的问答方法、装置、服务器及存储介质 | |
CN110866098A (zh) | 基于transformer和lstm的机器阅读方法、装置及可读存储介质 | |
CN115687647A (zh) | 公证文书生成方法、装置、电子设备及存储介质 | |
CN117520503A (zh) | 基于llm模型的金融客服对话生成方法、装置、设备及介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN112598039B (zh) | 获取nlp分类领域阳性样本方法及相关设备 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN112199954B (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN115203388A (zh) | 机器阅读理解方法、装置、计算机设备和存储介质 | |
CN114842982A (zh) | 一种面向医疗信息系统的知识表达方法、装置及系统 | |
CN111783471B (zh) | 自然语言的语义识别方法、装置、设备及存储介质 | |
CN113688268B (zh) | 图片信息抽取方法、装置、计算机设备及存储介质 | |
CN112597289B (zh) | 问询信息分类方法、模型训练方法、装置和电子设备 | |
CN116796730A (zh) | 基于人工智能的文本纠错方法、装置、设备及存储介质 | |
CN116796709A (zh) | 一种文本生成方法、装置、计算机设备及存储介质 | |
CN116701593A (zh) | 基于GraphQL的中文问答模型训练方法及其相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |