CN113160805A - 一种消息识别方法、装置、电子设备及存储介质 - Google Patents

一种消息识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113160805A
CN113160805A CN202110458858.2A CN202110458858A CN113160805A CN 113160805 A CN113160805 A CN 113160805A CN 202110458858 A CN202110458858 A CN 202110458858A CN 113160805 A CN113160805 A CN 113160805A
Authority
CN
China
Prior art keywords
message
neural network
current
current target
historical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110458858.2A
Other languages
English (en)
Inventor
王臻杰
张雷妮
张奕宁
曾璐
关生力
林思涵
林希帆
刘柄廷
刘洋宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Construction Bank Co ltd Shenzhen Branch
Original Assignee
China Construction Bank Co ltd Shenzhen Branch
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Construction Bank Co ltd Shenzhen Branch filed Critical China Construction Bank Co ltd Shenzhen Branch
Priority to CN202110458858.2A priority Critical patent/CN113160805A/zh
Publication of CN113160805A publication Critical patent/CN113160805A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明提供一种消息识别方法、装置、电子设备及存储介质,将客户发送的消息确定为当前目标消息;将当前目标消息输入预训练的神经网络,使预训练的神经网络对当前目标消息进行处理,输出当前目标消息对应的引导消息;接收客户基于当前目标消息对应的引导消息,发送的当前目标消息的修正消息;将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本;若当前重写文本与当前目标消息的修正消息一致,识别出与当前目标消息的修正消息匹配的业务,并为客户提供与当前目标消息的修正消息匹配的业务。本发明,能够在降低成本和时间基础上,提高重写文本的准确性。

Description

一种消息识别方法、装置、电子设备及存储介质
技术领域
本发明涉及计算机技术领域,更具体地说,涉及一种消息识别方法、装置、电子设备及存储介质。
背景技术
随着科学的不断发展,人工智能(Artificial Intelligence,AI)的发展也越来越快,利用AI研发的机器人的应用也越来越广泛,例如,可以利用机器人与人们聊天。
在现有技术中,机器人接收到客户消息后,可以对客户消息进行句法分析,查看是否缺少主谓宾,若缺少,则对机器人与客户前几轮对话进行词性识别、命名实体提取,以及结合人为制定的一系列规则,来重写当前客户消息。这种方式依赖人为制定的规则,而制定规则的工作人员的水平参差不齐,导致制定的规则不准确的情况,从而导致所重写的消息不准确,并且,若有新的句式,需要技术人员重新执行规则并添加到机器人中,不仅成本高还需要消耗大量的人工时间。
发明内容
有鉴于此,本发明提供一种消息识别方法、装置、电子设备及存储介质,以实现在降低成本和时间基础上,提高重写文本的准确性为目的。
本发明第一方面公开一种消息识别方法,所述方法包括:
将客户发送的消息确定为当前目标消息;
将所述当前目标消息输入预训练的神经网络,使所述预训练的神经网络对所述当前目标消息进行处理,输出所述当前目标消息对应的引导消息;其中,所述预训练的神经网络为利用历史消息对LSTM神经网络训练得到;
接收所述客户基于所述当前目标消息对应的引导消息,发送的所述当前目标语音的修正消息;
将当前已接收到的所述客户发送的每个消息、每个所述消息的修正消息以及每个所述消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,其中,所述重写器为利用所述历史消息对RNN神经网络进行训练得到;
若所述当前重写文本与所述当前目标消息的修正语音一致,识别出与所述当前目标消息的修正消息匹配的业务,并为所述客户提供与所述当前目标消息的修正消息匹配的业务。
可选的,所述方法还包括:
若所述当前重写文本与所述当前目标消息的修正消息不一致,输出并显示所述当前重写文本;
若接收到所述客户对所述当前重写文本的确认操作,识别出与所述当前重写文本匹配的业务,并为所述客户提供与所述当前重写文本匹配的业务;
若未接收到所述客户对所述当前重写文本的确认操作,则将所述客户发送的所述当前目标消息的修正消息确定为当前目标消息,返回执行所述将所述当前目标消息输入预训练的神经网络,直至所述当前重写文本与所述当前目标消息的修正消息一致,或接收到所述客户对所述当前重写文本的确认操作为止。
可选的,所述利用历史消息对待训练的LSTM神经网络进行训练得到预训练的神经网络的过程,包括:
构建第一消息训练样本集,其中,所述第一消息训练样本集包括多个历史消息;
针对每个消息训练样本,将所述消息训练样本输入待训练的LSTM神经网络进行迭代训练,直至所述待训练的LSTM神经网络达到收敛,得到预训练的神经网络。
可选的,所述利用所述历史消息对待训练的RNN神经网络进行训练得到重写器的过程,包括:
构建第二消息训练样本集,其中,所述第二消息训练样本集包括多个历史消息组,所述历史消息组包括历史消息和所述历史消息对应的历史重写文本;
针对每个所述历史消息组,将所述历史消息组输入待训练的RNN神经网络,使所述待训练的RNN神经网络利用所述历史消息组中的历史消息进行消息重写,得到重写文本,以所述重写文本趋近于所述历史消息组对应的历史重写文本为训练目标,对所述待训练的RNN神经网络进行训练,直至所述待训练的RNN神经网络达到收敛,得到重写器。
本发明第二方面公开一种消息识别装置,所述装置包括:
第一确定单元,用于将客户发送的消息作为当前目标消息;
处理单元,用于将所述当前目标消息输入预训练的神经网络,使所述预训练的神经网络对所述当前目标消息进行处理,输出所述当前目标消息对应的引导消息;其中,所述预训练的神经网络为利用历史消息对LSTM神经网络训练得到;
接收单元,用于接收所述客户基于所述当前目标消息对应的引导消息,发送的所述当前目标消息的修正消息;
重写单元,用于将当前已接收到的所述客户发送的每个消息、每个所述消息的修正消息以及每个所述消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,其中,所述重写器为利用所述历史消息对RNN神经网络进行训练得到;
第一识别单元,用于若所述当前重写文本与所述当前目标消息的修正语音一致,识别出与所述当前目标消息的修正消息匹配的业务,并为所述客户提供与所述当前目标消息的修正消息匹配的业务。
可选的,所述装置还包括:
输出单元,用于若所述当前重写文本与所述当前目标消息的修正消息不一致,输出并显示所述当前重写文本;
第二识别单元,用于若接收到所述客户对所述当前重写文本的确认操作,识别出与所述当前重写文本匹配的业务,并为所述客户提供与所述当前重写文本匹配的业务;
第二确定单元,用于若未接收到所述客户对所述当前重写文本的确认操作,则将所述客户发送的所述当前目标消息的修正消息确定为当前目标消息,返回执行所述处理单元,直至所述当前重写文本与所述当前目标消息的修正消息一致,或接收到所述客户对所述当前重写文本的确认操作为止。
可选的,所述预训练的神经网络的构建单元,包括:
第一构建单元,用于构建第一消息训练样本集,其中,所述第一消息训练样本集包括多个历史消息;
第一训练单元,用于针对每个消息训练样本,将所述消息训练样本输入待训练的LSTM神经网络进行迭代训练,直至所述待训练的LSTM神经网络达到收敛,得到预训练的神经网络。
可选的,所述重写器的构建单元,包括:
第二构建单元,用于构建第二消息训练样本集,其中,所述第二消息训练样本集包括多个历史消息组,所述历史消息组包括历史消息和所述历史消息对应的历史重写文本;
第二训练单元,用于针对每个所述历史消息组,将所述历史消息组输入待训练的RNN神经网络,使所述待训练的RNN神经网络利用所述历史消息组中的历史消息进行消息重写,得到重写文本,以所述重写文本趋近于所述历史消息组对应的历史重写文本为训练目标,对所述待训练的RNN神经网络进行训练,直至所述待训练的RNN神经网络达到收敛,得到重写器。
本申请第三方面提供了一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如第一方面任意一项所述的方法。
本申请第四方面提供了一种计算机存储介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如第一方面任意一项所述的方法。
本发明提供一种语音识别方法、装置、电子设备及存储介质,将所获取到的客户发送的消息确定为当前目标消息,将当前目标消息输入预训练的神经网络,使预训练的神经网络对当前目标消息进行处理,输出当前目标消息对应的引导消息,使客户根据输出的引导消息发送对应的修正消息;将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,若当前重写文本与当前目标消息的修正消息一致,识别出与当前目标消息的修正语匹配的业务,并为客户提供与当前目标消息的修正消息匹配的业务。本发明提供的技术方案,通过利用预训练的神经网络对客户发送的当前目标消息进行处理,输出当前目标消息对应的引导消息,通过引导消息引导客户发送对应的修正消息,以便将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,不需要依赖工作人员执行的一系列规则来进行消息重写,不仅能够提高得到的重写文本的准确性,还能够降低人工成本和时间。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种消息识别方法的流程示意图;
图2为本发明实施例提供的一种消息识别装置的结构示意图;
图3为本发明实施例提供一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本发明公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本发明公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
为了便于理解本发明的技术方案,对本发明中出现的技术术语进行说明:
RNN:RecurrentNeural Network,循环神经网络,可以利用内部的记忆来处理任意时序的输入序列,可以更容易处理如不分段的手写识别、语音识别等。
LSTM:Long Short Term Memory,长短期记忆网络,是一种时间递归神经网络。
参见图1,示出了本发明实施例提供的一种消息识别方法的流程示意图,该消息识别方法可以应用于智能机器人,该消息识别方法具体包括以下步骤:
S101:将客户发送的消息确定为当前目标消息。
在具体执行步骤S101的过程中,当接收到客户发送的消息时,将客户发送的消息作为当前目标消息。
需要说明的是,客户发送的消息可以为语音,也可以为文本。
例如,客户发送的语音可以为“想听歌”,可以将客户发送的语音“想听歌”确定为当前目标语音。
S102:将当前目标消息输入预训练的神经网络,使预训练的神经网络对当前目标消息进行处理,输出当前目标消息对应的引导消息;其中,预训练的神经网络为利用历史消息对LSTM神经网络训练得到。
在步骤S102中,预先利用历史消息对LSTM神经网络进行训练得到预先训练的神经网络。
具体的,利用历史消息对LSTM神经网络进行训练得到预先训练的神经网络的过程可以为:获取多个历史消息,对多获取的多个历史消息进行数据清洗,并基于进行了数据清洗后的多个历史消息构建消息训练样本集(为了便于区分,将基于进行了数据清洗后的多个历史消息构建的消息训练样本集称为第一消息训练样本集)。
针对第一消息训练样本集中的每个消息训练样本而言,将该消息训练样本输入待训练的LSTM神经网络中,使待训练的LSTM神经网络对该消息训练样本进行处理,以进行处理得到的消息趋近于该消息训练样本对应的目标消息为训练目标,对待训练的LSTM神经网络进行训练,直至待训练的LSTM神经网络达到收敛,预训练的神经网络。
在具体执行步骤S102的过程中,在将客户发送的消息确定为当前目标消息后,将所确定的当前目标消息输入预训练的神经网络,使预训练的神经网络对输入的当前目标消息进行处理,输出(播放或者显示)当前目标消息对应的引导消息,以便通过当前目标消息对应的引导消息引导客户发送正确的消息。
需要说明的,若客户发送的当前目标消息为当前目标语音,在将当前目标消息输入预训练的神经网络之前,需要用ASR(Auto Speech Recognition)技术,将当前目标消息(当前目标语音)转换为文本后,再输入预训练的神经网络,使预训练的神经网络对当前目标消息的文本进行处理,输出当前目标消息对应的引导消息。
例如,当前目标消息为语音“想听歌”,利用ASR技术对当前目标消息(语音)转换为文本后输入预训练的神经网络,使预训练的神经网络对当前目标消息(语音)的文本进行处理,输出当前目标消息对应的引导消息可以为“想听什么歌呢?”。
S103:接收客户基于当前目标消息对应的引导消息,发送的当前目标消息的修正消息。
在具体执行步骤S103的过程中,在利用预训练的神经网络对当前目标消息进行处理,输出(播放或者显示)当前目标消息对应的引导消息后,客户根据当前输出的当前目标消息对应的引导消息,重新发送新的消息(为了便于区分,将客户基于当前目标消息对应的引导消息发送的消息称为当前目标消息的修正消息)。
例如,当前目标消息为“想听歌”,利用预训练的神经网络对当前目标消息“想听歌”进行处理,输出当前目标消息对应的引导消息为“想听什么歌呢?”,客户可以根据当前输出的当前目标消息对应的引导消息“想听什么呢?”,重新发送修正消息“告白气球”。
S104:将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,其中,重写器为利用历史消息对待训练的RNN神经网络进行训练得到。
在步骤S104中,预先利用历史消息对到训练的RNN神经网络进行训练,得到重写器。
具体的,利用历史消息对待训练的RNN神经网络进行训练得到重写器的过程可以为:获取多历史消息以及每个历史消息对应的重写文本,对多获取的多个历史消息和每个历史消息对应的重写文本进行数据清洗,利用每个进行了数据清洗的历史消息和该历史消息对应的重写文本组成一个历史消息组,基于所组成的多个历史消息组构建消息训练样本集(为了便于区分,将基于所组成的多个历史消息组构建的消息训练样本集称为第二消息训练样本集)。
针对每个历史消息组而言,将该历史消息组输入待训练的RNN神经网络,使待训练的RNN神经网络利用该历史消息组中的历史消息进行消息重写,得到重写文本,以重写文本趋近于历史消息组的历史重写文本为训练目标,对待训练的RNN神经网络进行训练,直至待训练的RNN神经网络达到收敛,得到重写器。
需要说明的是,除了可以利用历史消息对待训练的RNN神经网络进行训练得到重写器以外,还可以利用历史消息对Transformer或者Transformer-XL进行训练,得到重写器。其中利用历史消息对Transformer或者Transformer-XL进行训练得到重写器过程与利用历史消息对待训练的RNN神经网络进行训练得到重写器相同,可参见利用历史消息对待训练的RNN神经网络进行训练得到重写器的过程,这里就不再进行赘述。
在具体执行步骤S104的过程中,在接收到客户基于当前目标消息对应的引导消息,发送的当前目标消息的修正消息后,将当前已经接收到的客户发送的每个消息、每个消息对应的修正消息以及每个消息对应的引导消息输入重写器中,使重写器根据当前已经接收到的客户发送的每个消息、每个消息对应的修正消息以及每个消息对应的引导消息进行消息重写,得到当前重写文本。
例如,当前目标消息为“想听歌”,利用预训练的神经网络对当前目标消息“想听歌”进行处理,输出当前目标消息对应的引导消息为“想听什么歌呢?”,客户可以根据当前输出的当前目标消息对应的引导消息“想听什么呢?”,重新发送修正消息“告白气球”,将“想听歌”、“想听什么歌呢”以及“告白气球”输入重写器进行消息重写,得到当前重写文本可以为“我想听ZJL的告白气球”。
S105:判断当前重写文本与当前目标消息的修正消息一致;若一致,执行步骤S106;若不一致,执行步骤S107。
在具体执行步骤S105的过程中,当将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本后,对当前重写文本和当前目标消息的修正消息进行分析,得到当前重写文本的句意和当前目标消息的修正消息的句意,若当前重写文本的句意和当前目标消息的修正消息的句意相同,可以认为当前重写文本与当前目标消息的修正消息一致,在当前重写文本与当前目标消息的修正消息一致的情况下,执行步骤S106。
若当前重写文本的句意和当前目标消息的修正消息的句意不相同,可以认为当前重写文本和当前目标消息的修正消息不一致,在当前重写文本与当前目标消息的修正消息不一致的情况下,执行步骤S107。
S106:识别出与当前目标消息的修正消息匹配的业务,并为客户提供与当前目标消息的修正消息匹配的业务。
在具体执行步骤S106的过程中,在当前重写文本与当前目标消息的修正消息一致的情况下,识别出与当前目标消息匹配的业务,并为客户提供与当前目标消息的修正消息匹配的业务。
需要说明的是,业务可以为听歌、朗诵、闲聊、网上购物等等,可以根据实际应用进行设置,本申请实施例不加以限定。
S107:输出并显示当前重写文本。
在具体执行步骤S107的过程中,在当前重写文本与当前目标消息的修正消息不一致的情况下,输出(播放)并显示当前重写文本,以便客户查看该当前重写文本,判断所显示或者播放的重写文本是否是自己想要表达的意思。
S108:判断是否接收到客户对当前重写文本的确认操作;若接收到客户对当前重写文本的确认操作,执行步骤S109;若未接收到客户对当前重写文本的确认操作,执行步骤S110。
在具体执行步骤S108的过程中,在输出并显示当前重写文本后,客户可以通过查看该当前重写文本,来判断所显示的重写文本是否是自己想要表达的意思,若是,可以通过点击确认按钮来发送对当前重写文本的确认操作,或者通过点击不确认按钮案发送对当前重写文本的不确认操作,或者不点击确认按钮。
S109:识别出与当前重写文本匹配的业务,并为客户提供与当前重写文本匹配的业务。
在具体执行步骤S109的过程中,当接收到客户对当前重写文本的确认操作时,识别出与当前重写文本匹配的业务,并为客户提供与当前重写文本匹配的业务。
S110:将当前目标消息的修正消息确定为当前目标消息。
在具体执行步骤S110的过程中,当未接收到客户对当前重写文本的确认操作时,将当前目标消息的修正消息确定为当前目标消息,以便将重新确定的当前目标消息输入预训练的神经网络中,使预训练的预训练的神经网络对重新确定的当前目标消息进行处理,得到重新确定的当前目标消息的引导消息,并接收客户基于重新确定的当前目标消息的引导消息,发送的重新确定的当前目标消息的修正消息。
将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本。
在本申请实施例中,在执行完步骤S110后,返回执行步骤S102。
例如,当前目标消息为“想听歌”,利用预训练的神经网络对当前目标消息“想听歌”进行处理,输出当前目标消息对应的引导消息为“想听什么歌呢?”,客户可以根据当前输出的当前目标消息对应的引导消息“想听什么呢?”,重新发送修正消息“告白气球”,将“想听歌”、“想听什么歌呢”以及“告白气球”输入重写器进行消息重写,得到当前重写文本可以为“我想听ZJL的告白气球”。
对当前重写文本“我想听ZJL的告白气球”和当前目标消息的修正消息“告白气球”进行解析,可以确定当前重写文本“我想听ZJL的告白气球”的句意和当前目标消息的修正消息“告白气球”的句意不一致,输出并显示当前重写文本“我想听ZJL的告白气球”。
若未接收到客户对当前重写文本的确认操作,将当前目标消息的修正消息“告白气球”确定为当前目标消息,并将重新确定的当前目标消息“告白气球”输入预训练的神经网络中,使预训练的神经网络对重新确定的当前目标消息“告白气球”进行处理,得到重新确定的当前目标消息“告白气球”的引导消息为“想听谁唱的告白气球呢?”,并接收客户基于重新确定的当前目标消息的引导消息“想听谁唱的告白气球呢?”,发送重新确定的当前目标消息的修正消息为“想听LRQ唱的告白气球”。
将客户发送的每个消息“想听歌”、“告白气球”、每个消息对应的引导消息“想听什么歌呢”、“想听谁唱的告白气球呢?”以及每个消息的修正消息“告白气球”、“想听LRQ唱的告白气球”输入重写器进行消息重写,得到当前重写文本可以为“想听LRQ唱的告白气球”。
对当前重写文本“想听LRQ唱的告白气球”和重新确定的当前目标消息的修正消息“想听LRQ唱的告白气球”进行解析,可以确定当前重写文本“想听LRQ唱的告白气球”的句意和重新确定的当前目标消息的修正消息“想听LRQ唱的告白气球”的句意一致,为客户播放LRQ唱的告白气球。
本发明提供一种消息识别方法,将所获取到的客户发送的消息确定为当前目标消息,将当前目标消息输入预训练的神经网络,使预训练的神经网络对当前目标消息进行处理,输出当前目标消息对应的引导消息,使客户根据输出的引导消息发送对应的修正消息;将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,若当前重写文本与当前目标消息的修正消息一致,识别出与当前目标消息的修正语匹配的业务,并为客户提供与当前目标消息的修正消息匹配的业务。本发明提供的技术方案,通过利用预训练的神经网络对客户发送的当前目标消息进行处理,输出当前目标消息对应的引导消息,通过引导消息引导客户发送对应的修正消息,以便将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,不需要依赖工作人员执行的一系列规则来进行消息重写,不仅能够提高得到的重写文本的准确性,还能够降低人工成本和时间。
与本发明实施例提供的一种消息识别方法相对应,本发明还提供了一种消息识别装置,如图2所示,该消息识别装置包括:
第一确定单元21,用于将客户发送的消息作为当前目标消息;
处理单元22,用于将当前目标消息输入预训练的神经网络,使预训练的神经网络对当前目标消息进行处理,输出当前目标消息对应的引导消息;其中,预训练的神经网络为利用历史消息对LSTM神经网络训练得到;
接收单元23,用于接收客户基于当前目标消息对应的引导消息,发送的当前目标消息的修正消息;
重写单元24,用于将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,其中,重写器为利用历史消息对RNN神经网络进行训练得到;
第一识别单元25,用于若当前重写文本与当前目标消息的修正消息一致,识别出与当前目标消息的修正语匹配的业务,并为客户提供与当前目标消息的修正消息匹配的业务。
需要说明的是,上述本发明实施例公开的消息识别装置中的各个单元具体的原理和执行过程,与上述本发明实施示出的消息识别方法相同,可参见上述本发明实施例公开的消息识别方法中相应的部分,这里不再进行赘述。
本发明提供一种消息识别装置,将所获取到的客户发送的消息确定为当前目标消息,将当前目标消息输入预训练的神经网络,使预训练的神经网络对当前目标消息进行处理,输出当前目标消息对应的引导消息,使客户根据输出的引导消息发送对应的修正消息;将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,若当前重写文本与当前目标消息的修正消息一致,识别出与当前目标消息的修正语匹配的业务,并为客户提供与当前目标消息的修正消息匹配的业务。本发明提供的技术方案,通过利用预训练的神经网络对客户发送的当前目标消息进行处理,输出当前目标消息对应的引导消息,通过引导消息引导客户发送对应的修正消息,以便将当前已接收到的客户发送的每个消息、每个消息的修正消息以及每个消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,不需要依赖工作人员执行的一系列规则来进行消息重写,不仅能够提高得到的重写文本的准确性,还能够降低人工成本和时间。
可选的,装置还包括:
输出单元,用于若当前重写文本与当前目标消息的修正消息不一致,输出并显示当前重写文本;
第二识别单元,用于若接收到客户对当前重写文本的确认操作,识别出与当前重写文本匹配的业务,并为客户提供与当前重写文本匹配的业务;
第二确定单元,用于若未接收到客户对当前重写文本的确认操作,则将客户发送的当前目标消息的修正消息确定为当前目标消息,返回执行处理单元,直至当前重写文本与当前目标消息的修正消息一致,或接收到客户对当前重写文本的确认操作为止。
可选的,预训练的神经网络的构建单元,包括:
第一构建单元,用于构建第一消息训练样本集,其中,第一消息训练样本集包括多个历史消息;
第一训练单元,用于针对每个消息训练样本,将消息训练样本输入待训练的LSTM神经网络进行迭代训练,直至待训练的LSTM神经网络达到收敛,得到预训练的神经网络。
可选的第二构建单元,用于构建第二消息训练样本集,其中,第二消息训练样本集包括多个历史消息组,历史消息组包括历史消息和历史消息对应的历史重写文本;
第二训练单元,用于针对每个历史消息组,将历史消息组输入待训练的RNN神经网络,使待训练的RNN神经网络利用历史消息组中的历史消息进行消息重写,得到重写文本,以重写文本趋近于历史消息组对应的历史重写文本为训练目标,对待训练的RNN神经网络进行训练,直至待训练的RNN神经网络达到收敛,得到重写器。
本申请另一实施例提供了一种电子设备,如图3所示,包括:
一个或多个处理器301。
存储装置302,其上存储有一个或多个程序。
当所述一个或多个程序被所述一个或多个处理器301执行时,使得所述一个或多个处理器301实现如上述实施例中任意一项所述的方法。
本申请另一实施例提供了一种计算机存储介质,其上存储有计算机程序,其中,计算机程序被处理器执行时实现如上述实施例中任意一项所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种消息识别方法,其特征在于,所述方法包括:
将客户发送的消息确定为当前目标消息;
将所述当前目标消息输入预训练的神经网络,使所述预训练的神经网络对所述当前目标消息进行处理,输出所述当前目标消息对应的引导消息;其中,所述预训练的神经网络为利用历史消息对LSTM神经网络训练得到;
接收所述客户基于所述当前目标消息对应的引导消息,发送的所述当前目标语音的修正消息;
将当前已接收到的所述客户发送的每个消息、每个所述消息的修正消息以及每个所述消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,其中,所述重写器为利用所述历史消息对RNN神经网络进行训练得到;
若所述当前重写文本与所述当前目标消息的修正语音一致,识别出与所述当前目标消息的修正消息匹配的业务,并为所述客户提供与所述当前目标消息的修正消息匹配的业务。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若所述当前重写文本与所述当前目标消息的修正消息不一致,输出并显示所述当前重写文本;
若接收到所述客户对所述当前重写文本的确认操作,识别出与所述当前重写文本匹配的业务,并为所述客户提供与所述当前重写文本匹配的业务;
若未接收到所述客户对所述当前重写文本的确认操作,则将所述客户发送的所述当前目标消息的修正消息确定为当前目标消息,返回执行所述将所述当前目标消息输入预训练的神经网络,直至所述当前重写文本与所述当前目标消息的修正消息一致,或接收到所述客户对所述当前重写文本的确认操作为止。
3.根据权利要求1所述的方法,其特征在于,所述利用历史消息对待训练的LSTM神经网络进行训练得到预训练的神经网络的过程,包括:
构建第一消息训练样本集,其中,所述第一消息训练样本集包括多个历史消息;
针对每个消息训练样本,将所述消息训练样本输入待训练的LSTM神经网络进行迭代训练,直至所述待训练的LSTM神经网络达到收敛,得到预训练的神经网络。
4.根据权利要求1所述的方法,其特征在于,所述利用所述历史消息对待训练的RNN神经网络进行训练得到重写器的过程,包括:
构建第二消息训练样本集,其中,所述第二消息训练样本集包括多个历史消息组,所述历史消息组包括历史消息和所述历史消息对应的历史重写文本;
针对每个所述历史消息组,将所述历史消息组输入待训练的RNN神经网络,使所述待训练的RNN神经网络利用所述历史消息组中的历史消息进行消息重写,得到重写文本,以所述重写文本趋近于所述历史消息组对应的历史重写文本为训练目标,对所述待训练的RNN神经网络进行训练,直至所述待训练的RNN神经网络达到收敛,得到重写器。
5.一种消息识别装置,其特征在于,所述装置包括:
第一确定单元,用于将客户发送的消息作为当前目标消息;
处理单元,用于将所述当前目标消息输入预训练的神经网络,使所述预训练的神经网络对所述当前目标消息进行处理,输出所述当前目标消息对应的引导消息;其中,所述预训练的神经网络为利用历史消息对LSTM神经网络训练得到;
接收单元,用于接收所述客户基于所述当前目标消息对应的引导消息,发送的所述当前目标消息的修正消息;
重写单元,用于将当前已接收到的所述客户发送的每个消息、每个所述消息的修正消息以及每个所述消息对应的引导消息,输入重写器中进行消息重写,得到当前重写文本,其中,所述重写器为利用所述历史消息对RNN神经网络进行训练得到;
第一识别单元,用于若所述当前重写文本与所述当前目标消息的修正语音一致,识别出与所述当前目标消息的修正消息匹配的业务,并为所述客户提供与所述当前目标消息的修正消息匹配的业务。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
输出单元,用于若所述当前重写文本与所述当前目标消息的修正消息不一致,输出并显示所述当前重写文本;
第二识别单元,用于若接收到所述客户对所述当前重写文本的确认操作,识别出与所述当前重写文本匹配的业务,并为所述客户提供与所述当前重写文本匹配的业务;
第二确定单元,用于若未接收到所述客户对所述当前重写文本的确认操作,则将所述客户发送的所述当前目标消息的修正消息确定为当前目标消息,返回执行所述处理单元,直至所述当前重写文本与所述当前目标消息的修正消息一致,或接收到所述客户对所述当前重写文本的确认操作为止。
7.根据权利要求5所述的装置,其特征在于,所述预训练的神经网络的构建单元,包括:
第一构建单元,用于构建第一消息训练样本集,其中,所述第一消息训练样本集包括多个历史消息;
第一训练单元,用于针对每个消息训练样本,将所述消息训练样本输入待训练的LSTM神经网络进行迭代训练,直至所述待训练的LSTM神经网络达到收敛,得到预训练的神经网络。
8.根据权利要求5所述的装置,其特征在于,所述重写器的构建单元,包括:
第二构建单元,用于构建第二消息训练样本集,其中,所述第二消息训练样本集包括多个历史消息组,所述历史消息组包括历史消息和所述历史消息对应的历史重写文本;
第二训练单元,用于针对每个所述历史消息组,将所述历史消息组输入待训练的RNN神经网络,使所述待训练的RNN神经网络利用所述历史消息组中的历史消息进行消息重写,得到重写文本,以所述重写文本趋近于所述历史消息组对应的历史重写文本为训练目标,对所述待训练的RNN神经网络进行训练,直至所述待训练的RNN神经网络达到收敛,得到重写器。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至4中任一所述的方法。
10.一种计算机存储介质,其特征在于,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1至4中任一所述的方法。
CN202110458858.2A 2021-04-27 2021-04-27 一种消息识别方法、装置、电子设备及存储介质 Pending CN113160805A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110458858.2A CN113160805A (zh) 2021-04-27 2021-04-27 一种消息识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110458858.2A CN113160805A (zh) 2021-04-27 2021-04-27 一种消息识别方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN113160805A true CN113160805A (zh) 2021-07-23

Family

ID=76871310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110458858.2A Pending CN113160805A (zh) 2021-04-27 2021-04-27 一种消息识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113160805A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107395487A (zh) * 2017-05-27 2017-11-24 佛山语奥科技有限公司 消息更新方法和系统
CN108427665A (zh) * 2018-03-15 2018-08-21 广州大学 一种基于lstm型rnn模型的文本自动生成方法
CN110782002A (zh) * 2019-09-12 2020-02-11 成都四方伟业软件股份有限公司 一种lstm神经网络训练方法及装置
CN111523305A (zh) * 2019-01-17 2020-08-11 阿里巴巴集团控股有限公司 文本的纠错方法、装置和系统
CN111639484A (zh) * 2020-05-15 2020-09-08 北京青牛技术股份有限公司 坐席通话内容的分析方法
US20200312336A1 (en) * 2019-03-25 2020-10-01 Samsung Electronics Co., Ltd. Method and apparatus for implementing speaker identification neural network
CN111968647A (zh) * 2020-08-26 2020-11-20 北京字节跳动网络技术有限公司 语音识别方法、装置、介质及电子设备
CN112613308A (zh) * 2020-12-17 2021-04-06 中国平安人寿保险股份有限公司 用户意图识别方法、装置、终端设备及存储介质
CN112632292A (zh) * 2020-12-23 2021-04-09 深圳壹账通智能科技有限公司 业务关键词的提取方法、装置、设备及存储介质
CN112668343A (zh) * 2020-12-22 2021-04-16 科大讯飞股份有限公司 文本重写方法以及电子设备、存储装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107395487A (zh) * 2017-05-27 2017-11-24 佛山语奥科技有限公司 消息更新方法和系统
CN108427665A (zh) * 2018-03-15 2018-08-21 广州大学 一种基于lstm型rnn模型的文本自动生成方法
CN111523305A (zh) * 2019-01-17 2020-08-11 阿里巴巴集团控股有限公司 文本的纠错方法、装置和系统
US20200312336A1 (en) * 2019-03-25 2020-10-01 Samsung Electronics Co., Ltd. Method and apparatus for implementing speaker identification neural network
CN110782002A (zh) * 2019-09-12 2020-02-11 成都四方伟业软件股份有限公司 一种lstm神经网络训练方法及装置
CN111639484A (zh) * 2020-05-15 2020-09-08 北京青牛技术股份有限公司 坐席通话内容的分析方法
CN111968647A (zh) * 2020-08-26 2020-11-20 北京字节跳动网络技术有限公司 语音识别方法、装置、介质及电子设备
CN112613308A (zh) * 2020-12-17 2021-04-06 中国平安人寿保险股份有限公司 用户意图识别方法、装置、终端设备及存储介质
CN112668343A (zh) * 2020-12-22 2021-04-16 科大讯飞股份有限公司 文本重写方法以及电子设备、存储装置
CN112632292A (zh) * 2020-12-23 2021-04-09 深圳壹账通智能科技有限公司 业务关键词的提取方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN113962315B (zh) 模型预训练方法、装置、设备、存储介质以及程序产品
KR101957277B1 (ko) 음성 인식을 이용한 코딩시스템 및 코딩방법
CN108121800B (zh) 基于人工智能的信息生成方法和装置
US10853421B2 (en) Segmented sentence recognition method and device for human-machine intelligent question answer system
CN106875940B (zh) 一种基于神经网络的机器自学习构建知识图谱训练方法
CN111428010A (zh) 人机智能问答的方法和装置
CN110288995B (zh) 基于语音识别的交互方法、装置、存储介质和电子设备
US20190187961A1 (en) Chatbot builder user interface
CN108021705A (zh) 一种答案生成方法及装置
CN111178081B (zh) 语义识别的方法、服务器、电子设备及计算机存储介质
CN108710653B (zh) 一种绘本朗读点播方法、装置及系统
JP5045486B2 (ja) 対話装置及びプログラム
CN113901837A (zh) 一种意图理解方法、装置、设备及存储介质
CN110674276B (zh) 机器人自学习方法、机器人终端、装置及可读存储介质
CN116821290A (zh) 面向多任务对话的大语言模型训练方法和交互方法
WO2020199590A1 (zh) 情绪检测分析方法及相关装置
CN112786028B (zh) 声学模型处理方法、装置、设备和可读存储介质
WO2021077834A1 (zh) 一种基于对话系统对用户问句提出反问的方法和装置
CN113160805A (zh) 一种消息识别方法、装置、电子设备及存储介质
CN108206020A (zh) 一种语音识别方法、装置及终端设备
CN111400479A (zh) 针对多轮对话的问题识别方法和装置
CN110263135A (zh) 一种数据交换匹配方法、装置、介质和电子设备
CN112101035B (zh) 命名实体识别方法、装置、可读存储介质及电子设备
CN111680148B (zh) 针对用户问句进行智能应答的方法和装置
CN111414609B (zh) 一种对象验证方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination