CN112966085A - 人机会话智能控制方法、装置、电子设备及存储介质 - Google Patents

人机会话智能控制方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112966085A
CN112966085A CN202110267574.5A CN202110267574A CN112966085A CN 112966085 A CN112966085 A CN 112966085A CN 202110267574 A CN202110267574 A CN 202110267574A CN 112966085 A CN112966085 A CN 112966085A
Authority
CN
China
Prior art keywords
text
word
preset
keyword
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110267574.5A
Other languages
English (en)
Other versions
CN112966085B (zh
Inventor
邹若奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An International Smart City Technology Co Ltd
Original Assignee
Ping An International Smart City Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An International Smart City Technology Co Ltd filed Critical Ping An International Smart City Technology Co Ltd
Priority to CN202110267574.5A priority Critical patent/CN112966085B/zh
Publication of CN112966085A publication Critical patent/CN112966085A/zh
Application granted granted Critical
Publication of CN112966085B publication Critical patent/CN112966085B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及语义解析技术,提供了一种人机会话智能控制方法、装置、电子设备及存储介质。该方法生成预设的第一文本,接收用户输入的第二文本;将第二文本输入预先训练的预设类型识别模型以输出会话关键词标签;当输出的会话关键词标签为第一类型标签时,分别对第一文本和第二文本按照预设的处理算法进行处理,以计算出所述第一文本和第二文本的每个字词的关注比例;分别在第一文本和第二文本中找出关注比例最大的一个字词作为第一关键词和第二关键词;判断第二关键词的关注比例大于第一关键词时,查找并生成与第二关键词相应的关联文本。本发明还涉及区块链技术,与接口层相关的数据、请求对应的目标数据均可存储于区块链节点中。

Description

人机会话智能控制方法、装置、电子设备及存储介质
技术领域
本发明涉及语义解析技术,尤其涉及一种人机会话智能控制方法、装置、电子设备及存储介质。
背景技术
目前,人工智能(Artificial Intelligence,AI)对话系统(例如,各大主流移动电子设备厂商推出的智能语音应答系统)因为具备智能的人机交互应答技术能力,已经被应用到工业和日常生活的方方面面,正是因为AI对话系统的巨大市场价值,市场上出现了许多主打不同功能路线的AI对话系统,这些现有的AI对话系统按照功能划分,通常可划分为:闲聊型、任务型、知识问答型和推荐型。
对于任务型的AI对话系统而言,这类AI对话系统在完成其人机交互对话功能的过程中,如何准确且及时的实现对话状态追踪是一个很重要的技术环节。所述对话状态追踪指的是根据一定时间段的对话历史信息推断当前对话状态(例如,连续状态、暂停状态、终止状态等)和用户目标。业界的对话状态追踪大多是利用基于槽填充技术训练的模型来识别对话状态,其中,槽填充技术为:在模型训练阶段,通过对历史数据分析并结合业务判断,确定出需进行模型训练的词槽的类型以作为训练标签。也就是说,基于现有的槽填充技术,对话状态的识别依赖于词槽预先设定的类型,对话状态的种类也是提前设定好的,对话状态追踪的准确性和全面性依赖于预设词槽类型的准确性和全面性,然而,在真实的对话任务中,用户往往会提及超出模型预定词槽范围的字词,这样就导致对话系统无法有效识别这些超出模型预定词槽范围的字词对应的对话状态的种类,也就无法做出相应的回应或处理。
发明内容
鉴于以上内容,本发明提供一种人机会话智能控制方法、装置、电子设备及存储介质,其目的在于解决目前对话系统无法有效识别这些超出模型预定词槽范围的字词对应的对话状态的种类,也就无法做出相应的回应或处理的技术问题。
为实现上述目的,本发明提供一种人机会话智能控制方法,该方法包括:
在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本;
将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签;
当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例;
在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
在其中一实施例中,所述预设的处理算法包括:
将待处理的文本输入所述预先训练的预设类型识别模型,输出所述待处理文本的每个字词的状态值,并输出所述待处理文本中最后一个字词的输出值;
分别将所述待处理文本每个字词的状态值及所述待处理文本中最后一个字词的输出值代入第一预设类型函数以计算出所述待处理文本每个字词的关注值;
将所述待处理文本每个字词的关注值输入第二预设类型函数,以计算出所述待处理文本的每个字词的关注值在所述待处理文本的所有字词的关注值中所占的关注比例。
在其中一实施例中,所述将所述待处理文本输入预先训练的预设类型识别模型,包括:
将所述待处理文本的每个字词按各字词在所述待处理文本中的排列顺序依次输入所述预先训练的预设类型识别模型。
在其中一实施例中,所述输出所述待处理文本中最后一个字词的输出值,包括:
将所述待处理文本中最后一个字词的状态值输入所述预先训练的预设类型识别模型,输出所述待处理文本中最后一个字词的输出值。
在其中一实施例中,所述方法还包括:
当输出的所述会话关键词标签为第二类型标签时,则在所述预设数据库中查找与输出的所述会话关键词标签相对应的预设文本,生成与输出的所述会话关键词标签相对应的所述预设文本。
在其中一实施例中,所述方法还包括:
当所述第二关键词的关注比例小于或等于所述第一关键词的关注比例时,结束处理。
在其中一实施例中,所述预设类型识别模型的训练过程为:
S1、为每一个预设会话关键词标签准备预设数量的标注有对应预设会话关键词标签的文本样本;
S2、按预设的编码规则对每个所述文本样本进行编码;
S3、将每一所述预设会话关键词标签对应的文本样本分为第一比例的训练子集和第二比例的验证子集,将所有所述训练子集中的文本样本进行混合以得到训练集,并将所有所述验证子集中的文本样本进行混合以得到验证集;
S4、利用所述训练集训练所述预设类型识别模型,并利用所述验证集对经训练集训练完成后的所述预设类型识别模型的准确率进行验证;
S5、若所述准确率大于预设准确率,则训练结束;若所述准确率小于或者等于预设准确率,则增加每一个预设会话关键词标签对应的文本样本的数量,并重新执行S2、S3和S4。
为实现上述目的,本发明还提供一种人机会话智能控制装置,所述装置包括:
接收模块:用于在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本;
输出模块:用于将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签;
计算模块:用于当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例;
判断模块:用于在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
为实现上述目的,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的人机会话智能控制程序,所述人机会话智能控制程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的人机会话智能控制方法。
为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有人机会话智能控制程序,所述人机会话智能控制程序被处理器执行时,实现如上所述的人机会话智能控制方法的步骤。
本发明提出的人机会话智能控制方法、装置、电子设备及存储介质,在输出的会话关键词标签为第一类型标签的情况下,能够进一步对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例,找出第一文本中关注比例最大的字词作为第一关键词,找出第二文本中关注比例最大的字词作为第二关键词,在第二关键词的关注比例大于第一关键词的关注比例的情况下,从预设数据库中查找与所述第二关键词相对应的关联文本,生成关联文本。实现了对第二文本的进一步追踪,有效识别超出传统模型预定词槽范围的字词,并做出相应的处理。
附图说明
图1为本发明电子设备较佳实施例的示意图;
图2为本发明人机会话智能控制装置较佳实施例的模块示意图;
图3为本发明人机会话智能控制方法较佳实施例的流程图;
本发明目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1所示,为本发明电子设备1较佳实施例的示意图。
该电子设备1包括但不限于:存储器11、处理器12、显示器13及网络接口14。所述电子设备1通过网络接口14连接网络,获取原始数据。其中,所述网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通讯系统(Global System of Mobilecommunication,GSM)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi、通话网络等无线或有线网络。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器11可以是所述电子设备1的内部存储单元,例如该电子设备1的硬盘或内存。在另一些实施例中,所述存储器11也可以是所述电子设备1的外部存储设备,例如该电子设备1配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器11还可以既包括所述电子设备1的内部存储单元也包括其外部存储设备。本实施例中,存储器11通常用于存储安装于所述电子设备1的操作系统和各类应用软件,例如人机会话智能控制程序10的程序代码等。此外,存储器11还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器12在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器12通常用于控制所述电子设备1的总体操作,例如执行数据交互或者通信相关的控制和处理等。本实施例中,所述处理器12用于运行所述存储器11中存储的程序代码或者处理数据,例如运行人机会话智能控制程序10的程序代码等。
显示器13可以称为显示屏或显示单元。在一些实施例中显示器13可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-EmittingDiode,OLED)触摸器等。显示器13用于显示在电子设备1中处理的信息以及用于显示可视化的工作界面,例如显示数据统计的结果。
网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口),该网络接口14通常用于在所述电子设备1与其它电子设备之间建立通信连接。
图1仅示出了具有组件11-14以及人机会话智能控制程序10的电子设备1和云端数据库2,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,所述电子设备1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
该电子设备1还可以包括射频(Radio Frequency,RF)电路、传感器和音频电路等等,在此不再赘述。
在上述实施例中,处理器12执行存储器11中存储的人机会话智能控制程序10时可以实现如下步骤:
在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本;
将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签;
当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例;
在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
关于上述步骤的详细介绍,请参照下述图2关于人机会话智能控制装置100实施例的功能模块图以及图3关于人机会话智能控制方法实施例的流程图的说明。
参照图2所示,为本发明人机会话智能控制装置100的功能模块图。
本发明所述人机会话智能控制装置100可以安装于电子设备中。根据实现的功能,所述人机会话智能控制装置100可以包括接收模块110、输出模块120、计算模块130、及判断模块140。本发明中所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
接收模块110,用于在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本。第一文本为预设类型的文本,第二文本为预设类型以外的文本,例如用户当前输入的文本。
在本实施例中,在收到用户激发的会话指令后,生成预设的第一文本。具体地,在收到用户激发的会话指令后,生成带有会话文本显示区域的会话界面,在生成的会话界面显示预设的第一文本。其中,所述会话指令可由用户点击一个特定的物理按键触发,也可由用户点击一个操作界面(例如,该操作界面可以是用户在一个适用的电子设备上安装并运行一个特定会话软件后,在该电子设备显示单元上显示的会话操作界面)的特定功能控件触发,还可由用户发出一个特定语音指令(例如,该语音指令可以是“启动会话”)触发,在此不做赘述。当然,也可以生成声音形式的预设的第一文本。第一文本例如“would you likeThai food?”。
接收用户输入的第二文本。其中,第二文本例如“no,I prefer Italian food”、“yes,I like Thai food”等。进一步地,接收用户输入的第二文本,并展示用户输入的第二文本。可以理解的是,第一文本是预先设置完成的,在会话界面显示预设的第一文本,用户看到第一文本后,会在会话界面输入相应的第二文本,进而接收第二文本,并在会话界面显示第二文本。具体地,所述第二文本可由用户在所述会话界面上利用特定的输入法软件直接文本输入,或者,可由电子设备的声音录入单元采集用户输入的语音,并将采集的语音进行语音识别转换成所述第二文本,在此不做赘述。同时,需要说明的是,接收用户输入的第二文本的过程中,如果预设时间内未接收到用户输入的第二文本,在收到用户发出的终止会话指令之前可以无限制等待,可以语音提醒用户,可以显示第三文本(例如“因长时间未获得响应,本次会话终止”等),在此不做赘述。当然,也可以以声音形式展示用户输入的第二文本。需要指出的是,当预设的第一文本以声音形式展示时,可不显示用户输入的第二文本。
输出模块120,用于将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签。
在本实施例中,将所述第二文本输入预先训练的预设类型识别模型,以输出对应的会话关键词标签。例如,所述会话关键词标签可以包括Chinese、Thai、Others,所述预设类型识别模型可以是长短期记忆模型。长短期记忆模型的主要优点是解决了长序列训练过程中的梯度消失和梯度爆炸问题。在文本处理领域,长短期记忆模型相比普通的循环神经网络模型具有更高的准确率。
其中,预设类型识别模型的训练过程为:S1、为每一个预设会话关键词标签(例如Chinese,Thai,Others)准备预设数量的标注有对应预设会话关键词标签的文本样本;S2、按预设的编码规则对每个文本样本进行编码(例如一文本样本为“I like Chinese food”,将I编码为01010111,将like编码为01010110,将Chinese编码为01010010,将food编码为01010011,完成文本样本的编码);S3、将每一预设会话关键词标签对应的文本样本分为第一比例(例如,70%)的训练子集和第二比例(例如,30%)的验证子集,将所有训练子集中的文本样本进行混合以得到训练集,并将所有验证子集中的文本样本进行混合以得到验证集;S4、利用训练集训练预设类型识别模型,并利用验证集对经训练集训练完成后的预设类型识别模型的准确率进行验证;S5、若准确率大于预设准确率,则训练结束;若准确率小于或者等于预设准确率,则增加每一个预设会话关键词标签对应的文本样本的数量,并重新执行S2、S3和S4。所述预设的编码规则例如one-hot和word2vec。
需要指出的是,在所述将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签的步骤之前,按预设的编码规则对所述第二文本进行编码。可以理解的是,该编码规则与训练预设类型识别模型的编码规则相同。
在所述按预设的编码规则对所述第二文本进行编码的步骤之前,识别所述第二文本的语种,当所述第二文本的语种为中文时,对所述第二文本进行分词处理,得到一个或多个第二文本的字词。当所述第二文本的语种为英文时,由于英文是自然分词,因此无需对所述第二文本进行分词处理,可直接对第二文本的字词进行编码处理。可以理解的是,可利用现有的语种识别模型来识别第二文本的语种,当然也可采用其他方式来识别第二文本的语种,在此不做赘述。所述按预设的编码规则对所述第二文本进行编码包括:按预设的编码规则对第二文本的每个字词分别进行编码处理。
计算模块130,用于当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例。
在本实施例中,所述会话关键词标签可以包括第一类型标签和第二类型标签;第一类型标签可以包括Others;第二类型标签可以包括Chinese、Thai。当输出的所述会话关键词标签为第一类型标签时,说明对应的第二文本需要进一步处理判断。
对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例。
其中,所述预设的处理算法包括:将待处理的文本输入所述预先训练的预设类型识别模型,输出所述待处理文本的每个字词的状态值,并输出所述待处理文本中最后一个字词的输出值;分别将所述待处理文本每个字词的状态值及所述待处理文本中最后一个字词的输出值代入第一预设类型函数以计算出所述待处理文本每个字词的关注值;将所述待处理文本每个字词的关注值输入第二预设类型函数,以计算出所述待处理文本的每个字词的关注值在所述待处理文本的所有字词的关注值中所占的关注比例。其中,所述待处理的文本包括第一文本和第二文本。
所述将所述待处理文本输入预先训练的预设类型识别模型,包括:将所述待处理文本的每个字词按各字词在所述待处理文本中的排列顺序依次输入所述预先训练的预设类型识别模型。
所述输出所述待处理文本中最后一个字词的输出值,包括:将所述待处理文本中最后一个字词的状态值输入所述预先训练的预设类型识别模型,输出所述待处理文本中最后一个字词的输出值。
具体地,预先训练的预设类型识别模型的编码层(即encoder层)分别输出所述待处理文本的每个字词的状态值,所述待处理文本的每个字词的状态值包含了待处理文本中最后一个字词的状态值。将所述待处理文本中最后一个字词的状态值输入预先训练的预设类型识别模型,预先训练的预设类型识别模型的编码层输出所述待处理文本中最后一个字词的输出值。
本实施例中,预设类型识别模型为长短期记忆模型。当前任务需要通过待处理文本中的关键词来选择概率最大的值作为新的对话状态。传统的attention机制正好符合计算关注值作为选择概率来计算。关注值例如attention值,第一预设类型函数例如attention函数。Attention函数表示为ui==vt*tanh(Wh*hi+Wd*LSTM(ht f))。i和t都是表示的时间,i=(0,t),LSTM(ht f)代表了前句LSTM状态中的最后一个forward状态输出,h是LSTM前的网络结构最后一层的状态,d是LSTM的最后一层的状态。可以理解的是,所述待处理文本中的每个字词均是按文本中字词的排列顺序依次输入长短期记忆模型的,因此文本中字词的排列顺序就是字词的输入顺序,并且字词的输入顺序对应于时间顺序,即一个字词对应一个时间点。以所述待处理文本为第二文本为例,第二文本为“yes,I like Thai food”,“yes”对应的i为1,“I”对应的i为2。ui则是待处理文本中第i个字词的关注值。
ht f指长短期记忆模型的编码层的第h个状态在时间t时的forward状态输出;f代表forward,forward指从长短期记忆模型的第一层(输入层)到最后一层(输出层)的权重更新,也叫做前向传播。LSTM(ht f)为ht f经过长短期记忆模型处理后的输出值。可以理解的是,t为最后一个时间点,因而ht f对应的是所述待处理文本中最后一个字词的状态值,例如将所述待处理文本的每个字词输入长短期记忆模型,则ht f对应的是所述待处理文本中最后一个字词的状态值。
例如,LSTM(h=1,t=1,f代表forward),则LSTM(ht f)就是LSTM最后一层,比如有200个状态,第一个状态(h=1),在第一个时间点(t=1)(这个状态前向第一次更新),forward前向传播时的输出值。再例如,LSTM(h=15,t=7,f代表forward),则LSTM(ht f)就是长短期记忆模型编码层,比如有200个状态,第十五个状态(h=15),在第七个时间点(t=7)(这个状态前向第七次更新),forward前向传播时的输出值。前句的Attention函数表示为ui 0,i代表前句第i的单词对应的状态。那么ui 0=vTtanh(Whhi+WdLSTM(ht f0))。其中W对应状态第h个状态的权重值Wh,Whhi是第h个状态的权重值Wh乘以第h个状态在时间i时的状态值。W是h状态的权重,V是attention的权重,W对应的是h状态,V对应的是attention。
WdLSTM(ht f0)表示LSTM的输入是对应的时间t的第h个状态值(ht f0),经过LSTM处理后的输出值就是LSTM(ht f0),那么整体就是LSTM(ht f0)的输出层的第d个状态值乘以这个状态值的权重Wd
v为attention的权重值,vt为在时间t时attention的权重值。tanh为双曲正切函数。Wh指长短期记忆模型编码层(即encoder层)的第h个状态的权重值。hi指长短期记忆模型编码层的第h个状态在第i个时间点时的状态值,即所述待处理文本的每个字词的状态值。Wd是长短期记忆模型解码层(即lstm层)的第d个状态的权重值。
值得一提的是,vt、Wh和Wd均是通过神经网络反向传播的方式训练最终得到的。进一步地,不同时间点长短期记忆模型编码层的第h个状态:hi和ht,时间i和t不同。将不同时间点的第h个状态hi和ht输入到attention函数ui==vt*tanh(Wh*hi+Wd*LSTM(ht f))这个公式,通过神经网络反向传播的方式训练更新了vt、Wh和Wd,获得最终的vt、Wh和Wd
将所述待处理文本每个字词的状态值及所述第一文本中最后一个字词的输出值代入第一预设类型函数以计算出所述第一文本每个字词的关注值ui。可以理解的是,所述待处理文本的每个字词的状态值表示为hi,所述待处理文本中最后一个字词的输出值表示为LSTM(ht f),将所述待处理文本的每个字词的状态值hi和所述待处理文本中最后一个字词的输出值LSTM(ht f)输入Attention函数:ui==vt*tanh(Wh*hi+Wd*LSTM(ht f)),得到所述待处理文本的每个字词的attention值。
本实施例中,每个字词的对应attention状态概率值表示为:
Figure BDA0002972569330000141
Figure BDA0002972569330000142
ai为第i个字词的关注值在所在的待处理文本的所有字词的关注值中所占的关注比例。i=(0,t),t是时间顺序,例如0,1,2,3,4等,文本的每个字词均是按文本中字词的排列顺序依次输入长短期记忆模型的,因此待处理文本中字词的排列顺序对应于字词的输入顺序,字词的输入顺序对应于时间顺序。exp为以自然常数e为底的指数函数。ui是待处理中第i个字词的关注值。∑为求和符号,
Figure BDA0002972569330000143
Figure BDA0002972569330000144
将待处理文本的每个字词的关注值代入第二预设类型函数,可得到待处理文本的每个字词的关注比例。
进一步地,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例,包括:将第一文本的每个字词按各字词在第一文本中的排列顺序依次输入预先训练的预设类型识别模型,输出所述第一文本的每个字词的状态值,将所述第一文本中最后一个字词的状态值输入预先训练的预设类型识别模型,输出所述第一文本中最后一个字词的输出值;将第二文本的每个字词按各字词在第二文本中的排列顺序依次输入预先训练的预设类型识别模型,输出所述第二文本的每个字词的状态值,将所述第二文本中最后一个字词的状态值输入预先训练的预设类型识别模型,输出所述第二文本中最后一个字词的输出值。
将所述第一文本每个字词的状态值及所述第一文本中最后一个字词的输出值代入第一预设类型函数以计算出所述第一文本每个字词的关注值;将所述第二文本每个字词的状态值及所述第二文本中最后一个字词的输出值代入所述第一预设类型函数以计算出所述第二文本每个字词的关注值。换言之,第一文本的每个字词的关注值和第二文本的每个字词的关注值是分开计算的。
将所述第一文本每个字词的关注值输入第二预设类型函数,以计算出所述第一文本的每个字词的关注值在第一文本的所有字词的关注值中所占的关注比例;将所述第二文本每个字词的关注值输入所述第二预设类型函数,以计算出所述第二文本的每个字词的关注值在第二文本的所有字词的关注值中所占的关注比例。
可以理解的是,先将第一文本的每个字词按各字词在第一文本中的排列顺序依次输入预先训练的预设类型识别模型,再将第二文本的每个字词按各字词在第二文本中的排列顺序依次输入预先训练的预设类型识别模型,或者,先将第二文本的每个字词按各字词在第二文本中的排列顺序依次输入预先训练的预设类型识别模型,再将第一文本的每个字词按各字词在第一文本中的排列顺序依次输入预先训练的预设类型识别模型。
需要指出的是,在所述将所述第一文本输入预先训练的预设类型识别模型的步骤之前,按预设的编码规则对所述第一文本进行编码。并且,该编码规则与上述第二文本对应的编码规则相同。
需要指出的是,若输出的会话关键词标签为第二类型标签,说明在预设数据库中存在与第二文本相对应的预设文本,则在预设数据库中查找与输出的会话关键词标签相对应的预设文本,生成所述预设文本。例如,第二文本为“yes,I like Thai food”,将第二文本输入预设类型识别模型,预设类型识别模型输出会话关键词标签“Thai”,判断“Thai”为第二类型标签,从预设数据库中查找与会话关键词“Thai”相对应的“We find Thai memuin our restaurant”这一预设文本,在会话界面显示“We find Thai memu in ourrestaurant”。或者,生成声音形式的预设文本。
判断模块140,用于在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
在本实施例中,在所述第一文本的所有字词中,找出对应的关注比例最大的一个字词作为第一关键词。例如,第一文本为“would you like Thai food?”,would的关注比例为2%,you的关注比例为3%,like的关注比例为5%,Thai的关注比例为60%,food的关注比例为30%,would的关注比例<you的关注比例<like的关注比例<food的关注比例<Thai的关注比例,找出Thai为第一关键词。将在所述第二文本的所有字词中,找出对应的关注比例最大的一个字词作为第二关键词。
判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,当所述第二关键词的关注比例大于所述第一关键词的关注比例时,在预设数据库中查找与所述第二关键词相对应的关联文本,生成关联文本。换言之,以第一关键词的关注比例作为筛选条件,判断第二关键词是否为用户的目标字词。第二关键词的关注比例大于第一关键词的关注比例,说明第二关键词是用户的目标字词,需要继续对第二关键词进行追踪,即从预设数据库中查找与第二关键词相关的关联文本,仍以前述的第二文本是“no,I prefer Italianfood”为例,则关联文本为“We didn’t find Italian memu in our restaurant,but werecommend a Italian restaurant for you”,在会话界面中显示该关联文本。或者,生成声音形式的关联文本。如前所述,第一文本为预设类型的文本,第二文本为预设类型以外的文本,例如用户当前输入的文本。本实施例的方案在预设类型的第一文本之外,例如用户输入的第二文本中选出新的关键词作为目标关键词,目标关键词是根据“关注比例”值的大小确定的。
当第二关键词的关注比例小于或等于第一关键词的关注比例时,结束处理。第二关键词的关注比例小于或等于第一关键词的关注比例,则说明用户输入了无意义的第二文本,结束处理,即从预设数据库中获取并回复用户“无法找到相关答案,谢谢使用”之类的结束文本。
本发明提出的人机会话智能控制装置,在输出的会话关键词标签为第一类型标签的情况下,能够进一步对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例,找出第一文本中关注比例最大的字词作为第一关键词,找出第二文本中关注比例最大的字词作为第二关键词,在第二关键词的关注比例大于第一关键词的关注比例的情况下,从预设数据库中查找与所述第二关键词相对应的关联文本,生成关联文本。实现了对第二文本的进一步追踪,有效识别超出传统模型预定词槽范围的字词,并做出相应的处理。
此外,本发明还提供一种人机会话智能控制方法,该方法应用于电子设备。参照图3所示,为本发明人机会话智能控制方法的实施例的方法流程示意图。电子设备1的处理器12执行存储器11中存储的人机会话智能控制程序10时实现人机会话智能控制方法的如下步骤:
步骤S10:在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本。第一文本为预设类型的文本,第二文本为预设类型以外的文本,例如用户当前输入的文本。
在本实施例中,在收到用户激发的会话指令后,生成预设的第一文本。具体地,在收到用户激发的会话指令后,生成带有会话文本显示区域的会话界面,在生成的会话界面显示预设的第一文本。其中,所述会话指令可由用户点击一个特定的物理按键触发,也可由用户点击一个操作界面(例如,该操作界面可以是用户在一个适用的电子设备上安装并运行一个特定会话软件后,在该电子设备显示单元上显示的会话操作界面)的特定功能控件触发,还可由用户发出一个特定语音指令(例如,该语音指令可以是“启动会话”)触发,在此不做赘述。当然,也可以生成声音形式的预设的第一文本。第一文本例如“would you likeThai food?”。
接收用户输入的第二文本。其中,第二文本例如“no,I prefer Italian food”、“yes,I like Thai food”等。进一步地,接收用户输入的第二文本,并展示用户输入的第二文本。可以理解的是,第一文本是预先设置完成的,在会话界面显示预设的第一文本,用户看到第一文本后,会在会话界面输入相应的第二文本,进而接收第二文本,并在会话界面显示第二文本。具体地,所述第二文本可由用户在所述会话界面上利用特定的输入法软件直接文本输入,或者,可由电子设备的声音录入单元采集用户输入的语音,并将采集的语音进行语音识别转换成所述第二文本,在此不做赘述。同时,需要说明的是,接收用户输入的第二文本的过程中,如果预设时间内未接收到用户输入的第二文本,在收到用户发出的终止会话指令之前可以无限制等待,可以语音提醒用户,可以显示第三文本(例如“因长时间未获得响应,本次会话终止”等),在此不做赘述。当然,也可以以声音形式展示用户输入的第二文本。需要指出的是,当预设的第一文本以声音形式展示时,可不显示用户输入的第二文本。
步骤S20:将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签。
在本实施例中,将所述第二文本输入预先训练的预设类型识别模型,以输出对应的会话关键词标签。例如,所述会话关键词标签可以包括Chinese、Thai、Others,所述预设类型识别模型可以是长短期记忆模型。长短期记忆模型的主要优点是解决了长序列训练过程中的梯度消失和梯度爆炸问题。在文本处理领域,长短期记忆模型相比普通的循环神经网络模型具有更高的准确率。
其中,预设类型识别模型的训练过程为:S1、为每一个预设会话关键词标签(例如Chinese,Thai,Others)准备预设数量的标注有对应预设会话关键词标签的文本样本;S2、按预设的编码规则对每个文本样本进行编码(例如一文本样本为“I like Chinese food”,将I编码为01010111,将like编码为01010110,将Chinese编码为01010010,将food编码为01010011,完成文本样本的编码);S3、将每一预设会话关键词标签对应的文本样本分为第一比例(例如,70%)的训练子集和第二比例(例如,30%)的验证子集,将所有训练子集中的文本样本进行混合以得到训练集,并将所有验证子集中的文本样本进行混合以得到验证集;S4、利用训练集训练预设类型识别模型,并利用验证集对经训练集训练完成后的预设类型识别模型的准确率进行验证;S5、若准确率大于预设准确率,则训练结束;若准确率小于或者等于预设准确率,则增加每一个预设会话关键词标签对应的文本样本的数量,并重新执行S2、S3和S4。所述预设的编码规则例如one-hot和word2vec。
需要指出的是,在所述将所述第二文本输入预先训练的预设类型识别模型的步骤之前,按预设的编码规则对所述第二文本进行编码。可以理解的是,该编码规则与训练预设类型识别模型的编码规则相同。
在所述按预设的编码规则对所述第二文本进行编码的步骤之前,识别所述第二文本的语种,当所述第二文本的语种为中文时,对所述第二文本进行分词处理,得到一个或多个第二文本的字词。当所述第二文本的语种为英文时,由于英文是自然分词,因此无需对所述第二文本进行分词处理,可直接对第二文本的字词进行编码处理。可以理解的是,可利用现有的语种识别模型来识别第二文本的语种,当然也可采用其他方式来识别第二文本的语种,在此不做赘述。所述按预设的编码规则对所述第二文本进行编码包括:按预设的编码规则对第二文本的每个字词分别进行编码处理。
步骤S30:当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例。
在本实施例中,所述会话关键词标签可以包括第一类型标签和第二类型标签;第一类型标签可以包括Others;第二类型标签可以包括Chinese、Thai。当输出的所述会话关键词标签为第一类型标签时,说明对应的第二文本需要进一步处理判断。
对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例。
其中,所述预设的处理算法包括:将待处理的文本输入所述预先训练的预设类型识别模型,输出所述待处理文本的每个字词的状态值,并输出所述待处理文本中最后一个字词的输出值;分别将所述待处理文本每个字词的状态值及所述待处理文本中最后一个字词的输出值代入第一预设类型函数以计算出所述待处理文本每个字词的关注值;将所述待处理文本每个字词的关注值输入第二预设类型函数,以计算出所述待处理文本的每个字词的关注值在所述待处理文本的所有字词的关注值中所占的关注比例。其中,所述待处理的文本包括第一文本和第二文本。
所述将所述待处理文本输入预先训练的预设类型识别模型,包括:将所述待处理文本的每个字词按各字词在所述待处理文本中的排列顺序依次输入所述预先训练的预设类型识别模型。
所述输出所述待处理文本中最后一个字词的输出值,包括:将所述待处理文本中最后一个字词的状态值输入所述预先训练的预设类型识别模型,输出所述待处理文本中最后一个字词的输出值。
具体地,预先训练的预设类型识别模型的编码层(即encoder层)分别输出所述待处理文本的每个字词的状态值,所述待处理文本的每个字词的状态值包含了待处理文本中最后一个字词的状态值。将所述待处理文本中最后一个字词的状态值输入预先训练的预设类型识别模型,预先训练的预设类型识别模型的编码层输出所述待处理文本中最后一个字词的输出值。
本实施例中,预设类型识别模型为长短期记忆模型。关注值例如attention值,第一预设类型函数例如attention函数。Attention函数表示为ui==vt*tanh(Wh*hi+Wd*LSTM(ht f))。其中,i=(0,t),i代表了所述待处理文本的每个字词输入长短期记忆模型的顺序。t是所述待处理文本的字词输入长短期记忆模型的时间,例如1,2,3,4等。可以理解的是,所述待处理文本中的每个字词均是按文本中字词的排列顺序依次输入长短期记忆模型的,因此文本中字词的排列顺序就是字词的输入顺序,并且字词的输入顺序对应于时间顺序,即一个字词对应一个时间点。以所述待处理文本为第二文本为例,第二文本为“yes,I likeThai food”,“yes”对应的i为1,“I”对应的i为2。ui则是待处理文本中第i个字词的关注值。
ht f指长短期记忆模型的编码层的第h个状态在时间t时的forward状态输出;f代表forward,forward指从长短期记忆模型的第一层(输入层)到最后一层(输出层)的权重更新,也叫做前向传播。LSTM(ht f)为ht f经过长短期记忆模型处理后的输出值。可以理解的是,t为最后一个时间点,因而ht f对应的是所述待处理文本中最后一个字词的状态值,例如将所述待处理文本的每个字词输入长短期记忆模型,则ht f对应的是所述待处理文本中最后一个字词的状态值。
例如,当h=1,t=1,则LSTM(ht f)就是长短期记忆模型编码层,比如有200个状态,第一个状态(h=1),在第一个时间点(t=1)(这个状态前向第一次更新),forward前向传播时的输出值。再例如,当h=15,t=7,则LSTM(ht f)就是长短期记忆模型编码层,比如有200个状态,第十五个状态(h=15),在第七个时间点(t=7)(这个状态前向第七次更新),forward前向传播时的输出值。
v为attention的权重值,vt为在时间t时attention的权重值。tanh为双曲正切函数。Wh指长短期记忆模型编码层(即encoder层)的第h个状态的权重值。hi指长短期记忆模型编码层的第h个状态在第i个时间点时的状态值,即所述待处理文本的每个字词的状态值。Wd是长短期记忆模型解码层(即lstm层)的第d个状态的权重值。
值得一提的是,vt、Wh和Wd均是通过神经网络反向传播的方式训练最终得到的。进一步地,不同时间点长短期记忆模型编码层的第h个状态:hi和ht,时间i和t不同。将hi和ht输入到ui==vt*tanh(Wh*hi+Wd*LSTM(ht f))这个公式,通过神经网络反向传播的方式训练更新了vt、Wh和Wd,获得最终的vt、Wh和Wd
将所述待处理文本每个字词的状态值及所述第一文本中最后一个字词的输出值代入第一预设类型函数以计算出所述第一文本每个字词的关注值。可以理解的是,所述待处理文本的每个字词的状态值表示为hi,所述待处理文本中最后一个字词的输出值表示为LSTM(ht f),将所述待处理文本的每个字词的状态值hi和所述待处理文本中最后一个字词的输出值LSTM(ht f)输入Attention函数:ui==vt*tanh(Wh*hi+Wd*LSTM(ht f)),得到所述待处理文本的每个字词的attention值。
本实施例中,第二预设类型函数可以为softmax函数,softmax函数为:
Figure BDA0002972569330000221
ai为第i个字词的关注值在所在的待处理文本的所有字词的关注值中所占的关注比例。i=(0,t),t是时间顺序,例如0,1,2,3,4等,文本的每个字词均是按文本中字词的排列顺序依次输入长短期记忆模型的,因此待处理文本中字词的排列顺序对应于字词的输入顺序,字词的输入顺序对应于时间顺序。exp为以自然常数e为底的指数函数。ui是待处理中第i个字词的关注值。∑为求和符号,
Figure BDA0002972569330000222
Figure BDA0002972569330000223
将待处理文本的每个字词的关注值代入第二预设类型函数,可得到待处理文本的每个字词的关注比例。
进一步地,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例,包括:将第一文本的每个字词按各字词在第一文本中的排列顺序依次输入预先训练的预设类型识别模型,输出所述第一文本的每个字词的状态值,将所述第一文本中最后一个字词的状态值输入预先训练的预设类型识别模型,输出所述第一文本中最后一个字词的输出值;将第二文本的每个字词按各字词在第二文本中的排列顺序依次输入预先训练的预设类型识别模型,输出所述第二文本的每个字词的状态值,将所述第二文本中最后一个字词的状态值输入预先训练的预设类型识别模型,输出所述第二文本中最后一个字词的输出值。
将所述第一文本每个字词的状态值及所述第一文本中最后一个字词的输出值代入第一预设类型函数以计算出所述第一文本每个字词的关注值;将所述第二文本每个字词的状态值及所述第二文本中最后一个字词的输出值代入所述第一预设类型函数以计算出所述第二文本每个字词的关注值。换言之,第一文本的每个字词的关注值和第二文本的每个字词的关注值是分开计算的。
将所述第一文本每个字词的关注值输入第二预设类型函数,以计算出所述第一文本的每个字词的关注值在第一文本的所有字词的关注值中所占的关注比例;将所述第二文本每个字词的关注值输入所述第二预设类型函数,以计算出所述第二文本的每个字词的关注值在第二文本的所有字词的关注值中所占的关注比例。
可以理解的是,先将第一文本的每个字词按各字词在第一文本中的排列顺序依次输入预先训练的预设类型识别模型,再将第二文本的每个字词按各字词在第二文本中的排列顺序依次输入预先训练的预设类型识别模型,或者,先将第二文本的每个字词按各字词在第二文本中的排列顺序依次输入预先训练的预设类型识别模型,再将第一文本的每个字词按各字词在第一文本中的排列顺序依次输入预先训练的预设类型识别模型。
需要指出的是,在所述将所述第一文本输入预先训练的预设类型识别模型的步骤之前,按预设的编码规则对所述第一文本进行编码。并且,该编码规则与上述第二文本对应的编码规则相同。
需要指出的是,若输出的会话关键词标签为第二类型标签,说明在预设数据库中存在与第二文本相对应的预设文本,则在预设数据库中查找与输出的会话关键词标签相对应的预设文本,生成所述预设文本。例如,第二文本为“yes,I like Thai food”,将第二文本输入预设类型识别模型,预设类型识别模型输出会话关键词标签“Thai”,判断“Thai”为第二类型标签,从预设数据库中查找与会话关键词“Thai”相对应的“We find Thai memuin our restaurant”这一预设文本,在会话界面显示“We find Thai memu in ourrestaurant”。或者,生成声音形式的预设文本。
步骤S40:在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
在本实施例中,在所述第一文本的所有字词中,找出对应的关注比例最大的一个字词作为第一关键词。例如,第一文本为“would you like Thai food?”,would的关注比例为2%,you的关注比例为3%,like的关注比例为5%,Thai的关注比例为60%,food的关注比例为30%,would的关注比例<you的关注比例<like的关注比例<food的关注比例<Thai的关注比例,找出Thai为第一关键词。将在所述第二文本的所有字词中,找出对应的关注比例最大的一个字词作为第二关键词。
判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,当所述第二关键词的关注比例大于所述第一关键词的关注比例时,在预设数据库中查找与所述第二关键词相对应的关联文本,生成关联文本。换言之,以第一关键词的关注比例作为筛选条件,判断第二关键词是否为用户的目标字词。第二关键词的关注比例大于第一关键词的关注比例,说明第二关键词是用户的目标字词,需要继续对第二关键词进行追踪,即从预设数据库中查找与第二关键词相关的关联文本,仍以前述的第二文本是“no,I prefer Italianfood”为例,则关联文本为“We didn’t find Italian memu in our restaurant,but werecommend a Italian restaurant for you”,在会话界面中显示该关联文本。或者,生成声音形式的关联文本。
当第二关键词的关注比例小于或等于第一关键词的关注比例时,结束处理。第二关键词的关注比例小于或等于第一关键词的关注比例,则说明用户输入了无意义的第二文本,结束处理,即从预设数据库中获取并回复用户“无法找到相关答案,谢谢使用”之类的结束文本。
本发明提出的人机会话智能控制方法,在输出的会话关键词标签为第一类型标签的情况下,能够进一步对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例,找出第一文本中关注比例最大的字词作为第一关键词,找出第二文本中关注比例最大的字词作为第二关键词,在第二关键词的关注比例大于第一关键词的关注比例的情况下,从预设数据库中查找与所述第二关键词相对应的关联文本,生成关联文本。实现了对第二文本的进一步追踪,有效识别超出传统模型预定词槽范围的字词,并做出相应的处理。
此外,本发明实施例还提出一种计算机可读存储介质,该计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等等中的任意一种或者几种的任意组合。所述计算机可读存储介质中包括存储数据区和存储程序区,存储数据区存储根据区块链节点的使用所创建的数据,存储程序区存储有人机会话智能控制程序10,所述人机会话智能控制程序10被处理器执行时实现如下操作:
在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本;
将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签;
当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例;
在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
需要强调的是,本发明之计算机可读存储介质的具体实施方式与上述人机会话智能控制方法的具体实施方式大致相同,在此不再赘述。
在另一个实施例中,本发明所提供的人机会话智能控制方法,为进一步保证上述所有出现的数据的私密和安全性,上述所有数据还可以存储于一区块链的节点中。例如知识图谱、待识别文本等等,这些数据均可存储在区块链节点中。
需要说明的是,本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本发明之计算机可读存储介质的具体实施方式与上述人机会话智能控制方法的具体实施方式大致相同,在此不再赘述。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,电子装置,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种人机会话智能控制方法,其特征在于,所述方法包括:
在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本;
将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签;
当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例;
在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
2.如权利要求1所述的人机会话智能控制方法,其特征在于,所述预设的处理算法包括:
将待处理的文本输入所述预先训练的预设类型识别模型,输出所述待处理文本的每个字词的状态值,并输出所述待处理文本中最后一个字词的输出值;
分别将所述待处理文本每个字词的状态值及所述待处理文本中最后一个字词的输出值代入第一预设类型函数以计算出所述待处理文本每个字词的关注值;
将所述待处理文本每个字词的关注值输入第二预设类型函数,以计算出所述待处理文本的每个字词的关注值在所述待处理文本的所有字词的关注值中所占的关注比例。
3.如权利要求2所述的人机会话智能控制方法,其特征在于,所述将所述待处理文本输入预先训练的预设类型识别模型,包括:
将所述待处理文本的每个字词按各字词在所述待处理文本中的排列顺序依次输入所述预先训练的预设类型识别模型。
4.如权利要求2所述的人机会话智能控制方法,其特征在于,所述输出所述待处理文本中最后一个字词的输出值,包括:
将所述待处理文本中最后一个字词的状态值输入所述预先训练的预设类型识别模型,输出所述待处理文本中最后一个字词的输出值。
5.如权利要求1所述的人机会话智能控制方法,其特征在于,所述方法还包括:
当输出的所述会话关键词标签为第二类型标签时,则在所述预设数据库中查找与输出的所述会话关键词标签相对应的预设文本,生成与输出的所述会话关键词标签相对应的所述预设文本。
6.如权利要求1所述的人机会话智能控制方法,其特征在于,所述方法还包括:
当所述第二关键词的关注比例小于或等于所述第一关键词的关注比例时,结束处理。
7.如权利要求1所述的人机会话智能控制方法,其特征在于,所述预设类型识别模型的训练过程为:
S1、为每一个预设会话关键词标签准备预设数量的标注有对应预设会话关键词标签的文本样本;
S2、按预设的编码规则对每个所述文本样本进行编码;
S3、将每一所述预设会话关键词标签对应的文本样本分为第一比例的训练子集和第二比例的验证子集,将所有所述训练子集中的文本样本进行混合以得到训练集,并将所有所述验证子集中的文本样本进行混合以得到验证集;
S4、利用所述训练集训练所述预设类型识别模型,并利用所述验证集对经训练集训练完成后的所述预设类型识别模型的准确率进行验证;
S5、若所述准确率大于预设准确率,则训练结束;若所述准确率小于或者等于预设准确率,则增加每一个预设会话关键词标签对应的文本样本的数量,并重新执行S2、S3和S4。
8.一种人机会话智能控制装置,其特征在于,所述装置包括:
接收模块:用于在收到用户激发的会话指令后,生成预设的第一文本,接收用户输入的第二文本;
输出模块:用于将所述第二文本输入预先训练的预设类型识别模型以输出对应的会话关键词标签;
计算模块:用于当输出的所述会话关键词标签为第一类型标签时,对所述第一文本按照预设的处理算法进行处理,以计算出所述第一文本的每个字词对应的关注比例,并对所述第二文本按照预设的处理算法进行处理,以计算出所述第二文本的每个字词对应的关注比例;
判断模块:用于在所述第一文本的字词中,找出对应的关注比例最大的一个字词作为第一关键词,在所述第二文本的字词中,找出对应的关注比例最大的一个字词作为第二关键词;判断所述第二关键词的关注比例是否大于所述第一关键词的关注比例,若所述第二关键词的关注比例大于所述第一关键词的关注比例,则在预设数据库中查找与所述第二关键词相对应的关联文本,生成所述关联文本。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的人机会话智能控制程序,所述人机会话智能控制程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的人机会话智能控制方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有人机会话智能控制程序,所述人机会话智能控制程序被处理器执行时,实现如权利要求1至7中任一项所述的人机会话智能控制方法的步骤。
CN202110267574.5A 2021-03-11 2021-03-11 人机会话智能控制方法、装置、电子设备及存储介质 Active CN112966085B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110267574.5A CN112966085B (zh) 2021-03-11 2021-03-11 人机会话智能控制方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110267574.5A CN112966085B (zh) 2021-03-11 2021-03-11 人机会话智能控制方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112966085A true CN112966085A (zh) 2021-06-15
CN112966085B CN112966085B (zh) 2023-10-13

Family

ID=76277300

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110267574.5A Active CN112966085B (zh) 2021-03-11 2021-03-11 人机会话智能控制方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112966085B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630917A (zh) * 2015-12-22 2016-06-01 成都小多科技有限公司 智能应答方法及装置
US20190180195A1 (en) * 2015-01-23 2019-06-13 Conversica, Inc. Systems and methods for training machine learning models using active learning
US20200204677A1 (en) * 2018-12-19 2020-06-25 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
CN111694935A (zh) * 2020-04-26 2020-09-22 平安科技(深圳)有限公司 多轮问答的情绪确定方法、装置、计算机设备及存储介质
US20200395008A1 (en) * 2019-06-15 2020-12-17 Very Important Puppets Inc. Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
CN112231451A (zh) * 2020-10-12 2021-01-15 中国平安人寿保险股份有限公司 指代词恢复方法、装置、对话机器人及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190180195A1 (en) * 2015-01-23 2019-06-13 Conversica, Inc. Systems and methods for training machine learning models using active learning
CN105630917A (zh) * 2015-12-22 2016-06-01 成都小多科技有限公司 智能应答方法及装置
US20200204677A1 (en) * 2018-12-19 2020-06-25 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
US20200395008A1 (en) * 2019-06-15 2020-12-17 Very Important Puppets Inc. Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
CN111694935A (zh) * 2020-04-26 2020-09-22 平安科技(深圳)有限公司 多轮问答的情绪确定方法、装置、计算机设备及存储介质
CN112231451A (zh) * 2020-10-12 2021-01-15 中国平安人寿保险股份有限公司 指代词恢复方法、装置、对话机器人及存储介质

Also Published As

Publication number Publication date
CN112966085B (zh) 2023-10-13

Similar Documents

Publication Publication Date Title
CN112632385B (zh) 课程推荐方法、装置、计算机设备及介质
CN110825956A (zh) 一种信息流推荐方法、装置、计算机设备及存储介质
CN113051356B (zh) 开放关系抽取方法、装置、电子设备及存储介质
CN112686022A (zh) 违规语料的检测方法、装置、计算机设备及存储介质
CN113220734A (zh) 课程推荐方法、装置、计算机设备及存储介质
CN111695338A (zh) 基于人工智能的面试内容精炼方法、装置、设备及介质
CN112446209A (zh) 一种意图标签的设置方法、设备、装置及存储介质
CN112084752A (zh) 基于自然语言的语句标注方法、装置、设备及存储介质
CN115757731A (zh) 对话问句改写方法、装置、计算机设备及存储介质
CN115544560A (zh) 一种敏感信息的脱敏方法、装置、计算机设备及存储介质
CN114817478A (zh) 基于文本的问答方法、装置、计算机设备及存储介质
CN114461777A (zh) 智能问答方法、装置、设备及存储介质
CN114358023A (zh) 智能问答召回方法、装置、计算机设备及存储介质
CN112949320A (zh) 基于条件随机场的序列标注方法、装置、设备及介质
CN115373634A (zh) 随机码生成方法、装置、计算机设备及存储介质
CN113609833B (zh) 文件的动态生成方法、装置、计算机设备及存储介质
CN115238077A (zh) 基于人工智能的文本分析方法、装置、设备及存储介质
CN114138954A (zh) 用户咨询问题推荐方法、系统、计算机设备及存储介质
CN112364649B (zh) 命名实体的识别方法、装置、计算机设备及存储介质
CN112966085B (zh) 人机会话智能控制方法、装置、电子设备及存储介质
CN113743721A (zh) 营销策略生成方法、装置、计算机设备及存储介质
CN113505293A (zh) 信息推送方法、装置、电子设备及存储介质
CN113569741A (zh) 图像试题的答案生成方法、装置、电子设备及可读介质
CN115809313A (zh) 一种文本相似度确定方法及设备
CN112396111A (zh) 文本意图分类方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant