CN111159501A - 一种基于多层神经网络建立判客模型的方法及判客方法 - Google Patents

一种基于多层神经网络建立判客模型的方法及判客方法 Download PDF

Info

Publication number
CN111159501A
CN111159501A CN201911157883.6A CN201911157883A CN111159501A CN 111159501 A CN111159501 A CN 111159501A CN 201911157883 A CN201911157883 A CN 201911157883A CN 111159501 A CN111159501 A CN 111159501A
Authority
CN
China
Prior art keywords
layer
neural
node
neural network
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911157883.6A
Other languages
English (en)
Other versions
CN111159501B (zh
Inventor
邵鑫程
吴杰
金仁杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Eggshell Business Information Technology Co Ltd
Original Assignee
Hangzhou Eggshell Business Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Eggshell Business Information Technology Co Ltd filed Critical Hangzhou Eggshell Business Information Technology Co Ltd
Priority to CN201911157883.6A priority Critical patent/CN111159501B/zh
Publication of CN111159501A publication Critical patent/CN111159501A/zh
Application granted granted Critical
Publication of CN111159501B publication Critical patent/CN111159501B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Abstract

本发明公开了一种基于多层神经网络建立判客模型的方法,包括:定义话术路径,话术路径为任一话术节点至下一话术节点的路径;话术路径作为训练数据建立训练数据集,训练数据集包括至少一话术路径;建立判客模型,判客模型为多层神经网络;训练数据集作为输入信号输入多层神经网络前向传播获得输出信号;反向传播输出信号与期望值的误差信号,更新神经节点之间的连接权值和神经节点的偏置系数,期望值为训练数据集对应的人工期望值;输入训练数据集迭代多层神经网络直到误差信号落入预先设置的误差范围之内;将迭代好的多层神经网络作为判客模型。

Description

一种基于多层神经网络建立判客模型的方法及判客方法
技术领域
本发明涉及深度学习领域,尤其涉及一种基于多层神经网络建立判客模型的方法及判客方法。
背景技术
深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能(AI,Artificial Intelligence)。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。 [1]
深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。
在语音机器人外呼领域,现有语音机器人的判客系统基本采用关键词匹配,根据用户是否触发预先设置的关键词判断用户的意向,该判客系统较为机械,仅能对现有的话术材料节点进行人为的预先设置判客标准,且当语音机器人的话术较大时,对应的判客标准将极为复杂。
因此,基于深度学习技术,语音机器人判客系统与深度学习相结合,建立基于深度学习的判客模型,实现语音机器人判客系统智能化和简单化。
发明内容
本发明要解决的技术问题,在于提供一种基于多层神经网络建立判客模型的方法及判客方法,使得语音机器人能够建立基于多层神经网络的判客模型,输入训练数据对判客模型进行训练,获得训练好的判客模型,并基于训练好的判客模型对会话结果进行判客。
为实现上述目的,本发明采用下述技术方案:
第一方面,本发明提供一种基于多层神经网络建立判客模型的方法,所述方法包括:
定义话术路径, 所述话术路径为任一话术节点至下一话术节点的路径;
所述话术路径作为训练数据建立训练数据集,所述训练数据集包括至少一话术路径;
建立判客模型,所述判客模型为多层神经网络;
所述训练数据集作为输入信号输入所述多层神经网络前向传播获得输出信号;
反向传播所述输出信号与期望值的误差信号,更新所述神经节点之间的连接权值和神经节点的偏置系数,所述期望值为所述训练数据集对应的人工期望值;
输入所述训练数据集迭代所述多层神经网络直到所述误差信号落入预先设置的误差范围之内;
将所述迭代好的多层神经网络作为话术判客模型。
在上述方案中,所述多层神经网络依次包括输入层、至少一个隐藏层和输出层,所述输入层、所述至少一个隐藏层和所述输出层均包括至少一个神经节点,所述神经节点设置有激活函数。
在上述方案中,所述训练数据作为输入信号输入多层神经网络获得输出信号的方法包括:
随机分配多层神经网络中上一层每一个神经节点至当前层神经节点的连接权值,随机分配当前层神经节点的偏置系数;
计算上一层每一个神经节点输出信号与当前层神经节点的加权和,所述加权和通过激活函数激活以获得当前层神经节点的输出信号;
所述输出层神经节点的输出信号为所述多层神经网络的输出信号。
在上述方案中,反向传播所述输出信号与期望值的误差信号,更新所述神经节点之间的连接权值和神经节点的偏置系数的方法包括:
从所述输出层反向计算所述输入层、至少一个隐藏层每一层的每个神经节点的误差项;
设置网络训练速度,通过链式法则更新神经节点之间的连接权值和神经节点的偏置系数。
在上述方案中,所述激活函数为Relu激活函数。
在上述方案中,从所述输出层反向计算所述输入层、至少一个隐藏层每一层的每个神经节点的误差项包括:
所述输出层的神经节点的误差项等于输出层的误差信号;
所述至少一个隐藏层的神经节点的误差项等于与该神经节点连接的上一层神经节点的误差项与连接权重、偏置系数的加权和,所述上一层神经节点为前向传播中的下一层神经节点;
所述输入层的神经节点的误差项等于与该神经节点连接的上一层神经节点的误差项与连接权重、偏置系数的加权和,所述上一层神经节点为前向传播中的下一层神经节点。
第二方面,本发明提供基于上述第一方面所述的一种基于多层神经网络建立判客模型的方法的判客方法,包括:
获取包含至少一话术路径的会话结果;
输入所述会话结果至上述第一方面任一项所述的一种基于多层神经网络建立判客模型的方法建立的话术判客模型对所述会话结果进行判客。
本发明的有益效果是:基于多层神经网络建立判客模型并进行训练,获得训练好的判客模型,输入会话场景至训练好的判客模型中进行判客,与现有机械判客相比,本发明无需预先设置关键词且判客结果更接近于人工判客结果;第二,本发明可以实时设定不同的训练数据集,对判客模型进行调整;第三,对于大体积的话术,本发明通过不断迭代训练数据集更新判客模型就可以获得精确的判客模型,避免了人工设置复杂的关键词判客匹配。
附图说明
图1为本发明一实施例的一种基于多层神经网络建立判客模型的方法的流程示意图;
图2为本发明一实施例提供的一种基于多层神经网络建立判客模型的方法的判客方法的流程示意图。
具体实施方式
下面通过具体实施例,并结合附图,对本发明的技术方案作进一步的具体描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在外呼领域中,现有语音机器人与用户交流的目的绝大部分以获客为主,基于此,现有语音机器人在完成与用户的语音对话后需要对该对话进行获客判断,以此确定用户对语音机器人在本次对话中提供的信息感兴趣的程度,即进行判客。而现有技术中对对话结果进行判客主要通过关键词匹配进行,通过匹配到的关键词的数量、关键词的重要程度对该次对话结果进行判客,例如匹配到了重要的关键词或匹配到关键词数量较多,对该次对话结果判断为90分,若匹配到的关键词少或匹配的关键词重要度低,对该次对话结果判断为50分,此外,判客的分级制度可以有多种不同的模式以供选择,例如采用重要客户、较为重要客户、一般客户、不重要客户或意向由高到低依次分为一级客户、二级客户、三级客户、四级客户。
然而,上述的判客方式不仅机械,且判客的精度较低,容易出现虽然匹配到了重要的关键词,用户整体意向仍然是较低的,然而判客结果却给出了较高的用户意向;或虽然未能匹配到重要的关键词,用户整体意向却是较高的,然而判客结果却给出了较低的用户意向。此时的判客结果明显偏离实际的用户意向结果,而且在大体积、复杂的话术环境中,难以人工去设置完善的判客标准。因此,为了提高语音机器人的判客效率和判客精度,同时解放人工设置判客标准,基于深度学习的多层神经网络模型,本发明实施例提供了一种基于多层神经网络建立判客模型的方法及判客方法。
以下结合附图,详细说明本发明中各实施例提供的技术方案。
第一方面,本发明实施例提供一种基于多层神经网络建立判客模型的方法,如附图1所示,包括:
S101,定义话术路径, 所述话术路径为任一话术节点至下一话术节点的路径;
针对步骤S101,定义话术路径为相互正交向量的列向量,一套话术中存在着复数个的话术路径,话术路径为话术中任一节点至与该节点连接的下一节点的路径。
S102,所述话术路径作为训练数据建立训练数据集,所述训练数据集包括至少一话术路径;
针对步骤S102,将话术路径作为训练数据建立训练数据集,训练数据集用于多层神经网络的训练,训练数据集一般包括一套形成闭环的完整话术路径组合,在一套话术中一般存在复数个形成闭环的完整话术路径组合。
此外,本发明实施例还可以建立测试数据集,测试数据集从训练数据集中选取,一般性地,测试数据集应当选择未作为训练数据参与多层神经网络训练的话术路径组合,待多层神经网络训练完成后,测试数据集用于检验训练好的多层神经网络的性能。
S103,建立判客模型,所述判客模型为多层神经网络;
针对步骤S103,在本发明实施例中,所述的多层神经网络依次包括输入层、至少一个隐藏层和输出层,所述输入层、所述至少一个隐藏层和所述输出层均包括至少一个神经节点,所述神经节点设置有激活函数。
可以理解,所述的多层神经网络包括输入层,用于输入训练数据集、测试数据集和其它进行判客的数据,至少一个隐藏层,隐藏层用于提高多层神经网络的精确性,输出层,输出层用于输出神经网络模型计算输入数据得到的输出结果,输入层与至少一个隐藏层连接,若存在多个隐藏层的,多个隐藏层之间连接,至少一个隐藏层与输出层连接。在本发明实施例中,输出层输出判客结果,上述的输入层、至少一个隐藏层、输出层均包括至少一个神经节点,每个神经节点由两部分组成,第一部分用于计算输入信号和神经节点之间的连接权重的加权和,第二部分为激活函数,所述激活函数用于将所述加权和完成非线性的转换,在本发明实施例中,激活函数可以是ReLU函数或Sigmoid函数或Leaky ReLU函数中的任意一种,此外,根据深度学习经验,在本发明实施例中将ReLU函数作为激活函数进行使用。
S104,所述训练数据集作为输入信号输入所述多层神经网络前向传播获得输出信号;
针对步骤S104,将所述训练数据集作为所述多层神经网络的输入层,随机分配多层神经网络中上一层每一个神经节点至当前层神经节点的连接权值,即随机分配当前层神经节点的偏置系数;
计算上一层每一个神经节点输出信号与当前层神经节点的加权和,所述加权和通过激活函数激活以获得当前层神经节点的输出信号;
所述输出层神经节点的输出信号为所述多层神经网络的输出信号。
将复数个形成闭环的完整话术路径组合作为训练数据集作为输入层的输入信号,随机分配输入层的神经节点与至少一个隐藏层的神经节点、至少一个隐藏层的神经节点与输出层的神经节点的连接权值,每两个连接的神经节点之间都设置有连接权值,当隐藏层超过一个时,隐藏层与隐藏层存在连接的神经节点之间都设置有连接权值,每一个隐藏层与输出层神经节点均随机分配有偏置系数,当前的连接权值与偏置系数均为初始值。
可以理解,输入信号经过每一层的神经节点均产生输出信号,上述输出信号成为下一层神经节点的输入信号,输入信号在多层神经网络中不断地向前传播直到输出层输出为止,每一个神经节点的输出信号等于与该神经节点连接的上一层神经节点的输出信号与连接权重、偏置系数的加权和,其中,连接权重作为计算公式中的乘积系数,偏置系数作为计算公式中的截距,获得每一个与该神经节点连接的上一层神经节点与该神经节点的加权和,通过激活函数激活以获得该神经节点的输出信号直到获得输出层神经节点的输出信号为止,将输出层神经节点的输出信号记为多层神经网络的输出信号。
S105,反向传播所述输出信号与期望值的误差信号,更新所述神经节点之间的连接权值和神经节点的偏置系数,所述期望值为所述训练数据集对应的人工期望值;
针对步骤S105,反向传播所述输出信号与期望值的误差信号,更新所述神经节点之间的连接权值和神经节点的偏置系数,所述期望值为所述训练数据集经过人工判断后获得的判客结果,相对应的,复数个训练数据集存在复数个的期望值。
其中,反向传播所述输出信号与期望值的误差信号,更新所述神经节点之间的连接权值和神经节点的偏置系数的方法包括:
从所述输出层反向计算所述输入层、至少一个隐藏层每一层的每个神经节点的误差项;
设置网络训练速度,通过链式法则更新神经节点之间的连接权值和神经节点的偏置系数。
可以理解,网络训练速度可以预先设置较大的参数或较小的参数,当预先设置较大参数值的网络训练速度时,当连接权重和偏置系数逐渐更新时,网络训练速度逐渐减少;当预先设置较小参数值的网络训练速度时,在多层神经模型的训练过程中,网络训练速度逐渐增加,然后在训练的最后阶段再次下降。在本发明的实施例中,选择具有较小参数值的网络训练速度,以使得训练过程能够更快确定连接权重和偏置系数。
可以理解,获得输出层神经节点的输出信号后,将所述输出信号按照前向传播的路径反向传播回所有神经节点以获得每个神经节点的误差项,所述输出层神经节点的误差项等于误差信号,所述至少一个隐藏层神经节点和输入层神经节点的误差项等于与该神经节点连接的上一层神经节点的误差项与连接权重、偏置系数的加权和,在反向传播过程中,所述上一层神经节点为前向传播中的下一层神经节点,反向传播过程中神经节点与神经节点之间的连接权重、神经节点的偏置系数与前向传播中一致。
当获得多层神经网络中每一个神经节点的误差项后,通过链式法则更新神经节点之间的连接权值和神经节点的偏置系数,更新神经节点之间的连接权值具体如下:
计算该神经节点的激活函数对该神经节点正向传播时的加权和的导数;
计算上述导数与网络训练速度、该神经节点的误差项、该神经节点正向传播时的输出信号的乘积加上原连接权重获得该神经节点与连接的上层神经节点更新后的连接权值。
更新神经节点之间的偏置系数具体如下:
计算该神经节点的激活函数对该神经节点正向传播时的偏置系数的导数;
计算上述导数与网络训练速度、该神经节点的误差项、该神经节点正向传播时的输出信号的乘积加上原偏置系数获得该神经节点更新后的偏置系数。
S106,输入所述训练数据集迭代所述多层神经网络直到所述误差信号落入预先设置的误差范围之内;
针对步骤S106,每一轮的训练数据集输入对应一轮多层神经网络中连接权重和偏置系数的更新,不停输入训练数据集对多层神经网络进行训练直到输出层的输出信号与期望值的误差信号落入预先设置的误差范围之内。
此外,还可以设置迭代次数判断多层神经网络模型的训练程度,当超过迭代次数超过一定数量后,停止训练多层神经网络。
当多层神经网络训练完成后,可以输入多个测试数据集对训练好的多层神经网络进行检验,所述测试训练集应当选择未作为训练数据参与多层神经网络训练的话术路径组合。
S107,将所述迭代好的多层神经网络作为判客模型。
第二方面,本发明实施例提供一种基于多层神经网络建立话术判客模型的方法的判客方法,如附图2所示,包括:
S201,获取包含至少一话术路径的会话结果;
S202,输入所述会话结果至上述第一方面任一项所述的一种基于多层神经网络建立判客模型的方法建立的判客模型对所述会话结果进行判客。
上述会话结果一般是完整的会话结果,至少包括一次话术路径,即语音机器人至少输出一话术路径,将所述会话结果输入判客模型进行判客,判客模型根据会话结果输出判客结果,实现了基于深度学习建立的判客模型对会话结果进行判客,无需人工设置判客标准,提高了判客的精度和效率。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,这些均属于本发明的保护范围之内。

Claims (7)

1.一种基于多层神经网络建立判客模型的方法,其特征是,所述方法包括:
定义话术路径, 所述话术路径为任一话术节点至下一话术节点的路径;
所述话术路径作为训练数据建立训练数据集,所述训练数据集包括至少一话术路径;
建立判客模型,所述判客模型为多层神经网络;
所述训练数据集作为输入信号输入所述多层神经网络前向传播获得输出信号;
反向传播所述输出信号与期望值的误差信号,更新所述神经节点之间的连接权值和神经节点的偏置系数,所述期望值为所述训练数据集对应的人工期望值;
输入所述训练数据集迭代所述多层神经网络直到所述误差信号落入预先设置的误差范围之内;
将所述迭代好的多层神经网络作为判客模型。
2.根据权利要求1所述的一种基于多层神经网络建立判客模型的方法,其特征是,
所述多层神经网络依次包括输入层、至少一个隐藏层和输出层,所述输入层、所述至少一个隐藏层和所述输出层均包括至少一个神经节点,所述神经节点设置有激活函数。
3.根据权利要求2所述的一种基于多层神经网络建立判客模型的方法,其特征是,所述训练数据作为输入信号输入多层神经网络获得输出信号的方法包括:
随机分配多层神经网络中上一层每一个神经节点至当前层神经节点的连接权值,随机分配当前层神经节点的偏置系数;
计算上一层每一个神经节点输出信号与当前层神经节点的加权和,所述加权和通过激活函数激活以获得当前层神经节点的输出信号;
所述输出层神经节点的输出信号为所述多层神经网络的输出信号。
4.根据权利要求2所述的一种基于多层神经网络建立判客模型的方法,其特征是,反向传播所述输出信号与期望值的误差信号,更新所述神经节点之间的连接权值和神经节点的偏置系数的方法包括:
从所述输出层反向计算所述输入层、至少一个隐藏层每一层的每个神经节点的误差项;
设置网络训练速度,通过链式法则更新神经节点之间的连接权值和神经节点的偏置系数。
5.根据权利要求2所述的一种基于多层神经网络建立判客模型的方法,其特征是,所述激活函数为Relu激活函数。
6.根据权利要求4所述的一种基于多层神经网络建立判客模型的方法,其特征是,从所述输出层反向计算所述输入层、至少一个隐藏层每一层的每个神经节点的误差项包括:
所述输出层的神经节点的误差项等于输出层的误差信号;
所述至少一个隐藏层的神经节点的误差项等于与该神经节点连接的上一层神经节点的误差项与连接权重、偏置系数的加权和,所述上一层神经节点为前向传播中的下一层神经节点;
所述输入层的神经节点的误差项等于与该神经节点连接的上一层神经节点的误差项与连接权重、偏置系数的加权和,所述上一层神经节点为前向传播中的下一层神经节点。
7.一种基于上述权利要求1-6任一项所述的一种基于多层神经网络建立判客模型的方法的判客方法,其特征是,所述方法包括:
获取包含至少一话术路径的会话结果;
输入所述会话结果至上述权利要求1-6任一项所述的一种基于多层神经网络建立判客模型的方法建立的话术判客模型对所述会话结果进行判客。
CN201911157883.6A 2019-11-22 2019-11-22 一种基于多层神经网络建立判客模型的方法及判客方法 Active CN111159501B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911157883.6A CN111159501B (zh) 2019-11-22 2019-11-22 一种基于多层神经网络建立判客模型的方法及判客方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911157883.6A CN111159501B (zh) 2019-11-22 2019-11-22 一种基于多层神经网络建立判客模型的方法及判客方法

Publications (2)

Publication Number Publication Date
CN111159501A true CN111159501A (zh) 2020-05-15
CN111159501B CN111159501B (zh) 2023-09-22

Family

ID=70556087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911157883.6A Active CN111159501B (zh) 2019-11-22 2019-11-22 一种基于多层神经网络建立判客模型的方法及判客方法

Country Status (1)

Country Link
CN (1) CN111159501B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113570324A (zh) * 2021-06-08 2021-10-29 北京声智科技有限公司 外呼流程编辑方法、装置、电子设备及存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461699A (en) * 1993-10-25 1995-10-24 International Business Machines Corporation Forecasting using a neural network and a statistical forecast
US6119112A (en) * 1997-11-19 2000-09-12 International Business Machines Corporation Optimum cessation of training in neural networks
CN101482888A (zh) * 2009-02-23 2009-07-15 阿里巴巴集团控股有限公司 一种网站访客价值的计算方法及系统
CN102880908A (zh) * 2012-09-11 2013-01-16 天津大学 一种基于bp神经网络的再制造零件环境损耗的计算方法
US20170250903A1 (en) * 2014-09-23 2017-08-31 Nokia Solutions And Networks Oy Control of communication using service function chaining
US20170372222A1 (en) * 2016-06-24 2017-12-28 Varvara Kollia Technologies for detection of minority events
CN107886168A (zh) * 2017-11-07 2018-04-06 歌拉瑞电梯股份有限公司 一种使用多层感知器神经网络进行电梯故障识别的方法
CN109117951A (zh) * 2018-01-15 2019-01-01 重庆大学 基于bp神经网络的概率潮流在线计算方法
CN109543012A (zh) * 2018-10-25 2019-03-29 苏宁易购集团股份有限公司 一种基于Word2Vec和RNN的用户意图识别方法及装置
WO2019085329A1 (zh) * 2017-11-02 2019-05-09 平安科技(深圳)有限公司 基于循环神经网络的人物性格分析方法、装置及存储介质
US10379995B1 (en) * 2018-07-06 2019-08-13 Capital One Services, Llc Systems and methods to identify breaking application program interface changes
CN110287283A (zh) * 2019-05-22 2019-09-27 中国平安财产保险股份有限公司 意图模型训练方法、意图识别方法、装置、设备及介质
KR20190116041A (ko) * 2018-03-23 2019-10-14 주식회사 포지큐브 인공지능 기반의 가상 호스트 캐릭터를 이용한 대화형 고객 응대 서비스 제공 시스템 및 방법
CN110334194A (zh) * 2019-06-06 2019-10-15 杭州蛋壳商务信息技术有限公司 一种基于语音机器人的多轮会话营销方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461699A (en) * 1993-10-25 1995-10-24 International Business Machines Corporation Forecasting using a neural network and a statistical forecast
US6119112A (en) * 1997-11-19 2000-09-12 International Business Machines Corporation Optimum cessation of training in neural networks
CN101482888A (zh) * 2009-02-23 2009-07-15 阿里巴巴集团控股有限公司 一种网站访客价值的计算方法及系统
CN102880908A (zh) * 2012-09-11 2013-01-16 天津大学 一种基于bp神经网络的再制造零件环境损耗的计算方法
US20170250903A1 (en) * 2014-09-23 2017-08-31 Nokia Solutions And Networks Oy Control of communication using service function chaining
US20170372222A1 (en) * 2016-06-24 2017-12-28 Varvara Kollia Technologies for detection of minority events
WO2019085329A1 (zh) * 2017-11-02 2019-05-09 平安科技(深圳)有限公司 基于循环神经网络的人物性格分析方法、装置及存储介质
CN107886168A (zh) * 2017-11-07 2018-04-06 歌拉瑞电梯股份有限公司 一种使用多层感知器神经网络进行电梯故障识别的方法
CN109117951A (zh) * 2018-01-15 2019-01-01 重庆大学 基于bp神经网络的概率潮流在线计算方法
KR20190116041A (ko) * 2018-03-23 2019-10-14 주식회사 포지큐브 인공지능 기반의 가상 호스트 캐릭터를 이용한 대화형 고객 응대 서비스 제공 시스템 및 방법
US10379995B1 (en) * 2018-07-06 2019-08-13 Capital One Services, Llc Systems and methods to identify breaking application program interface changes
CN109543012A (zh) * 2018-10-25 2019-03-29 苏宁易购集团股份有限公司 一种基于Word2Vec和RNN的用户意图识别方法及装置
CN110287283A (zh) * 2019-05-22 2019-09-27 中国平安财产保险股份有限公司 意图模型训练方法、意图识别方法、装置、设备及介质
CN110334194A (zh) * 2019-06-06 2019-10-15 杭州蛋壳商务信息技术有限公司 一种基于语音机器人的多轮会话营销方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113570324A (zh) * 2021-06-08 2021-10-29 北京声智科技有限公司 外呼流程编辑方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111159501B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN111243576B (zh) 语音识别以及模型训练方法、装置、设备和存储介质
Huang et al. Joint optimization of masks and deep recurrent neural networks for monaural source separation
CN111966800B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
Ding et al. Group Latent Embedding for Vector Quantized Variational Autoencoder in Non-Parallel Voice Conversion.
CN111897933B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
CN108847249A (zh) 声音转换优化方法和系统
CN107146624A (zh) 一种说话人确认方法及装置
CN107704482A (zh) 方法、装置以及程序
CN108962247B (zh) 基于渐进式神经网络多维语音信息识别系统及其方法
Garg et al. Prediction of emotions from the audio speech signals using MFCC, MEL and Chroma
CN110675881B (zh) 一种语音校验方法和装置
CN106683666A (zh) 一种基于深度神经网络的领域自适应方法
Pascual et al. Multi-output RNN-LSTM for multiple speaker speech synthesis and adaptation
KR20110068869A (ko) 복수의 휴먼 테스터에 기초한 음성 발화의 음성 자연성 등급 평가
CN110059220A (zh) 一种基于深度学习与贝叶斯概率矩阵分解的电影推荐方法
Hussain et al. Ensemble hierarchical extreme learning machine for speech dereverberation
KR20010002997A (ko) 신경회로망을 이용한 선택적 주의집중 방법
Xu et al. Deep noise suppression with non-intrusive pesqnet supervision enabling the use of real training data
CN114912020A (zh) 一种基于用户偏好图的多子目标对话推荐方法
Gadasin et al. Using Formants for Human Speech Recognition by Artificial Intelligence
Sautter et al. Artificial bandwidth extension using a conditional generative adversarial network with discriminative training
CN111159501A (zh) 一种基于多层神经网络建立判客模型的方法及判客方法
Eom et al. Speech Emotion Recognition Using 2D-CNN with Mel-Frequency Cepstrum Coefficients.
CN111797220A (zh) 对话生成方法、装置、计算机设备和存储介质
Chen et al. An investigation of implementation and performance analysis of DNN based speech synthesis system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant