CN111680142A - 基于文本识别的自动答复方法、装置、计算机设备 - Google Patents

基于文本识别的自动答复方法、装置、计算机设备 Download PDF

Info

Publication number
CN111680142A
CN111680142A CN202010476981.2A CN202010476981A CN111680142A CN 111680142 A CN111680142 A CN 111680142A CN 202010476981 A CN202010476981 A CN 202010476981A CN 111680142 A CN111680142 A CN 111680142A
Authority
CN
China
Prior art keywords
information
character
classification model
target
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010476981.2A
Other languages
English (en)
Inventor
刘皋相
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Puhui Enterprise Management Co Ltd
Original Assignee
Ping An Puhui Enterprise Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Puhui Enterprise Management Co Ltd filed Critical Ping An Puhui Enterprise Management Co Ltd
Priority to CN202010476981.2A priority Critical patent/CN111680142A/zh
Publication of CN111680142A publication Critical patent/CN111680142A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开了基于文本识别的自动答复方法、装置、计算机设备。方法包括:根据所输入的模型配置信息及预存的分类模板生成文字信息分类模型后进行训练得到训练后的文字信息分类模型,接收来自客户端的待识别信息并获取对应的目标文字信息,根据文字处理规则获取与目标文字信息对应的预设长度的文字特征向量,根据训练后的文字信息分类模型对文字特征向量进行分类得到对应的目标分类类别,获取预存的语料信息库中与目标分类类别对应的语料信息作为答复信息进行反馈。本发明基于自然语言处理技术,可基于文字信息分类模型对文字特征向量进行准确分类,并以此提高获取答复信息的速度及准确性。

Description

基于文本识别的自动答复方法、装置、计算机设备
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于文本识别的自动答复方法、装置、计算机设备。
背景技术
客户在办理业务过程中需根据企业所提供的办理流程进行办理,而部分业务流程较为复杂,操作步骤较多,导致用户难以正确、完整理解办理流程中的操作要求,影响客户业务办理的速度,易造成客户流失。为解决这一上述引导流程中所存在的问题,部分企业通过语音客服为客户提供智能语音服务,然而由于客户所提出的提问信息包含的字符数量不相同,采用传统的自然语音处理方法无法高效、准确地获取与提问信息对应的答复信息,最终导致语音客服反馈至用户的答复信息不准确,也影响了客户办理业务的效率。因而,现有技术方法存在无法针对提问信息高效、准确地获取答复信息的问题。
发明内容
本发明实施例提供了一种基于文本识别的自动答复方法、装置、计算机设备及存储介质,旨在解决现有的技术方法中所存在的针对提问信息无法高效、准确地获取对应的答复信息的问题。
第一方面,本发明实施例提供了一种基于文本识别的自动答复方法,其包括:
根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型;
根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型;
若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息;
根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量;
根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别;
根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
第二方面,本发明实施例提供了一种基于文本识别的自动答复装置,其包括:
分类模型生成单元,用于根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型;
分类模型训练单元,用于根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型;
目标文字信息获取单元,用于若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息;
文字特征向量获取单元,用于根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量;
目标分类类别获取单元,用于根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别;
答复信息反馈单元,用于根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于文本识别的自动答复方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于文本识别的自动答复方法。
本发明实施例提供了一种基于文本识别的自动答复方法、装置、计算机设备。根据所输入的模型配置信息及预存的分类模板生成文字信息分类模型后进行训练得到训练后的文字信息分类模型,接收来自客户端的待识别信息并获取对应的目标文字信息,根据文字处理规则获取与目标文字信息对应的预设长度的文字特征向量,根据训练后的文字信息分类模型对文字特征向量进行分类得到对应的目标分类类别,获取预存的语料信息库中与目标分类类别对应的语料信息作为答复信息进行反馈。通过上述方法,可对包含不同字符数量的提问信息进行处理得到预设长度的文字特征向量,并获取对应的目标分类类别,采用长短期记忆网络对文字特征向量进行处理,可基于文字信息分类模型对文字特征向量进行准确分类,并以此提高获取答复信息的速度及准确性,在实际应用过程中取得了良好的技术效果。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于文本识别的自动答复方法的流程示意图;
图2为本发明实施例提供的基于文本识别的自动答复方法的应用场景示意图;
图3为本发明实施例提供的基于文本识别的自动答复方法的子流程示意图;
图4为本发明实施例提供的基于文本识别的自动答复方法的另一子流程示意图;
图5为本发明实施例提供的基于文本识别的自动答复方法的另一子流程示意图;
图6为本发明实施例提供的基于文本识别的自动答复方法的另一子流程示意图;
图7为本发明实施例提供的基于文本识别的自动答复方法的另一子流程示意图;
图8为本发明实施例提供的基于文本识别的自动答复方法的另一子流程示意图;
图9为本发明实施例提供的基于文本识别的自动答复装置的示意性框图;
图10为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1,图1是本发明实施例提供的基于文本识别的自动答复方法的流程示意图,图2为本发明实施例提供的基于文本识别的自动答复方法的应用场景示意图。该基于文本识别的自动答复方法应用于管理服务器10中,该方法通过安装于管理服务器10中的应用软件进行执行,管理服务器10通过与客户端20建立网络连接以与客户端20进行通信,客户端20的使用者可通过客户端发送待识别信息至管理服务器10,管理服务器20执行基于文本识别的自动答复方法以获取与待识别信息对应的答复信息反馈至相应的客户端20,客户端20接收该答复信息后可对应展示至客户端20的使用者,其中,管理服务器10即是用于执行基于文本识别的自动答复方法的企业终端,客户端20即是用于发送待识别信息并接收答复信息的终端设备,客户端20可以是台式电脑、笔记本电脑、平板电脑或手机等。图2中仅仅示意出一台客户端20与管理服务器10进行数据信息传输,在实际应用中,管理服务器10也可与多台客户端20同时进行数据信息传输。
如图1所示,该方法包括步骤S110~S160。
S110、根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型。
根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型。输入模型配置信息的可以是管理服务器的管理员,也即是上述用户可以是管理服务器的管理员,分类模板预存于管理服务器中,其中,分类模板包括一个长短期记忆网络(Long Short-Term Memory,LSTM)、一个权重层和一个神经网络,则对应生成的文字信息分类模型中也包含一个长短期记忆网络、一个权重层和一个神经网络。所输入的模型配置信息中包括词向量维度信息、输入数量信息、输出节点信息,词向量维度信息即是对长短期记忆网络中需进行向量运算的维度进行配置的信息,输入数量信息即为对神经网络中输入节点的数量进行配置的信息,输入数量信息还可对权重层中所包含权重值的数量进行配置,输出节点信息可对神经网络中输出节点的数量及每一输出节点对应类别进行配置,长短期记忆网络中包含多细胞,细胞的数量可通过输入数量信息进行配置。完成对分类模板中参数值进行配置后,即生成对应的文字信息分类模型。
S120、根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型。
根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型。为提高文字信息分类模型对文字信息进行分类的准确率,在使用文字信息分类模型之前,可输入模型训练规则并结合预存的文字信息数据库对该文字信息分类模型进行训练,输入模型训练规则的用户可以是管理服务器的管理员,文字信息数据库预存于管理服务器中,通过训练后的文字信息分类模型即可对文字信息进行精准分类。具体的,模型训练规则包括拆分比例信息、参数调整规则及合格率阈值,文字信息数据库中包含多条文字特征信息,每一条文字特征信息均是对一段文字对应的特征进行量化表示的特征向量,每一条文字特征信息均可表示为一个N×M的特征向量,特征向量中的N与输入数量信息相同,特征向量中的M即是所有字符对应特征向量的维度信息,每一个词(字符)均需转换成一个1×M维的向量后,才能输入长短期记忆网络中进行运算,每一个字符对应特征向量的维度信息均相同,其中,M为正整数,每一条特征信息还包括与该条特征信息对应的类别信息。拆分比例信息即是用于将文字信息数据库中所包含的文字特征信息拆分为训练数据集及测试数据集的拆分规则,参数调整规则即是用于对文字信息分类模型中所包含的参数值进行调整的规则,合格率阈值即是用于判断文字信息分类模型是否符合使用要求的阈值信息,只有经过训练的文字信息分类模型的合格率大于合格率阈值时,才能将此时的文字信息分类模型作为符合使用要求的文字信息分类模型进行使用,若文字信息分类模型的合格率不大于合格率阈值,则还需对文字信息分类模型进行进一步训练,直至该文字信息分类模型符合使用需求。
具体的,一段文字所包含的字符均可通过预存于管理服务器中的字符向量表转换为对应的一条文字特征信息,例如,若M=10,字符向量表中所包含的部分信息如表1所示。
字符 1×M维的向量
{0.1,0.5,0.8,0.3,0,0.2,0.1,0.4,1.0,0.5}
{0.3,0.7,0.1,0.2,0.9,0.7,0.3,0.1,0,0.2}
{0.6,0.2,0.8,0.1,0,0.5,0.1,0.4,0.3,0.5}
{0.8,1.0,0.5,0.6,0.7,0.3,0.6,0.1,0.5,0.2}
□(空字符) {0,0,0,0,0,0,0,0,0,0}
表1
某一段文字为“办理业务”,即可对应得到一个与该文字信息对应的4×10维的特征向量:
Figure BDA0002516138490000061
在一实施例中,如图3所示,步骤S120包括子步骤S121、S122、S123和S124。
S121、根据所述拆分比例信息将所述文字信息数据库所包含的文字特征信息平均拆分为对应数量的训练数据集及测试数据集。
根据所述拆分比例信息将所述文字信息数据库所包含的文字特征信息平均拆分为对应数量的训练数据集及测试数据集。具体的,拆分比例信息即是用于对文字信息数据库中的文字特征信息按比例拆分的比例信息,可根据拆分比例信息将所有文字特征信息随机拆分为对应数量的训练数据集及测试数据集。拆分得到的训练数据集大于一个,拆分得到的测试数据集为一个或多个,训练数据集的数量大于测试数据集的数量,训练数据集中至少包含一条训练文字特征信息,测试数据集中至少包含一条测试文字特征信息。
例如,某一文字信息数据库中包含2500条文字特征信息,拆分比例信息为9:1,则根据拆分比例信息将文字信息数据库中所有的文字特征信息随机拆分为10份,并将其中9份文字特征信息作为9个对应的训练数据集,剩余1份文字特征信息作为1个训练数据集。
S122、根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型。
根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型。一个训练数据集中所包含的文字特征信息作为一批数据输入文字信息分类模型中的长短期记忆网络,计算得到该训练数据集中每一文字特征信息的记忆网络输出信息,其中,长短期记忆网络中包含N细胞,文字特征信息中的特征向量可分为N个1×M维的向量,N个1×M维的向量分别输入长短期记忆网络对应的N个细胞中。
在一实施例中,如图4所示,步骤S122包括子步骤S1221、S1222、S1223、S1224、S1225、S1226和S1227。
S1221、获取第一个训练数据集作为目标训练数据集;从所得到的多个训练数据集中获取第一个训练数据集,作为目标训练数据集。
S1222、根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息。具体的,计算某一条文字特征信息的记忆网络输出信息的步骤分为五步,①计算遗忘门输出信息:f(t)=σ(Wf×h(t_1)+Uf×X(t)+bf),其中f(t)为遗忘门参数值,0≤f(t)≤1;σ为激活函数计算符号,σ可具体表示为f(x)=(e^x-e^(-x))/(e^x+e^(-x)),则将Wf×h(t_1)+Uf×X(t)+bf的计算结果作为x输入激活函数σ即可计算得到f(t);Wf、Uf及bf均为本细胞中公式的参数值;h(t_1)为上一细胞的输出门信息;X(t)为该文字特征信息中输入当前细胞的1×M维的向量,若当前细胞为长短期记忆网络中的第一个细胞,则h(t_1)为零。②计算输入门信息:i(t)=σ(Wi×h(t_1)+Ui×X(t)+bi);a(t)=tanh(Wa×h(t-1)+Ua×X(t)+ba),其中i(t)为输入门参数值,0≤i(t)≤1;Wi、Ui、bi、Wa、Ua及ba均为本细胞中公式的参数值,a(t)为所计算得到的输入门向量值,a(t)为一个1×M维的向量。③更新细胞记忆信息:C(t)=C(t_1)⊙f(t)+i(t)⊙a(t),C为每一次计算过程所累计的细胞记忆信息,C(t)为当前细胞所输出的细胞记忆信息,C(t_1)为上一细胞所输出的细胞记忆信息,⊙为向量运算符,C(t_1)⊙f(t)的计算过程为将向量C(t_1)中每一维度值分别与f(t)相乘,所计算的得到的向量维度与向量C(t_1)中的维度相同。④计算输出门信息:o(t)=σ(Wo×h(t_1)+Uo×X(t)+bo);h(t)=o(t)⊙tanh(C(t)),o(t)为输出门参数值,0≤o(t)≤1;Wo、Uo及bo均为本细胞中公式的参数值,h(t)为本细胞的输出门信息,h(t)为一个1×M维的向量。⑤计算当前细胞的输出信息:y(t)=σ(V×h(t)+c),V及c均为本细胞中公式的参数值。每一个细胞均计算得到一个输出信息,综合N个细胞的输出信息即可得到一条文字特征信息的记忆网络输出信息,一条文字特征信息的记忆网络输出信息为一个1×N维的向量。
S1223、根据所述权重层及所述神经网络计算得到所述目标训练数据集的准确率。权重层中所包含权重值的数量与字符数量信息,也即是权重值的数量为N,将一个训练数据集计算得到的所有记忆网络输出信息均与权重层进行相乘,即可得到附加权重值的记忆网络输出信息。将一条文字特征信息输入神经网络,其中,神经网络中包含N个输入节点,每一输入节点均与该文字特征信息的记忆网络输出信息中的一个向量维度值对应,输入节点与输出节点之间包含全连接层,输入节点与全连接层之间设置有第一公式组,输出节点与全连接层之间设置有第二公式组。其中,第一公式组包含所有输入节点至所有特征单元的公式,第一公式组中的公式均以输入节点值作为输入值、特征单元值作为输出值,第二公式组包含所有输出节点至所有特征单元的公式,第二公式组中的公式均以特征单元值作为输入值、输出节点值作为输出值,神经网络中所包含的每一公式中均拥有对应的参数值。每一输出节点均对应一个类别,输出节点值也即是该文字特征信息所属类别的概率值,获取该文字特征信息概率值最高的类别作为神经网络所输出的类别。依次将所有附加权重值的记忆网络输出信息输入神经网络即可计算得到每一记忆网络输出信息对应的类别,将目标训练数据集每一条文字特征信息对应的类别信息与神经网络所输出的类别是否相同进行对比,即可获取该目标训练数据集整体的准确率。
例如,若一个训练集中包含250条文字特征信息,其中190条文字特征信息对应的类别信息与神经网络所输出的类别相同,另外60条文字特征信息对应的类别信息与神经网络所输出的类别不相同,则该目标训练数据集整体的准确率为190/250=76%。
S1224、根据所述参数调整规则及所述目标训练数据集的准确率对所述文字信息分类模型中的参数值进行调整。文字信息分类模型中需进行调整的参数值包括长短期记忆网络中公式的参数值、权重层中所包含的权重值、神经网络中公式的参数值。具体的,参数调整规则中包括准确率阈值、参数调整方向及参数调整幅度,参数调整方向包括正向调整及负向调整,参数调整幅度即是进行调整的具体幅度值。对文字信息分类模型中所包含的参数值进行调整的具体步骤为,对该目标训练数据集的准确率是否小于准确率阈值进行判断,若判断结果为不小于,则根据参数调整方向中的正向调整及参数调整幅度中的幅度值对文字信息分类模型中的参数值进行调整;若判断结果为小于,则根据参数调整方向中的反向调整及上述幅度值对文字信息分类模型中的参数值进行调整。一个训练数据集即可对文字信息分类模型中的参数值进行一次调整,也即是完成对文字信息分类模型进行一次训练。
例如,参数调整幅度中的幅度值为0.08,判断结果为目标训练数据集的准确率小于准确率阈值,则本次调整需进行反向调整,本次调整在该文字信息分类模型中参数值原数值基础上乘以(1-0.08)得到新的参数值。
S1225、判断是否存在下一所述训练数据集;
S1226、若存在下一所述训练数据集,将下一所述训练数据集作为目标训练数据集并返回执行步骤根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息,也即是返回执行步骤S1222。通过多个训练数据集依次对文字信息分类模型中的参数值进行调整,即可实现对文字信息分类模型进行迭代训练,得到需进行测试的待测试文字信息分类模型。
S1227、若不存在下一所述训练数据集,将当前文字信息分类模型作为待测试文字信息分类模型。
S123、将每一所述测试数据集输入所述待测试文字信息分类模型以计算得到所述待测试文字信息分类模型的合格率。
将每一所述测试数据集输入所述待测试文字信息分类模型以计算得到所述待测试文字信息分类模型的合格率。一个测试数据集中所包含的文字特征信息作为一批数据输入文字信息分类模型中的长短期记忆网络,计算得到该测试数据集中每一文字特征信息的记忆网络输出信息,长短期记忆网络中包含N细胞,文字特征信息中的特征向量可分为N个1×M维的向量,N个1×M维的向量分别输入长短期记忆网络对应的N个细胞中,具体的对测试数据集中文字特征信息进行计算的过程与上述步骤相同,在此不做赘述。将一个测试数据集每一条文字特征信息对应的类别信息与待测试文字信息分类模型所输出的类别是否相同进行对比,即可获取一个测试数据集的准确率。若测试数据集仅为一个,则将获取得到的测试数据集的准确率作为待测试文字信息分类模型的合格率;若测试数据集为多个,则获取多个测试数据集的准确率后,计算多个准确率的平均值作为待测试文字信息分类模型的合格率。
S124、若所述待测试文字信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试文字信息分类模型作为训练后的文字信息分类模型。
若所述待测试文字信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试文字信息分类模型作为训练后的文字信息分类模型。若待测试文字信息分类模型的合格率不小于合格率阈值,则待测试文字信息分类模型为训练合格的文字信息分类模型,可将训练合格的文字信息分类模型作为训练后的文字信息分类模型进行使用。
在另一实施例中,步骤S123之后还包括步骤:若所述待测试文字信息分类模型的合格率小于所述模型训练规则中的合格率阈值,根据所述模型训练规则及所述文字信息数据库对所述待测试文字信息分类模型再次进行训练。待测试文字信息分类模型的合格率小于合格率阈值,则表明该待测试文字信息分类模型不合格,可根据模型训练规则及文字信息数据库对待测试文字信息分类模型再次进行训练,以使所得到的待测试文字信息分类模型为训练合格的文字信息分类模型。
S130、若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息。
若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息。其中,待识别信息可以由客户端的使用者通过客户端发送至管理服务器,待识别信息可以是文字、语音或短视频,需从待识别信息中获取对应的目标文字信息,并基于目标文字信息获取使用者的真实意图,也即是获取以目标文字信息进行记载的提问信息。
例如,客户端的使用者在终端页面的问题框中输入文字并点击确认按钮,则客户端将该文字作为待识别信息发送至管理服务器;客户端的使用者点击终端页面的语音录入按钮,说出自己的问题并点击确认按钮,则客户端将所录得的语音作为待识别信息发送至管理服务器;客户端的使用者点击终端页面的视频录入按钮,正对客户端的视频采集设备说出自己的问题并点击确认按钮,则客户端将所录得的短视频作为待识别信息发送至管理服务器。
在一实施例中,如图5所示,步骤S130包括子步骤S131、S132和S133。
S131、判断所述待识别信息是否为文字信息。
判断所述待识别信息是否为文字信息。具体的,待识别信息中包含对应的格式标识信息,格式标识信息即是用于对待识别信息的格式进行标识的信息,通过待识别信息的格式标识信息即可判断待识别信息是否为文字信息。
例如,若格式标识信息为txt、string,则对应的待识别信息为文字信息;若格式标识信息为wav、mp3、wma,则该对应的待识别信息为音频信息;若格式标识信息为avi、flv、rmvb,则对应的待识别信息为视频信息。
S132、若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息。
若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息。若待识别信息不为文字信息,则该待识别信息可以是音频信息或视频信息,音频信息或视频信息中均包含语音信息。语音识别模型即是音频信息或视频信息中所包含的语音信息进行识别及转换的模型,其中,语音识别模型包括声学模型、语音特征词典及语义解析模型。
在一实施例中,如图6所示,步骤S132包括子步骤S1321、S1322和S1323。
S1321、根据所述语音识别模型中的声学模型对所述待识别信息进行切分以得到所述待识别信息中所包含的多个音素。具体的,音频信息或视频信息中所包含的语音信息由多个字符发音的音素而组成,一个字符的音素包括该字符发音的频率和音色。声学模型中包含所有字符发音的音素,通过将语音信息与声学模型中所有的音素进行匹配,即可对语音信息中单个字符的音素进行切分,通过切分最终得到待识别信息中所包含的多个音素。
S1322、根据所述语音识别模型中的语音特征词典对所述音素进行匹配以将所述音素转换为拼音信息。语音特征词典中包含所有字符拼音对应的音素信息,通过将所得到的音素与字符拼音对应的音素信息进行匹配,即可将单个字符的音素转换为语音特征词典中与该音素相匹配的字符拼音,以实现将语音信息中所包含的所有音素转换为拼音信息。
S1323、根据所述语音识别模型中的语义解析模型对所述拼音信息进行语义解析以得到与所述待识别信息对应的目标文字信息。语义解析模型中包含拼音信息与文字信息之间所对应的映射关系,通过语义解析模型中所包含的映射关系即可对所得到的拼音信息进行语义解析以将拼音信息转换为对应的目标文字信息。
例如,拼音“bàn,lǐ”在语义解析模型中所对应的文字信息为“办理”。
S133、若所述待识别信息为文字信息,将所述待识别信息确定为目标文字信息。
若所述待识别信息为文字信息,将所述待识别信息确定为目标文字信息。若待识别信息为文字信息,则无需对该待识别信息进行处理,可将待识别信息直接作为目标文字信息进行后续处理。
S140、根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量。
根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量。获取目标文字信息后,即可获取与该目标文字信息对应的目标分类类别,其中,文字处理规则即是用于对目标文字信息进行转换处理的规则信息,通过文字处理规则即可将目标文字信息转换为对应的特征向量,其中,文字处理规则中包括字符筛选规则及上述预存于管理服务器中的字符向量表。根据文字处理规则对目标文字信息进行处理后即可得到与该目标文字信息对应的一个X×Y的特征向量,X即是字符向量表中每一个字符对应特征向量的维度信息,也即是X=M,Y即为预设长度,预设长度与上述长短期记忆网络中细胞的数量相等,也即是Y=N。
在一实施例中,如图7所示,步骤S140包括子步骤S141、S142和S143。
S141、根据所述字符筛选规则对所述目标文字信息进行筛选以得到筛选文字信息。
根据所述字符筛选规则对所述目标文字信息进行筛选以得到筛选文字信息。字符筛选规则即是用于对目标文字信息进行筛选的规则信息,具体的,字符筛选规则可将目标文字信息中意义不大的字符筛除,得到的筛选文字信息中包含的字符均为具有实际意义的字符。
例如,字符筛选规则中可设置需筛除的字符为“的”、“地”、“我”等。
S142、根据所述预设长度对所述筛选文字信息进行标准化处理以得到待转换文字信息,其中,所述预设长度等于所述长短期记忆网络中细胞的数量。
根据所述预设长度对所述筛选文字信息进行标准化处理以得到待转换文字信息。筛选文字信息中所包含的字符数量很可能与信息分类模型中细胞的数量并不完全相等,在此情况下则需根据信息分类模型中细胞的数量对筛选文字信息进行标准化处理,以得到与信息分类模型中细胞数量相同的字符数作为待转换文字信息,信息分类模型中细胞的数量为N,则对应得到的待转换文字信息中包含N个字符。具体的,若筛选文字信息中所包含的字符的数量超过细胞的数量,则根据细胞的数量截取筛选文字信息中前N个字符作为待转换文字信息;若筛选文字信息中所包含的字符数据少于信息分类模型中细胞的数量,则根据细胞的数量使用空字符(使用□进行表示)将筛选文字信息中缺失的字符进行补齐以得到待转换文字信息;若筛选文字信息中所包含的字符数量与细胞的数量相同,则直接将筛选文字信息作为待转换文字信息。
S143、根据所述字符向量表获取与所述待转换文字信息对应的文字特征向量。
根据所述字符向量表获取与所述待转换文字信息对应的文字特征向量。字符向量表中包含每一字符对应的一个1×M维的向量,该1×M维的向量可用于对字符的特征进行量化。根据待转换文字信息中所包含的字符即可从字符向量表中获取每一字符对应的一个1×M维向量,将待转换字符中所包含的N个字符所对应的1×M维向量进行组合,即可得到一个N×M的向量,也即是所得到的文字特征向量。其中,字符向量表的具体形式如表1中所示。
S150、根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别。
根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别。将所获取的文字特征向量输入训练后的文字信息分类模型即可获取该待识别信息的目标分类类别。
在一实施例中,如图8所示,步骤S150包括子步骤S151、S152和S153。
S151、根据所述长短期记忆网络计算得到所述文字特征向量的特征输出信息。
根据所述长短期记忆网络计算得到所述文字特征向量的特征输出信息。具体的,根据长短期记忆网络对文字特征向量进行计算以得到对应的特征输出信息,此过程共分为五步,具体计算过程如上述步骤所示,在此不做赘述。长短期记忆网络中的每一个细胞均计算得到一个输出信息,综合N个细胞的输出信息即可得到文字特征向量的特征输出信息,所得到的特征输出信息为一个1×N维的向量。
S152、根据所述权重层及所述神经网络对所述特征输出信息进行计算以得到所述特征输出信息与所述文字信息分类模型中每一类别对应的概率值。
根据所述权重层及所述神经网络对所述特征输出信息进行计算以得到所述特征输出信息与所述文字信息分类模型中每一类别对应的概率值。权重层中所包含权重值的数量与特征输出信息中维度的数量相同,也即是权重值的数量为N,将计算得到的特征输出信息与权重层进行相乘,即可得到附加权重值的特征输出信息。神经网络中包含N个输入节点及多个输出节点,每一输出节点均对应一个类别,输出节点值也即是该特征输出信息属于该输出节点所对应类别的概率值。
S153、将所述文字信息分类模型中概率值最高的类别确定为所述待识别信息的目标分类类别。
将所述文字信息分类模型中概率值最高的类别确定为所述待识别信息的目标分类类别。获取概率值最高的类别作为与待识别信息匹配度最高的类别,也即是作为待识别信息的目标分类类别。
S160、根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。其中,语料信息库即是用于存储语料信息的数据库,语料信息库中包含与文字信息分类模型中每一类别对应的语料信息,每一类别均对应至少一条语料信息,可根据目标分类类别获取语料信息库中与该目标分类类别对应的一条语料信息作为答复信息,并将该答复信息反馈至客户端。若与该目标分类类别对应的语料信息仅为一条,则将该条语料信息作为答复信息反馈至客户端;若与该目标分类类别对应的语料信息包含多条,则从多条语料信息中随机获取一条作为答复信息反馈至客户端。语料信息可以是文字信息、音频信息、视频信息,还可以是文字信息与音频信息的结合或文字信息与视频信息的结合。具体的,语料信息可以是对客户端的使用者所提出的问题进行解答,例如,对客户端的使用者所提出的业务名词进行详细解释;还可以是根据客户端的使用者的问题反馈对应的引导信息以对该使用者进行引导,以引导客户端的使用者进行业务办理的相关操作。
此外,将答复信息反馈至客户端时,还可记录答复信息的反馈时间,基于预置的反馈间隔时间判断在间隔时限之前是否再次接收到该客户端所反馈的待识别信息,间隔时限可以是与答复信息的反馈时间间隔上述反馈间隔时间的时间点。若客户端未在间隔时限之前反馈待识别信息,则向该客户端反馈断点话术,或转发该客户端的使用者的基本信息至外呼平台进行电话跟进,若客户端在间隔时限之前再次反馈待识别信息,则根据上述步骤再次对待识别信息进行处理,以再次反馈相应的答复信息至该客户端。
在本发明实施例所提供的基于文本识别的自动答复方法中,根据所输入的模型配置信息及预存的分类模板生成文字信息分类模型后进行训练得到训练后的文字信息分类模型,接收来自客户端的待识别信息并获取对应的目标文字信息,根据文字处理规则获取与目标文字信息对应的预设长度的文字特征向量,根据训练后的文字信息分类模型对文字特征向量进行分类得到对应的目标分类类别,获取预存的语料信息库中与目标分类类别对应的语料信息作为答复信息进行反馈。通过上述方法,可对包含不同字符数量的提问信息进行处理得到预设长度的文字特征向量,并获取对应的目标分类类别,采用长短期记忆网络对文字特征向量进行处理,可基于文字信息分类模型对文字特征向量进行准确分类,并以此提高获取答复信息的速度及准确性,在实际应用过程中取得了良好的技术效果。
本发明实施例还提供一种基于文本识别的自动答复装置,该基于文本识别的自动答复装置用于执行前述基于文本识别的自动答复方法的任一实施例。具体地,请参阅图9,图9是本发明实施例提供的基于文本识别的自动答复装置的示意性框图。该基于文本识别的自动答复装置可以配置于管理服务器10中。
如图9所示,基于文本识别的自动答复装置100包括分类模型生成单元110、分类模型训练单元120、目标文字信息获取单元130、文字特征向量获取单元140、目标分类类别获取单元150和答复信息反馈单元160。
分类模型生成单元110,用于根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型,其中,所述文字信息分类模型包括一个长短期记忆网络、一个权重层和一个神经网络。
分类模型训练单元120,用于根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型。
其他发明实施例中,所述分类模型训练单元120包括子单元:文字特征信息拆分单元、迭代训练单元、合格率计算单元和合格率判断单元。
文字特征信息拆分单元,用于根据所述拆分比例信息将所述文字信息数据库所包含的文字特征信息平均拆分为对应数量的训练数据集及测试数据集;代训练单元,用于根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型;合格率计算单元,用于将每一所述测试数据集输入所述待测试文字信息分类模型以计算得到所述待测试文字信息分类模型的合格率;合格率判断单元,用于若所述待测试文字信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试文字信息分类模型作为训练后的文字信息分类模型。
目标文字信息获取单元130,用于若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息。
其他发明实施例中,所述目标文字信息获取单元130包括子单元:待识别文字信息判断单元、语音信息识别单元和目标文字信息确定单元。
待识别文字信息判断单元,用于判断所述待识别信息是否为文字信息;语音信息识别单元,用于若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息;目标文字信息确定单元,用于若所述待识别信息为文字信息,将所述待识别信息确定为目标文字信息。
文字特征向量获取单元140,用于根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量。
其他发明实施例中,所述文字特征向量获取单元140包括子单元:目标文字信息筛选单元、标准化处理单元和待转换文字信息转换单元。
目标文字信息筛选单元,用于根据所述字符筛选规则对所述目标文字信息进行筛选以得到筛选文字信息;标准化处理单元,用于根据所述预设长度对所述筛选文字信息进行标准化处理以得到待转换文字信息,其中,所述预设长度等于所述长短期记忆网络中细胞的数量;待转换文字信息转换单元,用于根据所述字符向量表获取与所述待转换文字信息对应的文字特征向量。
目标分类类别获取单元150,用于根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别。
其他发明实施例中,所述目标分类类别获取单元150包括子单元:特征输出信息获取单元、概率值获取单元和目标分类类别确定单元。
特征输出信息获取单元,用于根据所述长短期记忆网络计算得到所述文字特征向量的特征输出信息;概率值获取单元,用于根据所述权重层及所述神经网络对所述特征输出信息进行计算以得到所述特征输出信息与所述文字信息分类模型中每一类别对应的概率值;目标分类类别确定单元,用于将所述文字信息分类模型中概率值最高的类别确定为所述待识别信息的目标分类类别。
答复信息反馈单元160,用于根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
在本发明实施例所提供的基于文本识别的自动答复装置应用上述基于文本识别的自动答复方法,根据所输入的模型配置信息及预存的分类模板生成文字信息分类模型后进行训练得到训练后的文字信息分类模型,接收来自客户端的待识别信息并获取对应的目标文字信息,根据文字处理规则获取与目标文字信息对应的预设长度的文字特征向量,根据训练后的文字信息分类模型对文字特征向量进行分类得到对应的目标分类类别,获取预存的语料信息库中与目标分类类别对应的语料信息作为答复信息进行反馈。通过上述方法,可对包含不同字符数量的提问信息进行处理得到预设长度的文字特征向量,并获取对应的目标分类类别,采用长短期记忆网络对文字特征向量进行处理,可基于文字信息分类模型对文字特征向量进行准确分类,并以此提高获取答复信息的速度及准确性,在实际应用过程中取得了良好的技术效果。
上述基于文本识别的自动答复装置可以实现为计算机程序的形式,该计算机程序可以在如图10所示的计算机设备上运行。
请参阅图10,图10是本发明实施例提供的计算机设备的示意性框图。
参阅图10,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于文本识别的自动答复方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于文本识别的自动答复方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图10中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型,其中,所述文字信息分类模型包括一个长短期记忆网络、一个权重层和一个神经网络;根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型;若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息;根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量;根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别;根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
在一实施例中,处理器502在执行根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型的步骤时,执行如下操作:根据所述拆分比例信息将所述文字信息数据库所包含的文字特征信息平均拆分为对应数量的训练数据集及测试数据集;根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型;将每一所述测试数据集输入所述待测试文字信息分类模型以计算得到所述待测试文字信息分类模型的合格率;若所述待测试文字信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试文字信息分类模型作为训练后的文字信息分类模型。
在一实施例中,处理器502在执行若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息的步骤时,执行如下操作:判断所述待识别信息是否为文字信息;若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息;若所述待识别信息为文字信息,将所述待识别信息确定为目标文字信息。
在一实施例中,处理器502在执行若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息的步骤时,执行如下操作:根据所述语音识别模型中的声学模型对所述待识别信息进行切分以得到所述待识别信息中所包含的多个音素;根据所述语音识别模型中的语音特征词典对所述音素进行匹配以将所述音素转换为拼音信息;根据所述语音识别模型中的语义解析模型对所述拼音信息进行语义解析以得到与所述待识别信息对应的目标文字信息。
在一实施例中,处理器502在执行根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量的步骤时,执行如下操作:根据所述字符筛选规则对所述目标文字信息进行筛选以得到筛选文字信息;根据所述预设长度对所述筛选文字信息进行标准化处理以得到待转换文字信息,其中,所述预设长度等于所述长短期记忆网络中细胞的数量;根据所述字符向量表获取与所述待转换文字信息对应的文字特征向量。
在一实施例中,处理器502在执行根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别的步骤时,执行如下操作:根据所述长短期记忆网络计算得到所述文字特征向量的特征输出信息;根据所述权重层及所述神经网络对所述特征输出信息进行计算以得到所述特征输出信息与所述文字信息分类模型中每一类别对应的概率值;将所述文字信息分类模型中概率值最高的类别确定为所述待识别信息的目标分类类别。
在一实施例中,处理器502在执行根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型的步骤时,执行如下操作:获取第一个所述训练数据集作为目标训练数据集;根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息;根据所述权重层及所述神经网络计算得到所述目标训练数据集的准确率;根据所述参数调整规则及所述目标训练数据集的准确率对所述文字信息分类模型中的参数值进行调整;判断是否存在下一所述训练数据集;若存在下一所述训练数据集,将下一所述训练数据集作为目标训练数据集并返回执行步骤根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息;若不存在下一所述训练数据集,将当前文字信息分类模型作为待测试文字信息分类模型。
本领域技术人员可以理解,图10中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图10所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型,其中,所述文字信息分类模型包括一个长短期记忆网络、一个权重层和一个神经网络;根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型;若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息;根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量;根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别;根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
在一实施例中,所述根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型的步骤,包括:根据所述拆分比例信息将所述文字信息数据库所包含的文字特征信息平均拆分为对应数量的训练数据集及测试数据集;根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型;将每一所述测试数据集输入所述待测试文字信息分类模型以计算得到所述待测试文字信息分类模型的合格率;若所述待测试文字信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试文字信息分类模型作为训练后的文字信息分类模型。
在一实施例中,所述若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息的步骤,包括:判断所述待识别信息是否为文字信息;若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息;若所述待识别信息为文字信息,将所述待识别信息确定为目标文字信息。
在一实施例中,所述若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息的步骤,包括:根据所述语音识别模型中的声学模型对所述待识别信息进行切分以得到所述待识别信息中所包含的多个音素;根据所述语音识别模型中的语音特征词典对所述音素进行匹配以将所述音素转换为拼音信息;根据所述语音识别模型中的语义解析模型对所述拼音信息进行语义解析以得到与所述待识别信息对应的目标文字信息。
在一实施例中,所述根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量的步骤,包括:根据所述字符筛选规则对所述目标文字信息进行筛选以得到筛选文字信息;根据所述预设长度对所述筛选文字信息进行标准化处理以得到待转换文字信息,其中,所述预设长度等于所述长短期记忆网络中细胞的数量;根据所述字符向量表获取与所述待转换文字信息对应的文字特征向量。
在一实施例中,所述根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别的步骤,包括:根据所述长短期记忆网络计算得到所述文字特征向量的特征输出信息;根据所述权重层及所述神经网络对所述特征输出信息进行计算以得到所述特征输出信息与所述文字信息分类模型中每一类别对应的概率值;将所述文字信息分类模型中概率值最高的类别确定为所述待识别信息的目标分类类别。
在一实施例中,所述根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型的步骤,包括:获取第一个所述训练数据集作为目标训练数据集;根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息;根据所述权重层及所述神经网络计算得到所述目标训练数据集的准确率;根据所述参数调整规则及所述目标训练数据集的准确率对所述文字信息分类模型中的参数值进行调整;判断是否存在下一所述训练数据集;若存在下一所述训练数据集,将下一所述训练数据集作为目标训练数据集并返回执行步骤根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息;若不存在下一所述训练数据集,将当前文字信息分类模型作为待测试文字信息分类模型。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
所述计算机可读存储介质为实体的、非瞬时性的存储介质,所述计算机可读存储介质可以是前述设备的内部存储单元,例如设备的硬盘或内存等实体存储介质。所述存储介质也可以是所述设备的外部存储设备,例如所述设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等实体存储介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于文本识别的自动答复方法,应用于管理服务器,所述管理服务器与至少一台客户端进行通信,其特征在于,所述方法包括:
根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型,其中,所述文字信息分类模型包括一个长短期记忆网络、一个权重层和一个神经网络;
根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型;
若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息;
根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量;
根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别;
根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
2.根据权利要求1所述的基于文本识别的自动答复方法,其特征在于,所述模型训练规则包括拆分比例信息、参数调整规则及合格率阈值,所述根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型,包括:
根据所述拆分比例信息将所述文字信息数据库所包含的文字特征信息平均拆分为对应数量的训练数据集及测试数据集;
根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型;
将每一所述测试数据集输入所述待测试文字信息分类模型以计算得到所述待测试文字信息分类模型的合格率;
若所述待测试文字信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试文字信息分类模型作为训练后的文字信息分类模型。
3.根据权利要求1所述的基于文本识别的自动答复方法,其特征在于,所述获取与所述待识别信息对应的目标文字信息,包括:
判断所述待识别信息是否为文字信息;
若所述待识别信息不为文字信息,根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息;
若所述待识别信息为文字信息,将所述待识别信息确定为目标文字信息。
4.根据权利要求3所述的基于文本识别的自动答复方法,其特征在于,所述根据预置的语音识别模型对所述待识别信息中的语音信息进行识别以得到与所述待识别信息对应的目标文字信息,包括:
根据所述语音识别模型中的声学模型对所述待识别信息进行切分以得到所述待识别信息中所包含的多个音素;
根据所述语音识别模型中的语音特征词典对所述音素进行匹配以将所述音素转换为拼音信息;
根据所述语音识别模型中的语义解析模型对所述拼音信息进行语义解析以得到与所述待识别信息对应的目标文字信息。
5.根据权利要求1所述的基于文本识别的自动答复方法,其特征在于,所述文字处理规则包括字符筛选规则及字符向量表,所述根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量,包括:
根据所述字符筛选规则对所述目标文字信息进行筛选以得到筛选文字信息;
根据所述预设长度对所述筛选文字信息进行标准化处理以得到待转换文字信息,其中,所述预设长度等于所述长短期记忆网络中细胞的数量;
根据所述字符向量表获取与所述待转换文字信息对应的文字特征向量。
6.根据权利要求1所述的基于文本识别的自动答复方法,其特征在于,所述根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别,包括:
根据所述长短期记忆网络计算得到所述文字特征向量的特征输出信息;
根据所述权重层及所述神经网络对所述特征输出信息进行计算以得到所述特征输出信息与所述文字信息分类模型中每一类别对应的概率值;
将所述文字信息分类模型中概率值最高的类别确定为所述待识别信息的目标分类类别。
7.根据权利要求2所述的基于文本识别的自动答复方法,其特征在于,所述根据所述参数调整规则及多个所述训练数据集对所述文字信息分类模型进行迭代训练以得到待测试文字信息分类模型,包括:
获取第一个所述训练数据集作为目标训练数据集;
根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息;
根据所述权重层及所述神经网络计算得到所述目标训练数据集的准确率;
根据所述参数调整规则及所述目标训练数据集的准确率对所述文字信息分类模型中的参数值进行调整;
判断是否存在下一所述训练数据集;
若存在下一所述训练数据集,将下一所述训练数据集作为目标训练数据集并返回执行步骤根据所述长短期记忆网络计算所述目标训练数据集中每一条文字特征信息对应的记忆网络输出信息;
若不存在下一所述训练数据集,将当前文字信息分类模型作为待测试文字信息分类模型。
8.一种基于文本识别的自动答复装置,其特征在于,包括:
分类模型生成单元,用于根据用户所输入的模型配置信息对预存的分类模板进行配置以生成文字信息分类模型,其中,所述文字信息分类模型包括一个长短期记忆网络、一个权重层和一个神经网络;
分类模型训练单元,用于根据用户所输入的模型训练规则及预存的文字信息数据库对所述文字信息分类模型进行训练以得到训练后的文字信息分类模型;
目标文字信息获取单元,用于若接收到来自客户端的待识别信息,获取与所述待识别信息对应的目标文字信息;
文字特征向量获取单元,用于根据预置的文字处理规则获取所述目标文字信息对应的预设长度的文字特征向量;
目标分类类别获取单元,用于根据训练后的所述文字信息分类模型对所述文字特征向量进行分类以获取与所述待识别信息对应的目标分类类别;
答复信息反馈单元,用于根据预存的语料信息库获取与所述目标分类类别对应的一条语料信息作为答复信息反馈至所述客户端。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于文本识别的自动答复方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至7任一项所述的基于文本识别的自动答复方法。
CN202010476981.2A 2020-05-29 2020-05-29 基于文本识别的自动答复方法、装置、计算机设备 Pending CN111680142A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010476981.2A CN111680142A (zh) 2020-05-29 2020-05-29 基于文本识别的自动答复方法、装置、计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010476981.2A CN111680142A (zh) 2020-05-29 2020-05-29 基于文本识别的自动答复方法、装置、计算机设备

Publications (1)

Publication Number Publication Date
CN111680142A true CN111680142A (zh) 2020-09-18

Family

ID=72453868

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010476981.2A Pending CN111680142A (zh) 2020-05-29 2020-05-29 基于文本识别的自动答复方法、装置、计算机设备

Country Status (1)

Country Link
CN (1) CN111680142A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232353A (zh) * 2020-11-23 2021-01-15 阳光保险集团股份有限公司 识别图像中的文字的方法、装置、电子设备及存储介质
CN112383593A (zh) * 2020-10-30 2021-02-19 中国平安人寿保险股份有限公司 基于线下陪访的智能内容推送方法、装置及计算机设备
CN113342954A (zh) * 2021-06-21 2021-09-03 南京星云数字技术有限公司 一种应用于问答系统的图像信息处理方法、装置及电子设备
CN113596270A (zh) * 2021-08-18 2021-11-02 中国平安财产保险股份有限公司 基于智能语音客服的外呼策略配置方法、装置及设备
CN113868393A (zh) * 2021-09-30 2021-12-31 南方电网数字电网研究院有限公司 一种用于澄清答疑的数据处理方法及装置
CN114983385A (zh) * 2022-05-27 2022-09-02 北京四海汇智科技有限公司 一种通过人体成分检测提供智能营养管理的系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446302A (zh) * 2018-09-25 2019-03-08 中国平安人寿保险股份有限公司 基于机器学习的问答数据处理方法、装置和计算机设备
CN110110040A (zh) * 2019-03-15 2019-08-09 深圳壹账通智能科技有限公司 语言交互方法、装置、计算机设备及存储介质
CN110457469A (zh) * 2019-07-05 2019-11-15 中国平安财产保险股份有限公司 基于长短期记忆网络的信息分类方法、装置、计算机设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446302A (zh) * 2018-09-25 2019-03-08 中国平安人寿保险股份有限公司 基于机器学习的问答数据处理方法、装置和计算机设备
CN110110040A (zh) * 2019-03-15 2019-08-09 深圳壹账通智能科技有限公司 语言交互方法、装置、计算机设备及存储介质
CN110457469A (zh) * 2019-07-05 2019-11-15 中国平安财产保险股份有限公司 基于长短期记忆网络的信息分类方法、装置、计算机设备

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112383593A (zh) * 2020-10-30 2021-02-19 中国平安人寿保险股份有限公司 基于线下陪访的智能内容推送方法、装置及计算机设备
CN112383593B (zh) * 2020-10-30 2023-06-02 中国平安人寿保险股份有限公司 基于线下陪访的智能内容推送方法、装置及计算机设备
CN112232353A (zh) * 2020-11-23 2021-01-15 阳光保险集团股份有限公司 识别图像中的文字的方法、装置、电子设备及存储介质
CN113342954A (zh) * 2021-06-21 2021-09-03 南京星云数字技术有限公司 一种应用于问答系统的图像信息处理方法、装置及电子设备
CN113596270A (zh) * 2021-08-18 2021-11-02 中国平安财产保险股份有限公司 基于智能语音客服的外呼策略配置方法、装置及设备
CN113596270B (zh) * 2021-08-18 2023-02-14 中国平安财产保险股份有限公司 基于智能语音客服的外呼策略配置方法、装置及设备
CN113868393A (zh) * 2021-09-30 2021-12-31 南方电网数字电网研究院有限公司 一种用于澄清答疑的数据处理方法及装置
CN114983385A (zh) * 2022-05-27 2022-09-02 北京四海汇智科技有限公司 一种通过人体成分检测提供智能营养管理的系统
CN114983385B (zh) * 2022-05-27 2023-03-10 北京四海汇智科技有限公司 一种通过人体成分检测提供智能营养管理的系统

Similar Documents

Publication Publication Date Title
CN111680142A (zh) 基于文本识别的自动答复方法、装置、计算机设备
CN111694938B (zh) 基于情绪识别的答复方法、装置、计算机设备及存储介质
WO2020238061A1 (zh) 自然语言分类方法、装置、计算机设备以及存储介质
US20210365963A1 (en) Target customer identification method and device, electronic device and medium
WO2021218069A1 (zh) 基于场景动态配置的交互处理方法、装置、计算机设备
CN110457469B (zh) 基于长短期记忆网络的信息分类方法、装置、计算机设备
CN113240510B (zh) 异常用户预测方法、装置、设备及存储介质
CN111507573A (zh) 业务员考核方法、系统、设备及存储介质
KR102030551B1 (ko) 인스턴트 메신저 구동 장치 및 그 동작 방법
CN111128160A (zh) 基于语音识别的单据修改方法、装置、计算机设备
CN115859128B (zh) 一种基于档案数据交互相似度的分析方法和系统
CN112131322A (zh) 时间序列分类方法及装置
CN112948823A (zh) 一种数据泄露风险评估方法
CN117312641A (zh) 智能获取信息的方法、装置、设备及存储介质
CN115905648B (zh) 基于高斯混合模型的用户群和金融用户群分析方法及装置
CN117786087A (zh) 信息抽取方法、装置、设备及存储介质
CN111522937B (zh) 话术推荐方法、装置和电子设备
CN113111658A (zh) 校验信息的方法、装置、设备和存储介质
CN110837843B (zh) 信息分类方法、装置、计算机设备及存储介质
CN112800230B (zh) 文本处理方法、装置、计算机可读存储介质及电子设备
US11790411B1 (en) Complaint classification in customer communications using machine learning models
JP2020071737A (ja) 学習方法、学習プログラム及び学習装置
CN112328871B (zh) 一种基于rpa模块的回复生成方法、装置、设备及存储介质
CN113806541A (zh) 情感分类的方法和情感分类模型的训练方法、装置
CN110704619B (zh) 文本分类方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination