CN114091447A - 一种文本识别方法、装置和设备 - Google Patents
一种文本识别方法、装置和设备 Download PDFInfo
- Publication number
- CN114091447A CN114091447A CN202010858596.4A CN202010858596A CN114091447A CN 114091447 A CN114091447 A CN 114091447A CN 202010858596 A CN202010858596 A CN 202010858596A CN 114091447 A CN114091447 A CN 114091447A
- Authority
- CN
- China
- Prior art keywords
- word
- text
- network model
- neural network
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例涉及文本分析和信息提取技术领域,公开了一种文本识别方法、装置和设备,所述方法包括:获取文本数据;将所述文本数据进行分词处理;根据所述处理后的分词生成对应的词频数据;根据所述词频数据和所述拆分后的分词生成共现矩阵;根据所述共现矩阵通过词向量生成模型生成词向量;将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;所述神经网络模型根据所述句向量对所述文本进行识别。通过上述方式,本发明实施例提高了文本识别的效率。
Description
技术领域
本发明实施例涉及文本分析和信息提取领域技术领域,具体涉及一种文本识别方法、装置和设备。
背景技术
随着电信业、银行等逐步进入智能化时代,机器人替代人工处理信息服务在行业中的业务处理量大幅攀升,运营商开始逐步使用智能化工具处理录音质检等业务。在现有技术中,通常使用语音转写文本系统将客服系统通话转写为文本,对文本关键字搜索或者添加配置建单的正则表达式进行筛选。
现有的质检业务处理方案,其实现流程如图1所示,将语音撰写成文本以后,配置筛选规则,然后根据筛选规则遍历需要筛选的撰写文本,获取满足筛选条件的文本信息和数量。现有技术中,配置的质检模型是一套简化的正则表达式,只能按照指定的关键字检索。搜索内容为通话转写成的文本。由于口语的随机性和转写有一定的错误率,关键字指定模糊会得到大量错误内容,指定准确无法检索出全部内容。同时,由于现有的方案中需要根据指定业务或问题配置相应的模型,而实际中,由于业务发展,每天的投诉、咨询等问题数量庞大,理论上需要配置所有问题的模型,在实际中,由于工作量和问题的随机性根本无法实现。
发明内容
鉴于上述问题,本发明实施例提供了一种文本识别方法,所述方法包括:
获取文本数据;
将所述文本数据进行分词处理;
根据所述处理后的分词生成对应的词频数据;
根据所述词频数据和所述处理后的分词生成共现矩阵;
根据所述共现矩阵通过词向量生成模型生成词向量;
将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
所述神经网络模型根据所述句向量对所述文本进行识别。
进一步的,所述神经网络模型为动态记忆网络模型。
进一步的,所述将所述文本数据进行分词处理,包括:
对所述文本数据进行分词拆分;
从所述拆分后的分词中提取关键词;
对所述关键词进行词性标注。
进一步的,所述神经网络模型将所述词向量转换为句向量,进一步包括:
对所述神经网络模型中的权值进行优化。
进一步的,所述对所述神经网络模型中的权值进行优化,包括:
调整高频词的出现次数;
根据所述高频词的出现次数调整所述句向量的权值。
进一步的,所述将所述词向量输入训练后的神经网络模型,包括:
采用双边门开关递归网络对所述词向量进行处理;
将所述权值系数较高的句向量优先输入所述神经网络模型。
进一步的,所述神经网络模型包括:输入模块、问题模块、片段记忆模块和回答模块;
所述神经网络模型根据所述句向量对所述文本进行识别,包括:
向所述输入模块输入普通句向量;
向所述问题模块输入问题句向量;
所述片段记忆模块根据所述普通句向量和问题句向量输出问题答案给所述回答模块,当所述问题答案为多个时,则将所述多个答案进行存储。
根据本发明实施例的另一个方面,提供了一种文本识别装置,所述装置包括:
文本获取模块:用于获取文本数据;
分词处理模块:用于将所述文本数据进行分词处理;
词频数据生成模块:用于根据所述处理后的分词生成对应的词频数据;
共现矩阵生成模块:用于根据所述词频数据和所述处理后的分词生成共现矩阵;
词向量生成模块:用于根据所述共现矩阵通过词向量生成模型生成词向量;
句向量生成模块:用于将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
文本识别模块:用于使所述神经网络模型根据所述句向量对所述文本进行识别。
根据本发明实施例的另一个方面,提供了一种文本识别设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行所述的文本识别方法。
根据本发明实施例的另一方面,提供了一种一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令在文本识别设备上运行时,使得文本识别设备执行所述的文本识别方法。
综上所述,本发明实施例通过将文本数据进行分词处理,生成共现矩阵,通过训练后的神经网络模型将词向量转换为句向量,并根据所述句向量对所述文本进行识别,提高了文本识别的效率,可对工单内容和客户通话内容进行分析理解,从中提取客户的投诉业务、投诉原因、客户诉求、来电原因等有价值的关键性信息并对客户历史通话进行分析总结并标签化,对客户的语言习惯,性格特点简单的总结,使得坐席人员可以针对客户标签,为其提供专属的服务。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了现有技术中的文本处理流程示意图;
图2示出了本发明实施例提供的文本识别方法的流程示意图;
图3示出了本发明实施例提供的动态记忆网络模型的通用问答系统架构;
图4示出了本发明实施例提供的动态记忆网络模型文本输入模型;
图5示出了本发明实施例提供的文本识别装置结构图;
图6示出了本发明实施例提供的文本识别设备结构图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。
在实际应用中,比如客服系统或者用户投诉系统中,需要客服人员与用户进行交流,这些交流记录具有海量的信息,如何快速高效的从这些海量的交流信息中,识别出有用的信息,如:投诉业务、投诉原因、客户诉求、来电原因等信息,是本发明实施例要达到的目的。
图2示出了本发明提出的文本识别方法实施例的流程图,该方法由服务器设备执行,运行于计算机服务器上。如图2所示,该方法包括以下步骤:
步骤201:获取文本数据;
在系统的前端,通过获取客户的咨询或投诉信息,通过语音识别技术将所述语音信息转换文本数据信息。
步骤202:将所述文本数据进行分词处理;
对获取的文本数据进行分词拆分,从所述拆分后的分词中提取关键词,对所述关键词进行词性标注。
所述对分词的拆分,可以采用多种方式,本发明实施例中,可以采用最大概率分词(MP)、隐马尔科夫模型(HMM),或者将最大概率分词和隐马尔科夫模型相结合进行分词的拆分,可以采用精确模式、全模式以及搜索引擎模式进行分词拆分,三种方式分别适用于不同的场景和需求,在这里不再赘述。
所述从拆分后的分词中提取关键词,本发明实施例采用TF-IDF和TextRank两种算法进行关键词的提取。所述TF-IDF算法包括词频和逆文档频率,所述词频即为一个词语在单个文档中出现的次数,逆文档频率是一个词语普遍度的度量,通过TF-IDF算法,可以提取出高权重的词语。TF-IDF提供了接近26万词语的IDF,而对于某些词的出现频率特别高,但是对于文档来说没有什么实在意义的词,比如:“的”、“呢”等,TF-IDF采用停词的方式进行处理。所述TextRank算法通过在做文本的关键词提取时,首先在给定的共现窗口内根据词语之间的共现关系建立链接关系图,图中的每个节点代表每个节点,每条边的权重标示词语出现的次数,然后根据词语之间链接关系图,迭代计算每个词语的权重值,根据权重值选出文本中权重值大的几个关键词。
在本发明实施例中,词性标注实现过程是基于词典的查询,词典中存有大约35万词汇的词性。单个词语的词性标注,直接查询词典,词典中不存在一个词语多个词性的问题。词典没有的词语,根据词语的特点的简单的标注为数字(m),英文(eng),以及x。对于整个句子的词性标注是用分词算法分词,然后用上述单个词语词性标注的方法逐个标注词性。
步骤203:根据所述处理后的分词生成对应的词频数据;
根据步骤202中的处理后的分词,获取各个分词出现的次数,将其作为该分词的词频数据。
步骤204:根据所述词频数据和所述拆分后的分词生成共现矩阵;
在本发明实施例中,通过共现矩阵训练生成包含词间关系的词义向量,最终生成词-词向量对应词典。
设共现矩阵为X,其元素为Xi,j,其中Xi,j为在语料库中,单词i和单词j共同出现在一个窗口中的次数,所述语料库即为输入的处理后的分词数据。关于共现矩阵,假设有语料库:I love you but you love him i am sad,这个语料库有1个句子,7个单词:I、love、you、but、him、am、sad,窗口宽度为5(左右长度为2)的统计窗口,那么就有以下窗口内容,如下表所示:
表1
窗口标号 | 中心词 | 窗口内容 |
0 | I | i love you |
1 | Love | i love you but |
2 | You | i love you but you |
3 | But | love you but you love |
4 | You | you but you love him |
5 | Love | but you love him i |
6 | Him | you love him i am |
7 | I | love him i am sad |
8 | Am | him i am sad |
9 | sad | i am sad |
假设中心词为love,语境词为but、you、him、i;则执行:
Xlove,but+=1
Xlove,you+=1
Xlove,him+=1
Xlove,i+=1
使用窗口将整个语料库遍历一遍,即可得到共现矩阵X。
步骤205:根据所述共现矩阵通过词向量生成模型生成词向量;
生成共现矩阵后,将所述共现矩阵输入词向量生成模型GloVe模型生成词向量,具体的生成方式在这里不再赘述。
步骤206:将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
在本发明实施例中采用动态记忆网络模型DMN作为神经网络模型,对所述文本进行处理。所述动态记忆网络模型是可以端到端训练的通用问答系统框架,包含“输入模块,问题模块,片段记忆模块,回答模块”。DMN+输入模块是指逐句读入输入,将多个词向量合并为一个句向量交给GRU。片段记忆模块是根据之前记忆、问题模块输出和输入模块输出使用注意机制的门网络来更新当前记忆。回答模块是连接片段记忆最终输出和问题模块输出来生成最终网络的输出。如图3所示为动态记忆网络模型的通用问答系统框架。
输入模块:将原生文本输入编码成分布式向量表示,输入可以是一个句子、一个故事、电影评论、新闻文章或者维基百科文章等;
问题模块:同输入模块类似,但输入是问题.,输出结果发送给片段记忆模块;
片段记忆模块:通过关注机制决定关注输入数据的那些部分,并根据之前的记忆和问题产生新的记忆;
回答模块:根据最终记忆,产生问题的答案。
在本发明实施例中,对动态记忆网络模型中的权值进行优化,在任何训练模型中,通过词向量形成的矩阵来确定最终的输出结果的,即最终的文本提取结果。所述权值优化的概念即为多个目标函数,对应权重系数,权重系数的大小会影响系统的运行结果。在本文中的应用即为词向量词典中的索引。举个例子,在GloVe模型中,将输入的信息转化为词向量后,动态记忆网络模型函数会对将GloVe模型的输入作为输出进行问答训练。动态记忆网络模型函数的输入是将词向量合并为句向量之后进行输入的,权值的作用在这里,具体功能实现,即为调整高频词的出现次数调整句向量的有效性。举个例子,在宽带业务中,“带宽”、“路由器”等词语作为中心词形成的句向量显然比“的”、“我们”之类的词语更具意义。在调整句向量的权重之后,可以避免无效句向量输入。通过采用上述具有问答系统框架的动态记忆网络模型使得对所述文本数据的的分析更为准确和全面。
更进一步的,不同于其它的神经网络,本申请实施例采用的动态记忆网络模型可以使用句向量合并来避免门开关网络记忆过短问题。同时,使用双边门开关递归网络对所述词向量进行处理,将所述权值系数较高的句向量优先输入所述动态记忆网络模型,从而避免文本读取顺序问题,较其它神经网络模型有很大的优越性。递归算法是指一种通过重复将问题分解为同类的子问题而解决问题的方法。简单说,递归算法的实质是把问题分解成规模缩小的同类问题的子问题,然后递归调用方法来表示问题的解。在本文中的应用,即为,句向量作为输入的时候,动态记忆网络不对输入做筛选,我们就通过对权值系数较高的句向量进行优先输入。
如图4所示,为动态记忆网络模型采用的文本输入模型,包括:句子阅读器、输入融合层和输出层,所述文本输入模型通过为止编码器将词向量转化为句向量输入GRU单元进行处理。
步骤207:所述神经网络模型根据所述句向量对所述文本进行识别。
根据动态记忆网络模型,向所述输入模块输入普通句向量;向所述问题模块输入问题句向量;所述片段记忆模块根据所述普通句向量和问题句向量输出问题答案给所述回答模块,当所述问题答案为多个时,则将所述多个答案进行存储。
在实际中,不同于工单内容的主题单一的情况,通话的内容较复杂,一通通话通常有多个主题,原有的动态记忆网络模型不能对多主题进行总结,或者可能存在对输出结果理解不对的情况。为了避免信息的丢失,本发明实施例通过在动态记忆网络的中间队列中,添加队列来保存片段记忆模块的中间输出来解决文本中可能出现多个答案的情况,从而规避了信息丢失的问题。另外,修改了词向量合成句向量算法、增加词向量维度来优化合并长句成句向量后出现的信息丢失问题。
综上所述,本发明实施例通过将文本数据进行分词处理,生成共现矩阵,通过训练后的神经网络模型将词向量转换为句向量,并根据所述句向量对所述文本进行识别,提高了文本识别的效率,可对工单内容和客户通话内容进行分析理解,从中提取客户的投诉业务、投诉原因、客户诉求、来电原因等有价值的关键性信息并对客户历史通话进行分析总结并标签化,对客户的语言习惯,性格特点简单的总结,使得坐席人员可以针对客户标签,为其提供专属的服务。
图5示出了本发明提出的文本识别装置实施例的结构示意图。如图5所示,该文本识别装置500包括:文本获取模块501、分词处理模块502、词频数据生成模块503、共现矩阵生成模块504、词向量生成模块505、句向量生成模块506和文本识别模块507;
文本获取模块501:用于获取文本数据;
分词处理模块502:用于将所述文本数据进行分词处理;
词频数据生成模块503:用于根据所述处理后的分词生成对应的词频数据;
共现矩阵生成模块504:用于根据所述词频数据和所述拆分后的分词生成共现矩阵;
词向量生成模块505:用于根据所述共现矩阵通过词向量生成模型生成词向量;
句向量生成模块506:用于将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
文本识别模块507:用于使所述神经网络模型根据所述句向量对所述文本进行识别。
进一步的,所述神经网络模型为动态记忆网络模型。
进一步的,所述分词处理模块502还用于对所述文本数据进行分词拆分;从所述拆分后的分词中提取关键词;对所述关键词进行词性标注。
进一步的,所述词向量生成模块505还用于对所述神经网络模型中的权值进行优化。
进一步的,所述词向量生成模块505还用于调整高频词的出现次数;根据所述高频词的出现次数调整所述句向量的权值。
进一步的,所述句向量生成模块506还用于采用双边门开关递归网络对所述词向量进行处理;将所述权值系数较高的句向量优先输入所述神经网络模型。
进一步的,所述神经网络模型包括:输入模块、问题模块、片段记忆模块和回答模块;所述文本识别模块507还用于向所述输入模块输入普通句向量;向所述问题模块输入问题句向量;所述片段记忆模块根据所述普通句向量和问题句向量输出问题答案给所述回答模块,当所述问题答案为多个时,则将所述多个答案进行存储。
综上所述,本发明实施例通过将文本数据进行分词处理,生成共现矩阵,通过训练后的神经网络模型将词向量转换为句向量,并根据所述句向量对所述文本进行识别,提高了文本识别的效率,可对工单内容和客户通话内容进行分析理解,从中提取客户的投诉业务、投诉原因、客户诉求、来电原因等有价值的关键性信息并对客户历史通话进行分析总结并标签化,对客户的语言习惯,性格特点简单的总结,使得坐席人员可以针对客户标签,为其提供专属的服务。
图6示出了本发明提供的文本识别设备实施例的结构示意图,本发明具体实施例并不对文本识别设备的具体实现做限定。
如图6所示,该文本识别设备可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。处理器602,用于执行程序610,具体可以执行上述用于文本识别方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机可执行指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。文本识别设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610具体可以被处理器602调用使文本识别设备执行以下操作:
获取文本数据;
将所述文本数据进行分词处理;
根据所述处理后的分词生成对应的词频数据;
根据所述词频数据和所述拆分后的分词生成共现矩阵;
根据所述共现矩阵通过词向量生成模型生成词向量;
将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
所述神经网络模型根据所述句向量对所述文本进行识别。
进一步的,所述神经网络模型为动态记忆网络模型。
进一步的,所述将所述文本数据进行分词处理,包括:
对所述文本数据进行分词拆分;
从所述拆分后的分词中提取关键词;
对所述关键词进行词性标注。
进一步的,所述神经网络模型将所述词向量转换为句向量,进一步包括:
对所述神经网络模型中的权值进行优化。
进一步的,所述对所述神经网络模型中的权值进行优化,包括:
调整高频词的出现次数;
根据所述高频词的出现次数调整所述句向量的权值。
进一步的,所述将所述词向量输入训练后的神经网络模型,包括:
采用双边门开关递归网络对所述词向量进行处理;
将所述权值系数较高的句向量优先输入所述神经网络模型。
进一步的,所述神经网络模型包括:输入模块、问题模块、片段记忆模块和回答模块;
所述神经网络模型根据所述句向量对所述文本进行识别,包括:
向所述输入模块输入普通句向量;
向所述问题模块输入问题句向量;
所述片段记忆模块根据所述普通句向量和问题句向量输出问题答案给所述回答模块,当所述问题答案为多个时,则将所述多个答案进行存储。
综上所述,本发明实施例通过将文本数据进行分词处理,生成共现矩阵,通过训练后的神经网络模型将词向量转换为句向量,并根据所述句向量对所述文本进行识别,提高了文本识别的效率,可对工单内容和客户通话内容进行分析理解,从中提取客户的投诉业务、投诉原因、客户诉求、来电原因等有价值的关键性信息并对客户历史通话进行分析总结并标签化,对客户的语言习惯,性格特点简单的总结,使得坐席人员可以针对客户标签,为其提供专属的服务。
本发明实施例提供了一种计算机可读存储介质,所述存储介质存储有至少一可执行指令,该可执行指令在文本识别设备/装置上运行时,使得所述文本识别设备/装置执行上述任意方法实施例中的文本识别方法。
可执行指令具体可以用于使得文本识别设备/装置执行以下操作:
获取文本数据;
将所述文本数据进行分词处理;
根据所述处理后的分词生成对应的词频数据;
根据所述词频数据和所述拆分后的分词生成共现矩阵;
根据所述共现矩阵通过词向量生成模型生成词向量;
将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
所述神经网络模型根据所述句向量对所述文本进行识别。
进一步的,所述神经网络模型为动态记忆网络模型。
进一步的,所述将所述文本数据进行分词处理,包括:
对所述文本数据进行分词拆分;
从所述拆分后的分词中提取关键词;
对所述关键词进行词性标注。
进一步的,所述神经网络模型将所述词向量转换为句向量,进一步包括:
对所述神经网络模型中的权值进行优化。
进一步的,所述对所述神经网络模型中的权值进行优化,包括:
调整高频词的出现次数;
根据所述高频词的出现次数调整所述句向量的权值。
进一步的,所述将所述词向量输入训练后的神经网络模型,包括:
采用双边门开关递归网络对所述词向量进行处理;
将所述权值系数较高的句向量优先输入所述神经网络模型。
进一步的,所述神经网络模型包括:输入模块、问题模块、片段记忆模块和回答模块;
所述神经网络模型根据所述句向量对所述文本进行识别,包括:
向所述输入模块输入普通句向量;
向所述问题模块输入问题句向量;
所述片段记忆模块根据所述普通句向量和问题句向量输出问题答案给所述回答模块,当所述问题答案为多个时,则将所述多个答案进行存储。
综上所述,本发明实施例通过将文本数据进行分词处理,生成共现矩阵,通过训练后的神经网络模型将词向量转换为句向量,并根据所述句向量对所述文本进行识别,提高了文本识别的效率,可对工单内容和客户通话内容进行分析理解,从中提取客户的投诉业务、投诉原因、客户诉求、来电原因等有价值的关键性信息并对客户历史通话进行分析总结并标签化,对客户的语言习惯,性格特点简单的总结,使得坐席人员可以针对客户标签,为其提供专属的服务。
本发明实施例提供了一种计算机程序,所述计算机程序可被处理器调用使文本识别设备执行上述任意方法实施例中的文本识别方法。
本发明实施例提供了一种计算机程序产品,计算机程序产品包括存储在计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令在计算机上运行时,使得所述计算机执行上述任意方法实施例中的文本识别方法。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (10)
1.一种文本识别方法,其特征在于,所述方法包括:
获取文本数据;
将所述文本数据进行分词处理;
根据所述处理后的分词生成对应的词频数据;
根据所述词频数据和所述处理后的分词生成共现矩阵;
根据所述共现矩阵通过词向量生成模型生成词向量;
将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
所述神经网络模型根据所述句向量对所述文本进行识别。
2.如权利要求1所述的文本识别方法,其特征在于,所述神经网络模型为动态记忆网络模型。
3.如权利要求2所述的文本识别方法,其特征在于,所述将所述文本数据进行分词处理,包括:
对所述文本数据进行分词拆分;
从所述拆分后的分词中提取关键词;
对所述关键词进行词性标注。
4.如权利要求3所述的文本识别方法,其特征在于,所述神经网络模型将所述词向量转换为句向量,进一步包括:
对所述神经网络模型中的权值进行优化。
5.如权利要求4所述的文本识别方法,其特征在于,所述对所述神经网络模型中的权值进行优化,包括:
调整高频词的出现次数;
根据所述高频词的出现次数调整所述句向量的权值。
6.如权利要求5所述的文本识别方法,其特征在于,所述将所述词向量输入训练后的神经网络模型,包括:
采用双边门开关递归网络对所述词向量进行处理;
将所述权值系数较高的句向量优先输入所述神经网络模型。
7.如权利要求3所述的文本识别方法,其特征在于,所述神经网络模型包括:输入模块、问题模块、片段记忆模块和回答模块;
所述神经网络模型根据所述句向量对所述文本进行识别,包括:
向所述输入模块输入普通句向量;
向所述问题模块输入问题句向量;
所述片段记忆模块根据所述普通句向量和问题句向量输出问题答案给所述回答模块,当所述问题答案为多个时,则将所述多个答案进行存储。
8.一种文本识别装置,其特征在于,所述装置包括:
文本获取模块:用于获取文本数据;
分词处理模块:用于将所述文本数据进行分词处理;
词频数据生成模块:用于根据所述处理后的分词生成对应的词频数据;
共现矩阵生成模块:用于根据所述词频数据和所述处理后的分词生成共现矩阵;
词向量生成模块:用于根据所述共现矩阵通过词向量生成模型生成词向量;
句向量生成模块:用于将所述词向量输入训练后的神经网络模型,所述神经网络模型将所述词向量转换为句向量;
文本识别模块:用于使所述神经网络模型根据所述句向量对所述文本进行识别。
9.一种文本识别设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7任意一项所述的文本识别方法。
10.一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令在文本识别设备上运行时,使得文本识别设备执行如权利要求1-7任意一项所述的文本识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010858596.4A CN114091447A (zh) | 2020-08-24 | 2020-08-24 | 一种文本识别方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010858596.4A CN114091447A (zh) | 2020-08-24 | 2020-08-24 | 一种文本识别方法、装置和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114091447A true CN114091447A (zh) | 2022-02-25 |
Family
ID=80295570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010858596.4A Pending CN114091447A (zh) | 2020-08-24 | 2020-08-24 | 一种文本识别方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114091447A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359867A (zh) * | 2022-09-06 | 2022-11-18 | 中国电信股份有限公司 | 电子病历分类方法、装置、电子设备及存储介质 |
-
2020
- 2020-08-24 CN CN202010858596.4A patent/CN114091447A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359867A (zh) * | 2022-09-06 | 2022-11-18 | 中国电信股份有限公司 | 电子病历分类方法、装置、电子设备及存储介质 |
CN115359867B (zh) * | 2022-09-06 | 2024-02-02 | 中国电信股份有限公司 | 电子病历分类方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI732271B (zh) | 人機對話方法、裝置、電子設備及電腦可讀媒體 | |
JP7346609B2 (ja) | 自然言語理解(nlu)フレームワークを使用して意味探索を実行するシステムおよび方法 | |
CN108304468B (zh) | 一种文本分类方法以及文本分类装置 | |
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
US8972408B1 (en) | Methods, systems, and articles of manufacture for addressing popular topics in a social sphere | |
CN111143576A (zh) | 一种面向事件的动态知识图谱构建方法和装置 | |
CN110765759B (zh) | 意图识别方法及装置 | |
WO2020056154A1 (en) | Systems and methods for generating and using knowledge graphs | |
US11709989B1 (en) | Method and system for generating conversation summary | |
CN111177350A (zh) | 智能语音机器人的话术形成方法、装置和系统 | |
CN117370378A (zh) | 自然语言转化为数据库语句的方法、装置、设备及介质 | |
CN116628173A (zh) | 一种基于关键字提取的智能客服信息生成系统及生成方法 | |
CN113590778A (zh) | 智能客服意图理解方法、装置、设备及存储介质 | |
Alexandridis et al. | A knowledge-based deep learning architecture for aspect-based sentiment analysis | |
CN115827819A (zh) | 一种智能问答处理方法、装置、电子设备及存储介质 | |
CN117708274A (zh) | 一种基于大模型的搜索问答系统及其方法和电子设备 | |
JP2020135135A (ja) | 対話コンテンツ作成支援方法およびシステム | |
CN114416979A (zh) | 一种文本查询方法、设备和存储介质 | |
EP3994589A1 (en) | System, apparatus and method of managing knowledge generated from technical data | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN112380866A (zh) | 一种文本话题标签生成方法、终端设备及存储介质 | |
CN113239204A (zh) | 文本分类方法及装置、电子设备、计算机可读存储介质 | |
Gapanyuk et al. | The hybrid chatbot system combining Q&A and knowledge-base approaches | |
CN117633141A (zh) | 业务知识检索库构建方法、装置、电子设备及存储介质 | |
CN114091447A (zh) | 一种文本识别方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |