CN113343711B - 工单生成方法、装置、设备及存储介质 - Google Patents
工单生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113343711B CN113343711B CN202110727370.5A CN202110727370A CN113343711B CN 113343711 B CN113343711 B CN 113343711B CN 202110727370 A CN202110727370 A CN 202110727370A CN 113343711 B CN113343711 B CN 113343711B
- Authority
- CN
- China
- Prior art keywords
- text information
- inputting
- information
- semantic
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000013145 classification model Methods 0.000 claims abstract description 32
- 238000003062 neural network model Methods 0.000 claims description 68
- 239000013598 vector Substances 0.000 claims description 58
- 230000015654 memory Effects 0.000 claims description 33
- 238000011176 pooling Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000002457 bidirectional effect Effects 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000007635 classification algorithm Methods 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0281—Customer communication at a business location, e.g. providing product or service information, consulting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- General Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Public Health (AREA)
- Databases & Information Systems (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Water Supply & Treatment (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Tourism & Hospitality (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本申请涉及一种工单生成方法、装置、设备及存储介质,所述方法包括:获取用户与客服之间进行通话的文本信息;将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息;将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别;根据语义信息及业务类别,生成文本信息对应的工单。本申请实施例提供的技术方案可以提高生成工单的准确性。
Description
技术领域
本申请涉及电网技术领域,特别是涉及一种工单生成方法、装置、设备及存储介质。
背景技术
随着智能电网的发展,用户在使用电力资源的过程中遇到问题时,可以通过拨打电网客服电话进行多种业务咨询。用户在语音接入后与客服对话的过程中,客服不仅需要回复用户咨询的问题,还需要将本次通话的信息填写进工单(工作单据)中,为了有效提升客服填写工单的效率与服务质量,需要为客服提供一个智能填写工单的功能。
目前,在实现智能生成工单时,通常是采用基于条件随机场的实体识别算法对本次通话的信息进行实体识别,得到用户信息;再采用基于机器学习的文本分类算法对本次通话的信息进行进行文本分类,从而将本次通话的信息归类到某一类业务中,最后根据实体识别的结果与文本分类的结果填写工单信息,从而生成工单。
然而,现有的方法在生成工单时,由于基于条件随机场的实体识别算法以及基于机器学习的文本分类算法均存在准确率低的问题,从而使得工单生成的准确率低。
发明内容
基于此,本申请实施例提供了一种工单生成方法、装置、设备及存储介质,可以提高生成工单的准确性。
第一方面,提供了一种工单生成方法,该方法包括:
获取用户与客服之间进行通话的文本信息;将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息;将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别;根据语义信息及业务类别,生成文本信息对应的工单。
在其中一个实施例中,将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别,包括:
确定语义信息所属的第一类别;基于第一类别的数量,确定与第一类别的数量对应的第一目标神经网络模型;将语义信息输入至与第一目标神经网络模型中,得到文本信息所属的业务类别。
在其中一个实施例中,将语义信息输入至与第一目标神经网络模型中,得到文本信息所属的业务类别,包括:
若第一类别的数量为一个,则将语义信息输入至文本神经网络模型中,得到文本信息所属的业务类别;若第一类别的数量为多个,则将语义信息输入至深度神经网络模型中,得到文本信息所属的业务类别。
在其中一个实施例中,将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息,包括:
将文本信息输入至基于变换器的双向编码器中,得到文本信息对应的词向量;将词向量输入至双向长短期记忆神经网络中,得到词向量之间的语义关系对应的特征向量;将词向量及特征向量输入至条件随机场中,得到文本信息对应的实体及实体的标签。
在其中一个实施例中,上述方法还包括:
将文本信息输入至预设的业务分类模型中,确定文本信息对应的业务类别。
在其中一个实施例中,上述方法还包括:
确定文本信息所属的第二类别;基于第二类别的数量,确定与第二类别的数量对应的第二目标神经网络模型;将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别。
在其中一个实施例中,将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别,包括:
将文本信息输入至卷积层进行卷积处理,生成文本信息对应的语义信息;将语义信息输入至池化层进行池化处理,生成池化处理后的语义信息;将池化处理后的语义信息输入至全连接层进行处理,生成文本信息对应的业务类别。
第二方面,提供了一种工单生成装置,该装置包括:
获取模块,用于获取用户与客服之间进行通话的文本信息;
计算模块,用于将所述文本信息输入至预设的语义识别模型中,计算得到所述文本信息对应的语义信息;
第一确定模块,用于将所述语义信息输入至预设的业务分类模型中,确定所述文本信息对应的业务类别;
第一生成模块,用于根据所述语义信息及所述业务类别,生成所述文本信息对应的工单。
第三方面,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时实现上述第一方面任一实施例中的方法步骤。
第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述第一方面任一实施例中的方法步骤。
上述工单生成方法、装置、设备及存储介质,通过获取用户与客服之间进行通话的文本信息;将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息;将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别;根据语义信息及业务类别,生成文本信息对应的工单。在本申请实施例提供的技术方案中,由于预设的语义识别模型是经过文本信息和语义信息训练得到的,将文本信息输入至预设的语义识别模型中,可以得到准确的语义信息,并且,预设的业务分类模型是经过语义信息和业务类别训练得到的,通过将语义信息输入至预设的业务分类模型中,可以得到文本信息对应的准确业务类别,从而根据语义信息及业务类别能够准确的生成文本信息对应的工单。
附图说明
图1为本申请实施例提供的一种计算机设备的框图;
图2为本申请实施例提供的一种工单生成方法的流程图;
图3为本申请实施例提供的一种文本信息传递的示意图;
图4为本申请实施例提供的一种工单生成方法的流程图;
图5为本申请实施例提供的一种TextCNN模型的网络结构示意图;
图6为本申请实施例提供的一种工单生成方法的流程图;
图7为本申请实施例提供的一种BERT-Bi-LSTM-CRF组合模型的示意图;
图8为本申请实施例提供的一种工单生成方法的流程图;
图9为本申请实施例提供的一种工单生成方法的流程图;
图10为本申请实施例提供的一种工单生成装置的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请提供的工单生成方法可以应用于计算机设备中,计算机设备可以是服务器,也可以是终端,其中,服务器可以为一台服务器也可以为由多台服务器组成的服务器集群,本申请实施例对此不作具体限定,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。
以计算机设备是服务器为例,图1示出了一种服务器的框图,如图1所示,服务器可以包括通过系统总线连接的处理器和存储器。其中,该服务器的处理器用于提供计算和控制能力。该服务器的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序以及数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机程序被处理器执行时以实现一种工单生成方法。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的服务器的限定,可选地服务器可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
需要说明的是,本申请实施例的执行主体可以是计算机设备,也可以是工单生成装置,下述方法实施例中就以计算机设备为执行主体进行说明。
在一个实施例中,如图2所示,其示出了本申请实施例提供的一种工单生成方法的流程图,该方法可以包括以下步骤:
步骤220、获取用户与客服之间进行通话的文本信息。
其中,用户在语音接入后与客服通话的过程中,可以通过语音监听系统实时监听通话语音信息,在得到语音信息后,可以通过语音转文本技术将语音信息转换为文本信息,从而可以获取到用户与客服之间进行通话的文本信息。通常,客服使用的系统可以称作前端系统,前端系统发出文本信息处理请求后,可以通过调用API模块将文本信息传给后端系统进行处理,经过后端系统处理后的处理结果还可以通过调用API模块返回给前端系统,如图3所示,图3为本申请实施例提供的一种文本信息传递的示意图,其中,算法模块为后端系统中的模块,可以包括实体识别算法模块和文本分类算法模块,实体识别算法模块用于对文本信息进行语义识别,文本分类算法模块用于对文本信息进行业务分类。其中,API模块可以通过Django进行开发,Django是一个开放源代码的Web应用框架,由Python写成,其采用了MVT的软件设计模式,即包括模型(Model)、视图(View)和模板(Template)。
步骤240、将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息。
其中,预设的语义识别模型是用于计算语义信息的模型,语义识别模型可以是根据文本信息以及文本信息对应的语义信息训练得到的。预设的语义识别模型训练好后,可以将获取到的文本信息输入至预设的语义识别模型中,从而经过计算后,输出文本信息对应的语义信息。预设的语义识别模型可以是条件随机场(Conditional Random Field,CRF)模型,也可以是与条件随机场模型组合的模型,例如,与条件随机场模型组合的模型可以是将基于变换器的双向编码器(Bidirectional Encoder Representations fromTransformers,BERT)、长短期记忆网络(Long Short-Term Memory,LSTM)、双向长短期记忆网络(Bi-LSTM)等模型中的一个或多个。
CRF模型是一种鉴别式机率模型,是随机场的一种,常用于标注或分析序列数据,如自然语言文字或是生物序列。如同马尔可夫随机场,条件随机场为无向图模型,顶点代表随机变量,顶点间的连接代表随机变量间的相依关系,在条件随机场当中,随机变量Y的分布为条件机率,给定的观察值则为随机变量X。原则上,条件随机场的图模型布局是可以任意给定的,一般常用的布局是链结式的架构,链结式架构不论在训练(training)、推论(inference)、或是解碼(decoding)上,都存在有效率的算法可供演算。BERT模型是用于自然语言处理的预训练模型,包括两种类型的预训练模型:BERTBASE模型和BERTLARGE模型,其中,BERTBASE模型包括一个12层,768维,12个自注意头(self attention head),110M参数的神经网络结构;BERTLARGE模型包括一个24层,1024维,16个自注意头,340M参数的神经网络结构。LSTM模型是由t时刻的输入、细胞状态、临时细胞状态、隐层状态、遗忘门、记忆门以及输出门组成,LSTM的计算过程可以概括为:通过对细胞状态中信息遗忘和记忆新的信息,使得对后续时刻计算有用的信息得以传递,而无用的信息被丢弃,并在每个时间步都会输出隐层状态,其中,遗忘、记忆与输出由通过上个时刻的隐层状态和当前输入计算出来的遗忘门、记忆门、输出门来控制。前向的LSTM与后向的LSTM结合成Bi-LSTM模型,称为双向LSTM模型。
步骤260、将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别。
其中,预设的业务分类模型是用于计算业务类别的模型,业务分类模型可以是根据语音信息以及语音信息对应的业务类别训练得到的,业务类别可以包括烧表业务、电费业务、电量业务等。业务分类模型通过对输入进来的语义信息进行识别,就可以确定文本信息对应的业务类别。预设的业务分类模型可以是经典卷积神经网络模型(ConvolutionalNeural Network,CNN)、经典循环神经网络模型(Recurrent Neural Network,RNN)、也可以是文本卷积神经网络模型(TextCNN)、深度卷积神经网络模型(DPCNN),当然也可以是其他神经网络模型。
CNN模型是一种前馈神经网络,人工神经元可以响应周围单元,可以进行大型图像处理的模型。RNN模型是一种可以利用它内部的记忆来处理任意时序的输入序列的模型,这让它可以更容易处理如不分段的手写识别、语音识别等。TextCNN模型是用来做文本分类的卷积神经网络,由于其结构简单、效果好,在文本分类、推荐等NLP领域应用广泛,TextCNN的结构比较简单。DPCNN是一种深度卷积神经网络,可以称之为“深度金字塔卷积神经网络”,DPCNN通过不断加深网络,可以抽取长距离的文本依赖关系,并且在不增加太多计算成本的情况下,增加网络深度就可以获得最佳的准确率。
步骤280、根据语义信息及业务类别,生成文本信息对应的工单。
其中,工单通常是用于对用户和客服的通话内容进行记录的,通过对用户与客服之间进行通话的文本信息通过不同的网络模型进行识别后,得到的语义信息及业务类别为工单上所要填写的内容,因而,可以根据语义信息及业务类别,生成文本信息对应的工单。
本实施例中,通过获取用户与客服之间进行通话的文本信息;将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息;将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别;根据语义信息及业务类别,生成文本信息对应的工单。由于预设的语义识别模型是经过文本信息和语义信息训练得到的,将文本信息输入至预设的语义识别模型中,可以得到准确的语义信息,并且,预设的业务分类模型是经过语义信息和业务类别训练得到的,通过将语义信息输入至预设的业务分类模型中,可以得到文本信息对应的准确业务类别,从而根据语义信息及业务类别能够准确的生成文本信息对应的工单。
在一个实施例中,如图4所示,其示出了本申请实施例提供的一种工单生成方法的流程图,具体涉及的是确定文本信息所属的业务类别的一种可能的过程,该方法可以包括以下步骤:
步骤420、确定语义信息所属的第一类别。
步骤440、基于第一类别的数量,确定与第一类别的数量对应的第一目标神经网络模型。
步骤460、将语义信息输入至与第一目标神经网络模型中,得到文本信息所属的业务类别。
其中,第一类别是语义信息对应的类别,即为语义信息的标签,一个类别的语义信息对应一个标签,再基于第一类别的数量,确定与第一类别的数量对应的第一目标神经网络模型。第一类别的数量即为语义信息的标签数量,可以是不同的第一类别的数量都对应一个第一目标神经网络模型,也可以有多个不同的第一类别的数量对应同一个第一目标神经网络模型。例如,语义信息对应的类别为烧表,即语义信息的标签为烧表,此时第一类别的数量为一个,根据第一类别的数量就可以确定出与数量一对应的第一目标神经网络模型。第一目标神经网络模型为预设的业务分类模型中的一种,确定出第一目标神经网络模型后,可以将语义信息输入至与第一目标神经网络模型中,从而得到文本信息所属的业务类别。
本实施例中,通过确定语义信息所属的第一类别;基于第一类别的数量,确定与第一类别的数量对应的第一目标神经网络模型;最后将语义信息输入至与第一目标神经网络模型中,得到文本信息所属的业务类别。由于根据语义信息所属的第一类别的数量确定对应的业务分类模型,提高了业务分类的准确性与分类效率。
可选地,若第一类别的数量为一个,则将语义信息输入至文本神经网络模型中,得到文本信息所属的业务类别;若第一类别的数量为多个,则将语义信息输入至深度神经网络模型中,得到文本信息所属的业务类别。
其中,文本神经网络模型即为TextCNN模型,TextCNN模型是用来做文本分类的卷积神经网络,如图5所示,图5为本申请实施例提供的一种TextCNN模型的网络结构示意图。若语义信息所属的第一类别的数量为一个,则将语义信息输入至文本神经网络模型后,通常是先通过一个嵌入层embedding layer得到输入语句的embedding表示,即词向量表示,然后通过一个卷积层convolution layer提取到语句的特征,最后通过一个全连接层fullyconnected layer得到最终的输出,即为文本信息所属的业务类别。若语义信息所属的第一类别的数量为多个,则将语义信息输入至深度神经网络模型DPCNN后,可以通过深度神经网络模型不同层的处理得到文本信息所属的业务类别,深度神经网络模型通常可以包括Region embedding层、等长卷积层、Block层、全连接层。
本实施例中,文本神经网络模型可以准确的对单标签的文本信息进行识别,深度神经网络可以准确的对多标签的文本信息进行识别,通过根据语义信息所属的第一类别的数量确定对应的业务分类模型,提高了业务分类的准确性与分类效率。
在一个实施例中,如图6所示,其示出了本申请实施例提供的一种工单生成方法的流程图,具体涉及的是确定文本信息中的实体以及实体标签的一种可能的过程,该方法可以包括以下步骤:
步骤620、将文本信息输入至基于变换器的双向编码器中,得到文本信息对应的词向量。
步骤640、将词向量输入至双向长短期记忆神经网络中,得到词向量之间的语义关系对应的特征向量。
步骤660、将词向量及特征向量输入至条件随机场中,得到文本信息对应的实体及实体的标签。
其中,预设的语义识别模型可以是由BERT模型、Bi-LSTM模型以及CRF模型组合成的模型,因而,可以将获取到的文本信息直接输入到组合模型中,从而得到文本信息对应的实体及实体的标签,实体即为文本信息对应的语义信息,实体的标签即为语义信息的标签,如图7所示,图7为本申请实施例提供的一种BERT-Bi-LSTM-CRF组合模型的示意图。其中,输入的文本信息为“南海区桂城街道沙园大街二巷一号户主梁健生”,经过组合模型处理后,文本信息对应的实体为包括两个,一个是“南海区桂城街道沙园大街二巷一号”,对应的实体标签为“用户地址”;另一个是“梁健生”,对应的实体标签为“用户名称”。
具体地,可以将文本信息输入至基于变换器的双向编码器中,得到文本信息对应的词向量,再将词向量输入至双向长短期记忆神经网络中,得到词向量之间的语义关系对应的特征向量,最后将词向量及特征向量输入至条件随机场中,得到文本信息对应的实体及实体的标签。其中,考虑到性能和准确率,Bi-LSTM模型可以由二层组成,第一层是Bi-LSTM的输入层,第二层是隐藏层,把BERT输出的词向量作为Bi-LSTM的输入,BiLSTM的输出是CRF的输入。
本实施例中,通过将文本信息输入至基于变换器的双向编码器中,得到文本信息对应的词向量;将词向量输入至双向长短期记忆神经网络中,得到词向量之间的语义关系对应的特征向量;将词向量及特征向量输入至条件随机场中,得到文本信息对应的实体及实体的标签。由于BERT模型可以提取文本信息中的深层信息,Bi-LSTM模型可以从全局考虑每个字之间的关系,最后通过CRF模型在前面的基础上计算得到文本信息对应的实体及实体的标签,提高了实体识别的准确性。
在一个实施例中,如图8所示,其示出了本申请实施例提供的一种工单生成方法的流程图,具体涉及的是根据文本信息生成文本信息所属的业务类别的一种可能的过程,该方法可以包括以下步骤:
步骤820、确定文本信息所属的第二类别。
步骤840、基于第二类别的数量,确定与第二类别的数量对应的第二目标神经网络模型。
步骤860、将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别。
其中,文本信息为原始数据,还可以直接对文本信息进行处理,从而可以根据文本信息确定文本信息对应的业务类别,具体地,可以将文本信息输入至预设的业务分类模型中,确定文本信息对应的业务类别。第二类别是文本信息对应的类别,即为文本信息的标签,也可以是对文本信息进行语义分析后得到的标签。再基于第二类别的数量,确定与第二类别的数量对应的第二目标神经网络模型,第二类别的数量即为文本信息的标签数量,可以是不同的第二类别的数量都对应一个第二目标神经网络模型,也可以有多个不同的第二类别的数量对应同一个第二目标神经网络模型。例如,文本信息对应的第二类别包括电费和电量,即文本信息的标签包括电费和电量,此时,第二类别的数量为两个,根据第二类别的数量就可以确定出与数量二对应的第二目标神经网络模型。第二目标神经网络模型为预设的业务分类模型中的一种,确定出第二目标神经网络模型后,可以将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别。
本实施例中,通过确定文本信息所属的第二类别;基于第二类别的数量,确定与第二类别的数量对应的第二目标神经网络模型;将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别。由于根据文本信息所属的第二类别的数量确定对应的业务分类模型,并且是直接对原始文本信息进行识别分类,提高了业务分类的准确性与分类效率。
在一个实施例中,如图9所示,其示出了本申请实施例提供的一种工单生成方法的流程图,具体涉及的是根据第二目标神经网络模型生成文本信息所属的业务类别的一种可能的过程,该方法可以包括以下步骤:
步骤920、将文本信息输入至卷积层进行卷积处理,生成文本信息对应的语义信息。
步骤940、将语义信息输入至池化层进行池化处理,生成池化处理后的语义信息。
步骤960、将池化处理后的语义信息输入至全连接层进行处理,生成文本信息对应的业务类别。
其中,可选地,第二目标神经网络模型可以为DPCNN模型,DPCNN模型可以包括Region embedding层、等长卷积层、Block层、全连接层,在对文本信息进行处理时,可以将文本信息输入至卷积层进行卷积处理,生成文本信息对应的语义信息,该卷积处理可以包括通过Region embedding层对文本区域/片段进行一组卷积操作后生成词向量embedding的卷积操作,卷积核可以采用3维卷积核,以及通过等长卷积层将输入文本信息序列的每个词以及其左右的上下文信息压缩为该词位的词向量embedding的卷积操作,来提取出每一个词在上下文信息中更加宽广更加准确的语义信息。再将语义信息输入至池化层进行池化处理,生成池化处理后的语义信息,该池化层可以为DPCNN模型中的Block层,Block层由等长卷积层加上1/2池化层组成,等长卷积层的作用跟前面一样,1/2池化层负责缩小最终输出的序列,提取出序列长度缩小后的文本语义信息。最后将池化处理后的语义信息输入至全连接层进行处理,生成文本信息对应的业务类别。
本实施例中,通过将文本信息输入至卷积层进行卷积处理,生成文本信息对应的语义信息;再将语义信息输入至池化层进行池化处理,生成池化处理后的语义信息;最后将池化处理后的语义信息输入至全连接层进行处理,生成文本信息对应的业务类别,DPCNN模型能够更加准确的识别出文本语义信息,通过DPCNN模型对文本信息进行处理得到业务类别,提高了业务分类的准确性。
应该理解的是,虽然图2-9的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-9中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
请参考图10,其示出了本申请实施例提供的一种工单生成装置1000的框图。如图10所示,该工单生成装置1000可以包括:获取模块1002、计算模块1004、确定模块1006和生成模块1008,其中:
获取模块1002,用于获取用户与客服之间进行通话的文本信息;
计算模块1004,用于将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息;
第一确定模块1006,用于将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别;
生成模块1008,用于根据语义信息及业务类别,生成文本信息对应的工单。
在一个实施例中,上述确定模块包括第一确定单元、第二确定单元和输入单元,其中,第一确定单元用于确定语义信息所属的第一类别;第二确定单元用于基于第一类别的数量,确定与第一类别的数量对应的第一目标神经网络模型;输入单元用于将语义信息输入至与第一目标神经网络模型中,得到文本信息所属的业务类别。
在一个实施例中,上述输入单元具体用于若第一类别的数量为一个,则将语义信息输入至文本神经网络模型中,得到文本信息所属的业务类别;若第一类别的数量为多个,则将语义信息输入至深度神经网络模型中,得到文本信息所属的业务类别。
在一个实施例中,上述计算模块1004包括第一输入单元、第二输入单元和第三输入单元,其中,第一输入单元用于将文本信息输入至基于变换器的双向编码器中,得到文本信息对应的词向量;第二输入单元用于将词向量输入至双向长短期记忆神经网络中,得到词向量之间的语义关系对应的特征向量;第三输入单元用于将词向量及特征向量输入至条件随机场中,得到文本信息对应的实体及实体的标签。
在一个实施例中,上述工单生成装置1000还包括第二确定模块1010,第二确定模块1010用于将文本信息输入至预设的业务分类模型中,确定文本信息对应的业务类别。
在一个实施例中,上述工单生成装置1000还包括第三确定模块1012、第四确定模块1014和第二生成模块1016,其中,第三确定模块1012用于确定文本信息所属的第二类别;第四确定模块1014用于基于第二类别的数量,确定与第二类别的数量对应的第二目标神经网络模型;第二生成模块1016用于将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别。
在一个实施例中,上述第二生成模块1016包括第一生成单元、第二生成单元和第三生成单元,其中,第一生成单元用于将文本信息输入至卷积层进行卷积处理,生成文本信息对应的语义信息;第二生成单元用于将语义信息输入至池化层进行池化处理,生成池化处理后的语义信息;第三生成单元用于将池化处理后的语义信息输入至全连接层进行处理,生成文本信息对应的业务类别。
关于工单生成装置的具体限定可以参见上文中对于工单生成方法的限定,在此不再赘述。上述工单生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块的操作。
在本申请的一个实施例中,提供了一种计算机设备,该计算机设备包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取用户与客服之间进行通话的文本信息;将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息;将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别;根据语义信息及业务类别,生成文本信息对应的工单。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:
确定语义信息所属的第一类别;基于第一类别的数量,确定与第一类别的数量对应的第一目标神经网络模型;将语义信息输入至与第一目标神经网络模型中,得到文本信息所属的业务类别。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:
若第一类别的数量为一个,则将语义信息输入至文本神经网络模型中,得到文本信息所属的业务类别;若第一类别的数量为多个,则将语义信息输入至深度神经网络模型中,得到文本信息所属的业务类别。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:
将文本信息输入至基于变换器的双向编码器中,得到文本信息对应的词向量;将词向量输入至双向长短期记忆神经网络中,得到词向量之间的语义关系对应的特征向量;将词向量及特征向量输入至条件随机场中,得到文本信息对应的实体及实体的标签。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:
将文本信息输入至预设的业务分类模型中,确定文本信息对应的业务类别。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:
确定文本信息所属的第二类别;基于第二类别的数量,确定与第二类别的数量对应的第二目标神经网络模型;将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:
将文本信息输入至卷积层进行卷积处理,生成文本信息对应的语义信息;将语义信息输入至池化层进行池化处理,生成池化处理后的语义信息;将池化处理后的语义信息输入至全连接层进行处理,生成文本信息对应的业务类别。
本申请实施例提供的计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在本申请的一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取用户与客服之间进行通话的文本信息;将文本信息输入至预设的语义识别模型中,计算得到文本信息对应的语义信息;将语义信息输入至预设的业务分类模型中,确定文本信息对应的业务类别;根据语义信息及业务类别,生成文本信息对应的工单。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:
确定语义信息所属的第一类别;基于第一类别的数量,确定与第一类别的数量对应的第一目标神经网络模型;将语义信息输入至与第一目标神经网络模型中,得到文本信息所属的业务类别。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若第一类别的数量为一个,则将语义信息输入至文本神经网络模型中,得到文本信息所属的业务类别;若第一类别的数量为多个,则将语义信息输入至深度神经网络模型中,得到文本信息所属的业务类别。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将文本信息输入至基于变换器的双向编码器中,得到文本信息对应的词向量;将词向量输入至双向长短期记忆神经网络中,得到词向量之间的语义关系对应的特征向量;将词向量及特征向量输入至条件随机场中,得到文本信息对应的实体及实体的标签。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将文本信息输入至预设的业务分类模型中,确定文本信息对应的业务类别。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:
确定文本信息所属的第二类别;基于第二类别的数量,确定与第二类别的数量对应的第二目标神经网络模型;将文本信息输入至第二目标神经网络模型中,生成文本信息所属的业务类别。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将文本信息输入至卷积层进行卷积处理,生成文本信息对应的语义信息;将语义信息输入至池化层进行池化处理,生成池化处理后的语义信息;将池化处理后的语义信息输入至全连接层进行处理,生成文本信息对应的业务类别。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种工单生成方法,其特征在于,所述方法包括:
获取用户与客服之间进行通话的文本信息;
将所述文本信息输入至预设的语义识别模型中,计算得到所述文本信息对应的语义信息;
将所述语义信息输入至预设的业务分类模型中,确定所述文本信息对应的业务类别;
根据所述语义信息及所述业务类别,生成所述文本信息对应的工单;
所述将所述文本信息输入至预设的语义识别模型中,计算得到所述文本信息对应的语义信息,包括:
将所述文本信息输入至基于变换器的双向编码器中,得到所述文本信息对应的词向量;
将所述词向量输入至双向长短期记忆神经网络中,得到所述词向量之间的语义关系对应的特征向量;
将所述词向量及所述特征向量输入至条件随机场中,得到所述文本信息对应的实体及所述实体的标签;
所述将所述语义信息输入至预设的业务分类模型中,确定所述文本信息对应的业务类别,包括:
确定所述语义信息所属的第一类别;
基于所述第一类别的数量,确定与所述第一类别的数量对应的第一目标神经网络模型;
若所述第一类别的数量为一个,则将所述语义信息输入至文本神经网络模型中,得到所述文本信息所属的业务类别;
若所述第一类别的数量为多个,则将所述语义信息输入至深度神经网络模型中,得到所述文本信息所属的业务类别。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述文本信息输入至所述预设的业务分类模型中,确定所述文本信息对应的业务类别。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
确定所述文本信息所属的第二类别;
基于所述第二类别的数量,确定与所述第二类别的数量对应的第二目标神经网络模型;
将所述文本信息输入至第二目标神经网络模型中,生成所述文本信息所属的业务类别。
4.根据权利要求3所述的方法,其特征在于,所述将所述文本信息输入至第二目标神经网络模型中,生成所述文本信息所属的业务类别,包括:
将所述文本信息输入至卷积层进行卷积处理,生成所述文本信息对应的语义信息;
将所述语义信息输入至池化层进行池化处理,生成池化处理后的语义信息;
将所述池化处理后的语义信息输入至全连接层进行处理,生成所述文本信息对应的业务类别。
5.一种工单生成装置,其特征在于,所述装置包括:
获取模块,用于获取用户与客服之间进行通话的文本信息;
计算模块,用于将所述文本信息输入至预设的语义识别模型中,计算得到所述文本信息对应的语义信息;
第一确定模块,用于将所述语义信息输入至预设的业务分类模型中,确定所述文本信息对应的业务类别;
第一生成模块,用于根据所述语义信息及所述业务类别,生成所述文本信息对应的工单;
所述计算模块,具体用于将所述文本信息输入至基于变换器的双向编码器中,得到所述文本信息对应的词向量;将所述词向量输入至双向长短期记忆神经网络中,得到所述词向量之间的语义关系对应的特征向量;将所述词向量及所述特征向量输入至条件随机场中,得到所述文本信息对应的实体及所述实体的标签;
所述第一确定模块,具体用于确定所述语义信息所属的第一类别;基于所述第一类别的数量,确定与所述第一类别的数量对应的第一目标神经网络模型;若所述第一类别的数量为一个,则将所述语义信息输入至文本神经网络模型中,得到所述文本信息所属的业务类别;若所述第一类别的数量为多个,则将所述语义信息输入至深度神经网络模型中,得到所述文本信息所属的业务类别。
6.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至4任一项所述的方法的步骤。
7.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110727370.5A CN113343711B (zh) | 2021-06-29 | 2021-06-29 | 工单生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110727370.5A CN113343711B (zh) | 2021-06-29 | 2021-06-29 | 工单生成方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113343711A CN113343711A (zh) | 2021-09-03 |
CN113343711B true CN113343711B (zh) | 2024-05-10 |
Family
ID=77481522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110727370.5A Active CN113343711B (zh) | 2021-06-29 | 2021-06-29 | 工单生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113343711B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116074446B (zh) * | 2023-03-27 | 2023-12-01 | 北京科东电力控制系统有限责任公司 | 基于隐性马尔可夫模型训练的话务调配方法及系统 |
CN116485587B (zh) * | 2023-04-21 | 2024-04-09 | 深圳润高智慧产业有限公司 | 社区服务获取方法与提供方法、电子设备、存储介质 |
Citations (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1522954A2 (en) * | 2003-09-25 | 2005-04-13 | Ricoh Company | User interface for printer and networked printer |
EP1518676A3 (en) * | 2003-09-25 | 2006-10-11 | Ricoh Company, Ltd. | Multimedia printer capable of sharing processing tasks |
CN105046443A (zh) * | 2015-08-07 | 2015-11-11 | 北京思特奇信息技术股份有限公司 | 一种业务工单分配方法及系统 |
CN108363690A (zh) * | 2018-02-08 | 2018-08-03 | 北京十三科技有限公司 | 基于神经网络的对话语义意图预测方法及学习训练方法 |
CN108509596A (zh) * | 2018-04-02 | 2018-09-07 | 广州市申迪计算机系统有限公司 | 文本分类方法、装置、计算机设备和存储介质 |
CN108597519A (zh) * | 2018-04-04 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 一种话单分类方法、装置、服务器和存储介质 |
CN108874921A (zh) * | 2018-05-30 | 2018-11-23 | 广州杰赛科技股份有限公司 | 提取文本特征词的方法、装置、终端设备及存储介质 |
CN109214009A (zh) * | 2018-11-27 | 2019-01-15 | 国网山东省电力公司电力科学研究院 | 一种服务调度重复来电的工单文本语义向量分析方法 |
CN109325097A (zh) * | 2018-07-13 | 2019-02-12 | 海信集团有限公司 | 一种语音引导方法及装置、电子设备、存储介质 |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别系统及方法 |
CN109492219A (zh) * | 2018-10-25 | 2019-03-19 | 山东省通信管理局 | 一种基于特征分类和情感语义分析的诈骗网站识别方法 |
CN109492091A (zh) * | 2018-09-28 | 2019-03-19 | 科大国创软件股份有限公司 | 一种基于卷积神经网络的投诉工单智能分类方法 |
CN109492859A (zh) * | 2018-09-25 | 2019-03-19 | 平安科技(深圳)有限公司 | 基于神经网络模型的员工分类方法及装置、设备、介质 |
CN109584882A (zh) * | 2018-11-30 | 2019-04-05 | 南京天溯自动化控制系统有限公司 | 一种针对特定场景的语音转文字的优化方法及系统 |
CN109599113A (zh) * | 2019-01-22 | 2019-04-09 | 北京百度网讯科技有限公司 | 用于处理信息的方法和装置 |
CN109597889A (zh) * | 2018-11-19 | 2019-04-09 | 刘品新 | 一种基于文本分类和深度神经网络的定罪方法和系统 |
CN109637536A (zh) * | 2018-12-27 | 2019-04-16 | 苏州思必驰信息科技有限公司 | 一种自动化识别语义准确性的方法及装置 |
CN109710766A (zh) * | 2018-12-29 | 2019-05-03 | 云南电网有限责任公司电力科学研究院 | 一种工单数据的投诉倾向分析预警方法及装置 |
CN109858021A (zh) * | 2019-01-02 | 2019-06-07 | 平安科技(深圳)有限公司 | 业务问题统计方法、装置、计算机设备及其存储介质 |
CN109993543A (zh) * | 2017-12-28 | 2019-07-09 | 中国移动通信集团广东有限公司 | 一种投诉处理方法及系统 |
CN110222178A (zh) * | 2019-05-24 | 2019-09-10 | 新华三大数据技术有限公司 | 文本情感分类方法、装置、电子设备及可读存储介质 |
CN110569500A (zh) * | 2019-07-23 | 2019-12-13 | 平安国际智慧城市科技股份有限公司 | 文本语义识别方法、装置、计算机设备和存储介质 |
CN110570941A (zh) * | 2019-07-17 | 2019-12-13 | 北京智能工场科技有限公司 | 一种基于文本语义向量模型评估心理状态的系统和装置 |
CN110598200A (zh) * | 2018-06-13 | 2019-12-20 | 北京百度网讯科技有限公司 | 语义识别方法及装置 |
CN110704622A (zh) * | 2019-09-27 | 2020-01-17 | 北京明略软件系统有限公司 | 文本情感分类方法、装置及电子设备 |
CN110737834A (zh) * | 2019-10-14 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 业务对象的推荐方法、装置、存储介质和计算机设备 |
CN110781271A (zh) * | 2019-09-02 | 2020-02-11 | 国网天津市电力公司电力科学研究院 | 一种基于层次注意力机制的半监督网络表示学习模型 |
CN110795657A (zh) * | 2019-09-25 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 文章推送及模型训练方法、装置、存储介质和计算机设备 |
CN110866195A (zh) * | 2019-11-12 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 文本描述的生成方法、装置、电子设备及存储介质 |
CN110888977A (zh) * | 2018-09-05 | 2020-03-17 | 广州视源电子科技股份有限公司 | 文本分类方法、装置、计算机设备和存储介质 |
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN111026804A (zh) * | 2019-12-04 | 2020-04-17 | 深圳瑞力网科技有限公司 | 一种基于语义的大数据分析智能服务系统 |
CN111128394A (zh) * | 2020-03-26 | 2020-05-08 | 腾讯科技(深圳)有限公司 | 医疗文本语义识别方法、装置、电子设备及可读存储介质 |
CN111144132A (zh) * | 2019-12-31 | 2020-05-12 | 北京声智科技有限公司 | 一种语义识别方法及装置 |
CN111221936A (zh) * | 2020-01-02 | 2020-06-02 | 中科鼎富(北京)科技发展有限公司 | 一种信息匹配方法、装置、电子设备及存储介质 |
CN111368548A (zh) * | 2018-12-07 | 2020-07-03 | 北京京东尚科信息技术有限公司 | 语义识别方法及装置、电子设备和计算机可读存储介质 |
CN111460808A (zh) * | 2020-03-23 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 同义文本识别及内容推荐方法、装置及电子设备 |
CN111695352A (zh) * | 2020-05-28 | 2020-09-22 | 平安科技(深圳)有限公司 | 基于语义分析的评分方法、装置、终端设备及存储介质 |
CN111767737A (zh) * | 2019-05-30 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 文本意图相似度确定方法、装置、电子设备和存储介质 |
CN112507092A (zh) * | 2020-12-03 | 2021-03-16 | 北京智齿博创科技有限公司 | 基于ai文本机器人完成工单智能填写功能的实现方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040181815A1 (en) * | 2001-11-19 | 2004-09-16 | Hull Jonathan J. | Printer with radio or television program extraction and formating |
US20110307252A1 (en) * | 2010-06-15 | 2011-12-15 | Microsoft Corporation | Using Utterance Classification in Telephony and Speech Recognition Applications |
US9130872B2 (en) * | 2013-03-15 | 2015-09-08 | Cisco Technology, Inc. | Workload based service chain insertion in a network environment |
US20180284746A1 (en) * | 2016-05-09 | 2018-10-04 | StrongForce IoT Portfolio 2016, LLC | Methods and systems for data collection optimization in an industrial internet of things environment |
US20190266254A1 (en) * | 2018-02-26 | 2019-08-29 | Jeremy D. Blumenfeld | System to process electronic records using a request orchestration platform |
US11687805B2 (en) * | 2019-10-31 | 2023-06-27 | Shoreline Iot, Inc. | Systems and methods for self-learning artificial intelligence of things (AIOT) devices and services |
-
2021
- 2021-06-29 CN CN202110727370.5A patent/CN113343711B/zh active Active
Patent Citations (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1522954A2 (en) * | 2003-09-25 | 2005-04-13 | Ricoh Company | User interface for printer and networked printer |
EP1518676A3 (en) * | 2003-09-25 | 2006-10-11 | Ricoh Company, Ltd. | Multimedia printer capable of sharing processing tasks |
CN105046443A (zh) * | 2015-08-07 | 2015-11-11 | 北京思特奇信息技术股份有限公司 | 一种业务工单分配方法及系统 |
CN109993543A (zh) * | 2017-12-28 | 2019-07-09 | 中国移动通信集团广东有限公司 | 一种投诉处理方法及系统 |
CN108363690A (zh) * | 2018-02-08 | 2018-08-03 | 北京十三科技有限公司 | 基于神经网络的对话语义意图预测方法及学习训练方法 |
CN108509596A (zh) * | 2018-04-02 | 2018-09-07 | 广州市申迪计算机系统有限公司 | 文本分类方法、装置、计算机设备和存储介质 |
CN108597519A (zh) * | 2018-04-04 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 一种话单分类方法、装置、服务器和存储介质 |
CN108874921A (zh) * | 2018-05-30 | 2018-11-23 | 广州杰赛科技股份有限公司 | 提取文本特征词的方法、装置、终端设备及存储介质 |
CN110598200A (zh) * | 2018-06-13 | 2019-12-20 | 北京百度网讯科技有限公司 | 语义识别方法及装置 |
CN109325097A (zh) * | 2018-07-13 | 2019-02-12 | 海信集团有限公司 | 一种语音引导方法及装置、电子设备、存储介质 |
CN110888977A (zh) * | 2018-09-05 | 2020-03-17 | 广州视源电子科技股份有限公司 | 文本分类方法、装置、计算机设备和存储介质 |
CN109492859A (zh) * | 2018-09-25 | 2019-03-19 | 平安科技(深圳)有限公司 | 基于神经网络模型的员工分类方法及装置、设备、介质 |
CN109492091A (zh) * | 2018-09-28 | 2019-03-19 | 科大国创软件股份有限公司 | 一种基于卷积神经网络的投诉工单智能分类方法 |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别系统及方法 |
CN109492219A (zh) * | 2018-10-25 | 2019-03-19 | 山东省通信管理局 | 一种基于特征分类和情感语义分析的诈骗网站识别方法 |
CN109597889A (zh) * | 2018-11-19 | 2019-04-09 | 刘品新 | 一种基于文本分类和深度神经网络的定罪方法和系统 |
CN109214009A (zh) * | 2018-11-27 | 2019-01-15 | 国网山东省电力公司电力科学研究院 | 一种服务调度重复来电的工单文本语义向量分析方法 |
CN109584882A (zh) * | 2018-11-30 | 2019-04-05 | 南京天溯自动化控制系统有限公司 | 一种针对特定场景的语音转文字的优化方法及系统 |
CN111368548A (zh) * | 2018-12-07 | 2020-07-03 | 北京京东尚科信息技术有限公司 | 语义识别方法及装置、电子设备和计算机可读存储介质 |
CN109637536A (zh) * | 2018-12-27 | 2019-04-16 | 苏州思必驰信息科技有限公司 | 一种自动化识别语义准确性的方法及装置 |
CN109710766A (zh) * | 2018-12-29 | 2019-05-03 | 云南电网有限责任公司电力科学研究院 | 一种工单数据的投诉倾向分析预警方法及装置 |
CN109858021A (zh) * | 2019-01-02 | 2019-06-07 | 平安科技(深圳)有限公司 | 业务问题统计方法、装置、计算机设备及其存储介质 |
CN109599113A (zh) * | 2019-01-22 | 2019-04-09 | 北京百度网讯科技有限公司 | 用于处理信息的方法和装置 |
CN110222178A (zh) * | 2019-05-24 | 2019-09-10 | 新华三大数据技术有限公司 | 文本情感分类方法、装置、电子设备及可读存储介质 |
CN111767737A (zh) * | 2019-05-30 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 文本意图相似度确定方法、装置、电子设备和存储介质 |
CN110570941A (zh) * | 2019-07-17 | 2019-12-13 | 北京智能工场科技有限公司 | 一种基于文本语义向量模型评估心理状态的系统和装置 |
CN110569500A (zh) * | 2019-07-23 | 2019-12-13 | 平安国际智慧城市科技股份有限公司 | 文本语义识别方法、装置、计算机设备和存储介质 |
CN110781271A (zh) * | 2019-09-02 | 2020-02-11 | 国网天津市电力公司电力科学研究院 | 一种基于层次注意力机制的半监督网络表示学习模型 |
CN110795657A (zh) * | 2019-09-25 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 文章推送及模型训练方法、装置、存储介质和计算机设备 |
CN110704622A (zh) * | 2019-09-27 | 2020-01-17 | 北京明略软件系统有限公司 | 文本情感分类方法、装置及电子设备 |
CN110737834A (zh) * | 2019-10-14 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 业务对象的推荐方法、装置、存储介质和计算机设备 |
CN110866195A (zh) * | 2019-11-12 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 文本描述的生成方法、装置、电子设备及存储介质 |
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN111026804A (zh) * | 2019-12-04 | 2020-04-17 | 深圳瑞力网科技有限公司 | 一种基于语义的大数据分析智能服务系统 |
CN111144132A (zh) * | 2019-12-31 | 2020-05-12 | 北京声智科技有限公司 | 一种语义识别方法及装置 |
CN111221936A (zh) * | 2020-01-02 | 2020-06-02 | 中科鼎富(北京)科技发展有限公司 | 一种信息匹配方法、装置、电子设备及存储介质 |
CN111460808A (zh) * | 2020-03-23 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 同义文本识别及内容推荐方法、装置及电子设备 |
CN111128394A (zh) * | 2020-03-26 | 2020-05-08 | 腾讯科技(深圳)有限公司 | 医疗文本语义识别方法、装置、电子设备及可读存储介质 |
CN111695352A (zh) * | 2020-05-28 | 2020-09-22 | 平安科技(深圳)有限公司 | 基于语义分析的评分方法、装置、终端设备及存储介质 |
CN112507092A (zh) * | 2020-12-03 | 2021-03-16 | 北京智齿博创科技有限公司 | 基于ai文本机器人完成工单智能填写功能的实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113343711A (zh) | 2021-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765265B (zh) | 信息分类抽取方法、装置、计算机设备和存储介质 | |
CN113157863B (zh) | 问答数据处理方法、装置、计算机设备及存储介质 | |
CN109992664B (zh) | 争议焦点的标注分类方法、装置、计算机设备和存储介质 | |
CN110909137A (zh) | 基于人机交互的信息推送方法、装置和计算机设备 | |
CN111061847A (zh) | 对话生成及语料扩充方法、装置、计算机设备和存储介质 | |
CN111191032B (zh) | 语料扩充方法、装置、计算机设备和存储介质 | |
CN113343711B (zh) | 工单生成方法、装置、设备及存储介质 | |
CN109344242B (zh) | 一种对话问答方法、装置、设备及存储介质 | |
CN111400340B (zh) | 一种自然语言处理方法、装置、计算机设备和存储介质 | |
CN112766319A (zh) | 对话意图识别模型训练方法、装置、计算机设备及介质 | |
CN115391527A (zh) | 基于提示学习的意图识别方法、问答方法及装置 | |
CN115269512A (zh) | 结合rpa及ai实现ia的对象推荐方法、装置及存储介质 | |
CN114091452B (zh) | 一种基于适配器的迁移学习方法、装置、设备及存储介质 | |
CN115795038B (zh) | 基于国产化深度学习框架的意图识别方法和装置 | |
CN112580329B (zh) | 文本噪声数据识别方法、装置、计算机设备和存储介质 | |
CN111967253A (zh) | 一种实体消歧方法、装置、计算机设备及存储介质 | |
CN113987154A (zh) | 基于UniLM与对比学习的相似句生成模型训练方法及相关设备 | |
CN113569094A (zh) | 视频推荐方法、装置、电子设备及存储介质 | |
CN117472431A (zh) | 代码注释生成方法、装置、计算机设备、存储介质和产品 | |
CN115098722B (zh) | 文本和图像的匹配方法、装置、电子设备和存储介质 | |
CN113434652B (zh) | 智能问答方法、智能问答装置、设备及存储介质 | |
CN116089605A (zh) | 基于迁移学习和改进词袋模型的文本情感分析方法 | |
CN114692785A (zh) | 行为分类方法、装置、设备及存储介质 | |
CN113627514A (zh) | 知识图谱的数据处理方法、装置、电子设备和存储介质 | |
CN113569041A (zh) | 文本检测方法、装置、计算机设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |