CN111241232B - 业务服务的处理方法、装置、服务平台及存储介质 - Google Patents
业务服务的处理方法、装置、服务平台及存储介质 Download PDFInfo
- Publication number
- CN111241232B CN111241232B CN201811442251.XA CN201811442251A CN111241232B CN 111241232 B CN111241232 B CN 111241232B CN 201811442251 A CN201811442251 A CN 201811442251A CN 111241232 B CN111241232 B CN 111241232B
- Authority
- CN
- China
- Prior art keywords
- semantic
- network layer
- neural network
- user request
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims abstract description 132
- 238000012545 processing Methods 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 38
- 230000000306 recurrent effect Effects 0.000 claims description 20
- 125000004122 cyclic group Chemical group 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000007499 fusion processing Methods 0.000 claims description 4
- 244000062793 Sorghum vulgare Species 0.000 description 18
- 235000019713 millet Nutrition 0.000 description 18
- 239000003607 modifier Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 235000007189 Oryza longistaminata Nutrition 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 235000005775 Setaria Nutrition 0.000 description 2
- 241000232088 Setaria <nematode> Species 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000010939 rose gold Substances 0.000 description 2
- 229910001112 rose gold Inorganic materials 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000989913 Gunnera petaloidea Species 0.000 description 1
- 240000000233 Melia azedarach Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供一种业务服务的处理方法、装置、服务平台及存储介质,该方法包括:获取用户请求对应的语义特征数据;基于所述语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,所述语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层;基于所述目标业务,为用户提供相应的业务服务。通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。
Description
技术领域
本申请涉及电商服务平台技术领域,尤其涉及一种业务服务的处理方法、装置、服务平台及存储介质。
背景技术
随着大数据和人工智能的发展,各电商的服务平台竞相推出通过语音助手为用户提供业务服务的功能,比如语音助手导购,可以帮助用户节省时间成本,提升购物体验。
现有技术中,电商平台的语音助手服务功能,是通过根据人工配置的话术模板,对用户意图进行识别,由于人的认知有限,配置的话术模板包括的样本句式有限,导致对用户意图的识别不够灵活准确。
因此,如何有效对用户意图进行分类,以为用户提供相应的业务服务成为亟需解决的技术问题。
发明内容
本申请提供一种业务服务的处理方法、装置、服务平台及存储介质,以解决现有技术用户语义理解不准确等缺陷。
本申请第一个方面提供一种业务服务的处理方法,包括:
获取用户请求对应的语义特征数据;
基于所述语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,所述语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层;
基于所述目标业务,为用户提供相应的业务服务。
本申请第二个方面提供一种业务服务的处理装置,包括:
获取模块,用于获取用户请求对应的语义特征数据;
确定模块,用于基于所述语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,所述语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层;
处理模块,用于基于所述目标业务,为用户提供相应的业务服务
本申请第三个方面提供一种服务平台,包括:至少一个处理器和存储器;
所述存储器存储计算机程序;所述至少一个处理器执行所述存储器存储的计算机程序,以实现第一个方面提供的方法。
本申请第四个方面提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,所述计算机程序被执行时实现第一个方面提供的方法。
本申请提供的业务服务的处理方法、装置、服务平台及存储介质,通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例适用的业务服务系统的结构示意图;
图2为本申请一实施例提供的业务服务的处理方法的流程示意图;
图3为本申请另一实施例提供的业务服务的处理方法的流程示意图;
图4为本申请一实施例提供的业务服务的处理装置的结构示意图;
图5为本申请另一实施例提供的业务服务的处理装置的结构示意图;
图6为本申请一实施例提供的服务平台的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
首先对本申请所涉及的名词进行解释:
Mask:是指深度学习中的一种网络调试技巧,可以减小padding对模型预测效果的影响。
Highway:主要是用于加深网络的深度,在模型中可以设计一层、两层或更多层的Highway,主要是相当于加入了一个门,用于捕获重要语义。
LSTM:Long Short Term Memory,是指长短期记忆网络,是一种时间递归神经网络,用于处理序列标注问题。
CRF:Conditional Random Field algorithm,是指条件随机场算法,结合了最大熵模型和隐马尔可夫模型的特点,是一种无向图模型,用于NLP(Natural LanguageProcessing,自然语言处理)序列标注。
语义理解:是指对用户的输入的理解,用户的输入可以是语音输入、文本输入等,若是语音输入,可以采用语音识别技术转换成文本。
智能助理:基于人工智能技术,通过理解用户输入的语音或文本形式的自然语言,来获取用户意图,并为用户提供满足其需求的业务服务的应用程序或服务平台。
本申请实施例提供的业务服务的处理方法,适用于如下业务服务系统:如图1所示,为本申请实施例适用的业务服务系统的结构示意图。该业务服务系统包括服务平台,以及一个或多个用户终端。用户通过用户终端输入用户请求,可以是语音输入,也可以是文本输入,比如通过语音助手输入语音“我想买XX手机”,用户终端接收到用户请求后,发送给服务平台,服务平台则可以获取用户请求内容,生成用户请求对应的语义特征数据,并基于语义特征数据确定用户请求对应的目标业务,比如“我想买XX手机”对应的目标业务为购买XX手机,比如“我想要退货”对应的目标业务为“退货”等等。服务平台则可以为用户提供相应的业务服务,比如向终端返回XX手机推荐页面,页面上可以包括一种或多种XX手机的购买链接,或者向终端返回退货相关信息等等,具体提供相应业务服务的方式可以根据实际需求进行设置,本申请实施例不做限定。
此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。在以下各实施例的描述中,“多个”的含义是两个以上,除非另有明确具体的限定。
下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
实施例一
本实施例提供一种业务服务的处理方法,用于有效识别用户需求意图,以为用户提供准确的业务服务。本实施例的执行主体为业务服务的处理装置,该装置可以设置在服务平台中。
如图2所示,为本实施例提供的业务服务的处理方法的流程示意图,该方法包括:
步骤101,获取用户请求对应的语义特征数据。
具体的,当用户需要服务平台为其提供业务服务时,用户可以通过用户终端输入用户请求,可以是语音输入,也可以是文本输入,比如通过语音助手输入语音“我想买XX手机”、“我想退货”、“我想换货”等等,用户终端获取到用户请求后,发送给服务平台,服务平台则可以获取用户请求内容文本,比如,若用户是语音输入,可以是服务平台进行语音识别转换成文本,也可以是用户终端转换成文本后发送给服务平台,具体获取用户请求内容文本的方式为现有技术,在此不再赘述。
服务平台获取到用户请求内容文本后,根据用户请求内容文本生成用户请求对应的语义特征数据。
语义特征数据是指对用户请求内容文本进行特征提取,获得计算机可识别的特征数据。比如将用户请求内容文本,采用文本向量算法生成语义特征数据,或者采用其他特征提取算法生成语义特征数据等等。
步骤102,基于语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层。
具体的,语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层。其中,Highway神经网络层可以包括一个Highway层、两个Highway层、或者更多个Highway层,具体层数可以根据实际需求设置。mask神经网络层也可以包括一层或多层,具体可以根据实际需求设置。循环神经网络层可以包括输入层、隐藏层、损失层优化层、评估层等等。循环神经网络层可以是LSTM神经网络或者是LSTM神经网络的各种变体,具体可以根据实际需求设置。
Highway神经网络层用于对语义特征数据进行特征融合,比如语义特征数据中包括字特征、词语特征和上下文特征,则语义特征数据输入Highway神经网络层之前需要进行三种特征的拼接,拼接后输入到Highway神经网络层进行特征融合,用于捕获重要语义。
mask神经网络层用于对从Highway神经网络层输出的特征数据进行一定的屏蔽处理,比如屏蔽掉不重要的特征的权重,比如“我要买XX手机”,其中“我要”是不重要的信息,“买XX手机”是重要信息,则在mask神经网络层可以对不重要的信息的特征进行屏蔽,尽量保留重要信息的特征。
循环神经网络层用于对mask神经网络层输出的特征数据进行业务预测,即槽位预测,最终确定用户请求对应的目标业务。比如“我想买XX手机”,预测目标业务为:产品词“XX手机”、用户意图词“购买”,等等。
语义理解网络模型为预先训练好的,具体可以是基于大量的历史业务服务数据进行训练。历史业务服务数据可以从服务日志中获取,服务日志可以是存储在大数据Hive表中。可以从Hive表中获取大量服务日志,服务日志中可以包括多个相关字段,比如业务场景(如商品查询场景、订单查询场景、模糊优惠查询场景、特定优惠查询场景、售后服务场景、全站直达场景及未知场景等等)、业务结果、访问来源、频道编号、当前场景、设备ID、输入内容、用户PIN码、用户位置、日期、时间、解析规则、会话ID、上下文信息、分类信息,等等。其中,商品查询场景表示用户购买意图或查找商品,订单查询场景表示“订单”或“物流”相关场景,模糊优惠查询场景表示“优惠活动”或“优惠券信息”查询场景,特定优惠查询场景表示对特定商品的优惠查询场景,售后服务场景表示退货、换货、报修等售后服务场景,全站直达场景表示需要找到其他特定服务模块场景,未知场景可以表示非以上场景的场景。
获取到服务日志后,可以提取其中的输入内容字段(即多条历史请求内容文本),比如“我想买XX手机”、“我想换货”、“我想看秒杀”、“我想了解白条”、“我要买女士衬衫”等等。
根据将历史请求内容文本生成语义训练特征数据,还需要对每条历史请求内容文本进行槽位标注,获得槽位标注数据,比如“我想买小米六手机”的标注结果为:产品词“小米六”、品牌词“小米”、用户意图词“买”等。当然还可以根据实际需求设置其他标注结果,这里只是示例性说明,本实施例不做任何限定。
基于语义训练特征数据及槽位标注数据,对预先建立的语义理解网络进行训练,获得语义理解网络模型。需要说明的是,槽位标注数据在输入网络之前需要进行格式转换,转换成BIOES格式数据,即实际是基于语义训练特征数据及BIOES格式数据对语义理解网络进行训练。
可选地,语义特征数据可以包括字特征、词语特征、上下文特征等等。语义特征数据中可以包括一种特征,也可以包括两种或两种以上的特征。比如可以只包括字特征、词语特征、上下文特征中的一种,也可以包括字特征和词语特征,还可以是包括字特征、词语特征和上下文特征,等等。当然,也可能包括其他相关特征。具体生成各种特征的方式为现有技术,本实施例不做限定。
步骤103,基于目标业务,为用户提供相应的业务服务。
具体的,在确定了用户请求对应的目标业务后,服务平台则可以根据用户请求对应的目标业务,为用户提供相应的业务服务。
示例性的,目标业务为:产品词“XX手机”、用户意图词“购买”,则向用户终端返回XX手机购买链接推荐页面;目标业务为:产品词“XX耳机”、用户意图词“退货”,则可以判断用户当前是否已购买XX耳机并符合退货条件,若符合,可以向用户终端返回退货链接或相关退货信息,若不符合,可以向用户终端返回提示信息等等。具体的业务类型设置以及不同业务的服务方式可以根据实际需求设置,本实施例不做限定。
本实施例提供的业务服务的处理方法,通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。
实施例二
本实施例对实施例一提供的方法做进一步补充说明。
如图3所示,为本实施例提供的业务服务的处理方法的流程示意图。
作为一种可实施的方式,在上述实施例一的基础上,可选地,语义特征数据包括字特征、词语特征、上下文特征中的至少一种。
作为另一种可实施的方式,在上述实施例一的基础上,可选地,步骤102具体可以包括:
步骤1021,将语义特征数据进行特征拼接后,输入到Highway神经网络层,进行特征融合处理,获得融合特征数据。
具体的,Highway神经网络层可以包括一个Highway层、两个Highway层、或者更多个Highway层,具体层数可以根据实际需求设置。Highway神经网络层用于对语义特征数据进行特征融合,比如语义特征数据中包括字特征、词语特征和上下文特征,则语义特征数据输入Highway神经网络层之前需要进行三种特征的拼接,拼接后输入到Highway神经网络层进行特征融合,用于捕获重要语义。
步骤1022,将融合特征数据输入到mask神经网络层,进行特征屏蔽处理,获得屏蔽后特征数据。
具体的,mask神经网络层也可以包括一层或多层,具体可以根据实际需求设置。mask神经网络层用于对从Highway神经网络层输出的特征数据进行一定的屏蔽处理,比如屏蔽掉不重要的特征的权重,比如“我要买XX手机”,其中“我要”是不重要的信息,“买XX手机”是重要信息,则在mask神经网络层可以对不重要的信息的特征进行屏蔽,尽量保留重要信息的特征。
步骤1023,基于屏蔽后特征数据及循环神经网络层,确定用户请求对应的目标业务。
具体的,循环神经网络层可以包括输入层、隐藏层、损失层优化层、评估层等等。循环神经网络层可以是LSTM神经网络或者是LSTM神经网络的各种变体,具体可以根据实际需求设置。循环神经网络层用于对mask神经网络层输出的特征数据进行业务预测,即槽位预测,最终确定用户请求对应的目标业务。比如“我想买XX手机”,预测目标业务为:产品词“XX手机”、用户意图词“购买”,等等。
需要说明的是,这里只是示例性的说明语义理解网络模型进行预测时数据处理的功能逻辑流程,实质上,整个语义理解网络模型为一个整体,整体进行训练获得。在实际预测中上述三种神经网络层的神经元之间相互影响,没有清晰的先后顺序。
可选地,基于屏蔽后特征数据及循环神经网络层,确定用户请求对应的目标业务,包括:
步骤10231,将屏蔽后特征数据输入到循环神经网络层,获得用户请求对应各业务的概率。
步骤10232,根据用户请求对应各业务的概率,确定用户请求对应的目标业务。
具体的,循环神经网络层输出结果可以是用户请求对应各业务的概率,比如,用户请求为“我要买小米六”,训练好的语义理解网络模型的循环神经网络层可以是输出多个槽位的预测概率,比如产品词、品牌词、修饰词、用户意图词四个槽位的概率,由于有“小米六”,结果为产品词的概率更高,有“买”,用户意图为购买场景的概率更高,从而可以根据概率的大小,确定用于请求对应的目标业务为:购买场景(或者商品查询场景),具体要查询的产品为“小米六”等等。这里只是示例性说明,具体实现方式可以根据实际需求设置,本申请实施例不做限定。
可选地,还可以并行训练多个语义理解网络模型,同时进行预测,实现同一词语对应多个槽位的情况。当有多个语义理解网络模型同时预测时,还可以依据少数服从多数的原则确定用户请求对应的目标业务。每个语义理解网络模型的训练过程一致,在此不再赘述。不同的是可以采用不同的语义训练槽位标签。比如“我要买小米六”,可以标注“小米”为品牌词,也可以标注“小米六”为产品词,即用户请求内容文本进行不同形式的分词,并进行标注。采用标注的不同的语义训练槽位标签训练出不同的语义理解网络模型。
可选地,还可以是在语义理解网络模型的网络架构中设置多任务multi-task共享网络层,在multi-task共享网络层共享部分特征网络层embedding的参数,并行训练产品词、修饰词槽位模型和品牌词槽位模型,并行计算loss损失函数,在最后通过广义的全连接层拼接到一起,实现对同一个词语的多槽位预测。
示例性的,用户输入“我要买小米六手机”,本发明预测“小米六”为产品词:“小米”为品牌词,小米在用户输入中只出现了一次,但是同时被预测到两个槽位。
示例性的,用户输入“我要买oppoR15手机”,本发明预测“oppoR15”为产品词,“oppo”为品牌词。
可选地,语义理解网络模型的网络结构还包括CRF网络层;
步骤1023具体可以包括:
步骤10233,基于屏蔽后特征数据、循环神经网络层及CRF网络层,确定用户请求对应的目标业务。
具体的,除了根据概率确定用户请求对应的目标业务外,还可以在训练时,在语义理解网络模型的网络结构中包括CRF网络层,基于CRF网络层的功能,在预测时,可以直接获得标识序列的最优路径,即可以直接获得目标业务。
作为另一种可实施的方式,在上述实施例一的基础上,可选地,步骤101具体可以包括:
步骤1011,获取用户请求,用户请求包括请求内容文本;
步骤1012,采用预设文本向量算法,对请求内容文本进行特征提取,获得语义特征数据。
具体的,当用户需要服务平台为其提供业务服务时,用户可以通过用户终端输入用户请求,可以是语音输入,也可以是文本输入,比如通过语音助手输入语音“我想买XX手机”、“我想退货”、“我想换货”等等,用户终端获取到用户请求后,发送给服务平台,服务平台则可以获取用户请求内容文本,比如,若用户是语音输入,可以是服务平台进行语音识别转换成文本,也可以是用户终端转换成文本后发送给服务平台,服务平台获取到用户请求内容文本后,采用预设文本向量算法,对请求内容文本进行特征提取,获得语义特征数据。当然,还可以是采用其他特征提取算法获得语义特征数据。
作为另一种可实施的方式,在上述实施例一的基础上,可选地,语义理解网络模型,通过以下过程训练获得:
步骤2011,获取语义训练数据,语义训练数据包括语义训练特征数据及语义训练槽位标签。
步骤2012,对语义训练槽位标签进行BIOES格式转换,获得BIOES格式数据。
步骤2013,采用语义训练特征数据及BIOES格式数据,对预先建立的语义理解网络进行训练,获得语义理解网络模型。
具体的,语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层。其中,Highway神经网络层可以包括一个Highway层、两个Highway层、或者更多个Highway层,具体层数可以根据实际需求设置。mask神经网络层也可以包括一层或多层,具体可以根据实际需求设置。循环神经网络层可以包括输入层、隐藏层、损失层优化层、评估层等等。循环神经网络层可以是LSTM神经网络或者是LSTM神经网络的各种变体,具体可以根据实际需求设置。
语义理解网络模型训练过程,具体可以是基于大量的历史业务服务数据进行训练。历史业务服务数据可以从服务日志中获取,服务日志可以是存储在大数据Hive表中。可以从Hive表中获取大量服务日志,服务日志中可以包括多个相关字段,比如业务场景(如商品查询场景、订单查询场景、模糊优惠查询场景、特定优惠查询场景、售后服务场景、全站直达场景及未知场景等等)、业务结果、访问来源、频道编号、当前场景、设备ID、输入内容、用户PIN码、用户位置、日期、时间、解析规则、会话ID、上下文信息、分类信息,等等。其中,商品查询场景表示用户购买意图或查找商品,订单查询场景表示“订单”或“物流”相关场景,模糊优惠查询场景表示“优惠活动”或“优惠券信息”查询场景,特定优惠查询场景表示对特定商品的优惠查询场景,售后服务场景表示退货、换货、报修等售后服务场景,全站直达场景表示需要找到其他特定服务模块场景,未知场景可以表示非以上场景的场景。
获取到服务日志后,可以提取其中的输入内容字段(即多条历史请求内容文本),比如“我想买XX手机”、“我想换货”、“我想看秒杀”、“我想了解白条”、“我要买女士衬衫”等等。
根据将历史请求内容文本生成语义训练特征数据,还需要对每条历史请求内容文本进行槽位标注,获得槽位标注数据,比如“我想买小米六手机”的标注结果为:产品词“小米六”、品牌词“小米”、用户意图词“买”等。当然还可以根据实际需求设置其他标注结果,这里只是示例性说明,本实施例不做任何限定。
基于语义训练特征数据及槽位标注数据,对预先建立的语义理解网络进行训练,获得语义理解网络模型。需要说明的是,槽位标注数据在输入网络之前需要进行格式转换,转换成BIOES格式数据,即实际是基于语义训练特征数据及BIOES格式数据对语义理解网络进行训练。
作为另一种可实施的方式,在上述实施例一的基础上,可选地,循环神经网络层为具有mask屏蔽开关处理功能的长短期记忆LSTM神经网络层。
具体的,在LSTM神经网络层增加mask屏蔽开关处理功能,进一步提高语义理解网络模型的预测准确性。
可选地,用户输入智能助理的语音,在语音识别阶段可能出现错别字,另一方面用户自己输入的文本也可能出现错别字,还可以建立电商常见错别字词库,对用户输入的错别字做自动纠正,进一步提高用户体验。示例性的,用户输入“苹果吧”,会预测“苹果8”为产品词,“苹果”为品牌词;用户输入“iPhone差。”,会预测“iPhoneX”为品牌词,“apple”为品牌词;等等。
可选地,还可以设置特殊品牌映射,比如手机品类下的“小米”、“华为”等有好多子系列手机,可以对子系列手机做了到该系列主品牌的映射。示例性的,用户说“我要买红米四手机”,会预测“红米四”为产品词,“小米”为品牌词;用户说“荣耀四的手机。”,会预测“荣耀四”为产品词,“华为”是品牌词,等等。
以下以一个示例性的实施例进行说明:
1、智能助理日志清洗
智能助理的日志落到大数据Hive表中,全部字段如下表1所示,本申请用到的字段是用户的“输入内容”字段,根据用户输入内容识别用户的语义意图,经过正则匹配,去除“哈哈”、“好的”等垃圾没有信息含量的用户输入。
表1
biz_action | string | 业务场景 |
biz_result | string | 业务结果 |
caller_source | string | 访问来源 |
channel_code | string | 频道编号 |
current_sence | string | 当前场景 |
device_id | string | 设备id |
input_text | string | 输入内容 |
jd_pin | string | 用户PIN码 |
lacation | string | 用户位置 |
record_date | string | 日期 |
record_time | string | 时间 |
response_text | string | 相应内容 |
rule_type | string | 解析规则 |
session_id | string | 会话id |
context_info | string | 上下文信息 |
triage_info | string | 分类信息 |
sign_input | string | 签到输入内容 |
2、人工标注数据
为了理解用户输入信息的语义,用户语义意图由以下5个部分构成(1)product,表示商品名称,即商品的中心产品词,例子:“我想买手机”,商品的中心产品词为“手机”;(2)wanted_deco,表示商品描述,即商品的修饰词,例子:“我想买玫瑰金手机”,商品描述为“玫瑰金”;(3)deco_of_product,表示询问范围,例子:“我的购物车里有什么优惠”,询问范围为“购物车”;(4)brand,表示商品品牌,例子:“我买小米手机”,商品品牌为“小米”;(5)channel,表示频道编号(全站直达),例子:“我买秒杀里面的自拍杆”,频道编号为“秒杀”。为了确保模型的准确性,以上5个标签人工标注数据6万条(当然也可以是其他数量)。用户语义意图还可以包括其他方面的内容,这里只是示意性说明。
3、字典构建
本实施例选取用户输入内容中常用高频汉字5000个,构建智能助理特色字典。
4、槽位标签设计
(1)BIO格式
对预测的实体“产品词”、“品牌词”、“修饰词”设计了位置标签,“B-product”表示产品词的开头,“I-product”表示产品词的中间或结尾;“B-brand”表示品牌词的开头,“I-brand”表示品牌词的中间或结尾;“B-wanted_deco”表示修饰词的开头,“I-wanted_deco”表示修饰词的中间或结尾。
(2)BIOES格式
标签位置表示的第二种方式是BIOES格式,“B-product”表示产品词的开头,“I-product”表示产品词的中间,“E-product”表示产品词的结尾,“S”表示单个的字,“O”表示其它(比如标点);“B-brand”表示品牌词的开头,“I-brand”表示品牌词的中间,“E-brand”表示品牌词的结尾,“S”表示单个的字,“O”表示其它(比如标点);“B-wantd_deco”表示修饰词开头,“I-wanted_deco”表示修饰词的中间,“E-wanted_deco”表示修饰词的结尾,“S”表示单个的字,“O”表示其它(比如标点)。
(3)两种标签格式相互转化
本申请实施例设置了转换函数,可以用来转化BIO格式和BIOES格式,在智能助理的业务服务数据上,两种标签格式都进行了尝试,发现BIOES效果更好。
5、文本全半角、html等处理
为了保证语义训练特征数据的一致性,本实施例把用户请求内容文本中的全角都转换成半角,或者将半角都转换成全角。并且可以替换html特定字符,进一步保证语义训练特征数据的统一性。
6、语义特征工程构建
(1)字向量特征(即字特征)
length=句子长度。
字符特征char_inputs:1*length的int型二维数组:
a.用户输入内容文本->映射(字频字典ner_char_dict.txt)->字频id。
b.字频字典格式:(字字频)成行。如:以1793。
特殊情况处理:不在词表中的字映射到‘<UNK>’对应的id。
示例:我想买件连衣裙。
char_inputs=[[3,14,6,121,444,45,272,2]]。
(2)词向量特征(即词语特征)
word_inputs:1*length的int型二维数组:
a.通过jieba或standardCoreNLP等分词工具进行分词。
b.分词特征规则:若是单字对应0,若是短语:首字对于1,中间汉字对于2,结尾字符对于3。
示例:我想去中华人民共和国买连衣裙。
word_inputs=[[0,0,0,1,2,2,2,2,2,3,0,1,2,3,0]]。
(3)上下文特征
上下文特征context_inputs:1*length*context_window的int型三维数组:
用户输入内容文本->上下文格式->映射(上下文字典:ner_context_dict.txt)->特征id
示例:context_windows=5,我想买件连衣裙.
1)处理成上下文格式:模板说明w[x]=”其中x为相对位置.
我:['w[-2]=</s>','w[-1]=</s>','w[0]=我','w[1]=想','w[2]=买'];
想:['w[-2]=</s>','w[-1]=我','w[0]=想','w[1]=买','w[2]=件'];
买:['w[-2]=我','w[-1]=想','w[0]=买','w[1]=件','w[2]=连'];
件:['w[-2]=想','w[-1]=买','w[0]=件','w[1]=连','w[2]=衣'];
连:['w[-2]=买','w[-1]=件','w[0]=连','w[1]=衣','w[2]=裙'];
衣:['w[-2]=件','w[-1]=连','w[0]=衣','w[1]=裙','w[2]=.'];
裙:['w[-2]=连','w[-1]=衣','w[0]=裙','w[1]=.','w[2]=</s>'];
.:['w[-2]=衣','w[-1]=裙','w[0]=.','w[1]=</s>','w[2]=</s>']。
2)根据(上下文字典:ner_context_dict.txt)映射成特征id
上下文字典文件格式:(上下文特征id)
w[2]=连850
w[1]=连851
w[2]=衣852
w[0]=连853
w[1]=衣854
w[2]=裙855
w[-1]=连856
w[0]=衣857。
3)完整的上下文特征
context_inputs=[[[1,2,62,204,172],[1,65,205,174,207],[68,206,177,209,850],[208,181,211,851,852],[185,214,853,854,855],[215,856,857,858,5296],[859,860,861,4600,44],[862,863,4601,48,44]]]
4)完整示例
我看下华为手机。
length=8;
字符特征:char_inputs[0]=[[3,60,32,139,69,27,17,2]];
词特征:word_inputs[0]=[[0,0,0,1,3,1,3,0]];
上下文特征:窗口大小=5;
context_inputs[0][0]=new int[]{1,2,62,1443,947};
context_inputs[0][1]=new int[]{1,65,1445,949,4045};
context_inputs[0][2]=new int[]{68,1446,951,4046,1589};
context_inputs[0][3]=new int[]{1447,952,4047,1590,151};
context_inputs[0][4]=new int[]{953,4049,49,154,194};
context_inputs[0][5]=new int[]{4052,52,158,198,39};
context_inputs[0][6]=new int[]{56,162,201,43,44};
context_inputs[0][7]=new int[]{165,203,47,48,44}。
(4)标签关联特征
预测的语义标签为产品词product,品牌词brand和修饰词wanted_deco,进入模型的格式如下:
7、语义理解网络架构
(1)Highway神经网络层
Highway神经网络层能够加深网络的深度,相当于加入了一个门,用于捕获重要语义。
可选地,Highway神经网络层可以基于conv1d实现,具体来说可以包括:基于conv1d计算relu激活函数,基于conv1d计算sigmoid激活函数,定义常量,返回tf.add的Highway层。
可选地,Highway神经网络层可以基于MLP(Multi-Layer Perceptron,多层神经网络)方式实现,和conv1d相比,捕获特征的方式不同,用的是多层感知机。其中,多层感知机可以有多种实现方式,本实施例不做限定。
(2)mask神经网络层
mask神经网络层的功能是减少padding对语义预测的影响,提高网络泛化能力,降低每个类别的损失loss。
(3)循环神经网络层
循环神经网络层可以包括:
1)特征网络层,特征网络层具体可以包括字特征char_embedding、词语特征word_embedding及上下文特征context_embedding,并对这些特征进行拼接。
2)双向循环神经网络层birnn_layer,本实施例可以选用动态的前向和后向的网络,因为语义识别跟上下文序列都有关系。
3)隐藏层Projection_layer:也可以称为投射层,用来计算模型权重W和常数项b等。
4)隐藏层Logits_layer:用于矩阵相乘,reshape(重新调整矩阵的行数、列数、维数等)出更高级别的特征。
5)Cost损失层:做CRF层和Soft_max层的开关,在槽位提取上,CRF用维特比算法进行序列解码。
6)Optimaze优化层:可以选择Adam(自适应优化器)或SGD(随机优化器)等优化器;
7)隐藏层Step层:用于限制批量数据进入网络;
8)Evaluate评估层,用于评估预测准确率,可以根据评估结果确定训练过程是否停止。
示例性的,本实施例语义理解网络模型的关键参数设置如下:
字个数上限:Num_chars:3407
每个字的字向量维度:Char_dim:100
标签个数:Num_tags:13
上下文特征数量:Num_contexts:16771
词语特征向量维度:Word_dim:20
网络单元个数(即每个隐藏层包括的神经元的个数):Num_unites:100
一批训练样本的数量:Batch_size:20
最大梯度归一化:Max_gradient_norm:5
神经元随机保留的概率:Keep_prop:0.5
学习率:Learning_rate:0.001
zeros:true,true表示把所有数字变成0,若是false则不变
lower:true,true表示把所有字母变为小写
use_crf:true,true表示使用CRF网络层
template:窗口设置为2。
8、深度学习整体调参经验
Learning_rate:学习率对网络的训练效果有非常重要的影响,对于确定合理的学习范围,一般来说在不对梯度进行裁剪的情况下,找到使得网络误差极具增大的学习率的最坏上限值,这时候应该选择比该学习率小的值,经验来说,一般设置0.1,0.01,0.001,0.0001。
Batch_size:设置合适的batch_size可以有效利用机器资源,但是设置了过大的batch_size反而可能会降低网络的准确率,因为降低了梯度下降的随机性,一般来说较大的batch_size需要训练更多期epoch才能达到实时batch_size=1的准确率,经验来说batch_size一般设置2,4,8,16,32,64。
神经元随机丢弃概率Dropout:0.1,0.2,0.3,0.5,若过拟合还很严重可以设置0.01,0.005等更小的值。与神经元随机保留概率Keep_prop相对。
L2正则:0.9,1.0(一般不超过10)。
特征Embedding:100,128,256,200
网络层数:可以从1开始实验,一般是2到8层;
Clip_norm:是指梯度裁剪数,为了防止梯度爆炸导致网络崩溃,一般要进行梯度裁剪,值一般设置为5,10,15,20
Conv_filter:卷积核,比如可以设置为1,3,5(一般设置奇数),即1*1、3*3、5*5等
卷积核大小为1的作用:降维度,提升网络表达能力。
9、具体调试过程
(1)后台badcase测试
本申请实施例可以在GPU上搭建预发布服务和测试服务,上线之前,可以进行常用语句的内部测试,发现badcase可以及时优化模型。
(2)上下游联调
上线之前,算法组的模型和服务端以及下游接口进行联调,确保上线性能和效果的可靠性;
(3)评估指标
本实施例算法的离线评估指标是F1值,模型训练优化线上版本的F1值达到0.89;
(4)理解用户语义
语义理解网络模型可以对用户输入信息进行实体预测,预测出产品词、品牌词和修饰词,从而更好地理解用户语义,准确确定用户请求对应的目标业务,从而为用户提供准确的业务服务。
10、实验结果
需要说明的是,本实施例中各可实施的方式可以单独实施,也可以在不冲突的情况下以任意组合方式结合实施本申请不做限定。
本实施例提供的业务服务的处理方法,通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。并且结合CRF网络层确定用户请求对应的目标业务,可以进一步提高用户语义理解的准确性,从而为用户提供更准确的业务服务,提高用户体验。
实施例三
本实施例提供一种业务服务的处理装置,用于执行上述实施例一的方法。
如图4所示,为本实施例提供的业务服务的处理装置的结构示意图。该业务服务的处理装置30包括获取模块31、确定模块32和处理模块33。
其中,获取模块31用于获取用户请求对应的语义特征数据;确定模块32用于基于语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层;处理模块33用于基于目标业务,为用户提供相应的业务服务。
关于本实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本实施例提供的业务服务的处理装置,通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。
实施例四
本实施例对上述实施例三提供的装置做进一步补充说明。
作为一种可实施的方式,在上述实施例三的基础上,可选地,语义特征数据包括字特征、词语特征、上下文特征中的至少一种。
作为另一种可实施的方式,在上述实施例三的基础上,可选地,确定模块,具体用于:
将语义特征数据进行特征拼接后,输入到Highway神经网络层,进行特征融合处理,获得融合特征数据;
将融合特征数据输入到mask神经网络层,进行特征屏蔽处理,获得屏蔽后特征数据;
基于屏蔽后特征数据及循环神经网络层,确定用户请求对应的目标业务。
可选地,确定模块,具体用于:
将屏蔽后特征数据输入到循环神经网络层,获得用户请求对应各业务的概率;
根据用户请求对应各业务的概率,确定用户请求对应的目标业务。
可选地,语义理解网络模型的网络结构还包括CRF网络层;确定模块,具体用于:
基于屏蔽后特征数据及循环神经网络层,确定用户请求对应的目标业务,包括:
基于屏蔽后特征数据、循环神经网络层及CRF网络层,确定用户请求对应的目标业务。
作为另一种可实施的方式,在上述实施例三的基础上,可选地,获取模块,具体用于:
获取用户请求,用户请求包括请求内容文本;
采用预设文本向量算法,对请求内容文本进行特征提取,获得语义特征数据。
如图5所示,为本实施例提供的业务服务的处理装置的结构示意图。
作为另一种可实施的方式,在上述实施例三的基础上,可选地,还包括:训练模块34;
获取模块,还用于获取语义训练数据,语义训练数据包括语义训练特征数据及语义训练槽位标签;
获取模块,还用于对语义训练槽位标签进行BIOES格式转换,获得BIOES格式数据;
训练模块,用于采用语义训练特征数据及BIOES格式数据,对预先建立的语义理解网络进行训练,获得语义理解网络模型。
作为另一种可实施的方式,在上述实施例三的基础上,可选地,循环神经网络层为具有mask屏蔽开关处理功能的长短期记忆LSTM神经网络层。
关于本实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
需要说明的是,本实施例中各可实施的方式可以单独实施,也可以在不冲突的情况下以任意组合方式结合实施本申请不做限定。
根据本实施例的业务服务的处理装置,通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。并且结合CRF网络层确定用户请求对应的目标业务,可以进一步提高用户语义理解的准确性,从而为用户提供更准确的业务服务,提高用户体验。
实施例五
本实施例提供一种服务平台,用于执行上述实施例提供的方法。
如图6所示,为本实施例提供的服务平台的结构示意图。该服务平台50包括:至少一个处理器51和存储器52;
存储器存储计算机程序;至少一个处理器执行存储器存储的计算机程序,以实现上述实施例提供的方法。
根据本实施例的服务平台,通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。
实施例六
本实施例提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,计算机程序被执行时实现上述任一实施例提供的方法。
根据本实施例的计算机可读存储介质,通过采用预先训练好的语义理解网络模型来识别用户的服务需求,语义理解网络模型结合了Highway神经网络层、mask神经网络层及循环神经网络层,可以有效提高用户需求识别的准确性,从而为用户提供准确的业务服务,有效提高用户体验。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (16)
1.一种业务服务的处理方法,其特征在于,包括:
获取用户请求对应的语义特征数据;
基于所述语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,所述语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层;
基于所述目标业务,为用户提供相应的业务服务;
基于所述语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,包括:
将所述语义特征数据进行特征拼接后,输入到Highway神经网络层,进行特征融合处理,获得融合特征数据;
将所述融合特征数据输入到mask神经网络层,进行特征屏蔽处理,获得屏蔽后特征数据;
基于所述屏蔽后特征数据及循环神经网络层,确定用户请求对应的所述目标业务。
2.根据权利要求1所述的方法,其特征在于,所述语义特征数据包括字特征、词语特征、上下文特征中的至少一种。
3.根据权利要求1所述的方法,其特征在于,基于所述屏蔽后特征数据及循环神经网络层,确定用户请求对应的所述目标业务,包括:
将所述屏蔽后特征数据输入到循环神经网络层,获得用户请求对应各业务的概率;
根据用户请求对应各业务的概率,确定用户请求对应的所述目标业务。
4.根据权利要求1所述的方法,其特征在于,所述语义理解网络模型的网络结构还包括CRF网络层;
基于所述屏蔽后特征数据及循环神经网络层,确定用户请求对应的所述目标业务,包括:
基于所述屏蔽后特征数据、循环神经网络层及CRF网络层,确定用户请求对应的所述目标业务。
5.根据权利要求1所述的方法,其特征在于,获取用户请求对应的语义特征数据,包括:
获取用户请求,所述用户请求包括请求内容文本;
采用预设文本向量算法,对所述请求内容文本进行特征提取,获得所述语义特征数据。
6.根据权利要求1所述的方法,其特征在于,所述语义理解网络模型,通过以下过程训练获得:
获取语义训练数据,所述语义训练数据包括语义训练特征数据及语义训练槽位标签;
对所述语义训练槽位标签进行BIOES格式转换,获得BIOES格式数据;
采用所述语义训练特征数据及所述BIOES格式数据,对预先建立的语义理解网络进行训练,获得所述语义理解网络模型。
7.根据权利要求1所述的方法,其特征在于,所述循环神经网络层为具有mask屏蔽开关处理功能的长短期记忆LSTM神经网络层。
8.一种业务服务的处理装置,其特征在于,包括:
获取模块,用于获取用户请求对应的语义特征数据;
确定模块,用于基于所述语义特征数据及预先训练的语义理解网络模型,确定用户请求对应的目标业务,所述语义理解网络模型的网络结构包括Highway神经网络层、mask神经网络层及循环神经网络层;
处理模块,用于基于所述目标业务,为用户提供相应的业务服务;
所述确定模块,具体用于:
将所述语义特征数据进行特征拼接后,输入到Highway神经网络层,进行特征融合处理,获得融合特征数据;
将所述融合特征数据输入到mask神经网络层,进行特征屏蔽处理,获得屏蔽后特征数据;
基于所述屏蔽后特征数据及循环神经网络层,确定用户请求对应的所述目标业务。
9.根据权利要求8所述的装置,其特征在于,所述语义特征数据包括字特征、词语特征、上下文特征中的至少一种。
10.根据权利要求8所述的装置,其特征在于,所述确定模块,具体用于:
将所述屏蔽后特征数据输入到循环神经网络层,获得用户请求对应各业务的概率;
根据用户请求对应各业务的概率,确定用户请求对应的所述目标业务。
11.根据权利要求8所述的装置,其特征在于,所述语义理解网络模型的网络结构还包括CRF网络层;所述确定模块,具体用于:
基于所述屏蔽后特征数据及循环神经网络层,确定用户请求对应的所述目标业务,包括:
基于所述屏蔽后特征数据、循环神经网络层及CRF网络层,确定用户请求对应的所述目标业务。
12.根据权利要求8所述的装置,其特征在于,所述获取模块,具体用于:
获取用户请求,所述用户请求包括请求内容文本;
采用预设文本向量算法,对所述请求内容文本进行特征提取,获得所述语义特征数据。
13.根据权利要求8所述的装置,其特征在于,还包括:训练模块;
所述获取模块,还用于获取语义训练数据,所述语义训练数据包括语义训练特征数据及语义训练槽位标签;
所述获取模块,还用于对所述语义训练槽位标签进行BIOES格式转换,获得BIOES格式数据;
所述训练模块,用于采用所述语义训练特征数据及所述BIOES格式数据,对预先建立的语义理解网络进行训练,获得所述语义理解网络模型。
14.根据权利要求8所述的装置,其特征在于,所述循环神经网络层为具有mask屏蔽开关处理功能的长短期记忆LSTM神经网络层。
15.一种服务平台,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机程序;所述至少一个处理器执行所述存储器存储的计算机程序,以实现权利要求1-7中任一项所述的方法。
16.一种计算机可读存储介质,其特征在于,该计算机可读存储介质中存储有计算机程序,所述计算机程序被执行时实现权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811442251.XA CN111241232B (zh) | 2018-11-29 | 2018-11-29 | 业务服务的处理方法、装置、服务平台及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811442251.XA CN111241232B (zh) | 2018-11-29 | 2018-11-29 | 业务服务的处理方法、装置、服务平台及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111241232A CN111241232A (zh) | 2020-06-05 |
CN111241232B true CN111241232B (zh) | 2024-03-08 |
Family
ID=70870978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811442251.XA Active CN111241232B (zh) | 2018-11-29 | 2018-11-29 | 业务服务的处理方法、装置、服务平台及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111241232B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381450A (zh) * | 2020-12-02 | 2021-02-19 | 广州要啥网信息技术有限公司 | 基于人工智能的社会化需求处理方法、装置、计算机设备 |
CN112802569B (zh) * | 2021-02-05 | 2023-08-08 | 北京嘉和海森健康科技有限公司 | 一种语义信息的获取方法、装置、设备及可读存储介质 |
CN113076345B (zh) * | 2021-03-31 | 2022-07-29 | 烽火通信科技股份有限公司 | 一种系统化的各层业务表项信息管理的方法和装置 |
CN113570106B (zh) * | 2021-05-17 | 2023-11-17 | 国网山东省电力公司潍坊供电公司 | 基于高速公路神经网络的电力负荷预测方法及设备 |
CN113556695B (zh) * | 2021-06-29 | 2022-12-09 | 东软集团股份有限公司 | 一种基于5g消息的信息交互方法、信息交互系统 |
CN114090888B (zh) * | 2021-11-19 | 2022-08-26 | 恒生电子股份有限公司 | 服务模型构建方法及相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104375847A (zh) * | 2013-08-14 | 2015-02-25 | 华为技术有限公司 | 识别业务类型的方法及装置 |
CN108304914A (zh) * | 2017-01-12 | 2018-07-20 | 三星电子株式会社 | 用于高阶长短期记忆网络的系统和方法 |
CN108334497A (zh) * | 2018-02-06 | 2018-07-27 | 北京航空航天大学 | 自动生成文本的方法和装置 |
CN108875589A (zh) * | 2018-05-25 | 2018-11-23 | 武汉东智科技股份有限公司 | 一种道路区域的视频检测方法 |
-
2018
- 2018-11-29 CN CN201811442251.XA patent/CN111241232B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104375847A (zh) * | 2013-08-14 | 2015-02-25 | 华为技术有限公司 | 识别业务类型的方法及装置 |
CN108304914A (zh) * | 2017-01-12 | 2018-07-20 | 三星电子株式会社 | 用于高阶长短期记忆网络的系统和方法 |
CN108334497A (zh) * | 2018-02-06 | 2018-07-27 | 北京航空航天大学 | 自动生成文本的方法和装置 |
CN108875589A (zh) * | 2018-05-25 | 2018-11-23 | 武汉东智科技股份有限公司 | 一种道路区域的视频检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111241232A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111241232B (zh) | 业务服务的处理方法、装置、服务平台及存储介质 | |
CN109101537B (zh) | 基于深度学习的多轮对话数据分类方法、装置和电子设备 | |
CN107480143B (zh) | 基于上下文相关性的对话话题分割方法和系统 | |
CN112270196B (zh) | 实体关系的识别方法、装置及电子设备 | |
CN110705301B (zh) | 实体关系抽取方法及装置、存储介质、电子设备 | |
CN113239700A (zh) | 改进bert的文本语义匹配设备、系统、方法及存储介质 | |
CN110069709B (zh) | 意图识别方法、装置、计算机可读介质及电子设备 | |
CN110928997A (zh) | 意图识别方法、装置、电子设备及可读存储介质 | |
CN112016313B (zh) | 口语化要素识别方法及装置、警情分析系统 | |
CN111581966A (zh) | 一种融合上下文特征方面级情感分类方法和装置 | |
CN112699686B (zh) | 基于任务型对话系统的语义理解方法、装置、设备及介质 | |
CN110879938A (zh) | 文本情感分类方法、装置、设备和存储介质 | |
CN107341143A (zh) | 一种句子连贯性判断方法及装置和电子设备 | |
CN110895559A (zh) | 模型训练、文本处理方法、装置以及设备 | |
CN111695335A (zh) | 一种智能面试方法、装置及终端设备 | |
CN116010581A (zh) | 一种基于电网隐患排查场景的知识图谱问答方法及系统 | |
CN112668333A (zh) | 命名实体的识别方法和设备、以及计算机可读存储介质 | |
CN111242710A (zh) | 业务的分类处理方法、装置、服务平台及存储介质 | |
CN112966507A (zh) | 构建识别模型及攻击识别方法、装置、设备及存储介质 | |
CN110377753B (zh) | 基于关系触发词与gru模型的关系抽取方法及装置 | |
CN111401070B (zh) | 词义相似度确定方法及装置、电子设备及存储介质 | |
CN117290478A (zh) | 一种知识图谱问答方法、装置、设备和存储介质 | |
CN116911286A (zh) | 词典构建方法、情感分析方法、装置、设备及存储介质 | |
Chen et al. | Learning the chinese sentence representation with LSTM autoencoder | |
CN115203206A (zh) | 数据内容搜索方法、装置、计算机设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |