CN113919811A - 基于强化关联的热线事件分拨方法 - Google Patents
基于强化关联的热线事件分拨方法 Download PDFInfo
- Publication number
- CN113919811A CN113919811A CN202111202977.8A CN202111202977A CN113919811A CN 113919811 A CN113919811 A CN 113919811A CN 202111202977 A CN202111202977 A CN 202111202977A CN 113919811 A CN113919811 A CN 113919811A
- Authority
- CN
- China
- Prior art keywords
- event
- input
- attention
- department
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000013598 vector Substances 0.000 claims abstract description 64
- 230000007246 mechanism Effects 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 12
- 230000002787 reinforcement Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 2
- 239000002699 waste material Substances 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Human Resources & Organizations (AREA)
- Artificial Intelligence (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Economics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Primary Health Care (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于强化关联的热线事件分拨方法,首先,通过指针生成网络构建事件画像并得到事件编码。其次,使用基于强化联系的注意力机制来捕获事件编码与“三定”职责拼接向量中的关联信息,得到“事件‑三定”匹配结果。然后,将匹配结果与部门简介编码拼接并输入分类器。最后,经过答案重排序后输出热线事件所对应的分拨部门。该方法有助于辅助热线接线员自动完成工单分拨,克服了接线员手工分拨费时费力的缺陷;同时,为政府提供了数字化、智能化、精细化基层治理的技术基础。
Description
技术领域
本发明涉及一种基于强化关联的热线事件分拨方法。
背景技术
近年来,各地政府在推动热线数字化转型中取得了一些成效,但在事件 分派过程中仍然存在问题。话务员对市民诉求分类的准确判断和对各政府部 门职能的深入了解程度决定了事件分拨的质量。然而,市民致电诉求内容长 短不一,大部分以叙事性描述为主,往往存在描述不清,要素不全等问题。 此外,话务员难以在对市民诉求充分理解的基础上从几十个处置部门中挑选 正确的部门完成事件分拨,这就导致了人工事件分拨的准确率不高,甚至造 成大量的二次分拨。随着热线受理事件类型越来越多、数量越来越庞大,单纯利用热线文本大数据难以实现城市事件的准确分拨,因此,研究一种能够 准确定位事件处置部门的分拨方法具有重要意义。
发明内容
本发明的目的是提供一种基于强化关联的热线事件分拨方法,该方法有 助于辅助热线接线员自动完成工单分拨,克服了接线员手工分拨费时费力的 缺陷;同时,为政府提供了数字化、智能化、精细化基层治理的技术基础。
为了实现上述目的,本发明提供了一种基于强化关联的热线事件分拨方 法,该方法包括:
步骤1、构建事件画像;
步骤2、嵌入政府部门“三定”信息,包括定职能配置、定内设机构、 定人员编制相关数据,由基于强化联系的注意力机制ARA和部门简介编码 两个部分构成;其中,ARA以事件描述和“三定”职责的拼接为输入,以 得到相应的注意力分布为输出;在完成事件画像后,事件描述被指针生成网 络的编码器转换为不定长度的事件内容语义编码向量Vevent,以Vevent作为事 件描述的输入;
步骤3、候选答案重排序,对所有“事件-三定”匹配概率使用加权平均 的方式进行重排序以完成部门选择;对于“三定”权重的选择,使用基于事 件先验知识的权重设定方案,针对各部门历史事件进行建模,构建各部门历 史事件匹配概率分布模型,以设定各部门“三定”权重;
步骤4、输出热线事件分拨部门。
优选地,步骤1中包括:
步骤1.1、构建编码器:采用Bi-LSTM网络作为编码器,从前后两个方 向对输入的信息计算,输入候选词序列X={x1,x2,...,xn},其中,n为输入序列的 长度;按照顺序先输入到Embedding层,将候选词映射到高维向量上;然后, 再将处理好的序列输入到编码器中,得到每个序列的隐藏状态集合 E={e1,e2,...,en};
步骤1.2、构建解码器:采用单向LSTM网络作为解码器,解码器的输 入为Y={y1,y2,...,ym},其中,m为解码器输入序列个数;在解码过程中,输入 序列按照顺序先输入到Embedding层,将输入序列映射到高维向量上,得到 每个输入序列的词向量表示;然后,再将处理好的序列输入到解码器中,得 到每个序列的隐藏状态集合D={d1,d2,...,dm};将注意力机制用在输入序列上以 使得更重要的信息输入至解码器;同时,引入覆盖机制解决生成重复文本的 问题:
αt=soft max(ut) (3)
其中,ct是先前时间步的注意力权重叠加后得到的覆盖向量;
步骤1.3、计算单词表分布:对上下文向量ut进行softmax激活函数操 作后,得到的结果视为在输入序列元素上的概率分布,其中,vT、W1、W2、 Wc和b是模型学习参数;在时刻t的输入序列表征为将et和dt经 过两个线性层得到单词表分布:
Pv(W)=softmax(V'(V[et,dt]+b)+b') (4)
权重wg的计算方式为:
wg=σ(W′1et+W′2dt+W′3xt+b)(5)
其中,W1′、W2'、W3'和b是模型学习参数;经过扩充之后的单词表,在 时间步t的词概率分布为:
优选地,步骤2中包括:
步骤2.1、拼接“事件-三定”编码:针对“三定”职责输入,采用政务 相关领域知识语料对RoBERTa2RoBERTa模型进行fine-tune,并使用fine-tune 后的模型的编码器对“三定”职责进行编码,得到相应的语义编码向量Vsanding; 同时,对Vevent和Vsanding两个向量进行拼接,得到拼接后的“事件-三定”编 码作为注意力层的输入:
Vconcat=concat(Vevent,Vsanding) (7);
步骤2.2、构造注意力矩阵:在注意力层,使用自注意力机制筛选拼接 编码Vconcat中的重要信息:
αx=softmax(Max(Mes)) (9)
其中,为可学习的注意力参数矩阵,dc是拼接向量Vconcat的长度,αx和αy是在两个维度上的联合注意力分布,Max选取矩阵中包含 最大化信息的行或列;为了最大化保留拼接向量中的关联信息,采用 Leaky-ReLU进行注意力矩阵的激活处理:
由于构成Mes的两个输入向量相同,因而Mes矩阵的整体学习目标是更 接近斜对称矩阵,即:
在生成两个方向上的注意力权重后,将拼接编码和两个注意力权重相乘, 得到在两个方向上的注意力得分向量:
步骤2.3、对部门简介进行编码:同步骤2.2采用RoBERTa2RoBERTa 模型的编码器部分对部门简介输入部分进行编码,得到相应的语义编码向量 Vdepart;
步骤2.4、输出“事件-三定”匹配概率:将Vdepart与两个注意力向量拼 接后作为输出结果输入到全连接层,最终使用softmax函数输出相应的“事 件-三定”匹配概率:
Pdep=softmax(concat(sx,sy,Vdepart)) (15)。
优选地,在步骤1的事件画像构建和步骤2的“三定”嵌入过程中,需 要构建模型训练损失函数;在事件画像模块中,t时刻模型损失值可通过对 目标输出单词yt和覆盖向量计算覆盖损失求得:
根据输出端的概率分布,得到输入序列概率最高的L个候选词作为该事 件的标签,刻画事件主要特征。
优选地,在“三定”嵌入过程中,使用标准的交叉熵损失函数对“事件 -三定”匹配模型进行训练:
其中,pi是事件三定匹配概率,yi是指示变量0或1。
优选地,采用联合损失函数对整个网络进行优化,最终的目标函数为最 小化以上两个损失函数:
L=λ1Levent+λ2LARA (19)。
优选地,步骤3中包括:
步骤3.1、统计热线事件数据集中所有n个部门分拨处理的历史事件数 量Qdepart={Q1,Q2,...,Qn};
步骤3.4、重复步骤3.2和步骤3.3,直到得到所有“三定”的权重。
优选地,步骤4中包括:“三定”权重确定之后,答案重排序模块对各 部门“三定”职责描述匹配度的概率值进行加权平均计算各部门概率得分, 最终选取得分最高的部门作为事件的最终分拨部门。
根据上述技术方案,本发明首先对热线事件文本中的事件内容、事件类 型、事件地点等关键信息进行提取并在此基础上构建事件画像;然后,将事 件画像输入“三定”嵌入模块,与政府部门“三定”职责进行匹配,得到适 用于该事件的“三定”职责列表并将其转换为对应部门;最后,对相关答案 进行重排序,输出热线事件的分拨部门。其中,“三定”数据即定职能配置、 定内设机构、定人员编制,主要包含机构规格、主要职责、内设机构及其具体职责、人员编制和领导职数等方面内容。因其与政府部门存在强相关性, 故可以将“三定”数据加入事件匹配任务以提高分拨准确度。在技术上, word2vec、glove等词向量模型往往无法关注到上下文的关联信息,难以处 理自然语言文本中一词多义的情况,而预训练语言模型可以有效解决这类问 题。同时,相对于单向长短期记忆循环神经网络(LSTM),双向LSTM (Bi-LSTM)通过双向语义编码结构获取上下文信息,能够更好地对热线事 件信息进行提取。进一步的,注意力机制可以更深层次地挖掘热线事件和政 府部门“三定”数据的关联关系。
本发明的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本发明的进一步理解,并且构成说明书的一部分,与 下面的具体实施方式一起用于解释本发明,但并不构成对本发明的限制。在 附图中:
图1是本发明提供的基于强化关联的热线事件分拨方法的流程图;
图2是本发明提供的基于强化关联的热线事件分拨方法的模型结构图;
图3是本发明提供的基于强化关联的热线事件分拨方法中构建事件画像 的示意图;
图4是本发明提供的基于强化关联的热线事件分拨方法中ARA事件画 像示意图;
图5是本发明提供的基于强化关联的热线事件分拨方法的中最佳分拨部 门选择流程图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是, 此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
参见图1,本发明提供一种基于强化关联的热线事件分拨方法,该基于 强化关联的热线事件分拨方法包括:
步骤1、构建事件画像;
步骤2、嵌入政府部门“三定”信息,包括定职能配置、定内设机构、 定人员编制相关数据,由基于强化联系的注意力机制ARA和部门简介编码 两个部分构成;其中,ARA(见图4)以事件描述和“三定”职责的拼接为 输入,以得到相应的注意力分布为输出;在完成事件画像后,事件描述被指 针生成网络的编码器转换为不定长度的事件内容语义编码向量Vevent,以 Vevent作为事件描述的输入;
步骤3、候选答案重排序,对所有“事件-三定”匹配概率使用加权平均 的方式进行重排序以完成部门选择;对于“三定”权重的选择,使用基于事 件先验知识的权重设定方案,针对各部门历史事件进行建模,构建各部门历 史事件匹配概率分布模型,以设定各部门“三定”权重;
步骤4、输出热线事件分拨部门。
同时,该分拨方法包括事件画像模块、“三定”嵌入模块和答案重排序 模块三个组成部分,如图2所示。首先,将热线事件文本信息输入到Bi-LSTM 网络,对其中的上下文信息进行编码,将编码后形成的表征向量送入指针生 成网络后产生事件描述向量和事件画像。事件描述向量是由指针生成网络的 编码器部分对表征向量进行编码与归一化处理后所生成的包含一系列上下 文信息的表征向量,将其送入“三定”嵌入模块与“三定”职责编码输入进 行答案选择匹配。事件画像则是由解码器部分将事件描述编码向量解码成对 应的事件关键信息。
在“三定”嵌入模块中,本发明采用针对事件领域知识微调(fine-tune) 后的RoBERTa2RoBERTa模型(即基于RoBERTa的seq2seq模型)的编码器 部分对“三定”职责进行编码,将编码后的“三定”职责向量与事件描述向 量进行拼接后送入到注意力网络中,生成对应的注意力表征向量。将注意力 表征向量分别与“三定”职责向量、事件描述向量相乘得到用于答案选择的 注意力向量表示,将注意力向量表示与部门简介编码向量进行拼接,并将拼 接结果接入softmax函数得到对应的部门概率分布,最终通过重排序模块输 出热线事件的分拨部门。
具体的,步骤1中包括:
步骤1.1、构建编码器:采用Bi-LSTM网络作为编码器,从前后两个方 向对输入的信息计算,输入候选词序列X={x1,x2,...,xn},其中,n为输入序列的 长度;按照顺序先输入到Embedding层,将候选词映射到高维向量上;然后, 再将处理好的序列输入到编码器中,得到每个序列的隐藏状态集合 E={e1,e2,...,en};对第i个隐藏状态ei来说,由于采用的是Bi-LSTM网络,算 法会从前往后和从后往前两个方向计算,得到的隐藏状态ei会充分关联上下 文信息。
步骤1.2、构建解码器:采用单向LSTM网络作为解码器,解码器的输 入为Y={y1,y2,...,ym},其中,m为解码器输入序列个数;在解码过程中,输入 序列按照顺序先输入到Embedding层,将输入序列映射到高维向量上,得到 每个输入序列的词向量表示;然后,再将处理好的序列输入到解码器中,得 到每个序列的隐藏状态集合D={d1,d2,...,dm};为了使解码器产生更合适的输出, 本发明将注意力机制用在输入序列上以将更重要的信息输入至解码器,同时, 引入覆盖机制来解决生成重复文本的问题:
αt=soft max(ut) (3)
其中,ct是先前时间步的注意力权重叠加后得到的覆盖向量;
步骤1.3、计算单词表分布:对上下文向量ut进行softmax激活函数操 作后,得到的结果视为在输入序列元素上的概率分布,其中,vT、W1、W2、 Wc和b是模型学习参数;在时刻t的输入序列表征为将et和dt经 过两个线性层得到单词表分布:
Pv(W)=softmax(V'(V[et,dt]+b)+b') (4)
权重wg的计算方式为:
wg=σ(W1′et+W′2dt+W′3xt+b) (5)
其中,W1′、W2'、W3'和b是模型学习参数;经过扩充之后的单词表,在 时间步t的词概率分布为:
在完成步骤1.1至步骤1.3后,即可根据热线文本生成相应的关键词, 根据时间、地点、人物、事件触发信息等对所生成的关键词进行组织进而得 到该热线的事件画像。构建事件画像如图3所示。
步骤2中包括:
步骤2.1、拼接“事件-三定”编码:针对“三定”职责输入,采用政务 相关领域知识语料对RoBERTa2RoBERTa模型进行fine-tune,并使用fine-tune 后的模型的编码器对“三定”职责进行编码,得到相应的语义编码向量Vsanding; 同时,为了更完整的获取二者的语义信息,对Vevent和Vsanding两个向量进行 拼接,得到拼接后的“事件-三定”编码作为注意力层的输入:
Vconcat=concat(Vevent,Vsanding) (7);
步骤2.2、构造注意力矩阵:在注意力层,使用自注意力机制筛选拼接 编码Vconcat中的重要信息:
αx=softmax(Max(Mes)) (9)
其中,为可学习的注意力参数矩阵,dc是拼接向量Vconcat的长度,αx和αy是在两个维度上的联合注意力分布,Max选取矩阵中包含 最大化信息的行或列。注意到Mes应尽可能多地包含事件内容和“三定”职 责之间的关联信息,若使用tanh作为激活函数,矩阵中的元素mi∈Mes的取 值会被压缩在(-1,1)的区间范围内,进而导致Max(Mes)和Max(MT es)向量 中包含大量的1,元素之间的差距不明显。考虑到softmax函数在差距较大 的分布中对大数更为敏感,为了最大化保留拼接向量中的关联信息,采用 Leaky-ReLU进行注意力矩阵的激活处理:
经过激活处理后,注意力矩阵中正值权重被完整保留,负值权重不会被 完全抛弃,而是被加以压缩后予以保留,压缩比例由系数ai决定。使用这样 的激活方式可以尽可能最大化保留注意力矩阵中的差异化信息,同时强化正 向注意力的效果。由于构成Mes的两个输入向量相同,因而Mes矩阵的整体 学习目标是更接近斜对称矩阵,即:
在生成两个方向上的注意力权重后,将拼接编码和两个注意力权重相乘, 得到在两个方向上的注意力得分向量:
步骤2.3、对部门简介进行编码:同步骤2.2采用RoBERTa2RoBERTa 模型的编码器部分对部门简介输入部分进行编码,得到相应的语义编码向量 Vdepart;
步骤2.4、输出“事件-三定”匹配概率:将Vdepart与两个注意力向量拼 接后作为输出结果输入到全连接层,最终使用softmax函数输出相应的“事 件-三定”匹配概率:
Pdep=softmax(concat(sx,sy,Vdepart)) (15)。
此外,在步骤1的事件画像构建和步骤2的“三定”嵌入过程中,需要 构建模型训练损失函数;在事件画像模块中,t时刻模型损失值可通过对目 标输出单词yt和覆盖向量计算覆盖损失求得:
根据输出端的概率分布,得到输入序列概率最高的L个候选词作为该事 件的标签,刻画事件主要特征。
在“三定”嵌入过程中,使用标准的交叉熵损失函数对“事件-三定” 匹配模型进行训练:
其中,pi是事件三定匹配概率,yi是指示变量0或1。
本发明采用联合损失函数对整个网络进行优化,最终的目标函数为最小 化以上两个损失函数:
L=λ1Levent+λ2LARA (19)。
热线事件经过模型处理后得到与所有“三定”职责描述匹配度的概率值 列表,而后送入答案重排序模块。由于一个部门包含多个职责,因而需要以 部门为标准对匹配结果进行重排序以获得最终输出结果。本发明提出的答案 重排序模块对所有“事件-三定”匹配概率使用加权平均的方式进行重排序, 进而完成部门选择。对于“三定”权重的选择,本发明使用基于事件先验知 识的权重设定方案。考虑到新事件的“三定”匹配概率分布服从历史事件中 “三定”匹配概率分布,本发明针对各部门历史事件进行建模,构建各部门 历史事件匹配概率分布模型,以此设定各部门“三定”权重。
具体的,如图5所示,步骤3中包括:
步骤3.1、统计热线事件数据集中所有n个部门分拨处理的历史事件数 量Qdepart={Q1,Q2,...,Qn};
步骤3.4、重复步骤3.2和步骤3.3,直到得到所有“三定”的权重。
另外,步骤4中包括:“三定”权重确定之后,答案重排序模块对各部 门“三定”职责描述匹配度的概率值进行加权平均计算各部门概率得分,最 终选取得分最高的部门作为事件的最终分拨部门。
综上所述,本发明在“事件-部门”匹配任务中引入对责任部门的“三 定”描述,提出基于答案选择的“事件-三定”匹配模型,将“事件-部门” 匹配的单目标问题转化为“事件-三定-部门”的多阶段问题,利用“三定” 职责描述提升事件分拨的准确率。同时,提出基于强化关联的注意力机制 ARA并应用到“事件-三定”匹配的答案选择模型中,使得模型在计算事件 与“三定”的匹配度过程中能更有效地从“三定”中选择提取相关信息,提 升对“事件-三定”的匹配预测成功率。其次,使用基于政务语料库训练的 BERT模型,有效地加入了政务领域的先验知识,实现了对“三定”职责和 部门简介更为准确的嵌入表示。还利用了热线历史事件分拨结果构建基于先 验知识的重排序模型,以此计算“事件-部门”最终的匹配结果。
以上结合附图详细描述了本发明的优选实施方式,但是,本发明并不限 于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明 的技术方案进行多种简单变型,这些简单变型均属于本发明的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征, 在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的 重复,本发明对各种可能的组合方式不再另行说明。
此外,本发明的各种不同的实施方式之间也可以进行任意组合,只要其 不违背本发明的思想,其同样应当视为本发明所公开的内容。
Claims (8)
1.一种基于强化关联的热线事件分拨方法,其特征在于,所述基于强化关联的热线事件分拨方法包括:
步骤1、构建事件画像;
步骤2、嵌入政府部门“三定”信息,包括定职能配置、定内设机构、定人员编制相关数据,由基于强化联系的注意力机制ARA和部门简介编码两个部分构成;其中,ARA以事件描述和“三定”职责的拼接为输入,以得到相应的注意力分布为输出;在完成事件画像后,事件描述被指针生成网络的编码器转换为不定长度的事件内容语义编码向量Vevent,以Vevent作为事件描述的输入;
步骤3、候选答案重排序,对所有“事件-三定”匹配概率使用加权平均的方式进行重排序以完成部门选择;对于“三定”权重的选择,使用基于事件先验知识的权重设定方案,针对各部门历史事件进行建模,构建各部门历史事件匹配概率分布模型,以设定各部门“三定”权重;
步骤4、输出热线事件分拨部门。
2.根据权利要求1所述的基于强化关联的热线事件分拨方法,其特征在于,步骤1中包括:
步骤1.1、构建编码器:采用Bi-LSTM网络作为编码器,从前后两个方向对输入的信息计算,输入候选词序列X={x1,x2,...,xn},其中,n为输入序列的长度;按照顺序先输入到Embedding层,将候选词映射到高维向量上;然后,再将处理好的序列输入到编码器中,得到每个序列的隐藏状态集合E={e1,e2,...,en};
步骤1.2、构建解码器:采用单向LSTM网络作为解码器,解码器的输入为Y={y1,y2,...,ym},其中,m为解码器输入序列个数;在解码过程中,输入序列按照顺序先输入到Embedding层,将输入序列映射到高维向量上,得到每个输入序列的词向量表示;然后,再将处理好的序列输入到解码器中,得到每个序列的隐藏状态集合D={d1,d2,...,dm};将注意力机制用在输入序列上以使得更重要的信息输入至解码器;同时,引入覆盖机制解决生成重复文本的问题:
αt=soft max(ut) (3)
其中,ct是先前时间步的注意力权重叠加后得到的覆盖向量;
步骤1.3、计算单词表分布:对上下文向量ut进行softmax激活函数操作后,得到的结果视为在输入序列元素上的概率分布,其中,vT、W1、W2、Wc和b是模型学习参数;在时刻t的输入序列表征为将et和dt经过两个线性层得到单词表分布:
Pv(W)=softmax(V'(V[et,dt]+b)+b') (4)
权重wg的计算方式为:
wg=σ(W′1et+W′2dt+W′3xt+b) (5)
其中,W′1、W2'、W3'和b是模型学习参数;经过扩充之后的单词表,在时间步t的词概率分布为:
3.根据权利要求1所述的基于强化关联的热线事件分拨方法,其特征在于,步骤2中包括:
步骤2.1、拼接“事件-三定”编码:针对“三定”职责输入,采用政务相关领域知识语料对RoBERTa2RoBERTa模型进行fine-tune,并使用fine-tune 后的模型的编码器对“三定”职责进行编码,得到相应的语义编码向量Vsanding;同时,对Vevent和Vsanding两个向量进行拼接,得到拼接后的“事件-三定”编码作为注意力层的输入:
Vconcat=concat(Vevent,Vsanding) (7);
步骤2.2、构造注意力矩阵:在注意力层,使用自注意力机制筛选拼接编码Vconcat中的重要信息:
αx=softmax(Max(Mes)) (9)
其中,为可学习的注意力参数矩阵,dc是拼接向量Vconcat的长度,αx和αy是在两个维度上的联合注意力分布,Max选取矩阵中包含最大化信息的行或列;为了最大化保留拼接向量中的关联信息,采用Leaky-ReLU进行注意力矩阵的激活处理:
由于构成Mes的两个输入向量相同,因而Mes矩阵的整体学习目标是更接近斜对称矩阵,即:
在生成两个方向上的注意力权重后,将拼接编码和两个注意力权重相乘,得到在两个方向上的注意力得分向量:
步骤2.3、对部门简介进行编码:同步骤2.2采用RoBERTa2RoBERTa模型的编码器部分对部门简介输入部分进行编码,得到相应的语义编码向量Vdepart;
步骤2.4、输出“事件-三定”匹配概率:将Vdepart与两个注意力向量拼接后作为输出结果输入到全连接层,最终使用softmax函数输出相应的“事件-三定”匹配概率:
Pdep=softmax(concat(sx,sy,Vdepart)) (15)。
6.根据权利要求5所述的基于强化关联的热线事件分拨方法,其特征在于,采用联合损失函数对整个网络进行优化,最终的目标函数为最小化以上两个损失函数:
L=λ1Levent+λ2LARA (19)。
8.根据权利要求1所述的基于强化关联的热线事件分拨方法,其特征在于,步骤4中包括:“三定”权重确定之后,答案重排序模块对各部门“三定”职责描述匹配度的概率值进行加权平均计算各部门概率得分,最终选取得分最高的部门作为事件的最终分拨部门。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111202977.8A CN113919811B (zh) | 2021-10-15 | 2021-10-15 | 基于强化关联的热线事件分拨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111202977.8A CN113919811B (zh) | 2021-10-15 | 2021-10-15 | 基于强化关联的热线事件分拨方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113919811A true CN113919811A (zh) | 2022-01-11 |
CN113919811B CN113919811B (zh) | 2023-01-06 |
Family
ID=79240774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111202977.8A Active CN113919811B (zh) | 2021-10-15 | 2021-10-15 | 基于强化关联的热线事件分拨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113919811B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108169A (zh) * | 2022-12-12 | 2023-05-12 | 长三角信息智能创新研究院 | 一种基于知识图谱的热线工单智能分派方法 |
CN116795963A (zh) * | 2023-05-25 | 2023-09-22 | 上海蜂威科技发展有限公司 | 一种基于知识图谱问答的热线分拨方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020116247A1 (en) * | 2001-02-15 | 2002-08-22 | Tucker Kathleen Ann | Public-initiated incident reporting system and method |
CN112488551A (zh) * | 2020-12-11 | 2021-03-12 | 浪潮云信息技术股份公司 | 一种基于XGBoost算法的热线智能派单方法 |
CN112541351A (zh) * | 2020-12-08 | 2021-03-23 | 济南市城乡建设数字化中心 | 一种住建领域政务热线工单派发方法及系统 |
CN112581106A (zh) * | 2021-02-23 | 2021-03-30 | 苏州工业园区测绘地理信息有限公司 | 一种融合处置机构网格语义的政务事件自动派单方法 |
-
2021
- 2021-10-15 CN CN202111202977.8A patent/CN113919811B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020116247A1 (en) * | 2001-02-15 | 2002-08-22 | Tucker Kathleen Ann | Public-initiated incident reporting system and method |
CN112541351A (zh) * | 2020-12-08 | 2021-03-23 | 济南市城乡建设数字化中心 | 一种住建领域政务热线工单派发方法及系统 |
CN112488551A (zh) * | 2020-12-11 | 2021-03-12 | 浪潮云信息技术股份公司 | 一种基于XGBoost算法的热线智能派单方法 |
CN112581106A (zh) * | 2021-02-23 | 2021-03-30 | 苏州工业园区测绘地理信息有限公司 | 一种融合处置机构网格语义的政务事件自动派单方法 |
Non-Patent Citations (2)
Title |
---|
邱文: "公众诉求事件关键数据的空间智能提取与分析", 《城市勘测》 * |
陈辉等: "自然语言分析技术在政务热线中的应用", 《江苏通信》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108169A (zh) * | 2022-12-12 | 2023-05-12 | 长三角信息智能创新研究院 | 一种基于知识图谱的热线工单智能分派方法 |
CN116108169B (zh) * | 2022-12-12 | 2024-02-20 | 长三角信息智能创新研究院 | 一种基于知识图谱的热线工单智能分派方法 |
CN116795963A (zh) * | 2023-05-25 | 2023-09-22 | 上海蜂威科技发展有限公司 | 一种基于知识图谱问答的热线分拨方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113919811B (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108536679B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
CN113919811B (zh) | 基于强化关联的热线事件分拨方法 | |
CN109492227A (zh) | 一种基于多头注意力机制和动态迭代的机器阅读理解方法 | |
CN109359293A (zh) | 基于神经网络的蒙古文命名实体识别方法及其识别系统 | |
CN109492202A (zh) | 一种基于拼音的编码与解码模型的中文纠错方法 | |
CN111324717A (zh) | 一种面向开放域问答的基于机器阅读理解的答案获取方法及系统 | |
CN110717843A (zh) | 一种可复用的法条推荐框架 | |
CN112001166B (zh) | 面向政务咨询服务的智能问答句子对语义匹配方法和装置 | |
CN112000771B (zh) | 一种面向司法公开服务的句子对智能语义匹配方法和装置 | |
CN112633364A (zh) | 一种基于Transformer-ESIM注意力机制的多模态情绪识别方法 | |
CN112347756B (zh) | 一种基于序列化证据抽取的推理阅读理解方法及系统 | |
CN113609326B (zh) | 基于外部知识和目标间关系的图像描述生成方法 | |
CN117421591A (zh) | 一种基于文本引导图像块筛选的多模态表征学习方法 | |
CN111966800A (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN112990196B (zh) | 基于超参数搜索和二阶段训练的场景文字识别方法及系统 | |
CN113536804B (zh) | 一种基于关键词强化的GRU和Kronecker的自然语言特征提取方法 | |
CN112528643A (zh) | 一种基于神经网络的文本信息提取方法及装置 | |
CN112270344A (zh) | 一种基于cbam的图像描述生成模型方法 | |
CN114925195A (zh) | 一种融合词汇编码与结构编码的标准内容文本摘要生成方法 | |
CN113239174A (zh) | 一种基于双层解码的层次化多轮对话生成方法及装置 | |
CN117591648A (zh) | 基于情绪细微感知的电网客服共情对话回复生成方法 | |
CN113239678B (zh) | 一种面向答案选择的多角度注意力特征匹配方法及系统 | |
CN114219682A (zh) | 基于bert隐藏层信息的案件判决预测方法、系统及介质 | |
CN111818397B (zh) | 一种基于长短时记忆网络变体的视频描述生成方法 | |
CN112182162A (zh) | 一种基于记忆神经网络的个性化对话方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |