CN113688204B - 一种利用相似场景及混合注意力的多人会话情感预测方法 - Google Patents
一种利用相似场景及混合注意力的多人会话情感预测方法 Download PDFInfo
- Publication number
- CN113688204B CN113688204B CN202110936166.4A CN202110936166A CN113688204B CN 113688204 B CN113688204 B CN 113688204B CN 202110936166 A CN202110936166 A CN 202110936166A CN 113688204 B CN113688204 B CN 113688204B
- Authority
- CN
- China
- Prior art keywords
- sequence
- emotion
- attention
- similar
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 115
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000013598 vector Substances 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims abstract description 15
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000000737 periodic effect Effects 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000007774 longterm Effects 0.000 abstract description 3
- 230000003993 interaction Effects 0.000 description 6
- 201000008217 Aggressive systemic mastocytosis Diseases 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种利用相似场景及混合注意力的多人会话情感预测方法,属于文本情感预测。本发明首先从原始文本序列获得文本情感空间映射,接着使用揭示周期性和相似规律的相似场景搜索方法,通过输入序列找到与当前场景相对应的注意力序列;采用基于长短期记忆神经网络的双阶段编码‑解码结构,预测目标人物未来文本情感向量,进一步可得到未来目标人物待发布文本情感,并通过损失函数求得编码阶段和解码阶段的总损失。本发明采用文本情感空间映射和相似场景搜索方法对多人会话情感进行预测,结合相似场景搜索和混合注意力提取,通过学习有效的历史数据,可用于长期预测,并且能够加强模型学习的精确性和针对性,极大程度地提升了预测精度。
Description
技术领域
本发明属于文本情感预测,更具体地说,涉及一种利用相似场景及混合注意力的多人会话情感预测方法。
背景技术
互联网时代,各类社交通信软件繁多,人们利用文字进行信息互换,形成的文本往往反映了文本发布者的情感态度,这些信息都潜藏着一定社会效益和经济效益。如果能够有效预测文本发布者未来发布的情感态度,对于政府来说,可以及时了解民意导向并为下一步战略实施作出调整;对于企业来说,可以及时了解市场倾向并为新产品的投放奠定良好基础,提升经济收益。因此,针对文本类型数据,本文将研究文本情感预测问题,同时由于人们发布的文本通常以时间序列M形式出现,因此本文还将研究时间序列M预测问题。
目前,大部分文本情感预测问题基于分类思想,通过大量标注文本训练情感分类器,由训练器预测新文本情感。对于深度学习方法而言,含有记忆单元的深度神经网络被广泛应用于文本情感分类中,例如循环神经网络RNN,长短期记忆网络LSTM和双向长短期记忆网络Bi-LSTM;除此以外,卷积神经网络也被用于文本情感预测。
分类号:TP391的论文《联系人中心聊天话语中的细粒度情感检测》使用CNN从给定文本中抽取情感特征,从而对文本做情感表示,分类号:TP391的论文《文本情感:基于文本情感预测的机器学习》利用有监督机器学习模型对童话故事进行情感分类。这两种方法无法在多人会话场景下捕捉其他参与者对目标人物的情感刺激。
在真实场景中,按时间顺序发布的文本可抽象成时间序列,因此可以借鉴时间序列预测方法。具体而言包括:分类号为TP391的论文《基于混合神经网络和注意力机制的混沌时间序列预测》,它对时间序列进行重构相空间,利用CNN提取空间特征后再用LSTM提取时空特征,能够得到更完整的特征表示,存在注意力感知缺失,相似场景粒度分析不到位等问题;分类号为TP391的论文《基于深度学习模型DeepAR》,通过训练历史数据学习到一个网络参数,再利用该参数进行预测,存在对时间序列有效历史信息的学习效果差,错误传播的影响大的问题。
基于上述工作,可以发现仍存在以下不足:在现实生活中,通过训练分类器预测文本情感,通常是借鉴时间序列预测的思想,将文本以时间序列形式组装,通过已知时刻已发布文本情感来推测下一时刻待发布文本情感类别。但是从时间序列预测的角度来看,现有工作仍无法应对。例如在现实生活中多人会话情景下,无法捕捉其他参与者对目标人物的情感刺激,以及对于时间序列有效历史信息的学习效果差,相似场景粒度分析不到位,注意力感知缺失以及错误传播的影响大等。
发明内容
针对现有的文本情感预测方法无法基于时间序列预测的思想采用训练分类器进行预测,并且在多人会话情景下无法捕捉其他参与者对目标人物的情感刺激的问题,本发明提供一种利用相似场景及混合注意力的多人会话情感预测方法,采用文本情感空间映射和相似场景搜索方法对多人会话情感进行预测,能够加强模型学习的精确性和针对性,极大程度地提升了预测精度,减小误差。
为解决上述问题,本发明采用如下的技术方案。
一种利用相似场景及混合注意力的多人会话情感预测方法,包括如下步骤:
步骤一、建立情感序列:对原始文本序列D进行情感空间映射,即对原始文本序列标注情感类别并将原始文本序列D表示成n维情感向量序列D′,从情感向量序列D′中抽取其他参与者情感向量与目标人物情感向量组成时间序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},时间序列M的长度为Th,其中,Others_ASMs表示其他参与者情感向量,Target_ASM表示目标人物情感向量;
步骤二、选取输入序列并构建当前场景:根据步骤一中长度为Th的时间序列M,从中选取一组长度为h的序列作为输入序列Xh,Xh={xi,xi+1,……,xi-1+h},其中,xi∈M,i≤h;设定预测空间长度Tf,在长度Tf内定义一组长度为f的序列Yf={yi+h,yi+h+1,……,yi+h-1+f,}序列Yf用于记录输入序列Xh的预测结果,即序列Yf为待预测序列,即yi+h是根据输入序列Xh预测得到的首个元素;其中,由输入序列Xh和待预测序列Yf组成当前场景sp={Xh,Yf};
步骤三、建立相似场景:先设定一个容量为Top-K的候选池,并根据当前场景sp下的输入序列Xh以及预测长度Tf,从时间序列M中搜索Top-K组和当前场景sp有相似趋势和变化规律的序列,即相似场景s1,根据相似场景s1计算得到注意力序列A;
步骤四、求得编码损失:采用基于长短期记忆神经网络的双阶段编码-译码结构,在编码第一阶段,将输入序列Xh作为编码器第一阶段的输入,并通过神经网络中的损失函数进行模型训练,求得编码第一阶段的损失l1;
步骤五、计算混合注意力:先计算解码第一阶段的原始状态,原始状态为神经网络中的隐藏层状态;
在编码第二阶段,对步骤三中得到的注意力序列A进行注意力编码,将注意力序列A作为编码器第二阶段输入,再结合原始状态计算混合注意力;
步骤六、求得第二阶段解码损失:在解码第二阶段,利用步骤五中的混合注意力和原始状态进行情感预测,求得目标人物情感序列预测值,从而得到目标人物待发布文本情感;并通过神经网络中的损失函数进行模型训练,求得第二阶段的解码损失l2;
步骤七、计算总损失:将编码第一阶段的损失l1和第二阶段的解码损失l2相加计算总损失l,l=l1+l2,训练模型,验证并测试模型泛化性。
进一步的,步骤三中,所述相似场景s1={X′n,Y′m},其中,
X′n={x′i,x′i+1,……,x′i+n-1};
Y′m={y′i+h,y′i+h+1,……,y′i+h-1};
X′n≈Xh;X′n≈Xh表示X′n和Xh在数据表现形式上相似;
将Top-K组相似场景s1中Y′m部分加权平均得到注意力序列A={a1,a2,……,at,t∈Tf}。
进一步的,相似场景s1搜索方法是先通过寻找与当前场景sp下输入序列近似的序列,来找到完整的相似场景s1;具体包括:
B1:使用时间最近邻通道搜索方法,设当前时刻t,并根据预测长度Tf确定前向搜索长度L,在t-L~t之间按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B2;
B2:使用周期通道搜索,检索时间序列M中的重要时刻数据点,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B3;
B3:使用周期偏移搜索,通过结合时间最近邻搜索和周期通道搜索,检索时间序列M中的重要时刻数据点,并以L/8为前向和后向搜索长度,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,返回执行步骤B1,直至搜索得到Top-K个相似场景s1;
其中,重要时刻的数据点为在历史时刻与当前时刻表现相似的数据点,或根据时间序列M固有的周期性定位一周前或一个月前或一年前的数据点。
利用公式计算时间对齐注意力lt=σ(Waat+bt),其中,σ表示sigmoid函数,Wa表示权重矩阵,bt表示偏差;
相比于现有技术,本发明的有益效果为:
(1)本发明的一种利用相似场景及混合注意力的多人会话情感预测方法,该方法中文本情感映射克服了需要在已知文本内容前提下进行情感预测的限制,并且能够捕获到其他参与者对目标人物的情感刺激。
(2)本发明的一种利用相似场景及混合注意力的多人会话情感预测方法,相似场景搜索方法从时间序列M中学习有效历史信息,极大程度地提升了预测精度。同时采用由时间对齐注意力和基于上下文的注意力组成的混合注意力,能够更好地适应时间序列M时序特征,最大限度地捕获和保持需要被关注的信息,并确保注意力权重分布在期望区域,有利于网络收敛。
(3)本发明的一种利用相似场景及混合注意力的多人会话情感预测方法,采用双阶段的处理能够加强模型学习的精确性和针对性,减小误差。
附图说明
图1为本发明的整体流程框图;
图2为本发明的文本情感空间映射的流程框图;
图3为本发明的相似场景搜索方法的流程框图;
图4为本发明的重要时刻的数据点搜索的流程图;
图5为本发明的神经网络编码器和解码器的工作流程图。
具体实施方式
下面结合具体实施例和附图对本发明进一步进行描述。
实施例1
一种利用相似场景及混合注意力的多人会话情感预测方法,如图1所示,本方法包括如下步骤:
步骤一、对给定的文本进行情感空间映射(Affective Space Mapping,ASM),将每段文本用多维情感向量来表示,并将表示目标人物所发布文本的情感向量序列(Target_ASM)和其他参与者所发布文本的情感向量序列(Others_ASMs)组成情感序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},情感序列M的长度为Th,得到预处理后的数据集。
步骤二、在长度为Th的时间序列M中选取一组长度为h的序列作为输入序列Xh,Xh={xi,xi+1,……,xi-1+h},其中,xi∈M,i≤h;设定预测空间长度Tf,在长度Tf内定义一组长度为f的序列Yf={yi+h,yi+h+1,……,yi+h-1+f,}来承接针对输入序列Xh的预测结果,即序列Yf为待预测序列,其中待预测序列Yf内第一个元素yi+h是输入序列Xh内最后一个元素xi-1+h的后继元素,即yi+h是根据输入序列Xh预测得到的首个元素;其中,yi+h={Others_ASMs_i+h,Target_ASM_i+h},由输入序列Xh和待预测序列Yf组成当前场景sp={Xh,Yf}。
步骤三、先设定一个容量为Top-K的候选池,并根据当前场景sp下的输入序列Xh以及预测长度Tf,通过揭示周期性和相似规律的相似场景搜索方法,从时间序列M中搜索Top-K组和当前场景sp有相似趋势和变化规律的序列,即相似场景s1,s1={X′n,Y′m},当X′n与Xh相似时,学习相似场景sl的特征用于预测将是有意义的;将Top-K组相似场景s1中Y′m部分加权平均得到注意力序列A={a1,a2,……,at,t∈Tf}。其中,
X′n={x′i,x′i′+1,……,x′i+n-1};
Y′m={y′i+h,y′i+h+1,……,y′i+h-1};
X′n≈Xh。
步骤四、如图5所示,采用基于长短期记忆神经网络的双阶段编码-译码结构,将输入序列Xh和注意力序列A分离。在编码第一阶段,将输入序列Xh作为编码器第一阶段的输入,利用公式更新输入状态,t∈Th,并通过神经网络中的损失函数进行模型训练,求得编码第一阶段的损失l1,得到输入状态序列
利用公式计算时间对齐注意力lt=σ(Waat+bt),时间对齐注意力为在不同历史时期,相同位置的元素可能存在直接联系,从而可以获取相似场景s1和当前场景sp在相同位置数据的联系,预测周期规律,其中,σ表示sigmoid函数,Wa表示权重矩阵,bt表示偏差;
步骤六、如图5所示,在解码第二阶段,利用公式进行情感预测,求得目标人物情感序列预测值yt,其中,混合注意力通过修正模型预测值,减少误差对预测值的影响,Ws y和Ws a表示权重矩阵,by表示误差。在得到预测值后即得到目标人物待发布文本情感,并通过神经网络中的损失函数进行模型训练,在编码第二阶段求得解码第二阶段的损失l2。其中,情感预测是通过提取多人会话情景下时间序列M的长期趋势、周期性等有效信息来对目标人物未来待发布文本进行情感预测。
步骤七、将编码第一阶段的损失l1和解码第二阶段的损失l2相加计算总损失l,l=l1+l2,训练模型,验证并测试模型泛化性。
如图2所示,文本情感空间映射流程图如下:
A1:对原始文本序列D={d1,d2,……,di};进行形如[Target_Flag,Emotion_Index]的情感类别标注,其中,Target_Flag表示当前发布文本是否由预测目标发布,Emotion_Index表示当前文本所属情感类别序号,进一步可以获得原始文本序列D的情感类别序列。
A2:根据情感类别序列计算原始文本序列D上的全局情感交互模式EIP,全局情感交互模式EIP是一个n维方正,包含了整个原始文本序列D在每个情感类别上的n维向量表示,将原始文本序列D的情感类别序列以连续的方式表示,其中,先初始化全局交互词典,设定大小为2,步长为1的时间窗口观察相邻两时刻文本情感变化,遍历情感类别序列并更新全局交互词典,获取原始文本序列D上的全局情感交互模式EIP,全局情感交互模式EIP下标最大值即代表对应情感类别。
A3:将原始文本序列D中每条文本表示为n维情感向量,首先对文本分词,将词向量维度固定为256,利用Skip-2-gram以增量方式逐步预训练原始文本序列D中每个词语的词向量,将原始文本序列D中每条文本用预训练词向量均值表示,训练Bi-LSTM作为n类情感分类器,再次计算每条文本在n类情感上的logits,并用softmax对n维logits标准化,标准化后的n维logits即为每条文本的n维情感向量D′={E1,E2,……,Ei,Ei=(e1,e2,……,en)∈Rn,en∈R},其中,en代表情感,Ei表示n维情感向量序列。
A4:根据预先标注的Target_Flag分别从情感向量序列D′中抽取目标人物情感向量Target_ASM和其他参与者情感向量Others_ASMs,组成时间序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},时间序列M的长度为Th。
如图3和图4所示,相似场景搜索方法流程图如下:
B1:使用时间最近邻通道搜索方法,设当前时刻t,并根据预测长度Tf确定前向搜索长度L,在t-L~t之间按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B2;
B2:使用周期通道搜索,检索时间序列M中的重要时刻数据点,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B3;
B3:使用周期偏移搜索,通过结合时间最近邻搜索和周期通道搜索,检索时间序列M中的重要时刻数据点,并以L/8为前向和后向搜索长度,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,返回执行步骤B1,直至搜索得到Top-K个相似场景s1;
其中,重要时刻的数据点为在历史时刻与当前时刻表现相似的数据点,或根据时间序列M固有的周期性定位一周前或一个月前或一年前的数据点。
本发明首先从原始文本序列D获得文本情感空间映射,即对文本标注情感类别并将文本表示成多维情感向量D′,从中抽取其他参与者的情感向量(Others_ASMs)与目标人物的情感向量(Target_ASM)组成情感序列M;接着使用揭示周期性和相似规律的相似场景搜索方法,通过选定一组输入序列Xh,找到一组与当前场景相对应的注意力序列A;采用基于长短期记忆神经网络的双阶段编码-解码结构,在编码第一阶段,输入序列Xh通过损失函数进行模型训练,并求损失l1;在编码第二阶段借用注意力机制,从相似场景的注意力序列A中提取时间对齐注意力lt和基于上下文的注意力ct,并通过门控结构组成混合注意力在解码部分通过原始状态和混合注意力状态预测目标人物未来文本情感向量,进一步可得到未来目标人物待发布文本情感,并通过损失函数进行模型训练,求总的损失。本发明结合相似场景搜索和混合注意力提取,通过学习有效的历史数据,可用于长期预测,并且具有较高预测精度。
本发明所述实例仅仅是对本发明的优选实施方式进行描述,并非对本发明构思和范围进行限定,在不脱离本发明设计思想的前提下,本领域工程技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的保护范围。
Claims (6)
1.一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:包括如下步骤:
步骤一、建立情感序列:对原始文本序列D进行情感空间映射,即对原始文本序列标注情感类别并将原始文本序列D表示成n维情感向量序列D′,从情感向量序列D′中抽取其他参与者情感向量与目标人物情感向量组成时间序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},时间序列M的长度为Th,其中,Others_ASMs表示其他参与者情感向量,Target_ASM表示目标人物情感向量;
步骤二、选取输入序列并构建当前场景:根据步骤一中长度为Th的时间序列M,从中选取一组长度为h的序列作为输入序列Xh,Xh={xi,xi+1,……,xi-1+h},其中,xi∈M,i≤h;设定预测空间长度Tf,在长度Tf内定义一组长度为f的序列Yf={yi+h,yi+h+1,……,yi+h-1+f,}序列Yf用于记录输入序列Xh的预测结果,即序列Yf为待预测序列,即yi+h是根据输入序列Xh预测得到的首个元素;其中,由输入序列Xh和待预测序列Yf组成当前场景sp={Xh,Yf};
步骤三、建立相似场景:先设定一个容量为Top-K的候选池,并根据当前场景sp下的输入序列Xh以及预测长度Tf,从时间序列M中搜索Top-K组和当前场景sp有相似趋势和变化规律的序列,即相似场景s1,根据相似场景s1计算得到注意力序列A;
步骤四、求得编码损失:采用基于长短期记忆神经网络的双阶段编码-译码结构,在编码第一阶段,将输入序列Xh作为编码器第一阶段的输入,并通过神经网络中的损失函数进行模型训练,求得编码第一阶段的损失l1;
步骤五、计算混合注意力:先计算解码第一阶段的原始状态,原始状态为神经网络中的隐藏层状态;在编码第二阶段,对步骤三中得到的注意力序列A进行注意力编码,将注意力序列A作为编码器第二阶段输入,再结合原始状态计算混合注意力;
步骤六、解码预测:在解码第二阶段,利用步骤五中的混合注意力和原始状态进行情感预测,求得目标人物情感序列预测值,从而得到目标人物待发布文本情感;并通过神经网络中的损失函数进行模型训练,求得第二阶段的解码损失l2;
步骤七、计算总损失:将编码第一阶段的损失l1和第二阶段的解码损失l2相加计算总损失l,l=l1+l2,训练模型,验证并测试模型泛化性。
2.根据权利要求1所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:步骤三中,所述相似场景s1={X′n,Y′m},其中,
X′n={x′i,x′i+1,……,x′i+n-1};
Y′m={y′i+h,y′i+h+1,……,y′i+h-1};
X′n≈Xh;X′n≈Xh表示X′n和Xh在数据表现形式上相似;
将Top-K组相似场景s1中Y′m部分加权平均得到注意力序列A={a1,a2,……,at,t∈Tf}。
3.根据权利要求2所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:相似场景s1搜索方法是先通过寻找与当前场景sp下输入序列近似的序列,来找到完整的相似场景s1;具体包括:
B1:使用时间最近邻通道搜索方法,设当前时刻t,并根据预测长度Tf确定前向搜索长度L,在t-L~t之间按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B2;
B2:使用周期通道搜索,检索时间序列M中的重要时刻数据点,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B3;
B3:使用周期偏移搜索,通过结合时间最近邻搜索和周期通道搜索,检索时间序列M中的重要时刻数据点,并以L/8为前向和后向搜索长度,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,返回执行步骤B1,直至搜索得到Top-K个相似场景s1;
其中,重要时刻的数据点为在历史时刻与当前时刻表现相似的数据点,或根据时间序列M固有的周期性定位一周前或一个月前或一年前的数据点。
5.根据权利要求4所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:步骤五中,原始状态的计算公式为:其中,y0为已知值;将注意力序列A作为编码器第二阶段的输入,利用公式更新注意力状态,t∈Tf,得到注意力状态序列
利用公式计算时间对齐注意力lt=σ(Waat+bt),其中,σ表示sigmoid函数,Wa表示权重矩阵,bt表示偏差;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110936166.4A CN113688204B (zh) | 2021-08-16 | 2021-08-16 | 一种利用相似场景及混合注意力的多人会话情感预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110936166.4A CN113688204B (zh) | 2021-08-16 | 2021-08-16 | 一种利用相似场景及混合注意力的多人会话情感预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113688204A CN113688204A (zh) | 2021-11-23 |
CN113688204B true CN113688204B (zh) | 2023-04-25 |
Family
ID=78579953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110936166.4A Active CN113688204B (zh) | 2021-08-16 | 2021-08-16 | 一种利用相似场景及混合注意力的多人会话情感预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113688204B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114743072B (zh) * | 2022-05-24 | 2023-01-31 | 中国科学院计算机网络信息中心 | 一种短期时间序列预测模型的训练方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543722A (zh) * | 2018-11-05 | 2019-03-29 | 中山大学 | 一种基于情感分析模型的情感趋势预测方法 |
CN109800295A (zh) * | 2019-01-11 | 2019-05-24 | 南京信息工程大学 | 基于情感词典和词概率分布的情感会话生成方法 |
CN109948165A (zh) * | 2019-04-24 | 2019-06-28 | 吉林大学 | 基于混合注意力网络的细粒度情感极性预测方法 |
CN111368082A (zh) * | 2020-03-03 | 2020-07-03 | 南京信息工程大学 | 一种基于层次网络的领域自适应词嵌入的情感分析方法 |
WO2020204460A1 (en) * | 2019-04-01 | 2020-10-08 | Samsung Electronics Co., Ltd. | A method for recognizing human emotions in images |
CN111881262A (zh) * | 2020-08-06 | 2020-11-03 | 重庆邮电大学 | 基于多通道神经网络的文本情感分析方法 |
CN112257647A (zh) * | 2020-11-03 | 2021-01-22 | 徐州工程学院 | 基于注意力机制的人脸表情识别方法 |
CN112784532A (zh) * | 2021-01-29 | 2021-05-11 | 电子科技大学 | 用于短文本情感分类的多头注意力记忆网络 |
CN112951201A (zh) * | 2021-02-07 | 2021-06-11 | 广东电网有限责任公司广州供电局 | 一种营业厅环境下端到端的情感语音合成方法 |
CN113051916A (zh) * | 2021-04-23 | 2021-06-29 | 东南大学 | 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法 |
CN113076905A (zh) * | 2021-04-16 | 2021-07-06 | 华南理工大学 | 一种基于上下文交互关系的情绪识别方法 |
CN113254625A (zh) * | 2021-07-15 | 2021-08-13 | 国网电子商务有限公司 | 一种基于交互融合的情感对话生成方法及系统 |
-
2021
- 2021-08-16 CN CN202110936166.4A patent/CN113688204B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543722A (zh) * | 2018-11-05 | 2019-03-29 | 中山大学 | 一种基于情感分析模型的情感趋势预测方法 |
CN109800295A (zh) * | 2019-01-11 | 2019-05-24 | 南京信息工程大学 | 基于情感词典和词概率分布的情感会话生成方法 |
WO2020204460A1 (en) * | 2019-04-01 | 2020-10-08 | Samsung Electronics Co., Ltd. | A method for recognizing human emotions in images |
CN109948165A (zh) * | 2019-04-24 | 2019-06-28 | 吉林大学 | 基于混合注意力网络的细粒度情感极性预测方法 |
CN111368082A (zh) * | 2020-03-03 | 2020-07-03 | 南京信息工程大学 | 一种基于层次网络的领域自适应词嵌入的情感分析方法 |
CN111881262A (zh) * | 2020-08-06 | 2020-11-03 | 重庆邮电大学 | 基于多通道神经网络的文本情感分析方法 |
CN112257647A (zh) * | 2020-11-03 | 2021-01-22 | 徐州工程学院 | 基于注意力机制的人脸表情识别方法 |
CN112784532A (zh) * | 2021-01-29 | 2021-05-11 | 电子科技大学 | 用于短文本情感分类的多头注意力记忆网络 |
CN112951201A (zh) * | 2021-02-07 | 2021-06-11 | 广东电网有限责任公司广州供电局 | 一种营业厅环境下端到端的情感语音合成方法 |
CN113076905A (zh) * | 2021-04-16 | 2021-07-06 | 华南理工大学 | 一种基于上下文交互关系的情绪识别方法 |
CN113051916A (zh) * | 2021-04-23 | 2021-06-29 | 东南大学 | 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法 |
CN113254625A (zh) * | 2021-07-15 | 2021-08-13 | 国网电子商务有限公司 | 一种基于交互融合的情感对话生成方法及系统 |
Non-Patent Citations (2)
Title |
---|
Yao Qin 等.A Dual-Stage Attention-Based Recurrent Neural Network for Time Series Prediction.《International Joint Conference on Artificial Intelligence (IJCAI)》.2017,1-7. * |
任晓奎 等.嵌入常识的混合注意力LSTM用于主题情感分析.《计算机应用与软件》.2019,第36卷(第10期),151-155,161. * |
Also Published As
Publication number | Publication date |
---|---|
CN113688204A (zh) | 2021-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110147892B (zh) | 基于变分轨迹上下文感知的人类移动模式推测模型、训练方法及推测方法 | |
CN108763284B (zh) | 一种基于深度学习和主题模型的问答系统实现方法 | |
CN108875807B (zh) | 一种基于多注意力多尺度的图像描述方法 | |
CN107608943B (zh) | 融合视觉注意力和语义注意力的图像字幕生成方法及系统 | |
CN111274398B (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
Abbasi et al. | Modeling teacher-student techniques in deep neural networks for knowledge distillation | |
CN111414476A (zh) | 一种基于多任务学习的属性级情感分析方法 | |
CN109543180A (zh) | 一种基于注意力机制的文本情感分析方法 | |
CN111079409B (zh) | 一种利用上下文和方面记忆信息的情感分类方法 | |
CN110110140A (zh) | 基于注意力扩展编解码网络的视频摘要方法 | |
CN111104604B (zh) | 基于哈希学习的轻量级社会化推荐方法 | |
CN109189862A (zh) | 一种面向科技情报分析的知识库构建方法 | |
CN111310852A (zh) | 一种图像分类方法及系统 | |
CN114186568B (zh) | 一种基于关系编码和层次注意力机制的图像段落描述方法 | |
CN111461455B (zh) | 一种基于关联周期注意力机制的行为预测方法 | |
CN113673254A (zh) | 基于相似度保持的知识蒸馏的立场检测方法 | |
CN110704510A (zh) | 一种结合用户画像的题目推荐方法及系统 | |
Yu et al. | Tulsn: siamese network for trajectory-user linking | |
CN113688204B (zh) | 一种利用相似场景及混合注意力的多人会话情感预测方法 | |
CN110990678B (zh) | 基于增强型循环神经网络的轨迹相似性计算方法 | |
CN114613004B (zh) | 一种人体动作的轻量化在线检测方法 | |
CN111930981A (zh) | 一种草图检索的数据处理方法 | |
CN110175330A (zh) | 一种基于注意力机制的命名实体识别方法 | |
Seo et al. | A graph embedding technique for weighted graphs based on LSTM autoencoders | |
CN116860943A (zh) | 对话风格感知与主题引导的多轮对话方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |