CN113688204B - 一种利用相似场景及混合注意力的多人会话情感预测方法 - Google Patents

一种利用相似场景及混合注意力的多人会话情感预测方法 Download PDF

Info

Publication number
CN113688204B
CN113688204B CN202110936166.4A CN202110936166A CN113688204B CN 113688204 B CN113688204 B CN 113688204B CN 202110936166 A CN202110936166 A CN 202110936166A CN 113688204 B CN113688204 B CN 113688204B
Authority
CN
China
Prior art keywords
sequence
emotion
attention
similar
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110936166.4A
Other languages
English (en)
Other versions
CN113688204A (zh
Inventor
荣欢
曹新宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202110936166.4A priority Critical patent/CN113688204B/zh
Publication of CN113688204A publication Critical patent/CN113688204A/zh
Application granted granted Critical
Publication of CN113688204B publication Critical patent/CN113688204B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种利用相似场景及混合注意力的多人会话情感预测方法,属于文本情感预测。本发明首先从原始文本序列获得文本情感空间映射,接着使用揭示周期性和相似规律的相似场景搜索方法,通过输入序列找到与当前场景相对应的注意力序列;采用基于长短期记忆神经网络的双阶段编码‑解码结构,预测目标人物未来文本情感向量,进一步可得到未来目标人物待发布文本情感,并通过损失函数求得编码阶段和解码阶段的总损失。本发明采用文本情感空间映射和相似场景搜索方法对多人会话情感进行预测,结合相似场景搜索和混合注意力提取,通过学习有效的历史数据,可用于长期预测,并且能够加强模型学习的精确性和针对性,极大程度地提升了预测精度。

Description

一种利用相似场景及混合注意力的多人会话情感预测方法
技术领域
本发明属于文本情感预测,更具体地说,涉及一种利用相似场景及混合注意力的多人会话情感预测方法。
背景技术
互联网时代,各类社交通信软件繁多,人们利用文字进行信息互换,形成的文本往往反映了文本发布者的情感态度,这些信息都潜藏着一定社会效益和经济效益。如果能够有效预测文本发布者未来发布的情感态度,对于政府来说,可以及时了解民意导向并为下一步战略实施作出调整;对于企业来说,可以及时了解市场倾向并为新产品的投放奠定良好基础,提升经济收益。因此,针对文本类型数据,本文将研究文本情感预测问题,同时由于人们发布的文本通常以时间序列M形式出现,因此本文还将研究时间序列M预测问题。
目前,大部分文本情感预测问题基于分类思想,通过大量标注文本训练情感分类器,由训练器预测新文本情感。对于深度学习方法而言,含有记忆单元的深度神经网络被广泛应用于文本情感分类中,例如循环神经网络RNN,长短期记忆网络LSTM和双向长短期记忆网络Bi-LSTM;除此以外,卷积神经网络也被用于文本情感预测。
分类号:TP391的论文《联系人中心聊天话语中的细粒度情感检测》使用CNN从给定文本中抽取情感特征,从而对文本做情感表示,分类号:TP391的论文《文本情感:基于文本情感预测的机器学习》利用有监督机器学习模型对童话故事进行情感分类。这两种方法无法在多人会话场景下捕捉其他参与者对目标人物的情感刺激。
在真实场景中,按时间顺序发布的文本可抽象成时间序列,因此可以借鉴时间序列预测方法。具体而言包括:分类号为TP391的论文《基于混合神经网络和注意力机制的混沌时间序列预测》,它对时间序列进行重构相空间,利用CNN提取空间特征后再用LSTM提取时空特征,能够得到更完整的特征表示,存在注意力感知缺失,相似场景粒度分析不到位等问题;分类号为TP391的论文《基于深度学习模型DeepAR》,通过训练历史数据学习到一个网络参数,再利用该参数进行预测,存在对时间序列有效历史信息的学习效果差,错误传播的影响大的问题。
基于上述工作,可以发现仍存在以下不足:在现实生活中,通过训练分类器预测文本情感,通常是借鉴时间序列预测的思想,将文本以时间序列形式组装,通过已知时刻已发布文本情感来推测下一时刻待发布文本情感类别。但是从时间序列预测的角度来看,现有工作仍无法应对。例如在现实生活中多人会话情景下,无法捕捉其他参与者对目标人物的情感刺激,以及对于时间序列有效历史信息的学习效果差,相似场景粒度分析不到位,注意力感知缺失以及错误传播的影响大等。
发明内容
针对现有的文本情感预测方法无法基于时间序列预测的思想采用训练分类器进行预测,并且在多人会话情景下无法捕捉其他参与者对目标人物的情感刺激的问题,本发明提供一种利用相似场景及混合注意力的多人会话情感预测方法,采用文本情感空间映射和相似场景搜索方法对多人会话情感进行预测,能够加强模型学习的精确性和针对性,极大程度地提升了预测精度,减小误差。
为解决上述问题,本发明采用如下的技术方案。
一种利用相似场景及混合注意力的多人会话情感预测方法,包括如下步骤:
步骤一、建立情感序列:对原始文本序列D进行情感空间映射,即对原始文本序列标注情感类别并将原始文本序列D表示成n维情感向量序列D′,从情感向量序列D′中抽取其他参与者情感向量与目标人物情感向量组成时间序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},时间序列M的长度为Th,其中,Others_ASMs表示其他参与者情感向量,Target_ASM表示目标人物情感向量;
步骤二、选取输入序列并构建当前场景:根据步骤一中长度为Th的时间序列M,从中选取一组长度为h的序列作为输入序列Xh,Xh={xi,xi+1,……,xi-1+h},其中,xi∈M,i≤h;设定预测空间长度Tf,在长度Tf内定义一组长度为f的序列Yf={yi+h,yi+h+1,……,yi+h-1+f,}序列Yf用于记录输入序列Xh的预测结果,即序列Yf为待预测序列,即yi+h是根据输入序列Xh预测得到的首个元素;其中,
Figure BDA0003213256840000021
由输入序列Xh和待预测序列Yf组成当前场景sp={Xh,Yf};
步骤三、建立相似场景:先设定一个容量为Top-K的候选池,并根据当前场景sp下的输入序列Xh以及预测长度Tf,从时间序列M中搜索Top-K组和当前场景sp有相似趋势和变化规律的序列,即相似场景s1,根据相似场景s1计算得到注意力序列A;
步骤四、求得编码损失:采用基于长短期记忆神经网络的双阶段编码-译码结构,在编码第一阶段,将输入序列Xh作为编码器第一阶段的输入,并通过神经网络中的损失函数进行模型训练,求得编码第一阶段的损失l1
步骤五、计算混合注意力:先计算解码第一阶段的原始状态,原始状态为神经网络中的隐藏层状态;
在编码第二阶段,对步骤三中得到的注意力序列A进行注意力编码,将注意力序列A作为编码器第二阶段输入,再结合原始状态计算混合注意力;
步骤六、求得第二阶段解码损失:在解码第二阶段,利用步骤五中的混合注意力和原始状态进行情感预测,求得目标人物情感序列预测值,从而得到目标人物待发布文本情感;并通过神经网络中的损失函数进行模型训练,求得第二阶段的解码损失l2
步骤七、计算总损失:将编码第一阶段的损失l1和第二阶段的解码损失l2相加计算总损失l,l=l1+l2,训练模型,验证并测试模型泛化性。
进一步的,步骤三中,所述相似场景s1={X′n,Y′m},其中,
X′n={x′i,x′i+1,……,x′i+n-1};
Y′m={y′i+h,y′i+h+1,……,y′i+h-1};
X′n≈Xh;X′n≈Xh表示X′n和Xh在数据表现形式上相似;
将Top-K组相似场景s1中Y′m部分加权平均得到注意力序列A={a1,a2,……,at,t∈Tf}。
进一步的,相似场景s1搜索方法是先通过寻找与当前场景sp下输入序列近似的序列,来找到完整的相似场景s1;具体包括:
B1:使用时间最近邻通道搜索方法,设当前时刻t,并根据预测长度Tf确定前向搜索长度L,在t-L~t之间按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B2;
B2:使用周期通道搜索,检索时间序列M中的重要时刻数据点,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B3;
B3:使用周期偏移搜索,通过结合时间最近邻搜索和周期通道搜索,检索时间序列M中的重要时刻数据点,并以L/8为前向和后向搜索长度,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,返回执行步骤B1,直至搜索得到Top-K个相似场景s1
其中,重要时刻的数据点为在历史时刻与当前时刻表现相似的数据点,或根据时间序列M固有的周期性定位一周前或一个月前或一年前的数据点。
进一步的,步骤四中,利用公式
Figure BDA0003213256840000031
更新输入状态,t∈Th,得到输入状态序列
Figure BDA0003213256840000032
进一步的,步骤五中,原始状态的计算公式为:
Figure BDA0003213256840000033
其中,y0为已知值;将注意力序列A作为编码器第二阶段的输入,利用公式
Figure BDA0003213256840000041
更新注意力状态,t∈Tf,得到注意力状态序列
Figure BDA0003213256840000042
利用公式计算时间对齐注意力lt=σ(Waat+bt),其中,σ表示sigmoid函数,Wa表示权重矩阵,bt表示偏差;
时间序列M中的任意一个元素与其周围分布的多个元素存在的联系,即为该元素的上下文信息,β表示吸收上下文信息的程度,
Figure BDA0003213256840000043
其中WH和Ws β分别对应Ha
Figure BDA0003213256840000044
的权重矩阵,bβ表示偏差;
利用公式计算基于上下文的注意力ct
Figure BDA0003213256840000045
其中tanh表示激活函数;
g表示在t时刻吸收两种注意力的程度,
Figure BDA0003213256840000046
其中Wh和Ws g分别对应
Figure BDA0003213256840000047
Figure BDA0003213256840000048
的权重矩阵,bg表示偏差;
利用公式计算混合注意力
Figure BDA0003213256840000049
进一步的,步骤六中,目标人物情感序列预测值
Figure BDA00032132568400000410
其中,Ws y和Ws a表示权重矩阵,by表示误差。
相比于现有技术,本发明的有益效果为:
(1)本发明的一种利用相似场景及混合注意力的多人会话情感预测方法,该方法中文本情感映射克服了需要在已知文本内容前提下进行情感预测的限制,并且能够捕获到其他参与者对目标人物的情感刺激。
(2)本发明的一种利用相似场景及混合注意力的多人会话情感预测方法,相似场景搜索方法从时间序列M中学习有效历史信息,极大程度地提升了预测精度。同时采用由时间对齐注意力和基于上下文的注意力组成的混合注意力,能够更好地适应时间序列M时序特征,最大限度地捕获和保持需要被关注的信息,并确保注意力权重分布在期望区域,有利于网络收敛。
(3)本发明的一种利用相似场景及混合注意力的多人会话情感预测方法,采用双阶段的处理能够加强模型学习的精确性和针对性,减小误差。
附图说明
图1为本发明的整体流程框图;
图2为本发明的文本情感空间映射的流程框图;
图3为本发明的相似场景搜索方法的流程框图;
图4为本发明的重要时刻的数据点搜索的流程图;
图5为本发明的神经网络编码器和解码器的工作流程图。
具体实施方式
下面结合具体实施例和附图对本发明进一步进行描述。
实施例1
一种利用相似场景及混合注意力的多人会话情感预测方法,如图1所示,本方法包括如下步骤:
步骤一、对给定的文本进行情感空间映射(Affective Space Mapping,ASM),将每段文本用多维情感向量来表示,并将表示目标人物所发布文本的情感向量序列(Target_ASM)和其他参与者所发布文本的情感向量序列(Others_ASMs)组成情感序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},情感序列M的长度为Th,得到预处理后的数据集。
步骤二、在长度为Th的时间序列M中选取一组长度为h的序列作为输入序列Xh,Xh={xi,xi+1,……,xi-1+h},其中,xi∈M,i≤h;设定预测空间长度Tf,在长度Tf内定义一组长度为f的序列Yf={yi+h,yi+h+1,……,yi+h-1+f,}来承接针对输入序列Xh的预测结果,即序列Yf为待预测序列,其中待预测序列Yf内第一个元素yi+h是输入序列Xh内最后一个元素xi-1+h的后继元素,即yi+h是根据输入序列Xh预测得到的首个元素;其中,
Figure BDA0003213256840000051
yi+h={Others_ASMs_i+h,Target_ASM_i+h},由输入序列Xh和待预测序列Yf组成当前场景sp={Xh,Yf}。
步骤三、先设定一个容量为Top-K的候选池,并根据当前场景sp下的输入序列Xh以及预测长度Tf,通过揭示周期性和相似规律的相似场景搜索方法,从时间序列M中搜索Top-K组和当前场景sp有相似趋势和变化规律的序列,即相似场景s1,s1={X′n,Y′m},当X′n与Xh相似时,学习相似场景sl的特征用于预测将是有意义的;将Top-K组相似场景s1中Y′m部分加权平均得到注意力序列A={a1,a2,……,at,t∈Tf}。其中,
X′n={x′i,x′i+1,……,x′i+n-1};
Y′m={y′i+h,y′i+h+1,……,y′i+h-1};
X′n≈Xh
步骤四、如图5所示,采用基于长短期记忆神经网络的双阶段编码-译码结构,将输入序列Xh和注意力序列A分离。在编码第一阶段,将输入序列Xh作为编码器第一阶段的输入,利用公式
Figure BDA0003213256840000061
更新输入状态,t∈Th,并通过神经网络中的损失函数进行模型训练,求得编码第一阶段的损失l1,得到输入状态序列
Figure BDA0003213256840000062
步骤五、如图5所示,计算混合注意力
Figure BDA0003213256840000063
在解码第一阶段,根据计算公式,
Figure BDA0003213256840000064
求得原始状态,原始状态即为神经网络的隐藏层状态,其中t=1时,y0是预先设定的值。
在编码第二阶段,对注意力序列A进行注意力编码,将注意力序列A作为编码器第二阶段输入,利用公式
Figure BDA0003213256840000065
更新注意力状态,t∈Tf,得到注意力状态序列
Figure BDA0003213256840000066
Figure BDA0003213256840000067
利用公式计算时间对齐注意力lt=σ(Waat+bt),时间对齐注意力为在不同历史时期,相同位置的元素可能存在直接联系,从而可以获取相似场景s1和当前场景sp在相同位置数据的联系,预测周期规律,其中,σ表示sigmoid函数,Wa表示权重矩阵,bt表示偏差;
时间序列M中的任意一个元素与其周围分布的多个元素存在的联系,即为该元素的上下文信息,β表示吸收上下文信息的程度,利用公式计算
Figure BDA0003213256840000068
其中WH和Ws β分别对应Ha
Figure BDA0003213256840000069
的权重矩阵,bβ表示偏差;
利用公式计算基于上下文的注意力ct
Figure BDA00032132568400000610
tanh为激活函数,由此获得每个数据点在相似场景s1中的自相关性,用于趋势预测;
接着通过门控结构,利用公式计算
Figure BDA00032132568400000611
g表示在t时刻吸收两种注意力的程度,其中Wh和Ws g分别对应
Figure BDA00032132568400000612
Figure BDA00032132568400000613
的权重矩阵,bg表示偏差;
利用公式计算混合注意力
Figure BDA00032132568400000614
由此最大限度地捕获需要被关注的信息,并确保注意力权重分布在期望的区域。其中,偏差bt、偏差bβ和偏差bg取值可以相同。
步骤六、如图5所示,在解码第二阶段,利用公式
Figure BDA00032132568400000615
进行情感预测,求得目标人物情感序列预测值yt,其中,混合注意力
Figure BDA00032132568400000616
通过修正模型预测值,减少误差对预测值的影响,Ws y和Ws a表示权重矩阵,by表示误差。在得到预测值后即得到目标人物待发布文本情感,并通过神经网络中的损失函数进行模型训练,在编码第二阶段求得解码第二阶段的损失l2。其中,情感预测是通过提取多人会话情景下时间序列M的长期趋势、周期性等有效信息来对目标人物未来待发布文本进行情感预测。
步骤七、将编码第一阶段的损失l1和解码第二阶段的损失l2相加计算总损失l,l=l1+l2,训练模型,验证并测试模型泛化性。
如图2所示,文本情感空间映射流程图如下:
A1:对原始文本序列D={d1,d2,……,di};进行形如[Target_Flag,Emotion_Index]的情感类别标注,其中,Target_Flag表示当前发布文本是否由预测目标发布,Emotion_Index表示当前文本所属情感类别序号,进一步可以获得原始文本序列D的情感类别序列。
A2:根据情感类别序列计算原始文本序列D上的全局情感交互模式EIP,全局情感交互模式EIP是一个n维方正,包含了整个原始文本序列D在每个情感类别上的n维向量表示,将原始文本序列D的情感类别序列以连续的方式表示,其中,先初始化全局交互词典,设定大小为2,步长为1的时间窗口观察相邻两时刻文本情感变化,遍历情感类别序列并更新全局交互词典,获取原始文本序列D上的全局情感交互模式EIP,全局情感交互模式EIP下标最大值即代表对应情感类别。
A3:将原始文本序列D中每条文本表示为n维情感向量,首先对文本分词,将词向量维度固定为256,利用Skip-2-gram以增量方式逐步预训练原始文本序列D中每个词语的词向量,将原始文本序列D中每条文本用预训练词向量均值表示,训练Bi-LSTM作为n类情感分类器,再次计算每条文本在n类情感上的logits,并用softmax对n维logits标准化,标准化后的n维logits即为每条文本的n维情感向量D′={E1,E2,……,Ei,Ei=(e1,e2,……,en)∈Rn,en∈R},其中,en代表情感,Ei表示n维情感向量序列。
A4:根据预先标注的Target_Flag分别从情感向量序列D′中抽取目标人物情感向量Target_ASM和其他参与者情感向量Others_ASMs,组成时间序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},时间序列M的长度为Th
如图3和图4所示,相似场景搜索方法流程图如下:
B1:使用时间最近邻通道搜索方法,设当前时刻t,并根据预测长度Tf确定前向搜索长度L,在t-L~t之间按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B2;
B2:使用周期通道搜索,检索时间序列M中的重要时刻数据点,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B3;
B3:使用周期偏移搜索,通过结合时间最近邻搜索和周期通道搜索,检索时间序列M中的重要时刻数据点,并以L/8为前向和后向搜索长度,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,返回执行步骤B1,直至搜索得到Top-K个相似场景s1
其中,重要时刻的数据点为在历史时刻与当前时刻表现相似的数据点,或根据时间序列M固有的周期性定位一周前或一个月前或一年前的数据点。
本发明首先从原始文本序列D获得文本情感空间映射,即对文本标注情感类别并将文本表示成多维情感向量D′,从中抽取其他参与者的情感向量(Others_ASMs)与目标人物的情感向量(Target_ASM)组成情感序列M;接着使用揭示周期性和相似规律的相似场景搜索方法,通过选定一组输入序列Xh,找到一组与当前场景相对应的注意力序列A;采用基于长短期记忆神经网络的双阶段编码-解码结构,在编码第一阶段,输入序列Xh通过损失函数进行模型训练,并求损失l1;在编码第二阶段借用注意力机制,从相似场景的注意力序列A中提取时间对齐注意力lt和基于上下文的注意力ct,并通过门控结构组成混合注意力
Figure BDA0003213256840000081
在解码部分通过原始状态
Figure BDA0003213256840000082
和混合注意力状态
Figure BDA0003213256840000083
预测目标人物未来文本情感向量,进一步可得到未来目标人物待发布文本情感,并通过损失函数进行模型训练,求总的损失。本发明结合相似场景搜索和混合注意力提取,通过学习有效的历史数据,可用于长期预测,并且具有较高预测精度。
本发明所述实例仅仅是对本发明的优选实施方式进行描述,并非对本发明构思和范围进行限定,在不脱离本发明设计思想的前提下,本领域工程技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的保护范围。

Claims (6)

1.一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:包括如下步骤:
步骤一、建立情感序列:对原始文本序列D进行情感空间映射,即对原始文本序列标注情感类别并将原始文本序列D表示成n维情感向量序列D′,从情感向量序列D′中抽取其他参与者情感向量与目标人物情感向量组成时间序列M={{Others_ASMs_1,Target_ASM_1},{Others_ASMs_2,Target_ASM_2},……,{Others_ASMs_Th,Target_ASM_Th}},时间序列M的长度为Th,其中,Others_ASMs表示其他参与者情感向量,Target_ASM表示目标人物情感向量;
步骤二、选取输入序列并构建当前场景:根据步骤一中长度为Th的时间序列M,从中选取一组长度为h的序列作为输入序列Xh,Xh={xi,xi+1,……,xi-1+h},其中,xi∈M,i≤h;设定预测空间长度Tf,在长度Tf内定义一组长度为f的序列Yf={yi+h,yi+h+1,……,yi+h-1+f,}序列Yf用于记录输入序列Xh的预测结果,即序列Yf为待预测序列,即yi+h是根据输入序列Xh预测得到的首个元素;其中,
Figure FDA0003213256830000011
由输入序列Xh和待预测序列Yf组成当前场景sp={Xh,Yf};
步骤三、建立相似场景:先设定一个容量为Top-K的候选池,并根据当前场景sp下的输入序列Xh以及预测长度Tf,从时间序列M中搜索Top-K组和当前场景sp有相似趋势和变化规律的序列,即相似场景s1,根据相似场景s1计算得到注意力序列A;
步骤四、求得编码损失:采用基于长短期记忆神经网络的双阶段编码-译码结构,在编码第一阶段,将输入序列Xh作为编码器第一阶段的输入,并通过神经网络中的损失函数进行模型训练,求得编码第一阶段的损失l1
步骤五、计算混合注意力:先计算解码第一阶段的原始状态,原始状态为神经网络中的隐藏层状态;在编码第二阶段,对步骤三中得到的注意力序列A进行注意力编码,将注意力序列A作为编码器第二阶段输入,再结合原始状态计算混合注意力;
步骤六、解码预测:在解码第二阶段,利用步骤五中的混合注意力和原始状态进行情感预测,求得目标人物情感序列预测值,从而得到目标人物待发布文本情感;并通过神经网络中的损失函数进行模型训练,求得第二阶段的解码损失l2
步骤七、计算总损失:将编码第一阶段的损失l1和第二阶段的解码损失l2相加计算总损失l,l=l1+l2,训练模型,验证并测试模型泛化性。
2.根据权利要求1所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:步骤三中,所述相似场景s1={X′n,Y′m},其中,
X′n={x′i,x′i+1,……,x′i+n-1};
Y′m={y′i+h,y′i+h+1,……,y′i+h-1};
X′n≈Xh;X′n≈Xh表示X′n和Xh在数据表现形式上相似;
将Top-K组相似场景s1中Y′m部分加权平均得到注意力序列A={a1,a2,……,at,t∈Tf}。
3.根据权利要求2所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:相似场景s1搜索方法是先通过寻找与当前场景sp下输入序列近似的序列,来找到完整的相似场景s1;具体包括:
B1:使用时间最近邻通道搜索方法,设当前时刻t,并根据预测长度Tf确定前向搜索长度L,在t-L~t之间按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B2;
B2:使用周期通道搜索,检索时间序列M中的重要时刻数据点,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,执行步骤B3;
B3:使用周期偏移搜索,通过结合时间最近邻搜索和周期通道搜索,检索时间序列M中的重要时刻数据点,并以L/8为前向和后向搜索长度,按照X′n≈Xh寻找一个与Xh最相似的序列X′n作为相似场景s1组成候选放入候选池,当候选池含有Top-K个候选时,停止搜索;当候选池不足Top-K个候选时,返回执行步骤B1,直至搜索得到Top-K个相似场景s1
其中,重要时刻的数据点为在历史时刻与当前时刻表现相似的数据点,或根据时间序列M固有的周期性定位一周前或一个月前或一年前的数据点。
4.根据权利要求3所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:步骤四中,利用公式
Figure FDA0003213256830000021
更新输入状态,t∈Th,得到输入状态序列
Figure FDA0003213256830000022
Figure FDA0003213256830000023
5.根据权利要求4所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:步骤五中,原始状态的计算公式为:
Figure FDA0003213256830000024
其中,y0为已知值;将注意力序列A作为编码器第二阶段的输入,利用公式
Figure FDA0003213256830000025
更新注意力状态,t∈Tf,得到注意力状态序列
Figure FDA0003213256830000026
利用公式计算时间对齐注意力lt=σ(Waat+bt),其中,σ表示sigmoid函数,Wa表示权重矩阵,bt表示偏差;
时间序列M中的任意一个元素与其周围分布的多个元素存在的联系,即为该元素的上下文信息,β表示吸收上下文信息的程度,
Figure FDA0003213256830000031
其中WH
Figure FDA0003213256830000032
分别对应Ha
Figure FDA0003213256830000033
的权重矩阵,bβ表示偏差;
利用公式计算基于上下文的注意力ct
Figure FDA0003213256830000034
其中tanh表示激活函数;
g表示在t时刻吸收两种注意力的程度,
Figure FDA0003213256830000035
其中Wh
Figure FDA0003213256830000036
分别对应
Figure FDA0003213256830000037
Figure FDA0003213256830000038
的权重矩阵,bg表示偏差;
利用公式计算混合注意力
Figure FDA0003213256830000039
6.根据权利要求5所述的一种利用相似场景及混合注意力的多人会话情感预测方法,其特征在于:步骤六中,目标人物情感序列预测值
Figure FDA00032132568300000310
其中,Ws y和Ws a表示权重矩阵,by表示误差。
CN202110936166.4A 2021-08-16 2021-08-16 一种利用相似场景及混合注意力的多人会话情感预测方法 Active CN113688204B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110936166.4A CN113688204B (zh) 2021-08-16 2021-08-16 一种利用相似场景及混合注意力的多人会话情感预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110936166.4A CN113688204B (zh) 2021-08-16 2021-08-16 一种利用相似场景及混合注意力的多人会话情感预测方法

Publications (2)

Publication Number Publication Date
CN113688204A CN113688204A (zh) 2021-11-23
CN113688204B true CN113688204B (zh) 2023-04-25

Family

ID=78579953

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110936166.4A Active CN113688204B (zh) 2021-08-16 2021-08-16 一种利用相似场景及混合注意力的多人会话情感预测方法

Country Status (1)

Country Link
CN (1) CN113688204B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114743072B (zh) * 2022-05-24 2023-01-31 中国科学院计算机网络信息中心 一种短期时间序列预测模型的训练方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543722A (zh) * 2018-11-05 2019-03-29 中山大学 一种基于情感分析模型的情感趋势预测方法
CN109800295A (zh) * 2019-01-11 2019-05-24 南京信息工程大学 基于情感词典和词概率分布的情感会话生成方法
CN109948165A (zh) * 2019-04-24 2019-06-28 吉林大学 基于混合注意力网络的细粒度情感极性预测方法
CN111368082A (zh) * 2020-03-03 2020-07-03 南京信息工程大学 一种基于层次网络的领域自适应词嵌入的情感分析方法
WO2020204460A1 (en) * 2019-04-01 2020-10-08 Samsung Electronics Co., Ltd. A method for recognizing human emotions in images
CN111881262A (zh) * 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN112257647A (zh) * 2020-11-03 2021-01-22 徐州工程学院 基于注意力机制的人脸表情识别方法
CN112784532A (zh) * 2021-01-29 2021-05-11 电子科技大学 用于短文本情感分类的多头注意力记忆网络
CN112951201A (zh) * 2021-02-07 2021-06-11 广东电网有限责任公司广州供电局 一种营业厅环境下端到端的情感语音合成方法
CN113051916A (zh) * 2021-04-23 2021-06-29 东南大学 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法
CN113076905A (zh) * 2021-04-16 2021-07-06 华南理工大学 一种基于上下文交互关系的情绪识别方法
CN113254625A (zh) * 2021-07-15 2021-08-13 国网电子商务有限公司 一种基于交互融合的情感对话生成方法及系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543722A (zh) * 2018-11-05 2019-03-29 中山大学 一种基于情感分析模型的情感趋势预测方法
CN109800295A (zh) * 2019-01-11 2019-05-24 南京信息工程大学 基于情感词典和词概率分布的情感会话生成方法
WO2020204460A1 (en) * 2019-04-01 2020-10-08 Samsung Electronics Co., Ltd. A method for recognizing human emotions in images
CN109948165A (zh) * 2019-04-24 2019-06-28 吉林大学 基于混合注意力网络的细粒度情感极性预测方法
CN111368082A (zh) * 2020-03-03 2020-07-03 南京信息工程大学 一种基于层次网络的领域自适应词嵌入的情感分析方法
CN111881262A (zh) * 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN112257647A (zh) * 2020-11-03 2021-01-22 徐州工程学院 基于注意力机制的人脸表情识别方法
CN112784532A (zh) * 2021-01-29 2021-05-11 电子科技大学 用于短文本情感分类的多头注意力记忆网络
CN112951201A (zh) * 2021-02-07 2021-06-11 广东电网有限责任公司广州供电局 一种营业厅环境下端到端的情感语音合成方法
CN113076905A (zh) * 2021-04-16 2021-07-06 华南理工大学 一种基于上下文交互关系的情绪识别方法
CN113051916A (zh) * 2021-04-23 2021-06-29 东南大学 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法
CN113254625A (zh) * 2021-07-15 2021-08-13 国网电子商务有限公司 一种基于交互融合的情感对话生成方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yao Qin 等.A Dual-Stage Attention-Based Recurrent Neural Network for Time Series Prediction.《International Joint Conference on Artificial Intelligence (IJCAI)》.2017,1-7. *
任晓奎 等.嵌入常识的混合注意力LSTM用于主题情感分析.《计算机应用与软件》.2019,第36卷(第10期),151-155,161. *

Also Published As

Publication number Publication date
CN113688204A (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
CN110147892B (zh) 基于变分轨迹上下文感知的人类移动模式推测模型、训练方法及推测方法
CN108763284B (zh) 一种基于深度学习和主题模型的问答系统实现方法
CN108875807B (zh) 一种基于多注意力多尺度的图像描述方法
CN107608943B (zh) 融合视觉注意力和语义注意力的图像字幕生成方法及系统
CN111274398B (zh) 一种方面级用户产品评论情感分析方法及系统
CN109543180A (zh) 一种基于注意力机制的文本情感分析方法
CN111079409B (zh) 一种利用上下文和方面记忆信息的情感分类方法
CN110110140A (zh) 基于注意力扩展编解码网络的视频摘要方法
CN110826698A (zh) 一种通过上下文相关的图嵌入表示人群移动模式的方法
CN112069302A (zh) 会话意图识别模型的训练方法、会话意图识别方法及装置
CN111310852B (zh) 一种图像分类方法及系统
CN111461455B (zh) 一种基于关联周期注意力机制的行为预测方法
CN114186568B (zh) 一种基于关系编码和层次注意力机制的图像段落描述方法
CN110704510A (zh) 一种结合用户画像的题目推荐方法及系统
CN112561718A (zh) 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法
CN113688204B (zh) 一种利用相似场景及混合注意力的多人会话情感预测方法
CN112861976A (zh) 一种基于孪生图卷积哈希网络的敏感图像识别方法
CN110990678B (zh) 基于增强型循环神经网络的轨迹相似性计算方法
CN114613004B (zh) 一种人体动作的轻量化在线检测方法
CN113780003A (zh) 时空数据变分编解码跨模态增强方法
CN111930981A (zh) 一种草图检索的数据处理方法
CN110175330A (zh) 一种基于注意力机制的命名实体识别方法
CN114582448A (zh) 基于预训练语言模型的疫情病例信息抽取框架构建方法
Seo et al. A graph embedding technique for weighted graphs based on LSTM autoencoders
CN114936723B (zh) 一种基于数据增强的社交网络用户属性预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant