CN115186683B - 一种基于跨模态翻译的属性级多模态情感分类方法 - Google Patents
一种基于跨模态翻译的属性级多模态情感分类方法 Download PDFInfo
- Publication number
- CN115186683B CN115186683B CN202210836512.6A CN202210836512A CN115186683B CN 115186683 B CN115186683 B CN 115186683B CN 202210836512 A CN202210836512 A CN 202210836512A CN 115186683 B CN115186683 B CN 115186683B
- Authority
- CN
- China
- Prior art keywords
- picture
- text
- face
- modal
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Machine Translation (AREA)
Abstract
一种基于跨模态翻译的属性级多模态情感分类方法,涉及自然语言处理技术领域,针对现有技术在属性级多模态情感分析任务上预测准确率低的问题,本申请提出了一种简单但有效的人脸敏感的跨模态翻译方法,在不需要额外训练图像情感描述生成模型的情况下,通过引入人脸信息生成人脸表情描述补全图片情感信号,实现了更精准的属性级多模态情感预测。
Description
技术领域
本发明涉及自然语言处理技术领域,具体为一种基于跨模态翻译的属性级多模态情感分类方法。
背景技术
属性级多模态情感分析旨在从多模态数据中识别目标属性的情感,近年来在多媒体和自然语言处理领域引起了广泛关注。尽管最近基于文本的属性级情感分析取得了成功,但现有的多模态属性级情感分析模型主要侧重于利用图像中的对象级语义信息,而忽略了显式的利用来自图像的情感线索,尤其是面部情感。如何提取视觉情感线索并将其与文本内容对齐融合是目前解决属性级多模态情感分析任务的关键挑战。关于属性级多模态情感分析任务的早期工作将图像内容视为与文本具有相同地位的独立输入,并侧重于对齐和融合从单模态预训练模型中提取的视觉和文本特征嵌入。然而,这类隐式捕获图像中的情感信息的方法很难回答视觉情感来自与图像中的那一部分,因而并不具有可解释性。此外我们认为由于数据规模限制,模型在没有额外约束的情况下容易学习到因为额外输入所带来的bias而不是真正的视觉情感线索。最近,有工作在特征级融合的过程中考虑到了图像中的对象级语义信息,也有学者提出一种基于跨模态翻译的方法,通过将图片信息转换为文本描述实现跨模态翻译,跨模态翻译模型承担了图文对齐任务。然而,上述方法都忽视了从图像模态中显式的挖掘情感线索,这导致了模型在属性级多模态情感分析任务上预测准确率低。如何在保留语义信息的情况下补全图片模态的情感信息是提升属性级多模态情感分析效果的关键问题。
发明内容
本发明的目的是:针对现有技术在属性级多模态情感分析任务上预测准确率低的问题,提出一种基于跨模态翻译的属性级多模态情感分类方法。
本发明为了解决上述技术问题采取的技术方案是:
一种基于跨模态翻译的属性级多模态情感分类方法,包括以下步骤;
步骤一:获取多模态社交媒体数据,所述多模态社交媒体数据包括目标评价属性、英文文本以及单张图片;
步骤二:基于多模态社交媒体数据中的单张图片,识别并切分出图片中的全部人脸,若图片中含有人脸,则执行步骤三,若图片中不含有人脸,则生成图片人脸描述,并执行步骤十;
步骤三:获取图片中人脸的面部属性信息;
步骤四:将图片中人脸的面部属性信息转化为面部描述文本;
步骤五:判断图片中人脸为单张人脸或多张人脸,若为单张人脸,则根据面部描述文本生成图片人脸描述,并执行步骤十,若为多张人脸,则将目标评价属性与步骤四中的面部描述文本进行拼接后,得到句子,之后将句子进行编码,得到文本向量表示;
步骤六:将多模态社交媒体数据中的单张图片进行编码,得到图片向量表示;
步骤七:计算图片向量表示与文本向量表示的余弦相似度,并选取余弦相似度最高的文本向量表示对应的面部描述文本;
步骤八:针对步骤七中得到的面部描述文本,仅保留表情预测信息以及目标评价属性;
步骤九:将面部描述文本中表情预测信息以及目标评价属性进行拼接,得到图片人脸描述;
步骤十:基于多模态社交媒体数据中的单张图片,生成关于图片场景信息的中性文本描述;
步骤十一:将多模态社交媒体数据中的目标评价属性与英文文本进行拼接,得到新句子,并将新句子分别与图片人脸描述和关于图片场景信息的中性文本描述进行拼接,并将拼接结果分别利用预训练语言模型进行处理,得到包含人脸描述信息的句子表示和包含场景信息的句子表示;
步骤十二:将包含人脸描述信息的句子表示和包含场景信息的句子表示进行融合,得到多模态融合表示;
步骤十三:将多模态融合表示送入线性分类层得到对于目标评价属性的情感分类预测结果。
进一步的,所述识别并切分出图像中的全部人脸通过面部识别模型DeepFace进行。
进一步的,所述图片中人脸的面部属性信息通过DeepFace工具中人脸属性预测模型得到。
进一步的,所述面部属性信息包括:年龄、人种、性别、表情预测信息及置信度;
其中,年龄为0~120的整数预测,性别为男女二分类预测,表情为愤怒、恐惧、中立、悲伤、厌恶、快乐和惊讶七分类预测。
进一步的,所述句子进行编码通过预训练图文模型CLIP的文本编码器进行,图片进行编码通过预训练图文模型CLIP的图像编码器进行,表示为:
HD&A=Text_Encoder(concat(D,A))
HV=Image_Encoder(V)
其中concat为文本拼接函数,Text_Encoder为预训练图文模型CLIP的文本编码器,Image_Encoder为预训练图文模型CLIP的图像编码器,A为目标评价属性,D为面部描述文本,V代表图像,HD&A和HV分别代表输出的编码表示。
进一步的,所述步骤七中图片向量表示与文本向量表示的余弦相似度通过L2正则化得到,表示为:
H′D&A=L2_Normalize(HD&A·WD&A)
H′V=L2_Normalize(HV·WV)
L=(H′V·(H′D&A)T)*et
其中,WD&A和WV是可学习权重,t是CLIP模型中的温度标度,e是自然对数的底,L为图文向量的余弦相似度,H’D&A和H′V分别为经过L2正则化后的中间向量表示。
进一步的,所述关于图片场景信息的中性文本描述通过图片描述生成模型得到,表示为:
C=Caption_Transformer(V)
其中,C为关于图片场景信息的中性文本描述,Caption_Transformer为预训练的图文生成模型,V代表图片。
进一步的,所述步骤十二中将包含人脸描述信息的句子表示和包含场景信息的句子表示进行融合通过门控机制进行。
进一步的,所述门控机制具体表示为:
p(y|H)=softmax(WH+b)
其中和/>分别代表两个预训练的语言模型输出的句子级向量,WD∈R768×768、WC∈R768×768、W∈R768×3、bg∈R768和b∈R3是可学习的参数,gt为门控权值,H为多模态融合向量表示,σ是非线性变换函数tanh,soTtmax为多分类激活函数,p(y|H)代表对于情感极性y的条件预测概率。
本发明的有益效果是:
本申请提出了一种简单但有效的人脸敏感的跨模态翻译方法,在不需要额外训练图像情感描述生成模型的情况下,通过引入人脸信息生成人脸表情描述补全图片情感信号,实现了更精准的属性级多模态情感预测。
附图说明
图1为人脸面部表情描述生成模版图。
具体实施方式
需要特别说明的是,在不冲突的情况下,本申请公开的各个实施方式之间可以相互组合。
具体实施方式一:参照图1具体说明本实施方式,本实施方式所述的一种基于跨模态翻译的属性级多模态情感分类方法,包括:
步骤一:获取输入模型的多模态社交媒体数据,每条数据由一段包含目标评价属性的英文文本及单张图片构成;
步骤二:将输入图片送入面部识别模型,识别并切分出图像中全部人脸,若无人脸则返回空值;
步骤三:若无人脸则跳转至步骤九,将识别出的每张人脸分别送入人脸属性预测模型,得到关于该人脸的年龄、人种、性别、表情预测信息及置信度。其中年龄为0~120的整数预测,性别为男女二分类预测,表情为愤怒、恐惧、中立、悲伤、厌恶、快乐和惊讶七分类预测。
步骤四:通过人工模版将上述面部属性信息转化为面部描述文本。
步骤五:若当前图片包含单张人脸,跳转至步骤九。将目标评价属性与步骤四中识别出的面部描述文本拼接构成新句子,送入预训练图文模型的文本编码器得到文本嵌入表示。
步骤六:将输入图片送入预训练图文模型的图像编码器得到图像嵌入表示。
步骤七:经过L2正则化后,计算图像嵌入表示与每个来自面部描述文本的文本嵌入表示的余弦相似度,选取相似度最高的面部描述文本作为当前目标评价属性最相关的人脸表情信息。
步骤八:改写与当前目标评价属性最相关的人脸描述文本,仅保留目标评价属性及人脸表情预测结果。
步骤九:生成图片人脸描述,将同一图片下所有人脸描述文本拼接。
步骤十:将输入图片送入图片描述生成模型生成关于图片场景信息的中性文本描述。
步骤十一:将输入文本与目标评价属性拼接成新句子,并与人脸描述文本和场景信息文本分别拼接送入两个预训练语言模型得到包含多模态信息的句子表示。
步骤十二:利用门控机制融合包含人脸描述信息的预训练模型输出特征和包含场景信息的预训练模型输出特征,得到最终的多模态融合表示。
步骤十三:将多模态融合表示送入线性分类层得到对于目标评价属性的情感极性预测。
本申请在属性级多模态情感分析的两个经典数据集(Twitter2015和Twitter2017数据集)上进行模型训练和测试。Twitter2015和Twitter2017数据集分别收集了不同时间段Twitter网站中用户公开发表的推文数据,这些推文对文本内容中提到的评价属性和每个评价属性的情感极性进行了标注。数据集划分与统计信息如表1所示:
表1Twitter2015和Twitter2017数据集统计信息
本申请将模型学习率设置为5e-5,预先训练的模型注意力头设置为12,dropout设置为0.1,批量大小设置为16,微调轮次设置为8,最大文本长度为256。本申请报告了所有模型5次独立训练的平均结果。所有模型都是基于Pytorh和NVIDIATeslaV100 GPU实现的。
本申请与以下模型进行了比较,并在表2中报告了准确性和宏观F1分数。本申请比较了图像单一模态下的方法:直接使用ResNet模型输出的图像视觉特征进行情感预测。以及基于文本单模态下的模型:(1)LSTM。(2)MGAM,一个多粒度注意力网络,它在多个层次上融合了目标和文本。(3)BERT,代表性的预训练语言模型具有很强的文本表示能力,可以学习两个任意输入之间的对齐。此外,多模态比较模型包括:(1)MIMN,多交互记忆网络学习跨模态和自模态的交互影响。(2)ESAFN,一个实体敏感的注意力和融合网络。(3)VilBERT,一种预训练的视觉语言模型,目标方面连接到输入文本。(4)TomBERT模拟了视觉和文本表示之间的跨模式交互,并采用目标图像(TI)匹配层来获得目标敏感视觉。(5)CapBERT,一种基于BERT的方法,将图像翻译为字幕,并通过辅助句将字幕与输入文本方面对融合。(6)CapBERT DE,将CapBERT模型中的BERT替换为BERTweet。(7)VLP-MABSA,专注于细粒度情感分析任务的预训练视觉语言模型。
表2模型实验结果
本申请提出的方法远超image-only和text-only的模型,对比强基线模型TomBERT和CapBERT也有明显提升,证明本申请提出的方法能够有效利用图像中的人脸表情作为情感线索。并且也展示出本申请提出的视觉情感线索与目标评价属性匹配的方法对判断图文Twitter中目标评价属性的情感是有效的。MIMN和ESAFN模型明显弱于其他基于预训练的方法。而图文预训练模型VilBERT的效果也弱于TomBERT、CapBERT等基于BERT的方法,原因可能是BERT模型有更强的文本建模能力。在Twitter-2017数据集上本申请的De版本方法相比于CapBERT-DE的F1提升为1.77%,远超在Twitter-2015数据集上的0.4%,本申请认为主要原因是Twitter-2017数据集包含更多人脸信息。然而,这种现象在base版本的比较中差距不大,本申请认为是受限于语言模型的能力。本申请提出的方法取得比CapBERT-DE更好的效果,且均强于基于base版本的模型。展现出本发明提出的方法在更强的语言模型下表现更好,这源于融合阶段依赖语言模型的上下文建模能力,更强的语言模型能力更强。本申请提出的方法在两个经典数据集上达到了最佳效果,证明了本申请提出的方法能够有效提升属性级多模态情感计算的效果。
属性级多模态情感分析的任务可以形式化为:给定一组多模态样本S{X1,X2,...,X|S|},其中|S|是样本数。对于每个样本,本申请得到一个图像V∈R3×H×W,其中3,H,W表示通道的数量、图像的高度和宽度,以及一个包含N个词的文字内容T={w1,w2,...,wN},其中包含一个作为目标评价属性的M个词的子序列A={w1,w2,...,wM}。本发明是基于深度学习的情感分类模型,以预测每个样本X=(V,T,A)的正、负、中性的情绪标签y。
该模型由三个模块组成:人脸敏感的图像到情感文本的翻译模块、目标评价属性敏感的对齐和修改模块以及基于门控机制的多模态融合模块。对于给定的多模态推文X=(V,T,A),本申请将视觉输入V送入人脸敏感图像到情感文本翻译模块,以生成人脸描述D={D1,D2,...,DI},其中I是视觉输入中包含的人脸表情数量,而Di={w1,w2,...,wK}表示一个包含K个词的句子。本模块的重点是提取图像中包含丰富情感线索的面部表情并将其文本化。首先,本模块识别图片中的全部人脸,并利用DeepFace工具预测四项人脸属性:Age、Gender、Race、Emotion。随后,利用置信度超过阈值的人脸属性生成人脸面部表情描述,生成模版如图1所示:
随后,由于视觉输入V可能包含多个面部表情,因此有必要将目标评价属性A与相关面部描述DA进行匹配。在目标评价属性敏感对齐和修改模块中,本申请计算目标评价属性A拼接上每个人脸描述Di的新句子与图像输入V之间的余弦相似性。鉴于属性级多模态情感分析任务不包含直接的图像-文本对齐监督,并且属性级多模态情感分析任务的数据集大小限制了模型通过对比学习学习细粒度对齐,因此有必要引入外部图像-文本对齐知识。为此,本申请应用CLIP模型来执行这种细粒度对齐。本申请使用在大规模图像-文本对数据集上预训练的CLIP模型的文本编码器Text_Encoder和图像编码器Image_Encoder分别编码与目标评价属性相连的人脸描述concat(D,A)和图像V。得到的特征嵌入分别如下:
HD&A=Text_Encoder(concat(D,A))
HV=Image_Encoder(V)
然后,本申请将两个模态下的输出特征嵌入到相同的特征空间中。通过L2归一化,本申请计算了这些特征嵌入的余弦相似性L。然后,本申请选择并重写与当前图像相似度最高的人脸描述,作为当前方面的文本化视觉情感线索。重新绘制的人脸描述仅保留预测人脸属性的目标方面和表情。
H′D&A=L2_Normalize(HD&A·WD&A)
H′V=L2_Normalize(HV·WV)
L=(H′V·(H’D&A)T)*et
其中,WD&A和WV是可学习权重,t是CLIP模型中的温度标度,e为自然对数的底。然后本申请根据这些相似性分数选择并重写人脸描述DA,仅保留目标评价属性和表情信息。此外,考虑到图像场景可以补充额外的语义信息,本申请采用预训练的图像描述生成模型(Caption_Transformer)为场景C={w1,w2,...,wI}生成图像场景描述,其中J表示图像场景描述的长度。
C=Caption_Transformer(V)
最后,在基于门控机制的多模态融合模块中,本申请利用两个预训练的语言模型对人脸描述和图像场景描述进行建模,并采用门机制进行特征融合和去噪。门控单元的输出通过线性层完成对目标评价属性的情感预测。
p(y|H)=s0ftmax(WH+b)
本申请可应用于分析社交媒体平台(如Twitter、Facebook)上用户发表的多模态内容的情感极性。例如Twitter平台中,通过收集用户公开的海量推文,应用本发明训练的多模态情感模型可判断每条数据中用户所表达的情感极性(积极、消极、中性)。根据得到的自动化判别结果可以识别不同国家不同地区不同时间海量用户的情感。本发明所提出的方法可在Pytorh环境下的单张NVIDIA TeslaV100GPU显卡上实现训练,并可以部署到基于CPU的包含Pytorh环境下。
需要注意的是,具体实施方式仅仅是对本发明技术方案的解释和说明,不能以此限定权利保护范围。凡根据本发明权利要求书和说明书所做的仅仅是局部改变的,仍应落入本发明的保护范围内。
Claims (7)
1.一种基于跨模态翻译的属性级多模态情感分类方法,其特征在于包括以下步骤;
步骤一:获取多模态社交媒体数据,所述多模态社交媒体数据包括目标评价属性、英文文本以及单张图片;
步骤二:基于多模态社交媒体数据中的单张图片,识别并切分出图片中的全部人脸,若图片中含有人脸,则执行步骤三,若图片中不含有人脸,则生成图片人脸描述,并执行步骤十;
步骤三:获取图片中人脸的面部属性信息;
步骤四:将图片中人脸的面部属性信息转化为面部描述文本;
步骤五:判断图片中人脸为单张人脸或多张人脸,若为单张人脸,则根据面部描述文本生成图片人脸描述,并执行步骤十,若为多张人脸,则将目标评价属性与步骤四中的面部描述文本进行拼接后,得到句子,之后将句子进行编码,得到文本向量表示;
步骤六:将多模态社交媒体数据中的单张图片进行编码,得到图片向量表示;
步骤七:计算图片向量表示与文本向量表示的余弦相似度,并选取余弦相似度最高的文本向量表示对应的面部描述文本;
步骤八:针对步骤七中得到的面部描述文本,仅保留表情预测信息以及目标评价属性;
步骤九:将面部描述文本中表情预测信息以及目标评价属性进行拼接,得到图片人脸描述;
步骤十:基于多模态社交媒体数据中的单张图片,生成关于图片场景信息的中性文本描述;
步骤十一:将多模态社交媒体数据中的目标评价属性与英文文本进行拼接,得到新句子,并将新句子分别与图片人脸描述和关于图片场景信息的中性文本描述进行拼接,并将拼接结果分别利用预训练语言模型进行处理,得到包含人脸描述信息的句子表示和包含场景信息的句子表示;
步骤十二:将包含人脸描述信息的句子表示和包含场景信息的句子表示进行融合,得到多模态融合表示;
步骤十三:将多模态融合表示送入线性分类层得到对于目标评价属性的情感分类预测结果;
所述步骤十二中将包含人脸描述信息的句子表示和包含场景信息的句子表示进行融合通过门控机制进行;
所述门控机制具体表示为:
p(y|H)=softmax(WH+b)
2.根据权利要求1所述的一种基于跨模态翻译的属性级多模态情感分类方法,其特征在于所述识别并切分出图像中的全部人脸通过面部识别模型DeepFace进行。
3.根据权利要求1所述的一种基于跨模态翻译的属性级多模态情感分类方法,其特征在于所述图片中人脸的面部属性信息通过DeepFace工具中人脸属性预测模型得到。
4.根据权利要求3所述的一种基于跨模态翻译的属性级多模态情感分类方法,其特征在于所述面部属性信息包括:年龄、人种、性别、表情预测信息及置信度;
其中,年龄为0~120的整数预测,性别为男女二分类预测,表情为愤怒、恐惧、中立、悲伤、厌恶、快乐和惊讶七分类预测。
5.根据权利要求1所述的一种基于跨模态翻译的属性级多模态情感分类方法,其特征在于所述句子进行编码通过预训练图文模型CLIP的文本编码器进行,图片进行编码通过预训练图文模型CLIP的图像编码器进行,表示为:
HD&A=Text_Encoder(concat(D,A))
HV=Image_Encoder(V)
其中concat为文本拼接函数,Text_Encoder为预训练图文模型CLIP的文本编码器,Image_Encoder为预训练图文模型CLIP的图像编码器,A为目标评价属性,D为面部描述文本,V代表图像,HD&A和HV分别代表输出的编码表示。
6.根据权利要求1所述的一种基于跨模态翻译的属性级多模态情感分类方法,其特征在于所述步骤七中图片向量表示与文本向量表示的余弦相似度通过L2正则化得到,表示为:
H’D&A=L2_Normalize(HD&A·WD&A)
H’V=L2_Normalize(HV·WV)
L=(H’V·(H’D&A)T)*et
其中,WD&A和WV是可学习权重,t是CLIP模型中的温度标度,e是自然对数的底,L为图文向量的余弦相似度,H’D&A和H’V分别为经过L2正则化后的中间向量表示。
7.根据权利要求1所述的一种基于跨模态翻译的属性级多模态情感分类方法,其特征在于所述关于图片场景信息的中性文本描述通过图片描述生成模型得到,表示为:
C=Caption_Transformer(V)
其中,C为关于图片场景信息的中性文本描述,Caption_Transformer为预训练的图文生成模型,v代表图片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210836512.6A CN115186683B (zh) | 2022-07-15 | 2022-07-15 | 一种基于跨模态翻译的属性级多模态情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210836512.6A CN115186683B (zh) | 2022-07-15 | 2022-07-15 | 一种基于跨模态翻译的属性级多模态情感分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115186683A CN115186683A (zh) | 2022-10-14 |
CN115186683B true CN115186683B (zh) | 2023-05-23 |
Family
ID=83519719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210836512.6A Active CN115186683B (zh) | 2022-07-15 | 2022-07-15 | 一种基于跨模态翻译的属性级多模态情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115186683B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563751B (zh) * | 2023-04-19 | 2024-02-06 | 湖北工业大学 | 一种基于注意力机制的多模态情感分析方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420807A (zh) * | 2021-06-22 | 2021-09-21 | 哈尔滨理工大学 | 基于多任务学习与注意力机制的多模态融合情感识别系统、方法及实验评价方法 |
CN114238636A (zh) * | 2021-12-14 | 2022-03-25 | 东南大学 | 一种基于翻译匹配的跨语言属性级情感分类方法 |
CN114529758A (zh) * | 2022-01-25 | 2022-05-24 | 哈尔滨工业大学 | 基于对比学习和多头自注意力机制的多模态情感分析方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10068024B2 (en) * | 2012-02-01 | 2018-09-04 | Sri International | Method and apparatus for correlating and viewing disparate data |
KR102570279B1 (ko) * | 2018-01-05 | 2023-08-24 | 삼성전자주식회사 | 감정 인식을 위한 학습 방법, 감정을 인식하는 방법 및 장치 |
US11282297B2 (en) * | 2019-09-10 | 2022-03-22 | Blue Planet Training, Inc. | System and method for visual analysis of emotional coherence in videos |
CN112418034A (zh) * | 2020-11-12 | 2021-02-26 | 元梦人文智能国际有限公司 | 多模态情感识别方法、装置、电子设备和存储介质 |
CN113312530B (zh) * | 2021-06-09 | 2022-02-15 | 哈尔滨工业大学 | 一种以文本为核心的多模态情感分类方法 |
CN114511906A (zh) * | 2022-01-20 | 2022-05-17 | 重庆邮电大学 | 基于跨模态动态卷积的视频多模态情感识别方法、装置及计算机设备 |
CN114694076A (zh) * | 2022-04-08 | 2022-07-01 | 浙江理工大学 | 基于多任务学习与层叠跨模态融合的多模态情感分析方法 |
-
2022
- 2022-07-15 CN CN202210836512.6A patent/CN115186683B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420807A (zh) * | 2021-06-22 | 2021-09-21 | 哈尔滨理工大学 | 基于多任务学习与注意力机制的多模态融合情感识别系统、方法及实验评价方法 |
CN114238636A (zh) * | 2021-12-14 | 2022-03-25 | 东南大学 | 一种基于翻译匹配的跨语言属性级情感分类方法 |
CN114529758A (zh) * | 2022-01-25 | 2022-05-24 | 哈尔滨工业大学 | 基于对比学习和多头自注意力机制的多模态情感分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115186683A (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110705206B (zh) | 一种文本信息的处理方法及相关装置 | |
CN111382565A (zh) | 基于多标签的情绪-原因对抽取方法及系统 | |
CN113657115B (zh) | 一种基于讽刺识别和细粒度特征融合的多模态蒙古文情感分析方法 | |
CN113516152A (zh) | 一种基于复合图像语义的图像描述方法 | |
CN113761377B (zh) | 基于注意力机制多特征融合的虚假信息检测方法、装置、电子设备及存储介质 | |
CN115186683B (zh) | 一种基于跨模态翻译的属性级多模态情感分类方法 | |
CN114065848A (zh) | 一种基于预训练情感嵌入的中文方面级别情感分类方法 | |
CN115759119A (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN115098673A (zh) | 基于变体注意力及层次结构的业务文书信息抽取方法 | |
CN110750669B (zh) | 一种图像字幕生成的方法及系统 | |
CN117115505A (zh) | 一种结合知识蒸馏与对比学习的情感增强继续训练方法 | |
CN116595023A (zh) | 地址信息的更新方法和装置、电子设备及存储介质 | |
CN116662924A (zh) | 基于双通道与注意力机制的方面级多模态情感分析方法 | |
CN114937277B (zh) | 基于图像的文本获取方法、装置、电子设备及存储介质 | |
Eunice et al. | Deep learning and sign language models based enhanced accessibility of e-governance services for speech and hearing-impaired | |
CN117150320B (zh) | 对话数字人情感风格相似度评价方法及系统 | |
CN117789971B (zh) | 基于文本情感分析的心理健康智能评测系统及方法 | |
CN117786118A (zh) | 一种基于Bert模型和BiLSTM模型的文本情感分析方法、系统、设备及可读存储介质 | |
CN116737923A (zh) | 一种融合多特征和表情情感词典的微博文本隐式情感识别方法 | |
Abdella et al. | Detection of Emotions in Afan Oromo Social Media Texts Using Deep Learning Method | |
Waghmare et al. | Performance Analysis of Neural Machine Translation Models for ASL to ASL Gloss Conversion | |
CN118093914A (zh) | 一种基于跨模态情感交互的对话图像检索方法 | |
Kumar et al. | A Survey on Indian Sign Language Translation Using Artificial Intelligence | |
CN115659964A (zh) | 一种基于多模态信息的表格实体抽取方法及系统 | |
Gupta et al. | Multimodal Meme Sentiment Analysis with Image Inpainting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |