CN111126194B - 一种社交媒体视觉内容情感分类方法 - Google Patents
一种社交媒体视觉内容情感分类方法 Download PDFInfo
- Publication number
- CN111126194B CN111126194B CN201911260595.3A CN201911260595A CN111126194B CN 111126194 B CN111126194 B CN 111126194B CN 201911260595 A CN201911260595 A CN 201911260595A CN 111126194 B CN111126194 B CN 111126194B
- Authority
- CN
- China
- Prior art keywords
- emotion
- concept
- social media
- ontology
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 145
- 230000000007 visual effect Effects 0.000 title claims abstract description 100
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 230000004044 response Effects 0.000 claims abstract description 32
- 230000002996 emotional effect Effects 0.000 claims abstract description 23
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims abstract description 7
- 230000003068 static effect Effects 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 claims description 3
- 230000007717 exclusion Effects 0.000 claims description 3
- 230000000750 progressive effect Effects 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 13
- 230000016776 visual perception Effects 0.000 abstract description 3
- 238000012549 training Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 7
- 238000005065 mining Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种社交媒体视觉内容情感分类方法,包括如下步骤:层次化视觉情感本体建模:建立情感本体概念,完成对社交媒体中的视觉内容的规范性描述;对社交媒体中的视觉内容进行本体概念检测:基于深度学习建立社交媒体中视觉内容和情感本体概念之间的映射关系;基于情感本体概念响应的情感倾向识别:利用社交媒体中视觉内容的情感本体概念,识别社交媒体视觉内容的情感倾向。本发明对视觉内容进行多角度和多层次立体描述,同时,在进行概念检测过程中,充分考虑了视觉感知过程,能够准确地对视觉内容进行情感分类;本发明在对社交媒体视觉内容进行情感分类过程中,无需人工情感标注,有效避免了情感倾向标签不可靠造成的情感分类不准确。
Description
技术领域
本发明涉及机器学习领域,特别是涉及一种社交媒体视觉内容情 感分类方法。
背景技术
情感分析原本是自然语言处理领域中的研究热点,是指利用计算 机技术对文本内容中所包含的用户态度、观点和情感倾向进行检测、 分析和挖掘。但是伴随着社交媒体的兴盛和具有摄像功能的移动终端 的普及,图像和视频这样的视觉内容成为用户进行自我表达的新兴媒 介。这些视觉数据和文字一样包含着诸如态度和观点之类的信息,因此情感分析和意见挖掘的研究对象扩展到了视觉内容。作为文本情感 分析的补充,面向社交媒体中海量视觉内容的情感分析和意见挖掘不 仅能够为金融市场走势预测、产品销售情况预测、电影票房预测和政 治大选结果预测等大数据应用提供辅助信息,还能为网络舆情监测和 辅助决策提供支持。
但是社交媒体视觉内容情感分析的特殊之处在于:(1)社交媒 体中的数据来自于用户的自由分享,主题宽泛的视觉内容和情感倾向 之间的映射关系复杂,语义鸿沟问题十分严重;(2)从视觉内容文 字描述中得到的情感标记信息含有严重噪声,而采用人工方式对大量 训练样本进行情感标注比较困难,并且情感的主观性导致基于人工标 注得到的情感标签也未必可靠。所以基于深度神经网络建立主题宽泛 的视觉内容和情感倾向之间的模糊映射,并依赖带有噪声的不可靠情 感标签进行反向传播训练的模式存在缺陷。
目前国内外针对主题宽泛的视觉大数据的情感分析和意见挖掘 研究还处于起步阶段,主要分为基于中间表达层的方法和基于深度学 习的方法两大类。现有基于中间表达层的方法往往将多组概念并列在 一起构成情感本体并检测视觉内容在这些概念上的响应,然后将这些响应作为中间特征并借助监督学习方法进行情感倾向预测,并没有对 描述视觉内容的全局性概念和局部性概念进行区分,而且忽略了本体 概念本身所携带的情感信息以及本体概念之间的关系,除此之外,不 可靠的情感标签中存在的干扰噪声也给以概念响应为中间特征的情 感预测带来困难。基于深度神经网络建立主题宽泛的视觉内容和情感 倾向之间不明确映射的方法忽略了情感语义的产生过程,情感标签的不可靠性也增加了网络训练难度,而基于深度神经网络进行本体概念 检测后再进行情感预测的方法也忽略了本体概念的情感含义和概念 关系,并且主要针对视觉内容全局进行学习和训练,缺乏对其中局部 对象的关注。同时,在现有视觉化社交媒体平台上,动态图像和短视 频也是重要的情感和意见传达媒介,而现有研究主要针对静态图像, 涉及动态图像和视频序列的研究还有待开展。
发明内容
本发明的目的是提供一种社交媒体视觉内容情感分类方法,以解 决上述现有技术存在的问题,能够准确地对视觉内容中的静态图像、 动态图像和视频序列进行情感分类。
为实现上述目的,本发明提供了如下方案:本发明提供一种社交 媒体视觉内容情感分类方法,包括如下步骤:
层次化视觉情感本体建模:建立情感本体概念,完成对社交媒体 中的视觉内容的规范性描述;
对社交媒体中的视觉内容进行本体概念检测:基于深度学习建立 社交媒体中视觉内容和情感本体概念之间的映射关系;
基于情感本体概念响应的情感倾向识别:利用社交媒体中视觉内 容的情感本体概念,识别社交媒体视觉内容的情感倾向。
优选地,所述层次化视觉情感本体建模包括:社交媒体视觉情感 本体词汇获取和层次化视觉情感本体建模;
所述情感本体概念由实体概念和属性概念组合而成;
所述层次化情感本体建模还包括对视觉内容文本实体概念之间 的概念关系进行提取,所述概念关系包括:共生关系、互斥关系和包 容关系。
优选地,对社交媒体中的视觉内容进行本体概念检测包括面向静 态图像的情感本体概念检测,还包括面向动态图像和视频序列的情感 本体概念检测。
优选地,所述面向静态图像的情感本体概念检测包括对静态图像 情感本体全局性概念和局部性概念的检测。
优选地,所述面向静态图像的情感本体概念检测采用递进模式, 先在不区分属性信息的情况下对名词性实体概念进行检测,然后,再 对实体概念对应的属性概念进行分辨。
优选地,所述面向动态图像和视频序列的情感本体概念检测采用 联合卷积神经网络和LSTM的递归神经网络深度学习模型。
优选地,所述面向动态图像和视频序列的情感本体概念检测方法 为:首先,采用面向静态图像的概念检测方法对动态图像或视频序列 中的每一帧图像进行检测,得到每一帧图像对应的情感本体概念响应; 然后,计算动态图像或视频序列的整体响应,动态图像或视频序列的 整体响应小于或等于所有帧图像对应的情感本体概念的最大响应值;对于涉及动作行为的动态图像或视频序列,将实体概念和属性概念作 为一个整体来进行情感本体概念的检测。
优选地,所述基于情感本体概念响应的情感倾向识别采用基于概 念推理的情感倾向识别方法。
本发明公开了以下技术效果:
(1)本发明在构建情感本体模型过程中,将本体概念分为宏观 和微观两个层面,分别对视觉内容的全局性概念和局部性概念进行检 测,从而形成对视觉内容的多角度和多层次立体描述,能够准确地对 视觉内容进行情感分类;同时,本发明在面向静态图像进行概念检测过程中,先进行实体概念检测,再进行属性概念检测,将抽象的属性 概念具体化,有效跨越了情感本体构建过程中的语义鸿沟,降低了对 属性概念的检测难度,并充分考虑了视觉感知过程,为情感倾向识别 提供了数据基础;本发明利用情感本体概念和概念关系进行推理,实 现社交媒体视觉内容进行情感分类,无需人工情感标注,有效避免了情感倾向标签不可靠造成的情感分类不准确。
(2)本发明通过对动态图像和视频序列的情感本体概念检测, 实现了对社交媒体视觉内容中动态图像和视频序列的情感分类,从而 能够对社交媒体视觉内容的情感进行完整表达。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面 将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描 述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来 讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他 的附图。
图1为本发明社交媒体视觉内容情感分类方法流程图;
图2为本发明社交媒体视觉情感本体词汇获取流程图;
图3为本发明静态图像情感本体概念检测流程图;
图4为本发明动态图像和视频序列的情感本体概念检测流程图;
图5为本发明基于概念推理的情感倾向识别方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方 案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部 分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普 通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例, 都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结 合附图和具体实施方式对本发明作进一步详细的说明。
参照图1-5所示,本实施例提供一种社交媒体视觉内容情感分类 方法,包括:
层次化视觉情感本体建模:建立情感本体概念,完成对社交媒体 中的视觉内容的规范性描述。
基于名词、形容词和动词构成概念集合来对社交媒体视觉内容进 行表示,使用形容词名词组合来对视觉内容全局和其中的静态局部对 象进行描述,使用动词名词组合来辅助描述视觉内容中的运动对象。 项目拟在现有视觉情感本体的基础上面向中文网络进行词汇挖掘,并 对概念进行整理,建立层次化情感本体模型对视觉内容进行多角度描述。具体包括:
社交媒体视觉情感本体词汇获取:
如图2所示,本实施例一方面利用现有VSO(视觉情感本体, Visual SentimentOntology)、MVSO(多语言视觉情感本体, Multilingual Visual Sentiment Ontology)和GSO(动态图像情感 本体,GIF Sentiment Ontology)中的情感词汇在中文社交媒体平台上进行搜索,从中筛选出高频次候选词汇;另一方面基于Plutchik 情感轮模型中的情感关键词及其近义词进行视觉内容获取,并通过分 析视觉内容对应的文本描述获取候选词汇,得到能对社交媒体视觉内 容进行描述的形容词、名词和动词词汇集合。
层次化视觉情感本体建模:
在得到建立情感本体所用的名词、形容词和动词集合后,首先将 名词区分为全局性描述词语和面向局部对象的局部性描述词语两大 类,给名词性实体概念分配形容词和动词属性概念,形成由实体概念 和属性概念组合而成的情感本体概念,对视觉内容进行描述,以便于 对情感本体概念进行扩展,应对社交媒体中视觉内容主题不受限制的问题。然后,对由实体概念和属性概念组合而成的情感本体概念进行 筛选,以去除不常用概念。最后,对视觉内容文本标签进行分析,提 取实体概念之间的概念关系,概念关系包括:共生关系、互斥关系和 包容关系,并采用有向无环图(Directed Acyclic Graph,DAG)模型 对概念关系进行描述,得到层次化视觉情感本体模型。
对社交媒体中的视觉内容进行本体概念检测:基于深度学习建立 社交媒体中视觉内容和情感本体概念之间的映射关系,具体包括:
面向静态图像的情感本体概念检测:本实施例基于CNN卷积神经 网络构建情感本体概念检测模型,同时提取图像的全局特征和局部特 征,完成对静态图像情感本体全局性概念和局部性概念的检测,具体 如图3所示。
本实施例进行情感本体概念检测过程中采用递进模式,先在不区 分属性信息的情况下对名词性实体概念进行检测,然后,再对实体概 念对应的属性概念进行分辨,既能够直接利用基于深度学习的目标检 测结果,又使得抽象概念“有物可依”。
针对全局性概念:以情感本体概念中的实体概念为关键词在中文 社交媒体网络中搜索图片,作为训练样本,对实体概念分类器进行训 练;然后,针对每个实体概念,结合人工标注训练其对应的属性概念 分类器;最后,取实体概念响应和属性概念响应的乘积作为样本在各 个情感本体全局性概念上的响应结果。
针对局部性概念:以情感本体概念中的实体概念为关键词在中文 社交媒体网络中搜索图片,作为训练样本;若情感本体概念在基于深 度学习的实体概念分类器中已经存在,则采用训练好的实体概念分类 器对该实体概念对应的样本进行检测和局部区域框定,并删除检测不 到的实体概念所对应的训练样本;对实体概念分类器中不存在的本体概念,采用人工方式对训练样本进行帅选和局部区域框定;训练好实 体概念分类器后,以检测到的局部区域作为样本,对各实体概念对应 的属性概念分类器进行训练;最后,取实体概念响应和属性概念响应 的乘积作为样本在各个情感本体局部性概念上的响应结果。对于一整 幅图像,取所有候选窗口对应的情感本体概念的最大响应值作为该图 像在情感本体概念上的最终响应结果。
面向动态图像和视频序列的情感本体概念检测:采用联合卷积神 经网络和LSTM的递归神经网络(Recurrent Neural Network,RNN), 构建学习模型检测动态图像和视频序列的情感本体概念,具体如图4 所示。
首先,采用面向静态图像的概念检测方法对动态图像或视频序列 中的每一帧图像进行检测,得到每一帧图像对应的情感本体概念响应; 然后,计算动态图像或视频序列的整体响应,动态图像或视频序列的 整体响应小于或等于所有帧图像对应的情感本体概念的最大响应值。 对于涉及动作行为的动态图像或视频序列,将实体概念和属性概念作为一个整体来进行情感本体概念的检测。
基于情感本体概念响应的情感倾向识别:利用社交媒体中视觉内 容的情感本体概念,识别社交媒体视觉内容的情感倾向。
为降低人工情感标注的不可靠性对社交媒体视觉内容情感倾向 识别的影响,本实施例采用基于概念推理的情感倾向识别方法,具体 方法为:基于所检测到的社交媒体视觉内容的本体概念响应,选择响 应值小于等于最大响应值的情感本体概念,并作为描述视觉内容的候 选概念;然后,根据情感本体概念之间的关联信息,通过筛查互相矛盾的情感本体概念,完成对候选概念的过滤,从而得到能够准确描述 视觉内容的全局性概念和局部性概念;基于情感本体概念形成对视觉 内容的全方位描述,利用情感本体概念的情感含义,实现对视觉内容 情感倾向的准确识别,具体如图5所示。
本发明在构建情感本体模型过程中,将本体概念分为宏观和微观 两个层面,分别对视觉内容的全局性概念和局部性概念进行检测,从 而形成对视觉内容的多角度和多层次立体描述,能够准确地对视觉内 容进行情感分类;本发明在面向静态图像进行概念检测过程中,先进 行实体概念检测,再进行属性概念检测,将抽象的属性概念具体化, 有效跨越了情感本体构建过程中的语义鸿沟,降低了对属性概念的检 测难度,并充分考虑了视觉感知过程,为情感倾向识别提供了数据基 础;利用情感本体概念和概念关系进行推理,实现社交媒体视觉内容进行情感分类,无需人工情感标注,有效避免了情感倾向标签不可靠造成的情感分类不准确。同时,本发明通过对动态图像和视频序列的 情感本体概念检测,实现了对社交媒体视觉内容中动态图像和视频序 列的情感分类,从而能够对社交媒体视觉内容的情感进行完整表达。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、 “上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、 “底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位 或位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装 置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能 理解为对本发明的限制。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本 发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普 通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本 发明权利要求书确定的保护范围内。
Claims (3)
1.一种社交媒体视觉内容情感分类方法,其特征在于,包括如下步骤:
层次化视觉情感本体建模:建立情感本体概念,完成对社交媒体中的视觉内容的规范性描述;
对社交媒体中的视觉内容进行本体概念检测:基于深度学习建立社交媒体中视觉内容和情感本体概念之间的映射关系;
基于情感本体概念响应的情感倾向识别:利用社交媒体中视觉内容的情感本体概念,识别社交媒体视觉内容的情感倾向;
所述层次化视觉情感本体建模包括:社交媒体视觉情感本体词汇获取和层次化视觉情感本体建模;
所述情感本体概念由实体概念和属性概念组合而成;
所述层次化视觉情感本体建模还包括对视觉内容文本实体概念之间的概念关系进行提取,所述概念关系包括:共生关系、互斥关系和包容关系;
对社交媒体中的视觉内容进行本体概念检测包括面向静态图像的情感本体概念检测,还包括面向动态图像和视频序列的情感本体概念检测;
所述面向静态图像的情感本体概念检测包括对静态图像情感本体全局性概念和局部性概念的检测;
所述面向静态图像的情感本体概念检测采用递进模式,先在不区分属性信息的情况下对名词性实体概念进行检测,然后,再对实体概念对应的属性概念进行分辨;
所述面向动态图像和视频序列的情感本体概念检测方法为:首先,采用面向静态图像的概念检测方法对动态图像或视频序列中的每一帧图像进行检测,得到每一帧图像对应的情感本体概念响应;然后,计算动态图像或视频序列的整体响应,动态图像或视频序列的整体响应小于或等于所有帧图像对应的情感本体概念的最大响应值;对于涉及动作行为的动态图像或视频序列,将实体概念和属性概念作为一个整体来进行情感本体概念的检测。
2.根据权利要求1所述的社交媒体视觉内容情感分类方法,其特征在于,所述面向动态图像和视频序列的情感本体概念检测采用联合卷积神经网络和LSTM的递归神经网络深度学习模型。
3.根据权利要求1所述的社交媒体视觉内容情感分类方法,其特征在于,所述基于情感本体概念响应的情感倾向识别采用基于概念推理的情感倾向识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911260595.3A CN111126194B (zh) | 2019-12-10 | 2019-12-10 | 一种社交媒体视觉内容情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911260595.3A CN111126194B (zh) | 2019-12-10 | 2019-12-10 | 一种社交媒体视觉内容情感分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111126194A CN111126194A (zh) | 2020-05-08 |
CN111126194B true CN111126194B (zh) | 2023-04-07 |
Family
ID=70498139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911260595.3A Active CN111126194B (zh) | 2019-12-10 | 2019-12-10 | 一种社交媒体视觉内容情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111126194B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968003B (zh) * | 2020-09-04 | 2023-11-24 | 郑州轻工业大学 | 一种基于农作物本体概念响应的农作物病害预测方法 |
US11620841B2 (en) | 2020-11-02 | 2023-04-04 | ViralMoment Inc. | Contextual sentiment analysis of digital memes and trends systems and methods |
CN113177163B (zh) * | 2021-04-28 | 2022-08-02 | 烟台中科网络技术研究所 | 用于社交动态信息情感分析的方法、系统和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436583A (zh) * | 2011-09-26 | 2012-05-02 | 哈尔滨工程大学 | 基于对标注图像学习的图像分割方法 |
CN109376610A (zh) * | 2018-09-27 | 2019-02-22 | 南京邮电大学 | 视频监控中基于图像概念网络的行人不安全行为检测方法 |
CN109508375A (zh) * | 2018-11-19 | 2019-03-22 | 重庆邮电大学 | 一种基于多模态融合的社交情感分类方法 |
CN110263808A (zh) * | 2019-05-13 | 2019-09-20 | 广东工业大学 | 一种基于lstm网络和注意力机制的图像情感分类方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140337328A1 (en) * | 2013-05-09 | 2014-11-13 | Veooz Labs Private Limited | System and method for retrieving and presenting concept centric information in social media networks |
WO2015160415A2 (en) * | 2014-01-31 | 2015-10-22 | The Trustees Of Columbia University In The City Of New York | Systems and methods for visual sentiment analysis |
-
2019
- 2019-12-10 CN CN201911260595.3A patent/CN111126194B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436583A (zh) * | 2011-09-26 | 2012-05-02 | 哈尔滨工程大学 | 基于对标注图像学习的图像分割方法 |
CN109376610A (zh) * | 2018-09-27 | 2019-02-22 | 南京邮电大学 | 视频监控中基于图像概念网络的行人不安全行为检测方法 |
CN109508375A (zh) * | 2018-11-19 | 2019-03-22 | 重庆邮电大学 | 一种基于多模态融合的社交情感分类方法 |
CN110263808A (zh) * | 2019-05-13 | 2019-09-20 | 广东工业大学 | 一种基于lstm网络和注意力机制的图像情感分类方法 |
Non-Patent Citations (2)
Title |
---|
李大鹏 ; 余宗健 ; 肖朝文 ; 邱江涛 ; .基于群体行为的社交媒体中水军分析.计算机工程与应用.2018,(05),全文. * |
王兰成 ; 徐震 ; .基于情感本体的主题网络舆情倾向性分析.信息与控制.2013,(01),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111126194A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111737495B (zh) | 基于领域自分类的中高端人才智能推荐系统及其方法 | |
CN107577682B (zh) | 基于社交图片的用户兴趣挖掘和用户推荐方法及系统 | |
CN111126194B (zh) | 一种社交媒体视觉内容情感分类方法 | |
Sun et al. | Discovering affective regions in deep convolutional neural networks for visual sentiment prediction | |
CN108664932B (zh) | 一种基于多源信息融合的学习情感状态识别方法 | |
CN106886580B (zh) | 一种基于深度学习的图片情感极性分析方法 | |
CN105139211B (zh) | 产品简介生成方法及系统 | |
CN113158023B (zh) | 基于混合推荐算法的公共数字生活精准分类服务方法 | |
CN106599824B (zh) | 一种基于情感对的gif动画情感识别方法 | |
Roy et al. | Automated detection of substance use-related social media posts based on image and text analysis | |
Bateman et al. | Towards next-generation visual archives: i mage, film and discourse | |
Riquelme et al. | Explaining VQA predictions using visual grounding and a knowledge base | |
CN115114395A (zh) | 内容检索及模型训练方法、装置、电子设备和存储介质 | |
Nie et al. | Cross-domain semantic transfer from large-scale social media | |
Glavan et al. | InstaIndoor and multi-modal deep learning for indoor scene recognition | |
Zhang et al. | Synchronous prediction of arousal and valence using LSTM network for affective video content analysis | |
Vayadande et al. | Mood detection and emoji classification using tokenization and convolutional neural network | |
Fouad et al. | Adaptive visual sentiment prediction model based on event concepts and object detection techniques in social media | |
CN113641788B (zh) | 一种基于无监督的长短影评细粒度观点挖掘方法 | |
Jia et al. | Multimodal emotion distribution learning | |
Elabora et al. | Evaluating citizens’ sentiments in smart cities: A deep learning approach | |
Thanos et al. | Combined deep learning and traditional NLP approaches for fire burst detection based on twitter posts | |
Shipman et al. | Towards a distributed digital library for sign language content | |
Wu et al. | Typical opinions mining based on Douban film comments in animated movies | |
CN114595370A (zh) | 模型训练、排序方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |