CN118015644B - 基于图片和文字的社交媒体关键词数据分析方法及装置 - Google Patents
基于图片和文字的社交媒体关键词数据分析方法及装置 Download PDFInfo
- Publication number
- CN118015644B CN118015644B CN202410429676.6A CN202410429676A CN118015644B CN 118015644 B CN118015644 B CN 118015644B CN 202410429676 A CN202410429676 A CN 202410429676A CN 118015644 B CN118015644 B CN 118015644B
- Authority
- CN
- China
- Prior art keywords
- text
- picture
- words
- word
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000007405 data analysis Methods 0.000 title claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000013136 deep learning model Methods 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 238000004140 cleaning Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000009849 deactivation Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 description 11
- 238000007781 pre-processing Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- 230000007797 corrosion Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013079 data visualisation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 235000002566 Capsicum Nutrition 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Abstract
本发明实施例中提供了一种基于图片和文字的社交媒体关键词数据分析方法、装置及电子设备,属于数据处理技术领域,该方法包括:对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1;使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2;对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3;基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}。本方案提高了社交媒体关键词数据提取的准确性和全面性。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种基于图片和文字的社交媒体关键词数据分析方法、装置及电子设备。
背景技术
在社交媒体数据分析领域,当前的技术主要关注于文本内容的分析,如情感分析、主题检测、关键词提取等。虽然这些方法在文本数据上取得了一定的成果,但社交媒体的内容远不止文本,还包括大量的图像、视频等非文本数据。现有的技术在处理这些非文本内容时面临诸多挑战,尤其是如何从图像中提取有用信息并与文本数据结合进行综合分析。
1.信息提取不全面:现有技术往往忽略图像内容的分析,导致从社交媒体数据中提取的信息不全面。图像中往往包含丰富的情感和语境信息,这些信息对于理解用户的意图和情感至关重要。
2.缺乏有效的整合分析方法:即使单独对图像和文本进行了分析,也缺乏有效的方法将这两种类型的数据进行整合。如何将图像中识别的实体和文本中提取的关键词有效结合,是现有技术需要解决的问题。
3.实时性和准确性的挑战:社交媒体数据量巨大,实时性是一个重要考量因素。现有的图像分析技术往往计算量较大,难以满足实时分析的需求。同时,图像识别和文字识别的准确性直接影响到后续分析的有效性。
4.多样性和动态性的处理:社交媒体内容具有高度的多样性和动态性。用户可能使用不同风格的图片表达相同的情感,或者随着时间变化使用不同的关键词和图像。现有技术在适应这种多样性和动态性方面还存在不足。
5.语境理解不足:图像和文字的结合为数据提供了丰富的语境信息,但现有技术在从这些复合数据中提取和理解深层次语境信息方面还不够成熟。
上述问题成为需要解决的技术问题。
发明内容
有鉴于此,本发明实施例提供一种基于图片和文字的社交媒体关键词数据分析方法、装置及电子设备,至少部分解决现有技术中存在的问题。
第一方面,本发明实施例提供了一种基于图片和文字的社交媒体关键词数据分析方法,包括:
对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1;
使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2;
对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3;
基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}。
根据本公开实施例的一种具体实现方式,所述生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}之后,所述方法还包括:
将识别和提取的关键词集合K={K1,K2,…,Kn}进行整合,利用数据分析技术对关键词集合K={K1,K2,…,Kn}进行聚类和趋势分析。
根据本公开实施例的一种具体实现方式,所述对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1,包括:
移除文本中的特殊字符、标点符号、停用、网址和用户标签;确定文本的语言,确保后续处理步骤使用正确的语言模型和工具;词干提取和词形还原,将单词转换为基本形式,将文本分割成单独的单词或短语,并转换文本到统一的格式,进而得到第一文本集合T1;
通过解码把视频按照秒拆分成多个图像;将所有图像调整为统一的尺寸,以减少模型训练和推理的计算量,将彩色图像转换为灰度图像,减少数据维度,使用滤波器去除图像中的噪声,提高图像质量,改善图像的对比度和亮度,使图像中的关键特征更加突出,进而得到第一图片集合P1。
根据本公开实施例的一种具体实现方式,所述使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2,包括:
在深度学习模型中设置目标检测子模型,用于识别图片中的实体并定位实体的位置;
在目标检测子模型之后设置语义分割子模型,用于识别图片中不同实体的像素级区域;
使用训练好的深度学习模型对第一图片集合P1中的每张图片进行预测,提取出图片中的实体信息,包括实体的位置和类别;
将提取出的实体信息转换为文本格式,包括实体的类别信息、位置信息以及实体关联信息;
将实体的类别信息、位置信息以及实体关联信息组合成文本,生成第二文本集合T2,每个文本条目对应图片集合P1中的一张图片,并包含该图片中识别出的实体信息。
根据本公开实施例的一种具体实现方式,所述对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3,包括:
在语义分割子模型之后设置OCR子模型,当实体本身是文本时,使用OCR子模型提取实体所对应的文本信息,形成第三文本集合T3。
根据本公开实施例的一种具体实现方式,所述基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},包括:
分别对第一文本集合T1、第二文本集合T2以及第三文本集合T3进行分词处理,得
到第一词语集合、第二词语集合和第三词语集合;
计算第一词语集合中的词语与第二词语集合和第三词语集合的疏密
度ρ:
得到第一疏密度向量;
其中,表示词语在第二词语集合中出现的次数,表示
词语在第三词语集合中出现的次数。
根据本公开实施例的一种具体实现方式,所述基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},还包括:
计算第二词语集合中的词语与第一词语集合和第三词语集合的疏密
度ρ:
得到第二疏密度向量;
其中,表示词语在第一词语集合中出现的次数,表示
词语在第三词语集合中出现的次数;
计算第三词语集合中的词语与第一词语集合和第二词语集合的疏密
度:
得到第三疏密度向量;
其中,表示词语在第一词语集合中出现的次数,表示
词语在第二词语集合中出现的次数。
根据本公开实施例的一种具体实现方式,所述基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},还包括:
将第一疏密度向量、第二疏密度向量和第三疏密
度向量进行合并,得到合并疏密度向量ρ:
计算关键词柔韧值:
,
其中,分别为第一调剂参数、第二调剂参数和第三调节参数;
将合并疏密度向量ρ中元素值大于关键词柔韧值的元素所对应的关键词设置为
社交媒体数据对应的关键词,并生成关键词集合K={K1,K2,…,Kn}。
第二方面,本发明实施例提供了一种基于图片和文字的社交媒体关键词数据分析装置,包括:
形成模块,用于对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1;
识别模块,使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2;
提取模块,对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3;
生成模块,基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}。
第三方面,本发明实施例还提供了一种电子设备,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述任第一方面或第一方面的任一实现方式中的基于图片和文字的社交媒体关键词数据分析方法。
第四方面,本发明实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述第一方面或第一方面的任一实现方式中的基于图片和文字的社交媒体关键词数据分析方法。
第五方面,本发明实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述第一方面或第一方面的任一实现方式中的基于图片和文字的社交媒体关键词数据分析方法。
本发明实施例中的基于图片和文字的社交媒体关键词数据分析方案,包括:对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1; 使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2; 对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3;基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}。本发明的方案具有如下有益效果:
全面性:通过结合视频、图片和文字信息,提供更全面的数据分析视角;
准确性:利用先进的图片实体和文字识别技术,提高关键词查找的准确性;
实时性:能够处理大规模社交媒体数据,支持实时数据分析
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种基于图片和文字的社交媒体关键词数据分析方法流程示意图;
图2为本发明实施例提供的另一种基于图片和文字的社交媒体关键词数据分析方法流程示意图;
图3为本发明实施例提供的基于图片和文字的社交媒体关键词数据分析装置结构示意图;
图4为本发明实施例提供的电子设备示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
本公开实施例提供一种基于图片和文字的社交媒体关键词数据分析方法。本实施例提供的基于图片和文字的社交媒体关键词数据分析方法可以由一计算装置来执行,该计算装置可以实现为软件,或者实现为软件和硬件的组合,该计算装置可以集成设置在服务器、终端设备等中。
参见图1和图2,本公开实施例提供了一种基于图片和文字的社交媒体关键词数据分析方法,包括:
S101,对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1。
为了获取社交媒体数据,设置有数据采集层,在数据采集层,目标是从各种社交媒体平台收集包含文本、图像和视频的数据。这一过程通过使用社交媒体平台提供的API接口完成,如Twitter的API、Facebook的Graph API等。数据采集的关键技术点包括API调用、数据格式化和数据存储。API调用需要处理各种网络请求、响应解析和错误处理。数据格式化涉及将原始数据转换成统一的格式,便于后续处理。数据存储则需要选择合适的数据库系统,保证数据的完整性和可查询性。
为了对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,设置有数据预处理层,数据预处理层的作用是提高数据质量,为后续分析阶段打下坚实的基础。文本预处理通常包括去除噪声(如特殊符号、无关词汇等)、语言检测、词干提取、分词和标准化。图像预处理则包括图像大小调整、颜色空间转换、去除图像噪声、图像增强等步骤。这些步骤的目的是减少数据中的无关信息,增强关键信息,使数据更适合后续的处理。
文本预处理:
去噪声: 移除文本中的特殊字符、标点符号、停用词(如“的”、“是”等常见但无实际意义的词),以及网址和用户标签等。
语言检测: 确定文本的语言,确保后续处理步骤使用正确的语言模型和工具。
词干提取和词形还原: 将单词转换为基本形式。例如,将“running”转换为“run”。这有助于统一不同形式的同一词汇。
分词: 将文本分割成单独的单词或短语。这在非英语语言中尤其重要,例如中文,需要将连续的字符序列分割成单独的词汇。
标准化: 转换文本到统一的格式,比如将所有字符转换为小写,统一数字格式,或者统一同义词。
视频预处理:
视频通过解码把视频按照秒拆分成图像,0.5秒1个图像。
然后进行图像的与处理步骤。
图像预处理:
尺寸调整: 将所有图像调整为统一的尺寸,以减少模型训练和推理的计算量。
颜色空间转换: 如将彩色图像转换为灰度图像,减少数据维度,有时候对特定的分析任务来说足够了。
去噪: 使用滤波器去除图像中的噪声,提高图像质量。
增强: 改善图像的对比度和亮度,使图像中的关键特征更加突出。
设置有特征提取层,在特征提取层,目标是从预处理后的文本和图像中提取有用的信息。文本特征提取主要利用自然语言处理(NLP)技术,如TF-IDF、Word2Vec或BERT等,来提取关键词、短语或句子的语义表示。图像特征提取则通常使用深度学习模型,如卷积神经网络(CNN),来识别图像中的实体、场景和活动等。这些特征是后续数据分析的基础,需要具有良好的区分度和表达能力。
文本特征提取可以采用如下方式:
词袋模型(Bag of Words):将文本转换为固定长度的向量,每个元素代表一个单词在文本中的出现频率。
TF-IDF:考虑词在整个文档集合中的重要性,给予少见词更高的权重。
词嵌入(Word Embeddings):如Word2Vec或BERT,将词转换为固定长度的向量,这些向量能够捕捉单词之间的语义关系。
通过上述操作之后,将提取到的文本进行汇聚,得到第一文本集合T1。
S102,使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2。
可以采用深度学习模型进行图像特征提取:
使用预训练的CNN:如ResNet或VGG,提取图像的高级特征。这些网络已在大型数据集上训练,能够识别各种图像特征。
特征图(Feature Maps)提取:CNN中间层的输出可以作为图像的特征表示,捕捉不同层次的视觉特征。
边缘检测:使用如Canny或Sobel边缘检测器识别图像中的边缘,这有助于后续识别图像中的对象和形状。
关键点提取和描述: 利用算法如SIFT(尺度不变特征变换)或SURF(加速稳健特征)检测图像中的关键点并生成描述符,为图像匹配和识别提供基础。
深度学习特征提取:使用预训练的卷积神经网络,如VGG或ResNet,提取图像的高级特征。这些特征能够捕捉到图像中的复杂模式和对象信息。
基于特征的图像分类:使用机器学习分类器(如SVM或随机森林)结合提取的特征进行图像分类。
深度学习方法:使用卷积神经网络进行端到端的图像分类。这些网络可以直接从原始图像像素学习到分类决策。
对象检测:使用如YOLO(You Only Look Once)或SSD(Single Shot MultiBoxDetector)的深度学习模型进行图像中多个对象的检测和分类。
图像内容理解:
场景识别:分析整个图像,识别图像描述的场景或上下文,例如是室内还是室外、海滩还是山脉等。
语义分割:将图像分割成多个区域,并识别每个区域的语义类别,如天空、建筑、人物等。
图像标注:结合图像识别和NLP技术,自动生成图像内容的描述性文本。
通过这些步骤和技术,可以从社交媒体的图像内容中提取丰富的信息,为进一步的数据分析提供支持。这些技术的应用使得从图像中提取的数据不仅限于表面的视觉特征,还包括深层次的语义和上下文信息,
图像预处理是图像分析流程中至关重要的一步,旨在通过各种技术改善图像质量,使其更适合后续的处理和分析。以下是图像预处理的几个关键步骤,以及它们的具体处理方法:
1. 尺寸调整 (Resizing)
目的:将所有图像调整至一个统一的尺寸,以便于后续处理。
方法:可以使用最近邻、双线性插值或双三次插值等方法调整图像尺寸。最近邻插值速度快但可能导致锯齿效应;双线性插值和双三次插值能更平滑地调整图像尺寸,但计算量更大。
2. 颜色空间转换 (Color Space Conversion)
目的:将图像从一种颜色空间转换到另一种,根据分析任务的需求提取有用的颜色信息。
方法:
将RGB图像转换为灰度图,仅保留亮度信息,适用于不需颜色信息的任务。
转换至HSV或Lab颜色空间,分离色调、饱和度和亮度,有助于在颜色变化不大的情况下提取特征。
3. 去噪声 (Noise Reduction)
目的: 去除图像中的随机噪声,提高图像的质量。
方法:
高斯滤波: 使用高斯滤波器平滑图像,有效去除高斯噪声。
中值滤波: 将每个像素点的值替换为其邻域内的中值,特别有效于去除椒盐噪声。
双边滤波: 同时考虑空间近邻度和像素值相似度,可以在去噪的同时保持边缘。
4. 增强 (Enhancement)
目的: 提高图像的对比度或突出某些特征,使图像中的重要信息更加明显。
方法:
直方图均衡化: 改善图像的对比度,使图像的直方图分布更加均匀。
自适应直方图均衡化: 类似于直方图均衡化,但是在局部区域上应用,更适合于改善局部对比度。
锐化: 使用锐化滤波器增强图像边缘,使图像看起来更清晰。
5. 形态学处理 (Morphological Processing)
目的: 对图像进行形态学变换,如膨胀、腐蚀、开运算和闭运算,用于去除小的噪点或填补小的空洞。
方法:
膨胀 (Dilation): 将图像与一个形状(结构元素)卷积,扩大图像中的白色区域或高亮区域。
腐蚀 (Erosion): 与膨胀相反,用于缩小图像中的白色区域或高亮区域,消除小的干扰物。
开运算和闭运算: 开运算是先腐蚀后膨胀,用于去除小物体;闭运算是先膨胀后腐蚀,用于填充小空的部分区域。
为了可更加有效的做特征提取,引入了如下特征提取算法:
1. 深度卷积神经网络(Deep Convolutional Neural Networks, DCNNs)
概述: DCNNs是图像处理领域的深度学习模型之一。通过多层卷积和池化操作,这些网络能够从简单的纹理和边缘特征到复杂的对象特征,逐层抽象图像的特征表示。
应用: 使用预训练的网络如VGG, ResNet或Inception作为特征提取器,即直接利用这些网络的中间层的输出作为图像的高级特征表示。
2. 自编码器(Autoencoders)
概述: 自编码器是一种无监督学习算法,它通过学习输入数据的低维表示(编码)然后再重构(解码)输入数据,从而提取数据的有效特征。
应用: 可以使用自编码器对图像进行降维处理,提取有效的特征表示,尤其适用于无标签数据的特征学习。
3. 生成对抗网络(Generative Adversarial Networks, GANs)
概述: GANs通过让两个网络(生成器和判别器)相互竞争来学习数据分布。在图像处理中,GANs不仅可以生成高质量的图像,还可以用于学习丰富的图像表示。
应用:利用GANs学习的特征表示进行图像分类、图像聚类等任务,这些特征能够反映图像的深层次语义信息。
4. 图神经网络(Graph Neural Networks, GNNs)
概述: GNNs是一种处理图结构数据的神经网络。虽然最初用于社交网络、知识图谱等图数据,但也可以应用于图像,将图像视为像素点的图结构。
应用: 将图像转化为图,其中像素点作为节点,相邻关系作为边,利用GNNs提取图像的结构特征,适用于需要考虑图像局部关系的复杂场景。
5. 注意力机制(Attention Mechanisms)
概述: 注意力机制允许模型在处理数据时能够自动关注到更重要的部分。在图像处理中,注意力机制可以帮助模型集中学习图像的关键区域。
应用: 集成在卷积神经网络中,通过学习图像的空间注意力权重,提取关键部分的特征,用于图像分类、对象检测等任务。
通过引入这些复杂的特征提取算法,可以极大地提升图像分析的性能,使模型能够学习到更深层次、更具区分性的图像特征,从而提高分析结果的准确性和可靠性。
S103,对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3。
可以在神经网络模型中加入OCR子模型,当实体本身是文本时,使用OCR子模型提取实体所对应的文本信息,形成第三文本集合T3。
在将图片输入到OCR子模块之前,可能需要对图片进行一些预处理操作,以提高识别的准确率。这包括调整图片的亮度、对比度、裁剪掉不必要的部分、旋转或纠正倾斜的图片等。
将预处理后的图片输入到OCR子模块中,进行文本提取。OCR子模块会识别图片中的字符,并将其转换为可编辑的文本。
OCR子模块提取的文本可能需要进行一些后处理,以纠正识别错误或格式化文本。这可能包括删除多余的空格、纠正拼写错误、调整标点符号等。
将每张图片中提取的文本整理到一个统一的文本集合中,即第三文本集合T3。第三文本集合T3可以以文档、数据库或任何其他适合存储和组织文本的形式存储。
S104,基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}。
利用关键词提取算法从预处理后的文本中提取关键词。为此,本发明特提出一种快速有效的关键词提取算法,具体如下:
分别对第一文本集合T1、第二文本集合T2以及第三文本集合T3进行分词处理,得
到第一词语集合、第二词语集合和第三词语集合;
计算第一词语集合中的词语与第二词语集合和第三词语集合的疏密
度ρ:
得到第一疏密度向量;
其中,表示词语在第二词语集合中出现的次数,表示
词语在第三词语集合中出现的次数。
计算第二词语集合中的词语与第一词语集合和第三词语集合的疏密
度ρ:
得到第二疏密度向量;
其中,表示词语在第一词语集合中出现的次数,表示
词语在第三词语集合中出现的次数;
计算第三词语集合中的词语与第一词语集合和第二词语集合的疏密
度:
得到第三疏密度向量;
其中,表示词语在第一词语集合中出现的次数,表示
词语在第二词语集合中出现的次数。
将第一疏密度向量、第二疏密度向量和第三疏密
度向量进行合并,得到合并疏密度向量ρ:
计算关键词柔韧值:
,
其中,分别为第一调剂参数、第二调剂参数和第三调节参数;
将合并疏密度向量ρ中元素值大于关键词柔韧值的元素所对应的关键词设置为
社交媒体数据对应的关键词,并生成关键词集合K={K1,K2,…,Kn}。
本发明算法具有以下优势:
全面性:通过结合视频、图片和文字信息,提供更全面的数据分析视角。
准确性:利用先进的图片实体和文字识别技术,提高关键词查找的准确性。
实时性:能够处理大规模社交媒体数据,支持实时数据分析。
根据本公开实施例的一种具体实现方式,所述生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}之后,所述方法还包括:
将识别和提取的关键词集合K={K1,K2,…,Kn}进行整合,利用数据分析技术对关键词集合K={K1,K2,…,Kn}进行聚类和趋势分析。具体的,可以设置结果展示层,结果展示层的目的是将分析结果以直观、易理解的方式展示给用户。这可以通过各种可视化技术实现,例如图表、图像、地图等。在这一层,关键的技术点包括数据可视化技术、用户界面设计和交互设计。数据可视化技术需要将复杂的数据转换为直观的视觉表示,用户界面设计则确保用户可以方便地访问和理解这些信息。
根据本公开实施例的一种具体实现方式,所述对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1,包括:
移除文本中的特殊字符、标点符号、停用、网址和用户标签;确定文本的语言,确保后续处理步骤使用正确的语言模型和工具;词干提取和词形还原,将单词转换为基本形式,将文本分割成单独的单词或短语,并转换文本到统一的格式,进而得到第一文本集合T1;
通过解码把视频按照秒拆分成多个图像;将所有图像调整为统一的尺寸,以减少模型训练和推理的计算量,将彩色图像转换为灰度图像,减少数据维度,使用滤波器去除图像中的噪声,提高图像质量,改善图像的对比度和亮度,使图像中的关键特征更加突出,进而得到第一图片集合P1。
根据本公开实施例的一种具体实现方式,所述使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2,包括:
在深度学习模型中设置目标检测子模型,用于识别图片中的实体并定位实体的位置;
在目标检测子模型之后设置语义分割子模型,用于识别图片中不同实体的像素级区域;
使用训练好的深度学习模型对第一图片集合P1中的每张图片进行预测,提取出图片中的实体信息,包括实体的位置和类别;
将提取出的实体信息转换为文本格式,包括实体的类别信息、位置信息以及实体关联信息;
将实体的类别信息、位置信息以及实体关联信息组合成文本,生成第二文本集合T2,每个文本条目对应图片集合P1中的一张图片,并包含该图片中识别出的实体信息。
根据本公开实施例的一种具体实现方式,所述对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3,包括:
在语义分割子模型之后设置OCR子模型,当实体本身是文本时,使用OCR子模型提取实体所对应的文本信息,形成第三文本集合T3。
根据本公开实施例的一种具体实现方式,所述基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},包括:
分别对第一文本集合T1、第二文本集合T2以及第三文本集合T3进行分词处理,得
到第一词语集合、第二词语集合和第三词语集合;
计算第一词语集合中的词语与第二词语集合和第三词语集合的疏密
度ρ:
得到第一疏密度向量;
其中,表示词语在第二词语集合中出现的次数,表示
词语在第三词语集合中出现的次数。
根据本公开实施例的一种具体实现方式,所述基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},还包括:
计算第二词语集合中的词语与第一词语集合和第三词语集合的疏密
度ρ:
得到第二疏密度向量;
其中,表示词语在第一词语集合中出现的次数,表示
词语在第三词语集合中出现的次数;
计算第三词语集合中的词语与第一词语集合和第二词语集合的疏密
度:
得到第三疏密度向量;
其中,表示词语在第一词语集合中出现的次数,表示
词语在第二词语集合中出现的次数。
根据本公开实施例的一种具体实现方式,所述基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},还包括:
将第一疏密度向量、第二疏密度向量和第三疏密
度向量进行合并,得到合并疏密度向量ρ:
计算关键词柔韧值:
,
其中,分别为第一调剂参数、第二调剂参数和第三调节参数;
将合并疏密度向量ρ中元素值大于关键词柔韧值的元素所对应的关键词设置为
社交媒体数据对应的关键词,并生成关键词集合K={K1,K2,…,Kn}。
与上面的方法实施例相对应,参见图3,本发明实施例还公开了一种基于图片和文字的社交媒体关键词数据分析装置30,包括:
形成模块301,用于对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1;
识别模块302,使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2;
提取模块303,对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3;
生成模块304,基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}。
参见图4,本发明实施例还提供了一种电子设备60,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述方法实施例中基于图片和文字的社交媒体关键词数据分析方法。
本发明实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述方法实施例中。
本发明实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述方法实施例中的基于图片和文字的社交媒体关键词数据分析方法。
下面参考图4,其示出了适于用来实现本公开实施例的电子设备60的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图4示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,电子设备60可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备60操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备60与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备60,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (6)
1.一种基于图片和文字的社交媒体关键词数据分析方法,其特征在于,包括:
对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1;
使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2,包括:在深度学习模型中设置目标检测子模型,用于识别图片中的实体并定位实体的位置;在目标检测子模型之后设置语义分割子模型,用于识别图片中不同实体的像素级区域;使用训练好的深度学习模型对第一图片集合P1中的每张图片进行预测,提取出图片中的实体信息,包括实体的位置和类别;将提取出的实体信息转换为文本格式,包括实体的类别信息、位置信息以及实体关联信息;将实体的类别信息、位置信息以及实体关联信息组合成文本,生成第二文本集合T2,每个文本条目对应图片集合P1中的一张图片,并包含该图片中识别出的实体信息;
对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3;
基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},包括:分别对第一文本集合T1、第二文本集合T2以及第三文本集合T3进行分词处理,得到第一词语集合、第二词语集合和第三词语集合/>;
计算第一词语集合中的词语/>与第二词语集合/>和第三词语集合/>的疏密度ρ:
得到第一疏密度向量;
其中,表示词语/>在第二词语集合/>中出现的次数,/>表示词语在第三词语集合/>中出现的次数;
计算第二词语集合中的词语/>与第一词语集合/>和第三词语集合/>的疏密度ρ:
得到第二疏密度向量;
其中,表示词语/>在第一词语集合/>中出现的次数,/>表示词语在第三词语集合/>中出现的次数;
计算第三词语集合中的词语/>与第一词语集合/>和第二词语集合/>的疏密度/>:
得到第三疏密度向量;
其中,表示词语/>在第一词语集合/>中出现的次数,/>表示词语在第二词语集合/>中出现的次数;
将第一疏密度向量、第二疏密度向量/>和第三疏密度向量/>进行合并,得到合并疏密度向量ρ:
计算关键词柔韧值:
,
其中,分别为第一调剂参数、第二调剂参数和第三调节参数;
将合并疏密度向量ρ中元素值大于关键词柔韧值的元素所对应的关键词设置为社交媒体数据对应的关键词,并生成关键词集合K={K1,K2,…,Kn}。
2.根据权利要求1所述的方法,其特征在于,所述生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn}之后,所述方法还包括:
将识别和提取的关键词集合K={K1,K2,…,Kn}进行整合,利用数据分析技术对关键词集合K={K1,K2,…,Kn}进行聚类和趋势分析。
3.根据权利要求2所述的方法,其特征在于,所述对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1,包括:
移除文本中的特殊字符、标点符号、停用、网址和用户标签;确定文本的语言,确保后续处理步骤使用正确的语言模型和工具;词干提取和词形还原,将单词转换为基本形式,将文本分割成单独的单词或短语,并转换文本到统一的格式,进而得到第一文本集合T1;
通过解码把视频按照秒拆分成多个图像;将所有图像调整为统一的尺寸,以减少模型训练和推理的计算量,将彩色图像转换为灰度图像,减少数据维度,使用滤波器去除图像中的噪声,提高图像质量,改善图像的对比度和亮度,使图像中的关键特征更加突出,进而得到第一图片集合P1。
4.根据权利要求1所述的方法,其特征在于,所述对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3,包括:
在语义分割子模型之后设置OCR子模型,当实体本身是文本时,使用OCR子模型提取实体所对应的文本信息,形成第三文本集合T3。
5.一种基于图片和文字的社交媒体关键词数据分析装置,其特征在于,包括:
形成模块,用于对社交媒体数据中包含的文本、图像和视频进行清洗和标准化处理,形成第一文本集合T1和第一图片集合P1;
识别模块,使用深度学习模型对第一图片集合P1进行实体识别,提取第一图片集合P1中图片的实体信息,得到第二文本集合T2,包括:在深度学习模型中设置目标检测子模型,用于识别图片中的实体并定位实体的位置;在目标检测子模型之后设置语义分割子模型,用于识别图片中不同实体的像素级区域;使用训练好的深度学习模型对第一图片集合P1中的每张图片进行预测,提取出图片中的实体信息,包括实体的位置和类别;将提取出的实体信息转换为文本格式,包括实体的类别信息、位置信息以及实体关联信息;将实体的类别信息、位置信息以及实体关联信息组合成文本,生成第二文本集合T2,每个文本条目对应图片集合P1中的一张图片,并包含该图片中识别出的实体信息;
提取模块,对第一图片集合P1图片中包含的文本内容进行提取,得到第三文本集合T3;
生成模块,基于第一文本集合T1、第二文本集合T2以及第三文本集合T3,生成所述社交媒体数据对应的关键词集合K={K1,K2,…,Kn},包括:分别对第一文本集合T1、第二文本集合T2以及第三文本集合T3进行分词处理,得到第一词语集合、第二词语集合/>和第三词语集合/>;
计算第一词语集合中的词语/>与第二词语集合/>和第三词语集合/>的疏密度ρ:
得到第一疏密度向量;
其中,表示词语/>在第二词语集合/>中出现的次数,/>表示词语在第三词语集合/>中出现的次数;
计算第二词语集合中的词语/>与第一词语集合/>和第三词语集合/>的疏密度ρ:
得到第二疏密度向量;
其中,表示词语/>在第一词语集合/>中出现的次数,/>表示词语在第三词语集合/>中出现的次数;
计算第三词语集合中的词语/>与第一词语集合/>和第二词语集合/>的疏密度/>:
得到第三疏密度向量;
其中,表示词语/>在第一词语集合/>中出现的次数,/>表示词语在第二词语集合/>中出现的次数;
将第一疏密度向量、第二疏密度向量/>和第三疏密度向量/>进行合并,得到合并疏密度向量ρ:
计算关键词柔韧值:
,
其中,分别为第一调剂参数、第二调剂参数和第三调节参数;
将合并疏密度向量ρ中元素值大于关键词柔韧值的元素所对应的关键词设置为社交媒体数据对应的关键词,并生成关键词集合K={K1,K2,…,Kn}。
6.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述权利要求1-4任一项所述的基于图片和文字的社交媒体关键词数据分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410429676.6A CN118015644B (zh) | 2024-04-10 | 基于图片和文字的社交媒体关键词数据分析方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410429676.6A CN118015644B (zh) | 2024-04-10 | 基于图片和文字的社交媒体关键词数据分析方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118015644A CN118015644A (zh) | 2024-05-10 |
CN118015644B true CN118015644B (zh) | 2024-06-07 |
Family
ID=
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108170742A (zh) * | 2017-12-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 图片舆情获取方法、装置、计算机设备及存储介质 |
CN116704508A (zh) * | 2023-05-27 | 2023-09-05 | 新华三智能终端有限公司 | 信息处理方法及装置 |
CN117851871A (zh) * | 2024-02-22 | 2024-04-09 | 广东数源智汇科技有限公司 | 一种境外互联网社交阵地多模态数据识别方法 |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108170742A (zh) * | 2017-12-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 图片舆情获取方法、装置、计算机设备及存储介质 |
CN116704508A (zh) * | 2023-05-27 | 2023-09-05 | 新华三智能终端有限公司 | 信息处理方法及装置 |
CN117851871A (zh) * | 2024-02-22 | 2024-04-09 | 广东数源智汇科技有限公司 | 一种境外互联网社交阵地多模态数据识别方法 |
Non-Patent Citations (1)
Title |
---|
多源知识融合技术研究综述;赵晓娟等;云南大学学报(自然科学版);20200510(第03期);全文 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117777B (zh) | 生成信息的方法和装置 | |
CN111488826B (zh) | 一种文本识别方法、装置、电子设备和存储介质 | |
WO2019192397A1 (zh) | 一种任意形状的场景文本端到端识别方法 | |
US20190385054A1 (en) | Text field detection using neural networks | |
US8634644B2 (en) | System and method for identifying pictures in documents | |
Yang et al. | A framework for improved video text detection and recognition | |
CN114596566B (zh) | 文本识别方法及相关装置 | |
CN113205047B (zh) | 药名识别方法、装置、计算机设备和存储介质 | |
CN114429566A (zh) | 一种图像语义理解方法、装置、设备及存储介质 | |
Guo et al. | Blind detection of glow-based facial forgery | |
CN113989577B (zh) | 图像分类方法及装置 | |
CN112528989B (zh) | 一种图像语义细粒度的描述生成方法 | |
JP5480008B2 (ja) | マンガコンテンツの要約を生成する要約マンガ画像生成装置、プログラム及び方法 | |
Su et al. | Recognizing text elements for svg comic compression and its novel applications | |
CN118015644B (zh) | 基于图片和文字的社交媒体关键词数据分析方法及装置 | |
CN116522011A (zh) | 一种基于大数据的推送方法及推送系统 | |
CN118015644A (zh) | 基于图片和文字的社交媒体关键词数据分析方法及装置 | |
CN113763313A (zh) | 文本图像的质量检测方法、装置、介质及电子设备 | |
CN114692715A (zh) | 一种样本标注方法及装置 | |
CN115004261A (zh) | 文本行检测 | |
Chen et al. | Scene text recognition based on deep learning: a brief survey | |
Cao et al. | Character segmentation and restoration of Qin-Han bamboo slips using local auto-focus thresholding method | |
US20240013561A1 (en) | Context-based review translation | |
Agrahari et al. | Text Recognition using Deep Learning: A Review | |
RU2764705C1 (ru) | Извлечение нескольких документов из единого изображения |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |