CN117407518A - 一种基于大数据分析的信息筛选展示方法及系统 - Google Patents
一种基于大数据分析的信息筛选展示方法及系统 Download PDFInfo
- Publication number
- CN117407518A CN117407518A CN202311722721.9A CN202311722721A CN117407518A CN 117407518 A CN117407518 A CN 117407518A CN 202311722721 A CN202311722721 A CN 202311722721A CN 117407518 A CN117407518 A CN 117407518A
- Authority
- CN
- China
- Prior art keywords
- text
- image
- model
- network structure
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012216 screening Methods 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000007405 data analysis Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000013136 deep learning model Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 49
- 239000013598 vector Substances 0.000 claims description 44
- 230000015654 memory Effects 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 230000002349 favourable effect Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Library & Information Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及数据处理领域,更具体地,本发明涉及一种基于大数据分析的信息筛选展示方法及系统,方法包括:获取大量的图像数据和图像对应的文本数据,得到图像文本数据集;通过预设的深度学习模型,使用所述图像文本数据集,训练深度学习模型,得到信息筛选模型,其中,所述信息筛选模型包括:文本网络结构模型和图像网络结构模型,分别对文本网络结构模型和图像网络结构模型进行训练,再整体训练信息筛选模型,根据所述最优模型,将输入的内容进行场景展示。本发明有利于获取信息内容的方式更加多样,且内容更加丰富,同时可根据场景选择所要获得的信息方式,从而快速得到所需的信息。
Description
技术领域
本发明一般地涉及数据处理领域。更具体地,本发明涉及一种基于大数据分析的信息筛选展示方法及系统。
背景技术
近年来,随着人工智能技术的快速发展,越来越多的领域应用的人工智能技术。当前社会信息爆炸式增长和信息过载的现象,随着互联网的普及和技术的进步,人们能够轻松获取到大量的数据和信息,但是面对海量的信息时,我们需要一种有效的筛选机制来帮助我们快速找到我们真正需要的信息。
大数据分析的意义在于提供了一种科学的方法和技术来挖掘、整理和分析海量的数据。通过大数据分析,可以发现隐藏在海量数据背后的规律和价值,从而更加准确地了解用户需求、市场趋势和业务模式。在信息筛选展示方面,大数据分析可以帮助我们快速准确地找到与用户需求相关的信息,并根据用户的兴趣、偏好和行为来进行个性化的信息展示。这样可以提高用户的搜索效率和体验。
现有的大数据分析方法在分析数据时,为了提高分析效率和关联度,大多是通过对比抽样样本的方式进行数据获取,而利用对比样本的方式分析大数据使得获取资源不够全面,另一方面现有的筛选对比方式,对获取信息的内容较为单一,从而在筛选过程中存在一定的数据遗漏的问题,因此需要一种基于大数据分析的信息筛选展示方法及系统。
发明内容
为解决上述一个或多个技术问题,本发明提出通过文本和图像数据的对应关系,训练深度学习模型,根据文本数据或图像数据获取到更加完善的信息,便于对获取的信息进行选择,以文本或图像呈现,为此,本发明在如下的多个方面中提供方案。
在第一方面中,一种基于大数据分析的信息筛选展示方法,包括:获取大量的图像数据和图像对应的文本数据,得到图像文本数据集;通过预设的深度学习模型,使用所述图像文本数据集,训练深度学习模型,得到信息筛选模型,其中,所述信息筛选模型包括:文本网络结构模型和图像网络结构模型;获取新的文本数据送入所述文本网络结构模型,使用文本编码器对文本数据进行编码以得到第一特征向量,对所述第一特征向量进行文本解码,得到文本数据;计算文本网络结构模型的第一损失函数值,得到所述文本网络结构模型的权重;获取新的图像数据送入所述图像网络结构模型,使用图像编码器对图像数据进行编码以得到第二特征向量,对所述第二特征向量进行图像解码,得到图像数据;计算图像网络结构模型的第二损失函数值,得到所述图像网络结构模型的权重;根据第一损失函数值和第二损失函数值,计算所述信息筛选模型整体的损失函数值,对所述信息筛选模型进行调整,训练完成后,根据模型的评价指标得到最优模型;根据所述最优模型,对输入的内容进行场景展示。
由此,通过对文本网络结构模型和图像网络结构模型进行单独训练,分别计算文本网络结构模型和图像网络结构模型在信息筛选模型中的权重,再训练整体的信息筛选模型,调整权重关系,节省训练时间,将第一特征向量和第二特征向量使用不同的解码器,得到不同需求的多个信息展示结果。
在一个实施例中,计算文本网络结构模型的第一损失函数值,得到所述文本网络结构模型的权重,包括:
所述第一损失函数值满足以下关系式:
其中,表示第一损失函数值,/>表示训练集样本的个数,/>表示训练集中第/>个样本的文本数据,/>表示训练集中第/>个样本文本数据的预测值。
在一个实施例中,计算图像网络结构模型的第二损失函数值,得到所述图像网络结构模型的权重,包括:
所述第二损失函数值满足以下关系式:
其中,表示第二损失函数值,/>表示输入第/>个图像样本中第/>行第/>列的像素值,/>表示预测第/>个图像样本中第/>行第/>列的像素值。
在一个实施例中,根据第一损失函数值和第二损失函数值,计算所述信息筛选模型整体的损失函数值,包括:
所述信息筛选模型整体的损失函数值满足下列关系式:
其中,表示信息筛选模型的损失函数值,/>表示第一损失函数值,/>表示第二损失函数值,/>表示第一特征向量,/>表示第二特征向量,/>表示第一特征向量和第二特征向量之间的/>范数,/> 、/> 、/>为常数,表示不同损失的权重。
在一个实施例中,所述对输入的内容进行场景展示,还包括:
根据不同的应用场景在预测时选择不同的网络结构,调整所述信息筛选模型的输入输出的结果。
在一实施例中,根据不同的应用场景在预测时选择不同的网络结构,包括:
对文本数据复现文本对应的图片,使用文本网络结构模型的文本编码器得到所述第一特征向量,对所述第一特征向量使用图像网络结构模型的图像解码器,进行解码以得到目标图像数据;
对图像数据复现图像对应的文本描述,使用图像网络结构模型的图像编码器得到所述第二特征向量,对第二特征向量使用文本网络结构模型的文本解码器,进行解码以得到目标文本数据。
由此,通过上述方案,可以通过不同搜索方式,展示多种信息的方式,获取信息的内容更加丰富,且关联性强。
在一实施例中,调整信息筛选模型的输入输出的结果,包括:
计算各个所述文本数据使用编码器得到第一特征向量和实时获取的文本数据得到的目标特征向量之间的距离,根据所述距离判断展示的顺序。
由此,通过计算所需的目标特征和全部的第一特征向量之间的距离,将判断信息的先后顺序,以使获得的信息更加贴合所需的信息。
第二方面,一种基于大数据分析的信息筛选展示系统,包括:处理器和存储器,所述存储器存储有计算机程序指令,当所述计算机程序指令被所述处理器执行时实现任一项所述的基于大数据分析的信息筛选展示方法。
本申请具有以下效果:
1、本申请通过同时对两个网络结构进行训练,训练得到两种筛选方法,根据需求选择筛选方式,将图文信息依次排列,使用组合搭配的筛选方式,得到图文相关的信息,扩大了展示内容的范围,得到多样化的信息内容,以使数据信息更加全面。
2、本申请通过深度学习模型可以根据输入和输出的不同选择合适的推理模型,在训练模型时先训练文本网络结构模型和图像网络结构模型,然后再根据深度学习模型的损失函数训练整个模型,这种训练方法减少了训练时间,训练完成后可以根据不同的应用场景选择不同的网络结构。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,并且相同或对应的标号表示相同或对应的部分,其中:
图1是本申请的实施例一种基于大数据分析的信息筛选展示方法中步骤S1-S8的方法流程图。
图2是本申请实施例一种基于大数据分析的信息筛选展示方法中步骤S80-S83的方法流程图。
图3是本申请实施例一种基于大数据分析的信息筛选展示方法中信息筛选流程图。
图4是本申请实施例一种基于大数据分析的信息筛选展示系统的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图来详细描述本发明的具体实施方式。
参照图1,一种基于大数据分析的信息筛选展示方法包括步骤S1-S8,具体如下:
S1:获取大量的图像数据和图像对应的文本数据,得到图像文本数据集。
S2:通过预设的深度学习模型,使用图像文本数据集,训练深度学习模型,得到信息筛选模型,其中,信息筛选模型包括:文本网络结构模型和图像网络结构模型。
S3:获取新的文本数据送入文本网络结构模型,使用文本编码器对文本数据进行编码以得到第一特征向量,对第一特征向量进行文本解码,得到文本数据。
示例性的,文本编码器和解码器为LSTM或Bert。LSTM(Long Short-Term Memory)是一种长短期记忆网络,是一种特殊的RNN(循环神经网络);BERT是一种语言表示模型,基于 Transformer (变换器)的双向编码器表示 (Bidirectional EncoderRepresentations from Transformers) ,且文本网络结构模型为序列到序列的模型,例如:Seq2Seq(Sequence-to-Sequence)是一种用于序列到序列转换的神经网络模型。它由两个主要的组成部分组成,即编码器(Encoder)和解码器(Decoder),分别用于将输入序列映射到固定长度的隐藏状态向量,并将隐藏状态向量映射回输出序列。
使用文本编码器对文本数据进行编码,得到一个m维的第一特征向量,m维向量是指具有m个元素的向量,每个元素都可以表示该向量在不同维度上的分量;将第一特征向量再经过一个解码器进行解码得到文本数据,解码后的文本数据与获取的文本数据一致。
S4:计算文本网络结构模型的第一损失函数值,得到文本网络结构模型的权重。
第一损失函数值满足以下关系式:
其中,表示第一损失函数值,/>表示训练集样本的个数,/>表示训练集中第/>个样本的文本数据,/>表示训练集中第/>个样本文本数据的预测值。
S5:获取新的图像数据送入图像网络结构模型,使用图像编码器对图像数据进行编码以得到第二特征向量,对第二特征向量进行图像解码,得到图像数据。
示例性的,图像编码器和解码器采用残差网络(自编码网络),自编码网络(Autoencoder)是一种无监督学习的神经网络模型。它通过将输入数据进行压缩编码,并尝试从编码中重建原始输入数据,以此来学习数据的有效表示和特征提取。
自编码网络通常由两部分组成:编码器(Encoder)和解码器(Decoder)。编码器将输入数据映射到一个低维的编码表示,而解码器则将该编码表示映射回原始数据的重建。整个网络的目标是最小化输入数据与重建数据之间的重构误差,以使得网络能够学习到输入数据的潜在结构和特征。
S6:计算图像网络结构模型的第二损失函数值,得到图像网络结构模型的权重。
第二损失函数值满足以下关系式:
其中,表示第二损失函数值,/>表示输入第/>个图像样本中第/>行第/>列的像素值,/>表示预测第/>个图像样本中第/>行第/>列的像素值。
S7:根据第一损失函数值和第二损失函数值,计算所述信息筛选模型整体的损失函数值,对所述信息筛选模型进行调整,训练完成后,根据模型的评价指标得到最优模型。
信息筛选模型整体的损失函数值满足下列关系式:
其中,表示信息筛选模型的损失函数值,/>表示第一损失函数值,/>表示第二损失函数值,/>表示第一特征向量,/>表示第二特征向量,/>表示第一特征向量和第二特征向量之间的/>范数,/> 、/> 、/>为常数,表示不同损失的权重。
示例性的,范数为向量所有元素的平方和的开平方,/> 、/> 、/>的值分别设置为1、1、2。
S8:根据最优模型,对输入的内容进行场景展示,参照图2,包括步骤S80-S83:
S80:根据不同的应用场景在预测时选择不同的网络结构,调整信息筛选模型的输入输出的结果;
S81:对文本数据复现文本对应的图片,使用文本网络结构模型的文本编码器得到第一特征向量,对第一特征向量使用图像网络结构模型的图像解码器,进行解码以得到目标图像数据;
S82:对图像数据复现图像对应的文本描述,使用图像网络结构模型的图像编码器得到第二特征向量,对第二特征向量使用文本网络结构模型的文本解码器,进行解码以得到目标文本数据。
S83:计算各个文本数据使用编码器得到第一特征向量和实时获取的文本数据得到的目标特征向量之间的距离,根据距离判断展示的顺序。
示例性的,参照图3,使用图像文本数据集训练深度学习模型时,先单独训练文本网络结构模型和图像网络结构模型,再整体训练模型,减少训练时间,训练完成后,根据模型的评价指标得到最优的模型。
本发明还提供了一种基于大数据分析的信息筛选展示系统。如图4所示,系统包括处理器和存储器,存储器存储有计算机程序指令,当计算机程序指令被处理器执行时实现根据本发明第一方面的一种基于大数据分析的信息筛选展示方法。
系统还包括通信总线和通信接口等本领域技术人员熟知的其他组件,其设置和功能为本领域中已知,因此在此不再赘述。
在本发明中,前述的存储器可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,计算机可读存储介质可以是任何适当的磁存储介质或者磁光存储介质,比如,阻变式存储器RRAM(Resistive RandomAccess Memory)、动态随机存取存储器DRAM(Dynamic Random Access Memory)、静态随机存取存储器SRAM(Static Random-Access Memory)、增强动态随机存取存储器EDRAM(Enhanced Dynamic Random Access Memory)、高带宽内存HBM(High-Bandwidth Memory)、混合存储立方HMC(Hybrid Memory Cube)等等,或者可以用于存储所需信息并且可以由应用程序、模块或两者访问的任何其他介质。任何这样的计算机存储介质可以是设备的一部分或可访问或可连接到设备。本发明描述的任何应用或模块可以使用可以由这样的计算机可读介质存储或以其他方式保持的计算机可读/可执行指令来实现。
在本说明书的描述中,“多个”、“若干个”的含义是至少两个,例如两个,三个或更多个等,除非另有明确具体的限定。
虽然本说明书已经示出和描述了本发明的多个实施例,但对于本领域技术人员显而易见的是,这样的实施例只是以示例的方式提供的。本领域技术人员会在不偏离本发明思想和精神的情况下想到许多更改、改变和替代的方式。应当理解的是在实践本发明的过程中,可以采用对本文所描述的本发明实施例的各种替代方案。
Claims (8)
1.一种基于大数据分析的信息筛选展示方法,其特征在于,包括:
获取大量的图像数据和图像对应的文本数据,得到图像文本数据集;
通过预设的深度学习模型,使用所述图像文本数据集,训练深度学习模型,得到信息筛选模型,其中,所述信息筛选模型包括:文本网络结构模型和图像网络结构模型;
获取新的文本数据送入所述文本网络结构模型,使用文本编码器对文本数据进行编码以得到第一特征向量,对所述第一特征向量进行文本解码,得到文本数据;
计算文本网络结构模型的第一损失函数值,得到所述文本网络结构模型的权重;
获取新的图像数据送入所述图像网络结构模型,使用图像编码器对图像数据进行编码以得到第二特征向量,对所述第二特征向量进行图像解码,得到图像数据;
计算图像网络结构模型的第二损失函数值,得到所述图像网络结构模型的权重;
根据第一损失函数值和第二损失函数值,计算所述信息筛选模型整体的损失函数值,对所述信息筛选模型进行调整,训练完成后,根据模型的评价指标得到最优模型;
根据所述最优模型,对输入的内容进行场景展示。
2.根据权利要求1所述的一种基于大数据分析的信息筛选展示方法,其特征在于,计算文本网络结构模型的第一损失函数值,得到所述文本网络结构模型的权重,包括:
所述第一损失函数值满足以下关系式:
其中,表示第一损失函数值,/>表示训练集样本的个数,/>表示训练集中第/>个样本的文本数据,/>表示训练集中第/>个样本文本数据的预测值。
3.根据权利要求1所述的一种基于大数据分析的信息筛选展示方法,其特征在于,计算图像网络结构模型的第二损失函数值,得到所述图像网络结构模型的权重,包括:
所述图像网络结构模型的第二损失函数值满足以下关系式:
其中,表示第二损失函数值,/>表示输入第/>个图像样本中第/>行第/>列的像素值,表示预测第/>个图像样本中第/>行第/>列的像素值。
4.根据权利要求1所述的一种基于大数据分析的信息筛选展示方法,其特征在于,计算所述信息筛选模型整体的损失函数值,包括:
所述信息筛选模型的损失函数值满足下列关系式:
其中,表示信息筛选模型的损失函数值,/>表示第一损失函数值,/>表示第二损失函数值,/>表示第一特征向量,/>表示第二特征向量,/>表示第一特征向量和第二特征向量之间的/>范数,/> 、/> 、/>为常数,表示不同损失的权重。
5.根据权利要求1所述的一种基于大数据分析的信息筛选展示方法,其特征在于,所述对输入的内容进行场景展示,包括:
根据不同的应用场景在预测时选择不同的网络结构,调整所述信息筛选模型的输入输出的结果。
6.根据权利要求5所述的一种基于大数据分析的信息筛选展示方法,其特征在于,根据不同的应用场景在预测时选择不同的网络结构,包括:
对文本数据复现文本对应的图片,使用文本网络结构模型的文本编码器得到所述第一特征向量,对所述第一特征向量使用图像网络结构模型的图像解码器,进行解码以得到目标图像数据;
对图像数据复现图像对应的文本描述,使用图像网络结构模型的图像编码器得到所述第二特征向量,对第二特征向量使用文本网络结构模型的文本解码器,进行解码以得到目标文本数据。
7.根据权利要求5所述的一种基于大数据分析的信息筛选展示方法,其特征在于,调整信息筛选模型的输入输出的结果,还包括:
计算各个所述文本数据使用编码器得到第一特征向量和实时获取的文本数据得到的目标特征向量之间的距离,根据所述距离判断展示的顺序。
8.一种基于大数据分析的信息筛选展示系统,其特征在于,包括:处理器和存储器,所述存储器存储有计算机程序指令,当所述计算机程序指令被所述处理器执行时实现根据权利要求1-7任一项所述的基于大数据分析的信息筛选展示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311722721.9A CN117407518B (zh) | 2023-12-15 | 2023-12-15 | 一种基于大数据分析的信息筛选展示方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311722721.9A CN117407518B (zh) | 2023-12-15 | 2023-12-15 | 一种基于大数据分析的信息筛选展示方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117407518A true CN117407518A (zh) | 2024-01-16 |
CN117407518B CN117407518B (zh) | 2024-04-02 |
Family
ID=89492982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311722721.9A Active CN117407518B (zh) | 2023-12-15 | 2023-12-15 | 一种基于大数据分析的信息筛选展示方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117407518B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598739A (zh) * | 2019-08-07 | 2019-12-20 | 广州视源电子科技股份有限公司 | 图文转换方法、设备、智能交互方法、设备及系统、客户端、服务器、机器、介质 |
CN115408551A (zh) * | 2022-06-30 | 2022-11-29 | 苏州浪潮智能科技有限公司 | 一种医疗图文数据互检方法、装置、设备及可读存储介质 |
CN115687664A (zh) * | 2022-10-26 | 2023-02-03 | 阿里巴巴(中国)有限公司 | 中文图文检索方法及中文图文检索的数据处理方法 |
CN117094365A (zh) * | 2023-08-29 | 2023-11-21 | 维沃移动通信有限公司 | 图文生成模型的训练方法、装置、电子设备及介质 |
-
2023
- 2023-12-15 CN CN202311722721.9A patent/CN117407518B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598739A (zh) * | 2019-08-07 | 2019-12-20 | 广州视源电子科技股份有限公司 | 图文转换方法、设备、智能交互方法、设备及系统、客户端、服务器、机器、介质 |
CN115408551A (zh) * | 2022-06-30 | 2022-11-29 | 苏州浪潮智能科技有限公司 | 一种医疗图文数据互检方法、装置、设备及可读存储介质 |
CN115687664A (zh) * | 2022-10-26 | 2023-02-03 | 阿里巴巴(中国)有限公司 | 中文图文检索方法及中文图文检索的数据处理方法 |
CN117094365A (zh) * | 2023-08-29 | 2023-11-21 | 维沃移动通信有限公司 | 图文生成模型的训练方法、装置、电子设备及介质 |
Non-Patent Citations (1)
Title |
---|
秦晓周, 杨天梁, 刘增良: "图文互生转换的实现方法", 计算机仿真, no. 10, 30 October 2003 (2003-10-30), pages 19 - 22 * |
Also Published As
Publication number | Publication date |
---|---|
CN117407518B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220222920A1 (en) | Content processing method and apparatus, computer device, and storage medium | |
US20230024382A1 (en) | Video clip positioning method and apparatus, computer device, and storage medium | |
EP3885966B1 (en) | Method and device for generating natural language description information | |
CN111666416B (zh) | 用于生成语义匹配模型的方法和装置 | |
CN111783712A (zh) | 一种视频处理方法、装置、设备及介质 | |
CN113297370B (zh) | 基于多交互注意力的端到端多模态问答方法及系统 | |
CN117173504A (zh) | 一种文生图模型的训练方法、装置、设备及存储介质 | |
CN115858847A (zh) | 基于跨模态注意力保留的组合式查询图像检索方法 | |
CN115759062A (zh) | 基于知识注入的文图预训练模型处理方法和文图检索系统 | |
CN114239730A (zh) | 一种基于近邻排序关系的跨模态检索方法 | |
CN117407518B (zh) | 一种基于大数据分析的信息筛选展示方法及系统 | |
CN117312601A (zh) | 一种多模态信息融合的文档内容增强检索系统及方法 | |
CN116662497A (zh) | 视觉问答数据处理方法、装置、计算机设备 | |
CN116977701A (zh) | 视频分类模型训练的方法、视频分类的方法和装置 | |
CN115392365B (zh) | 多模态特征的获取方法、装置及电子设备 | |
CN112800177B (zh) | 基于复杂数据类型的faq知识库自动生成方法和装置 | |
CN116958852A (zh) | 视频与文本的匹配方法、装置、电子设备和存储介质 | |
CN110969187B (zh) | 一种图谱迁移的语义分析方法 | |
CN114510561A (zh) | 答案选择方法、装置、设备及存储介质 | |
Shah et al. | Video to text summarisation and timestamp generation to detect important events | |
CN117576264B (zh) | 图像生成方法、装置、设备及介质 | |
CN116935170B (zh) | 视频处理模型的处理方法、装置、计算机设备和存储介质 | |
CN113987156B (zh) | 一种长文本生成方法、装置及电子设备 | |
CN116975211A (zh) | 信息生成方法、装置、计算机设备和存储介质 | |
CN117332057A (zh) | 文本生成方法、问答系统及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |