CN114218380B - 基于多模态的冷链配载用户画像标签抽取方法及装置 - Google Patents
基于多模态的冷链配载用户画像标签抽取方法及装置 Download PDFInfo
- Publication number
- CN114218380B CN114218380B CN202111471016.7A CN202111471016A CN114218380B CN 114218380 B CN114218380 B CN 114218380B CN 202111471016 A CN202111471016 A CN 202111471016A CN 114218380 B CN114218380 B CN 114218380B
- Authority
- CN
- China
- Prior art keywords
- bimodal
- feature
- text
- vector
- cold chain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于多模态的冷链配载用户画像标签抽取方法及装置,将带标签的文本集作为BERT模型的输入,并利用长短期记忆网络进一步提取特征;使用YOLO提取图片特征,将提取的双模态特征使用激活函数tanh与其他模态嵌入的关联表示进行补充,并将补充过后的双模态特征向量进行拼接,将其与双模态条件向量进行矩阵相乘,结果作为Softmax函数输入得到双模态交互注意力矩阵;将双模态交互注意力矩阵与被补充过的双模态特征拼接,将其作为全连接层的输入得到模态间交互特征和模态内部特征,最后输入至Softmax进行分类。本发明利用多模态特征融合算法对不同模态的用户特征合并融合,建立起不同模态间的交互关系,减少了抽取的噪声。
Description
技术领域
本发明涉及用户画像和多模态融合技术领域,具体涉及一种基于多模态的冷链配载用户画像标签抽取方法及装置。
背景技术
近年来,用户画像已成为世界各国研究的特点,正日益引起业界、学术界的广泛关注,更重要的是,它还是众多应用的关键技术之一。
在现有的用户画像建模技术中,对如何融合多个数据源或模态,以便获得更精确的用户画像的研究相当有限,并且存在如下不足:1、部分用户画像研究工作仅就单一的模态进行研究,难以全面地刻画其特征;2、简单易行的整合方法是在信息输入时直接将多种模态特征向量进行拼接,但是这种方法忽略了不同模态特征的语义差异,没有建立起不同模态间的交互关系,并且存在较大噪声干扰。
发明内容
发明目的:针对现有技术中存在的问题,本发明提供一种基于多模态的冷链配载用户画像标签抽取方法及装置,利用多模态特征融合算法对不同模态的用户特征合并融合,建立起不同模态间的交互关系,减少了用户画像标签抽取的噪声。
技术方案:本发明提供了一种基于多模态的冷链配载用户画像标签抽取方法,包括如下步骤:
步骤1:输入原始的冷链配载数据集D1,对数据集进行去重、去空,清洗后得到样本集D2;
步骤2:使用K-means对样本集D2进行聚类,得到N个聚类点簇,进而将聚类后的样本集D2打上标签;
步骤3:将带标签的文本样本集作为BERT模型的输入,得到特征向量T1,将得到的特征向量T1传入长短期记忆网络进一步提取特征,得到文本特征向量T2;
步骤4:使用YOLO提取冷链配载图的特征R1,并使用激活函数将其转为特征向量,将提取的双模态特征向量使用激活函数tanh与其他模态嵌入的关联表示进行补充,同时,将被补充过后的文本特征向量与图片特征向量进行拼接得到双模态特征向量,然后将补充后的双模态条件向量进行矩阵相乘,得到跨模态联合矩阵,最后使用Softmax函数得到双模态交互注意力矩阵Bim;
步骤5:将双模态交互注意力矩阵Bim与被补充过的双模态特征向量拼接,将其作为全连接层的输入得到双模态特征表示,最后输入至Softmax进行分类,最终获得模型的标签抽取。
进一步地,所述步骤3具体方法为:
步骤3.1:通过处理步骤2中打上标签的样本集D4,将待处理文本内容dc固定为统一长度Lmax;
步骤3.2:定义循环变量i,且i赋初值为1;
步骤3.3:如果i≤len(T)则跳转到步骤3.4,否则跳转到步骤3.7;
步骤3.4:定义len(Ti)为文本中第i个文本信息的长度,如果len(Ti)+2≤Lmax则补0后跳转下一步,否则截取文本前Lmax个单位,跳转下一步;
步骤3.5:建立预训练模型BERT,将样本集传入BERT模型中,获取文本的特征向量T1;
步骤3.6:i=i+1,跳转到步骤3.3;
步骤3.7:结束循环,输出全部特征向量序列T1={T1,T2,...,Td,…,Tlen(T)}。
步骤3.8:构建长短期记忆网络,传入特征向量序列T1;
步骤3.9:定义循环变量j和最大时刻M,且j赋初值为1;
步骤3.10:如果j≤M则跳转到步骤3.11,否则跳转到步骤3.13;
步骤3.11:使用长短期记忆网络计算当前时刻的输出结果为ht;
步骤3.12:j=j+1,跳转到步骤3.10;
步骤3.13:结束循环,得到全部时刻的输出向量T2={h1,h2,...,ht,...,hM}。
进一步地,所述步骤4的具体方法为:
步骤4.1:将步骤2中经过预处理后的图片数据作为YOLO模型的输入;
步骤4.2:得到提取后的图片数据的特征R1;
步骤4.3:将得到的特征R1映射到其语义空间中,得到图片特征向量R2R2=tanh(WtR1+bR1),其中,Wt为激活函数tanh的权重,bR1为激活函数tanh的偏置;
步骤4.4:将文本特征向量T2和图片特征向量R2交互,使用激活函数tanh进行转换表示补充;
步骤4.5:T2经R2补充过后得到T3,计算公式为T3=tanh(UT2T2+WrtUT2T2),UT2为隐藏文本对应的转换矩阵,Wrt为相应两模态的映射的权重矩阵;
步骤4.6:R2经T2补充过后得到R3,计算公式为R3=tanh(UR2R2+WrtUR2R2),UR2为隐藏关系对应的转换矩阵;
步骤4.8:将交互特征F1在激活函数Sigmoid的作用下生成条件向量S,计算公式为S=Sigmoid(F1);
步骤4.9:将条件向量S与交互后的T3结合得到文本条件向量N1,计算公式为N1=T3⊙S;
步骤4.10:将条件向量S与交互后的R3结合得到图片条件向量N2,计算公式为N2=R3⊙S;
步骤4.11:将两种模态的条件向量N1和N2进行矩阵乘法计算,得到跨模态联合矩阵O,计算公式为O=N1·N2;
步骤4.12:如果循环变量k≤单模态特征维度u,跳转到下一步,否则跳转到步骤4.15;
步骤4.13:使用Softmax函数计算出跨模态联合矩阵的概率a,计算公式为
步骤4.14:k=k+1,跳转到步骤4.12;
步骤4.15:将双模态交互特征F1乘概率a,得到双模态交互注意力矩阵Bim,计算公式为Bim=a·F1。
进一步地,所述步骤5具体方法为:
步骤5.2:使用全连接层整合得到的双模态融合特征C1,计算公式为F2=ReLU(WRC1+bR),其中,F2∈Ru×d,F2为双模态特征表示,WR为激活函数ReLU的权重,bR为激活函数ReLU的偏置;
步骤5.3:将双模态特征表示F2输入至Softmax进行分类,得到最终分类结果C2;
步骤5.4:将分类结果C2作为最终标签抽取的结果,完成冷链配载用户画像的标签抽取。
进一步地,所述步骤1中的具体方法为:
步骤1.1:定义Data为单个待清洗数据,定义id,content分别为数据的序号和内容,并且满足关系Data={id,content};
步骤1.2:定义D1为待清洗数据集,D1={Data1,Data2,...,Dataa,...,Datalen(D1)},Dataa为D1中第a个待清洗信息数据,其中,len(D1)为D1中数据数量,变量a∈[1,len(D1)];
步骤1.3:数据集D1中的数据进行去重和去空操作;
步骤1.4:得到清洗后的数据集D2={D1,D2,...,Db,...,Dlen(D2)},Db为D2中第b个待处理信息数据,其中,len(D2)为D2中数量,变量b∈[1,len(D2)]。
进一步地,所述步骤2中的具体方法为:
步骤2.1:定义D2={D1,D2,…,Db,…,Dlen(D2)}为待聚类冷链配载数据集,Db为D2中第b个待处理信息数据;
步骤2.2:使用K-means对数据集D2进行聚类,得到N个聚类点簇;
步骤2.3:定义D3为聚类后的冷链配载数据集,D3={data1,data2,data3,…,dataN},其中dataN为第N个冷链配载点簇数据集;
步骤2.4:将数据集D3中的N个冷链配载点簇为冷链配载数据集打上标签得到样本集D4,D4={d1,d2,d3,…,dc,…,dN},其中dc={label,datac}。
本发明还公开一种基于多模态的冷链配载用户画像标签抽取装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现上述基于多模态的冷链配载用户画像标签抽取方法。
有益效果:
1、本发明将用户画像建模技术中仅对单一模态研究拓展到多模态特征融合,可以通过两种模态一起提取特征,挖掘不同模态样本之间的关系,分析和处理不同模态数据的模型来为用户画像提供更多的有效信息,以便更加全面地抽取用户特征,获得更精确的用户画像。
2、本发明前期在提取文本特征和图片特征时使用BERT模型及YOLO算法,可以做到准确且快速的提取文本与图片的特征向量;首先,在特征融合前,进行各模态之间第一次相互交互补充,分别补充与其他转换过的模态嵌入的关联表示,其中包含与其他模态对应的交互信息,使得不同模态的特征产生深入交互,交互后得到的特征表示不仅包含来自其他模态特征的融合信息,但每种表示仍然有独特的聚焦点。例如,T3主要是文本表示,同时包含附加的图片特征信息,有助于各模态融合彼此的互补信息。
3、本发明进行各模态之间第二次交互,使用条件向量约束每个模态内部的相似程度,将两种模态的条件向量进行矩阵乘法计算,得到跨模态联合矩阵,这种做法可以强化与模态间重要交互特征的关联,弱化与次要交互特征的关联,深度探索不同模态之间的交互性。
4、本发明采用一种全局自注意力机制对得到的双模态交互注意力矩阵的融合信息进行筛选,这种做法可以减少其特征维度,大大减少模型的空间复杂度,最后得到信息过滤后的双模态交互注意力矩阵。
附图说明
图1为本发明整体流程图;
图2为本发明BERT模型训练特征向量及LSTM进一步提取文本特征向量流程图;
图3为本发明多模态特征融合流程图;
图4为本发明融合后特征输入至Softmax分类流程图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明公开了一种基于多模态的冷链配载用户画像标签抽取方法及装置,该基于多模态的冷链配载用户画像标签抽取方法包括如下步骤:
步骤1:输入原始的冷链配载数据集D1,对数据集进行去重、去空,清洗后得到样本集D2:
步骤1.1:定义Data为单个待清洗数据,定义id,content分别为数据的序号和内容,并且满足关系Data={id,content};
步骤1.2:定义D1为待清洗数据集,D1={Data1,Data2,…,Dataa,…,Datalen(D1)},Dataa为D1中第a个待清洗信息数据,其中,len(D1)为D1中数据数量,变量a∈[1,len(D1)];
步骤1.3:数据集D1中的数据进行去重和去空操作;
步骤1.4:得到清洗后的数据集D2={D1,D2,…,Db,…,Dlen(D2)},Db为D2中第b个待处理信息数据,其中,len(D2)为D2中数量,变量b∈[1,len(D2)]。
步骤2:使用K-means对样本集D2进行聚类,得到N个聚类点簇,进而将聚类后的样本集D2打上标签:
步骤2.1:使用K-means对数据集D2进行聚类,得到N个聚类点簇;
步骤2.2:定义D3为聚类后的冷链配载数据集,D3={data1,data2,data3,…,dataN},其中dataN为第N个冷链配载点簇数据集;
步骤2.3:将数据集D3中的N个冷链配载点簇为冷链配载数据集打上标签得到样本集D4,D4={d1,d2,d3,…,dc,…,dN},其中dc={label,datac}。
步骤3:将带标签的文本样本集D4作为BERT模型的输入,得到特征向量T1,将得到的特征向量传入长短期记忆网络进一步提取特征,具体的如图2所示:
步骤3.1:通过处理样本集D4,将待处理文本内容dc固定为统一长度Lmax;
步骤3.2:定义循环变量i,且i赋初值为1;
步骤3.3:如果i≤len(T)则跳转到步骤3.4,否则跳转到步骤3.7;
步骤3.4:定义len(Ti)为文本中第i个文本信息的长度,如果len(Ti)+2≤Lmax则补0后跳转下一步,否则截取文本前Lmax个单位,跳转下一步;
步骤3.5:建立预训练模型BERT,将样本集传入BERT模型中,获取文本的特征向量T1;
步骤3.6:i=i+1,跳转到步骤3.3;
步骤3.7:结束循环,输出全部特征向量序列T1={T1,T2,...,Td,…,Tlen(T)};
步骤3.8:构建长短期记忆网络,传入特征向量序列T1;
步骤3.9:定义循环变量j和最大时刻M,且j赋初值为1;
步骤3.10:如果j≤M则跳转到步骤3.11,否则跳转到步骤3.13;
步骤3.11:使用长短期记忆网络计算当前时刻的输出结果为ht;
步骤3.12:j=j+1,跳转到步骤3.10;
步骤3.13:结束循环,得到全部时刻的输出向量T2={h1,h2,...,ht,...,hM}。
步骤4:使用YOLO提取冷链配载图的特征R1,并使用激活函数将其转为特征向量,将提取的双模态特征向量使用激活函数tanh与其他模态嵌入的关联表示进行补充,同时,将被补充过后的文本特征向量与图片特征向量进行拼接得到双模态特征向量,然后将补充后的双模态条件向量进行矩阵相乘,得到跨模态联合矩阵,最后使用Softmax函数得到双模态交互注意力矩阵Bim,具体的如图3所示:
步骤4.1:将预处理后的图片数据作为YOLO模型的输入;
步骤4.2:得到提取后的图片数据的特征R1;
步骤4.3:将得到的特征R1映射到其语义空间中,得到图片的特征向量,计算公式为R2=tanh(WtR1+bR1),其中,Wt为激活函数tanh的权重,bR1为激活函数tanh的偏置;
步骤4.4:将文本特征向量T2和图片特征向量R2交互,使用激活函数tanh进行转换表示补充;
步骤4.5:T2经R2补充过后得到T3,计算公式为T3=tanh(UT2T2+WrtUT2T2),UT2为隐藏文本对应的转换矩阵,Wrt为相应两模态的映射的权重矩阵;
步骤4.6:R2经T2补充过后得到R3,计算公式为R3=tanh(UR2R2+WrtUR2R2),UR2为隐藏关系对应的转换矩阵;
步骤4.7:将文本特征向量T3和图片特征向量R3进行拼接,并通过一个全连接层捕捉模态间交互特征F1,即F1=ReLU(W1(T3⊕R3)+b1),W1为激活函数ReLU的权重,b1为激活函数ReLU的偏置;
步骤4.8:将交互特征F1在激活函数Sigmoid的作用下生成条件向量S,用于约束每个模态内部的相似程度,计算公式为S=Sigmoid(F1);
步骤4.9:将条件向量S与交互后的T3结合得到文本条件向量N1,计算公式为N1=T3⊙S;
步骤4.10:将条件向量S与交互后的R3结合得到图片条件向量N2,计算公式为N2=R3⊙S;
步骤4.11:将两种模态的条件向量N1和N2进行矩阵乘法计算,得到跨模态联合矩阵O,计算公式为O=N1·N2;
步骤4.12:如果循环变量k≤单模态特征维度u,跳转到下一步,否则跳转到步骤4.15;
步骤4.13:使用Softmax函数计算出跨模态联合矩阵的概率a,计算公式为
步骤4.14:k=k+1,跳转到步骤4.12;
步骤4.15:将双模态交互特征F1乘概率a,得到双模态交互注意力矩阵Bim,以提升权重方式来强化信息比重,计算公式为Bim=a·F1。
步骤5:将双模态交互注意力矩阵Bim与被补充过的双模态特征拼接,将其作为全连接层的输入得到双模态特征表示,最后输入至Softmax进行分类,最终获得模型最终的标签抽取,具体的如图4所示:
步骤5.2:使用全连接层整合得到的双模态融合特征C1,计算公式为F2=ReLU(WRC1+bR),其中,F2∈Ru×d,F2为模态间交互特征,WR为激活函数ReLU的权重,bR为激活函数ReLU的偏置;
步骤5.3:将F2输入至Softmax进行分类,计算公式为C2=Softmax(F2);
步骤5.4:将分类结果作为最终标签抽取的结果,完成冷链配载用户画像的标签抽取;
步骤5.5:将模型保存封装,作为多模态用户画像的标签抽取方法。
上述实施方式只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所做的等效变换或修饰,都应涵盖在本发明的保护范围之内。
Claims (4)
1.一种基于多模态的冷链配载用户画像标签抽取方法,其特征在于,包括如下步骤:
步骤1:输入原始的冷链配载数据集D1,对数据集进行去重、去空,清洗后得到样本集D2;
步骤2:使用K-means对样本集D2进行聚类,得到N个聚类点簇,进而将聚类后的样本集D2打上标签;
步骤3:将带标签的文本样本集作为BERT模型的输入,得到特征向量T1,将得到的特征向量T1传入长短期记忆网络进一步提取特征,得到文本特征向量T2;
步骤4:获取双模态交互注意力矩阵Bim,具体步骤如下:
步骤4.1:将步骤2中经过预处理后的图片数据作为YOLO模型的输入;
步骤4.2:得到提取后的图片数据的特征R1;
步骤4.3:将得到的特征R1映射到其语义空间中,得到图片特征向量R2=tanh(WtR1+bR1),其中,Wt为激活函数tanh的权重,bR1为激活函数tanh的偏置;
步骤4.4:将文本特征向量T2和图片特征向量R2交互,使用激活函数tanh进行转换表示补充;
步骤4.5:T2经R2补充过后得到T3,计算公式为T3=tanh(UT2T2+WrtUT2T2),UT2为隐藏文本对应的转换矩阵,Wrt为相应两模态的映射的权重矩阵;
步骤4.6:R2经T2补充过后得到R3,计算公式为R3=tanh(UR2R2+WrtUR2R2),UR2为隐藏关系对应的转换矩阵;
步骤4.7:将文本特征向量T3和图片特征向量R3进行拼接,并通过一个全连接层捕捉模态间交互特征F1,即F1=ReLU(W1(T3⊕R3)+b1),W1为激活函数ReLU的权重,b1为激活函数ReLU的偏置;
步骤4.8:将交互特征F1在激活函数Sigmoid的作用下生成条件向量S,计算公式为S=Sigmoid(F1);
步骤4.9:将条件向量S与交互后的T3结合得到文本条件向量N1,计算公式为N1=T3⊙S;
步骤4.10:将条件向量S与交互后的R3结合得到图片条件向量N2,计算公式为N2=R3⊙S;
步骤4.11:将两种模态的条件向量N1和N2进行矩阵乘法计算,得到跨模态联合矩阵O,计算公式为O=N1·N2;
步骤4.12:如果循环变量k≤单模态特征维度u,跳转到下一步,否则跳转到步骤4.15;
步骤4.13:使用Softmax函数计算出跨模态联合矩阵的概率a,计算公式为
步骤4.14:k=k+1,跳转到步骤4.12;
步骤4.15:将双模态交互特征F1乘概率a,得到双模态交互注意力矩阵Bim,计算公式为Bim=a·F1;
步骤5:将双模态交互注意力矩阵Bim与被补充过的双模态特征向量拼接,将其作为全连接层的输入得到双模态特征表示,最后输入至Softmax进行分类,最终获得模型的标签抽取。
2.根据权利要求1所述的基于多模态的冷链配载用户画像标签抽取方法,其特征在于,所述步骤3具体方法为:
步骤3.1:通过处理步骤2中打上标签的样本集D4,将待处理文本内容dc固定为统一长度Lmax;
步骤3.2:定义循环变量i,且i赋初值为1;
步骤3.3:如果i≤len(T)则跳转到步骤3.4,否则跳转到步骤3.7;
步骤3.4:定义len(Ti)为文本中第i个文本信息的长度,如果len(Ti)+2≤Lmax则补0后跳转下一步,否则截取文本前Lmax个单位,跳转下一步;
步骤3.5:建立预训练模型BERT,将样本集传入BERT模型中,获取文本的特征向量T1;
步骤3.6:i=i+1,跳转到步骤3.3;
步骤3.7:结束循环,输出全部特征向量序列T1={T1,T2,...,Td,…,Tlen(T)};
步骤3.8:构建长短期记忆网络,传入特征向量序列T1;
步骤3.9:定义循环变量j和最大时刻M,且j赋初值为1;
步骤3.10:如果j≤M则跳转到步骤3.11,否则跳转到步骤3.13;
步骤3.11:使用长短期记忆网络计算当前时刻的输出结果为ht;
步骤3.12:j=j+1,跳转到步骤3.10;
步骤3.13:结束循环,得到全部时刻的输出向量T2={h1,h2,...,ht,...,hM}。
3.根据权利要求1所述的基于多模态的冷链配载用户画像标签抽取方法,其特征在于,所述步骤5具体方法为:
步骤5.1:将得到的双模态交互注意力矩阵Bim与被补充过的文本特征T3和被补充过的图片特征R3拼接,即C1=Bim⊕T3⊕R3;
步骤5.2:使用全连接层整合得到的双模态融合特征C1,计算公式为F2=ReLU(WRC1+bR),其中,F2∈Ru×d,F2为双模态特征表示,WR为激活函数ReLU的权重,bR为激活函数ReLU的偏置;
步骤5.3:将双模态特征表示F2输入至Softmax进行分类,得到最终分类结果C2;
步骤5.4:将分类结果C2作为最终标签抽取的结果,完成冷链配载用户画像的标签抽取。
4.一种基于多模态的冷链配载用户画像标签抽取装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述计算机程序被加载至处理器时实现根据权利要求1-3任一项所述的基于多模态的冷链配载用户画像标签抽取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111471016.7A CN114218380B (zh) | 2021-12-03 | 2021-12-03 | 基于多模态的冷链配载用户画像标签抽取方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111471016.7A CN114218380B (zh) | 2021-12-03 | 2021-12-03 | 基于多模态的冷链配载用户画像标签抽取方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114218380A CN114218380A (zh) | 2022-03-22 |
CN114218380B true CN114218380B (zh) | 2022-07-29 |
Family
ID=80699671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111471016.7A Active CN114218380B (zh) | 2021-12-03 | 2021-12-03 | 基于多模态的冷链配载用户画像标签抽取方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114218380B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114970775B (zh) * | 2022-07-29 | 2023-04-18 | 国家国防科技工业局军工项目审核中心 | 基于聚类的军工集团人员信息标签化方法 |
CN115600945B (zh) * | 2022-09-07 | 2023-06-30 | 淮阴工学院 | 基于多粒度的冷链配载用户画像构建方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112732916A (zh) * | 2021-01-11 | 2021-04-30 | 河北工业大学 | 一种基于bert的多特征融合模糊文本分类模型 |
CN112800875A (zh) * | 2021-01-14 | 2021-05-14 | 北京理工大学 | 一种混合特征融合和决策融合的多模态情感识别方法 |
CN113095357A (zh) * | 2021-03-04 | 2021-07-09 | 山东大学 | 基于注意力机制与gmn的多模态情感识别方法及系统 |
WO2021164199A1 (zh) * | 2020-02-20 | 2021-08-26 | 齐鲁工业大学 | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11361868B2 (en) * | 2017-08-16 | 2022-06-14 | The Johns Hopkins University | Abnormal tissue detection via modal upstream data fusion |
US20200279156A1 (en) * | 2017-10-09 | 2020-09-03 | Intel Corporation | Feature fusion for multi-modal machine learning analysis |
CN109189968B (zh) * | 2018-08-31 | 2020-07-03 | 深圳大学 | 一种跨模态检索方法及系统 |
CN110602527B (zh) * | 2019-09-12 | 2022-04-08 | 北京小米移动软件有限公司 | 视频处理方法、装置及存储介质 |
CN112069408B (zh) * | 2020-06-15 | 2023-06-09 | 北京理工大学 | 一种融合关系抽取的推荐系统及方法 |
CN112101028B (zh) * | 2020-08-17 | 2022-08-26 | 淮阴工学院 | 一种多特征双向门控领域专家实体抽取方法及系统 |
CN112580332B (zh) * | 2020-11-19 | 2022-07-12 | 淮阴工学院 | 一种基于标签分层延深建模的企业画像方法 |
CN112860888B (zh) * | 2021-01-26 | 2022-05-06 | 中山大学 | 一种基于注意力机制的双模态情感分析方法 |
CN112966127B (zh) * | 2021-04-07 | 2022-05-20 | 北方民族大学 | 一种基于多层语义对齐的跨模态检索方法 |
CN113051914A (zh) * | 2021-04-09 | 2021-06-29 | 淮阴工学院 | 一种基于多特征动态画像的企业隐藏标签抽取方法及装置 |
CN113343974B (zh) * | 2021-07-06 | 2022-10-11 | 国网天津市电力公司电力科学研究院 | 考虑模态间语义距离度量的多模态融合分类优化方法 |
-
2021
- 2021-12-03 CN CN202111471016.7A patent/CN114218380B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021164199A1 (zh) * | 2020-02-20 | 2021-08-26 | 齐鲁工业大学 | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 |
CN112732916A (zh) * | 2021-01-11 | 2021-04-30 | 河北工业大学 | 一种基于bert的多特征融合模糊文本分类模型 |
CN112800875A (zh) * | 2021-01-14 | 2021-05-14 | 北京理工大学 | 一种混合特征融合和决策融合的多模态情感识别方法 |
CN113095357A (zh) * | 2021-03-04 | 2021-07-09 | 山东大学 | 基于注意力机制与gmn的多模态情感识别方法及系统 |
Non-Patent Citations (5)
Title |
---|
A Bimodal Biometric Verification System Based on Deep Learning;Song Baolin et al;《International Conference on Video and Image Processing (ICVIP)》;20170101;第89-93页 * |
Multimodal, Context-Aware, Feature Representation Learning for Classification and Localization;Sreyasee Das Bhattacharjee et al.;《2019 IEEE International Conference on Big Data (Big Data)》;20200224;第1034-1039页 * |
Supervised Cross-Modal Factor Analysis for Multiple Modal Data Classification;Jingbin Wang et al.;《2015 IEEE International Conference on Systems, Man, and Cybernetics》;20160114;第1882-1888页 * |
基于多模态融合技术的用户画像方法;张壮等;《北京大学学报(自然科学版)》;20190926(第01期);第105-111页 * |
多模态特征融合与多任务学习的特种视频分类;吴晓雨等;《光学精密工程》;20200513(第05期);第1177-1186页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114218380A (zh) | 2022-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102532152B1 (ko) | 멀티 모달 콘텐츠 처리 방법, 장치, 기기 및 저장 매체 | |
CN110489395B (zh) | 自动获取多源异构数据知识的方法 | |
CN113761936B (zh) | 一种基于多头自注意力机制的多任务篇章级事件抽取方法 | |
CN112164391B (zh) | 语句处理方法、装置、电子设备及存储介质 | |
CN114218380B (zh) | 基于多模态的冷链配载用户画像标签抽取方法及装置 | |
CN116010713A (zh) | 基于云计算的创新创业平台服务数据处理方法及系统 | |
CN110569359B (zh) | 识别模型的训练及应用方法、装置、计算设备及存储介质 | |
CN111522936B (zh) | 一种包含情感的智能客服对话回复生成方法、装置及电子设备 | |
CN113051914A (zh) | 一种基于多特征动态画像的企业隐藏标签抽取方法及装置 | |
CN113035311A (zh) | 一种基于多模态注意力机制的医学图像报告自动生成方法 | |
CN115438215A (zh) | 图文双向搜索及匹配模型训练方法、装置、设备及介质 | |
KR20220047228A (ko) | 이미지 분류 모델 생성 방법 및 장치, 전자 기기, 저장 매체, 컴퓨터 프로그램, 노변 장치 및 클라우드 제어 플랫폼 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN112651940A (zh) | 基于双编码器生成式对抗网络的协同视觉显著性检测方法 | |
CN114913590B (zh) | 一种数据的情感识别方法、装置、设备及可读存储介质 | |
CN115130591A (zh) | 一种基于交叉监督的多模态数据分类方法及装置 | |
WO2022222854A1 (zh) | 一种数据处理方法及相关设备 | |
He et al. | Deep learning in natural language generation from images | |
CN114661951A (zh) | 一种视频处理方法、装置、计算机设备以及存储介质 | |
US20230376692A1 (en) | Technical document issues scanner | |
Nabati et al. | Multimodal video-text matching using a deep bifurcation network and joint embedding of visual and textual features | |
Gao et al. | DANet: Semi-supervised differentiated auxiliaries guided network for video action recognition | |
CN116955591A (zh) | 用于内容推荐的推荐语生成方法、相关装置和介质 | |
CN117216710A (zh) | 多模态自动标注方法、标注模型的训练方法及相关设备 | |
US20220156502A1 (en) | Lingually constrained tracking of visual objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230508 Address after: Room 801, 85 Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province Patentee after: Yami Technology (Guangzhou) Co.,Ltd. Address before: 223400 8th floor, Anton building, 10 Haian Road, Lianshui, Huaian, Jiangsu Patentee before: HUAIYIN INSTITUTE OF TECHNOLOGY |