CN115953590B - 一种分段式细粒度的商品图像描述生成方法、装置和介质 - Google Patents
一种分段式细粒度的商品图像描述生成方法、装置和介质 Download PDFInfo
- Publication number
- CN115953590B CN115953590B CN202211597576.1A CN202211597576A CN115953590B CN 115953590 B CN115953590 B CN 115953590B CN 202211597576 A CN202211597576 A CN 202211597576A CN 115953590 B CN115953590 B CN 115953590B
- Authority
- CN
- China
- Prior art keywords
- image
- text
- commodity
- description
- granularity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 56
- 238000013507 mapping Methods 0.000 claims abstract description 33
- 239000013598 vector Substances 0.000 claims description 71
- 230000014509 gene expression Effects 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 19
- 102100033814 Alanine aminotransferase 2 Human genes 0.000 claims description 12
- 101000779415 Homo sapiens Alanine aminotransferase 2 Proteins 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 238000009966 trimming Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 239000002023 wood Substances 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000013604 expression vector Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种分段式细粒度的商品图像描述生成方法、装置和介质,该方法包括以下步骤:首先构造一个粗粒度的商品图像描述生成框架,由图像特征提取器、文本解码器、映射网络三部分组成;然后针对图像特征提取器以及文本解码器进行预训练,之后通过映射网络对齐语义空间,生成粗粒度的图像描述;其次在公开的商品描述数据集上微调已有的大型文本生成网络;再将粗粒度的图像描述输入微调后的文本生成网络,生成细粒度的商品图像描述;最后可将上述生成的商品描述再次输入网络,直至生成满意的商品图像描述。本发明的商品图像描述生成方法能够提高商品描述的丰富度和细腻度,自动化批量生成细粒度的商品图像描述。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种分段式细粒度的商品图像描述生成方法、装置和介质。
背景技术
图像描述目的是根据输入图像的内容生成一段自然语言描述文字,其涉及计算机视觉以及自然语言处理两大人工智能领域。人类可以将图像中的物体、场景、色彩等视觉特征信息建立联系,感知图像的高层语义信息,从而转化为自然语言,而计算机无法将自然语言信息和图像信息进行自然结合,存在“语义鸿沟”现象,即两种的特征空间不同,因此图像描述时需要将自然语言信息和图像信息两者的语义空间对齐。
现有的图像描述偏向于对于图像内容本身进行描述,生成的内容大部分为粗粒度的图像内容元素堆砌,缺乏人类自然语言的丰富性和灵活性。随着互联网商业的发展,商家需要为自己的商品添加适当描述以吸引顾客,电商商品随着几何数值增长,通过人工添加商品图片描述需要大量的人力成本,但是现有的图像描述无法生成可直接使用的文案,即细粒度的图像描述文本。
本发明提出了一种分段式细粒度的商品图像描述生成方法,首先训练图像特征提取网络和文本解码器,并且利用多层全连接层进行语义空间对齐,根据输入图像获得粗粒度的图像描述;将该描述输入至经过微调的大型语言生成网络,得到细粒度的语言描述。
发明内容
本发明的目的在于针对现有技术的不足,提供一种分段式细粒度的商品图像描述生成方法、装置和介质。
本发明的目的是通过以下技术方案来实现的:本发明实施例第一方面提供了一种分段式细粒度的商品图像描述生成方法,包括以下步骤:
(1)构造粗粒度商品图像描述生成框架,其中,所述粗粒度商品图像描述生成框架包括图像特征提取器、文本解码器和映射网络;
(2)对图像特征提取器和文本解码器进行预训练,以获取图像特征提取器和文本解码器,再通过映射网络对齐语义空间,生成商品图像对应的粗粒度描述文本;
(3)在商品描述数据集上微调已有的大型文本生成网络,以获取最终的大型文本生成网络;
(4)将所述步骤(2)获取的粗粒度描述文本输入最终的大型文本生成网络中,以生成商品图像对应的细粒度描述文本;
(5)将上一步生成的细粒度描述文本再次输入最终的大型文本生成网络中,生成商品图像对应的细粒度描述文本,重复当前步骤,直至生成满意的商品图像细粒度描述文本。
可选地,所述图像特征提取器采用视觉自注意力网络;所述文本解码器采用长短期记忆网络,用于获取初始的粗粒度图像描述;所述映射网络采用多层全连接层的神经网络。
可选地,所述步骤(2)包括以下子步骤:
(2.1)根据图像特征提取器的预训练数据集对图像特征提取器进行预训练,以获取最终的图像特征提取器;
(2.2)根据文本解码器的预训练数据集对文本解码器进行预训练,以获取最终的文本解码器;
(2.3)根据图像特征提取器、文本解码器和映射网络对齐语义空间,生成商品图像对应的粗粒度描述文本。
可选地,所述步骤(2.1)包括以下子步骤:
(2.1.1)对图像特征提取器的预训练数据集中的图像进行预处理,将商品图像缩放成大小为224*224像素的图片,并将图片按照16*16像素的图像块大小进行切分,以获取196个图像块,并将每个图像块输入全连接层以获取图像块的嵌入表达;
(2.1.2)将图像块的嵌入表达与类别嵌入表达进行拼接,并加上位置编码,以获取图像特征提取器输入的特征向量;
(2.1.3)将步骤(2)获得的特征向量输入若干个自注意力模块中,以获取Q向量、K向量和V向量,并根据Q向量、K向量和V向量计算图像块与其它图像块之间的相关性,以获取相应的自注意力值;
(2.1.4)根据自注意力值获取全局图像信息表达最优的类别嵌入信息,并将其对应的类别嵌入表达(CLS)通过全连接层输出以获取图像类别,通过图像特征提取器的交叉熵函数计算损失,并进行回传更新网络参数,以获取最终的图像特征提取器。
可选地,所述步骤(2.2)包括以下子步骤:
(2.2.1)根据中文分词库对文本解码器的预训练数据集进行分词,并构建相应词汇表;
(2.2.2)将一句话分为若干词,根据步骤(2.2.1)获取的词汇表建立词索引,据此对文本解码器进行训练,根据文本解码器的交叉熵损失函数计算损失,并将损失反向传播至文本解码器以获取最终的文本解码器。
可选地,所述步骤(2.3)包括以下子步骤:
(2.3.1)通过图像特征提取器获取图像特征向量,将图像特征向量经过映射网络,映射成提示向量;
(2.3.2)将提示向量输入文本解码器以对齐图像与文本语义空间,生成商品图像对应的粗粒度描述文本。
可选地,所述步骤(3)具体为:将商品描述数据集作为目标数据集,大型文本生成网络参数根据其交叉熵损失函数针对商品图像描述进行微调优化,使其生成符合商品场景的商品图像对应的细粒度描述文本,以获取最终的大型文本生成网络。
可选地,所述商品描述数据集为中文MUGE,所述大型文本生成网络采用中文GPT2模型。
本发明实施例第二方面提供了一种分段式细粒度的商品图像描述生成装置,包括一个或多个处理器,用于实现上述的分段式细粒度的商品图像描述生成方法。
本发明实施例第三方面提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,用于实现上述的分段式细粒度的商品图像描述生成方法。
本发明的有益效果是,本发明通过图像特征提取器提取图像侧的特征向量,通过文本解码器生成粗粒度的文本描述,同时通过训练映射网络对齐两者语义特征空间,使网络找到文本实体与视觉实体之间的关联关系;之后将粗粒度的文本描述输入在商品描述数据集上微调后的大型文本生成网络,通过该网络生成更加细粒度的图像文本描述;这类首先生成粗粒度的图像描述,再根据粗粒度文本续写更加细致的图像描述,称为分段式的图像描述生成方法;该分段式的图像描述生成方法,可以有效提高图像描述文本的丰富度和细粒度,有效减少人工编写文案的时间成本。
附图说明
图1为本发明实施例中的流程示意图;
图2为本发明实施例中的文本生成网络训练/微调过程示意图;
图3为本发明实施例中的文本生成网络推理过程示意图;
图4为本发明中的部分实施例示意图;
图5为本发明实施例中的分段式细粒度的商品图像描述生成装置的一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的分段式细粒度的商品图像描述生成方法,包括以下步骤:
(1)构造粗粒度商品图像描述生成框架,其中,粗粒度商品图像描述生成框架包括图像特征提取器、文本解码器和映射网络,如图1的流程图所示。
本实施例中,图像特征提取器采用视觉自注意力网络;文本解码器采用长短期记忆网络,用于获取初始的粗粒度图像描述;映射网络采用多层全连接层的神经网络。由视觉自注意力网络提取输入的商品图像特征,映射网络将提取到的图像特征映射为文本语义空间,生成提示向量,将提示向量输入文本解码器生成粗粒度的商品图像描述。
(2)对图像特征提取器和文本解码器进行预训练,以获取图像特征提取器和文本解码器,再通过映射网络对齐语义空间,生成商品图像对应的粗粒度描述文本。
(2.1)根据图像特征提取器的预训练数据集对图像特征提取器进行预训练,以获取最终的图像特征提取器。
本实施例中,图像特征提取器的预训练数据集为ImageNet 1K,由美国斯坦福大学模拟人类的识别系统建立的,使得网络可以获得通用的图像特征提取能力。ImageNet 1K拥有1000类别,训练集拥有120多万的自然图像。因此应当理解为,ImageNet 1K数据集即为通用图像数据集。
通过预先在该数据集上进行预训练,网络可以获得对于自然世界和人类社会生活中绝大部分自然物体的理解。图像通过预训练后的图像特征提取器即可获得可用的图像特征向量,即图像输入到图像特征提取器中,就可以输出对应的图像特征向量。
(2.1.1)对图像特征提取器的预训练数据集中的图像进行预处理,将商品图像统一缩放成大小为224*224像素的图片,并将图片按照16*16像素的图像块大小进行切分,以获取(224/16)*(224/16)=196个图像块,并将每个图像块输入全连接层以获取图像块的嵌入表达。
本实施例中,在输入图像特征提取器的过程中,需要将图像块拉伸为1维向量,原图像块为3*16*16,拉伸后为(1*768)维向量,因此获得为(196*768)维的特征向量,最后将每个图像块输入维度为(768*768)的全连接层以获取(196*768)维图像块的嵌入表达。
进一步地,图像块的嵌入表达如下式所示:
Xi=FC(Ii)i∈{1,2,…,196
其中,Ii为图像I的第i个图像块,Xi为第i个图像块的嵌入表达,FC为全连接层。
应当理解的是,图像块的嵌入表达为(196*768)维的特征向量。
(2.1.2)将图像块的嵌入表达与类别嵌入表达进行拼接,并加上位置编码,以获取图像特征提取器输入的特征向量。
为了方便后续图像分类的任务和训练,还额外引入一个可学习的类别参数,即类别嵌入表达(class embedding,CLS)。类别嵌入表达可理解为网络参数,初始化后需要进行后续训练。该参数插入到图片分割后所得序列的开始位置,其维度与图像块的维度保持一致,所以类别嵌入表达为(1*768)维向量,因此和图像块的嵌入表达向量拼接后为(197*768)维的特征向量。
因为将图像块的嵌入表达和类别嵌入表达直接一起输入可能会损失了图像块之间的相对位置信息,所以引入位置编码PE,其表达式为:
其中,pos表示单词在句子中的位置,dmodel表示位置编码的维度(与图像块的嵌入表达保持一致),2i表示偶数的维度,2i+1表示奇数维度。因此最后能获得(197*768)维的位置编码信息。
最后将位置编码与拼接后的(197*768)维的特征向量直接相加,最终获得网络输入(197*768)维的特征向量,即图像特征提取器输入的特征向量。
(2.1.3)将步骤(2)获得的特征向量输入若干个自注意力模块中,以获取Q向量、K向量和V向量,并根据Q向量、K向量和V向量计算图像块与其它图像块之间的相关性,以获取相应的自注意力值。
其中,每个自注意力模块包括三个不同的线性变换层WQ、WK和WV,可以理解三个不同的线性矩阵,可通过初始化获得,并且随着图像特征提取器的训练不断进行更新,WQ、WK和WV分别表示查询矩阵、键矩阵和值矩阵,特征向量通过三个矩阵分别可以获得Q向量、K向量和V向量。Q向量表示为自身去查询其他图像块的向量,K向量表示自身被查询时所体现的向量,V向量表示权重。
本实施例中,将相关性进行加权求和,可以得到最后的自注意力值,其表达式为:
其中,dk为缩放因子,用于避免点积带来的方差影响;T表示矩阵转置,(QKT)表示各个图像块之间的相关性;Softmax为归一化指数函数。
应当理解的是,相关性和自注意力值是跟随变化的,目的是要获取自注意力值,自注意力值越大,表示当前为需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。
在本实施例中,引入了三个不同的线性变换层,即引入了更多维度的空间,更多的学习参数,这样自注意力模块表达性更好。
(2.1.4)根据自注意力值获取全局图像信息表达最优的类别嵌入信息,并将其对应的类别嵌入表达(CLS)通过全连接层输出以获取图像类别,通过图像特征提取器的交叉熵函数计算损失,并进行回传更新网络参数,以获取最终的图像特征提取器。
应当理解的是,通过自注意力值的训练,可以获得对于全局图像信息表达更好的类别嵌入信息,因为训练的时候,类别嵌入表达和QKV矩阵是一直变化的。
本实施例中,图像特征提取器的交叉熵损失函数的表达式为:
其中,yx表示图像特征提取器对于图像类别为x类的预测概率,其通过类别嵌入表达(CLS)通过全连接层softmax后获得;yj表示图像特征提取器对于图像类别为j的预测概率,其通过类别嵌入表达(CLS)通过全连接层softmax后获得;M表示图像总类别数,在本实施例中M=1000。
应当理解的是,根据计算得到的损失即可知道与目标的差距,从而判断是否继续进行优化。例如,可以根据实际需要设置一个阈值,若损失小于等于阈值,则表示不需要继续进行优化;若损失大于阈值,则表示需要继续进行优化。
另外,回传更新的网络参数是神经元的参数,包括权值和偏置,这是现有技术中常用的参数,在此不再赘述。
需要说明的是,还可以根据图像特征提取器的类型收集类似的预训练模型,选择现有的部分已经训练完成的训练模型作为图像特征提取器。
(2.2)根据文本解码器的预训练数据集对文本解码器进行预训练,以获取最终的文本解码器。
本实施例中,文本解码器的预训练数据集为阿里天池的商品描述文案数据集。例如“中长款外套”、“北欧实木家具”、“撞色印花雪纺衫”等,以此构成文本解码器的预训练数据集。通过构建的商品预训练数据集进行训练,文本编码器可以获得商品类信息文本解码能力。
(2.2.1)根据中文分词库对文本解码器的预训练数据集进行分词,并构建相应词汇表。
采用中文分词库进行分词,例如将“北欧实木家具”分词为“北欧”、“实木”、“家具”;将“撞色印花雪纺衫”分词为“撞色”、“印花”、“雪纺”、“衫”,再根据分词结果构建词汇表,构建完分词表后再加入[PAD]特殊词,其中[PAD]表示填充词,用于填充句子长度,使其同一批次下的句子长度相同。
(2.2.2)将一句话分为若干词,根据步骤(2.2.1)获取的词汇表建立词索引,据此对文本解码器进行训练,根据文本解码器的交叉熵损失函数计算损失,并将损失反向传播至文本解码器以获取最终的文本解码器。
通过分词将一句话分为若干个词,根据步骤(2.2.1)获取的词汇表建立词索引,对文本解码器进行训练,在训练过程中,将下一个词作为上一个词的输出标签,然后再根据文本解码器的交叉熵损失函数计算训练损失,如图2所示。
本实施例中,文本解码器的交叉熵损失函数的表达式为:
其中,yz表示文本编码器对于词汇表中第z个词的预测概率,其通过第z个词通过softmax获得;yq表示文本编码器对于词汇表中第q个词的预测概率,其通过第q个词通过softmax获得;R表示词汇表中总词汇数。
本实施例中,还需将损失反向传播至文本解码器,对文本解码器进行更新优化,以获取最终的文本解码器。
应当理解的是,该文本解码器输出的是输出标签,输出标签对应的是词汇,按照前后组合即为对应的粗粒度文本描述,即文本解码器的输出为粗粒度文本描述。
(2.3)根据图像特征提取器、文本解码器和映射网络对齐语义空间,生成商品图像对应的粗粒度描述文本。
具体地,通过图像特征提取器获取图像特征向量,然后映射网络将图像特征向量映射为提示向量,作为文本解码器的输入,负责图像与文本语义空间的对齐。另外,最后的图像特征向量不再经过视觉自注意力网络最后的分类头,而是直接提取图像特征得到图像特征向量,之后映射网络将图像特征向量映射为提示向量,文本解码器接受来自映射网络的提示向量,生成商品图像对应的粗粒度描述文本,生成过程如图3所示。
(2.3.1)通过图像特征提取器获取图像特征向量,将图像特征向量经过映射网络,映射成提示向量。其中,提示向量表示为:
XP=FC(ViT(Image))
其中,XP表示经过映射网络生成的提示向量,FC表示由若干层全连接层构成的映射网络,ViT表示图像特征提取器。
(2.3.2)将提示向量输入文本解码器以对齐图像与文本语义空间,生成商品图像对应的粗粒度描述文本。
本实施例中,构建商品图像和步骤(2.2)商品预训练数据集的图像-文本对,即对应的商品和其粗粒度图像描述,将此作为映射网络的训练数据集。
将提示向量输入到文本解码器中。训练过程与文本编码器类似,将下一个词作为上一个词的输出标签,并以此计算训练损失,如图2所示。其中映射网络的损失函数也为交叉熵损失函数。
其中,yz表示文本编码器对于词汇表中第z个词的预测概率,其通过第z个词通过softmax获得;yq表示文本编码器对于词汇表中第q个词的预测概率,其通过第q个词通过softmax获得;R表示词汇表中总词汇数。
本实施例中,此处计算所得到的损失回传至映射网络,对映射网络进行优化。
需要说明的是,还可以根据文本解码网络的类型收集类似的预训练模型,选择现有的部分已经训练完成的训练模型作为文本解码网络。
(3)在商品描述数据集上微调已有的大型文本生成网络,以获取最终的大型文本生成网络。
本实施例中,大型文本生成网络采用中文GPT2模型,同时其微调数据集为中文MUGE,其涵盖了服装、食品、化妆品、3C数码配件等众多商品类目,所有数据均来源于真实的淘宝电商场景。由于GPT2为网络上可下载的预训练模型,其词汇表无需进行生成。应当理解的是,商品描述数据集为中文MUGE。
本实施例中,将商品描述数据集作为目标数据集,大型文本生成网络参数根据其交叉熵损失函数针对商品图像描述进行微调优化,使其生成符合商品场景的商品图像对应的细粒度描述文本,以获取最终的大型文本生成网络。
具体地,我们将MUGE数据集中每一条文本描述数据的前若干个词作为GPT2的输入,之后的语句作为训练的标签。例如原图像描述为“西装印花裙的两件套,知性中又有带着优雅洒脱。雅致的印花裙邂逅西服,轻松打造精致的职场女性。脱掉外套依然美丽优雅,不失为明智的穿搭。V领的设计更显女性的性感魅力。如行走的时装画册精致,有品位更具有风度。”中文GPT2模型的输入为“西装印花裙的两件套”,之后的语句“知性中又有带着优雅洒脱。雅致的印花裙邂逅西服,轻松打造精致的职场女性。脱掉外套依然美丽优雅,不失为明智的穿搭。V领的设计更显女性的性感魅力。如行走的时装画册精致,有品位更具有风度。”作为训练的标签。也是和文本解码器一样,采用自回归的训练方式,训练过程示意图如图2所示。微调的损失函数也采用交叉熵损失函数,表示为:
其中,ya表示文本编码器对于GPT2词汇表中第a个词的预测概率,其通过第a个词通过softmax获得;yg表示文本编码器对于GPT2词汇表中第g个词的预测概率,其通过第g个词通过softmax获得;G表示GPT2词汇表中的总词汇数。
本实施例中,此处计算所得的损失回传至大型文本生成网络即中文GPT2模型中,根据损失进而判断是否需要进行优化,从而对大型文本生成网络进行微调至所需要达到的要求。应当理解的是,对大型文本生成网络进行优化时,可以调整其内部的一些参数如偏置,在此不再赘述。
(4)将步骤(2)获取的粗粒度描述文本输入最终的大型文本生成网络中,以生成商品图像对应的细粒度描述文本。
将文本解码器生成的粗粒度描述文本输入最终的大型文本生成网络中,根据输入信息生成更细粒度的商品信息文本,生成过程如图3所示,生成示例如图4所示。
示例性地,如文本解码器生成的粗粒度描述文本为“经典的黑色t恤”,将其输入最终的大型文本生成网络即中文GPT2模型中,续写生成对应的细粒度描述文本,“经典的黑色t恤,休闲百搭。短款的设计,修饰身材比例,显瘦又显高。搭配高腰的半身裙,提高腰线,拉长腿型”。
示例性地,如图4所示,文本解码器生成的粗粒度描述文本为“优雅的高跟鞋”,将其输入最终的大型文本生成网络即中文GPT2模型中,可以生成对应的细粒度描述文本,为“优雅的高跟鞋,展现除了脚间的纤瘦,延伸着腿部的修长,展现出了温婉气质。”。
(5)将上一步生成的细粒度描述文本再次输入最终的大型文本生成网络中,生成商品图像对应的细粒度描述文本,重复当前步骤,直至生成满意的商品图像细粒度描述文本。
示例性地,如图4所示,根据步骤(2)得到商品图像对应的粗粒度描述文本为“短款小香风外套”,根据步骤(4),将其输入大型文本生成网络中,生成商品图像对应的细粒度描述文本为“短款小香风外套,经典黑色系,内搭白色t恤,温婉大气,黑白两色的撞色,打造不一样的时尚感”,然后再次输入大型文本生成网络中,生成商品图像对应的细粒度描述文本为“短款小香风外套,经典黑色系,内搭白色t恤,温婉大气,黑白两色的撞色,打造不一样的时尚感,宽松的版型,很好的修饰身材”,此时的商品图像细粒度描述文本还不满意,是否满意具体可以根据实际情况自行判断,那么重复当前步骤,再次输入大型文本生成网络中,可以生成商品图像对应的细粒度描述文本为“短款小香风外套,经典黑色系,内搭白色t恤,温婉大气,黑白两色的撞色,打造不一样的时尚感,宽松的版型,很好的修饰身材,搭配高腰阔腿裤,显瘦遮肉,轻松穿出大长腿。”,此时,商品图像细粒度描述文本达到了要求,即可停止。
本发明提供了一种分段式细粒度的商品图像描述生成方法。方法步骤为:构造一个粗粒度的商品图像描述生成框架,由图像特征提取器、文本解码器、映射网络三部分组成;针对图像特征提取器以及文本解码器进行预训练,之后通过映射网络对齐语义空间,生成粗粒度的图像描述;在公开的商品描述数据集上微调已有的大型文本生成网络;将粗粒度的图像描述输入微调后的文本生成网络,生成细粒度的商品图像描述;可将上述生成的商品描述再次输入网络,直至生成满意的商品图像描述。本发明所述方案能够提高商品描述的丰富度和细腻度,自动化批量生成细粒度的商品图像描述。
与前述分段式细粒度的商品图像描述生成方法的实施例相对应,本发明还提供了分段式细粒度的商品图像描述生成装置的实施例。
参见图5,本发明实施例提供的一种分段式细粒度的商品图像描述生成装置,包括一个或多个处理器,用于实现上述实施例中的分段式细粒度的商品图像描述生成方法。
本发明分段式细粒度的商品图像描述生成装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或装置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图5所示,为本发明图像文本双端迁移攻击装置所在任意具备数据处理能力的设备的一种硬件结构图,除了图5所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的分段式细粒度的商品图像描述生成方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是任意具备数据处理能力的设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的。
应当理解的是,本发明的技术方案而不是对本技术方法进行限制,本发明在应用上可以延伸为其他的修改、变化、应用和实施例,并且认为所有这样的修改、变化、应用、实施例都在本发明的精神和教导范围内。
Claims (5)
1.一种分段式细粒度的商品图像描述生成方法,其特征在于,包括以下步骤:
(1)构造粗粒度商品图像描述生成框架,其中,所述粗粒度商品图像描述生成框架包括图像特征提取器、文本解码器和映射网络;所述图像特征提取器采用视觉自注意力网络;所述文本解码器采用长短期记忆网络,用于获取初始的粗粒度图像描述;所述映射网络采用多层全连接层的神经网络;
(2)对图像特征提取器和文本解码器进行预训练,以获取图像特征提取器和文本解码器,再通过映射网络对齐语义空间,生成商品图像对应的粗粒度描述文本;
所述步骤(2)包括以下子步骤:
(2.1)根据图像特征提取器的预训练数据集对图像特征提取器进行预训练,以获取最终的图像特征提取器;
所述步骤(2.1)包括以下子步骤:
(2.1.1)对图像特征提取器的预训练数据集中的图像进行预处理,将商品图像缩放成大小为224*224像素的图片,并将图片按照16*16像素的图像块大小进行切分,以获取196个图像块,并将每个图像块输入全连接层以获取图像块的嵌入表达;
(2.1.2)将图像块的嵌入表达与类别嵌入表达进行拼接,并加上位置编码,以获取图像特征提取器输入的特征向量;
(2.1.3)将步骤(2)获得的特征向量输入若干个自注意力模块中,以获取Q向量、K向量和V向量,并根据Q向量、K向量和V向量计算图像块与其它图像块之间的相关性,以获取相应的自注意力值;
(2.1.4)根据自注意力值获取全局图像信息表达最优的类别嵌入信息,并将其对应的类别嵌入表达通过全连接层输出以获取图像类别,通过图像特征提取器的交叉熵函数计算损失,并进行回传更新网络参数,以获取最终的图像特征提取器;
(2.2)根据文本解码器的预训练数据集对文本解码器进行预训练,以获取最终的文本解码器;
所述步骤(2.2)包括以下子步骤:
(2.2.1)根据中文分词库对文本解码器的预训练数据集进行分词,并构建相应词汇表;
(2.2.2)将一句话分为若干词,根据步骤(2.2.1)获取的词汇表建立词索引,据此对文本解码器进行训练,根据文本解码器的交叉熵损失函数计算损失,并将损失反向传播至文本解码器以获取最终的文本解码器;
(2.3)根据图像特征提取器、文本解码器和映射网络对齐语义空间,生成商品图像对应的粗粒度描述文本;
所述步骤(2.3)包括以下子步骤:
(2.3.1)通过图像特征提取器获取图像特征向量,将图像特征向量经过映射网络,映射成提示向量;
(2.3.2)将提示向量输入文本解码器以对齐图像与文本语义空间,生成商品图像对应的粗粒度描述文本;
(3)在商品描述数据集上微调已有的大型文本生成网络,以获取最终的大型文本生成网络;所述大型文本生成网络采用中文GPT2模型;
(4)将所述步骤(2)获取的粗粒度描述文本输入最终的大型文本生成网络中,以生成商品图像对应的细粒度描述文本;
(5)将上一步生成的细粒度描述文本再次输入最终的大型文本生成网络中,生成商品图像对应的细粒度描述文本,重复当前步骤,直至生成满意的商品图像细粒度描述文本。
2.根据权利要求1所述的分段式细粒度的商品图像描述生成方法,其特征在于,所述步骤(3)具体为:将商品描述数据集作为目标数据集,大型文本生成网络参数根据其交叉熵损失函数针对商品图像描述进行微调优化,使其生成符合商品场景的商品图像对应的细粒度描述文本,以获取最终的大型文本生成网络。
3.根据权利要求1所述的分段式细粒度的商品图像描述生成方法,其特征在于,所述商品描述数据集为中文MUGE。
4.一种分段式细粒度的商品图像描述生成装置,其特征在于,包括一个或多个处理器,用于实现权利要求1-3中任一项所述的分段式细粒度的商品图像描述生成方法。
5.一种计算机可读存储介质,其特征在于,其上存储有程序,该程序被处理器执行时,用于实现权利要求1-3中任一项所述的分段式细粒度的商品图像描述生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211597576.1A CN115953590B (zh) | 2022-12-12 | 2022-12-12 | 一种分段式细粒度的商品图像描述生成方法、装置和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211597576.1A CN115953590B (zh) | 2022-12-12 | 2022-12-12 | 一种分段式细粒度的商品图像描述生成方法、装置和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115953590A CN115953590A (zh) | 2023-04-11 |
CN115953590B true CN115953590B (zh) | 2024-01-30 |
Family
ID=87281709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211597576.1A Active CN115953590B (zh) | 2022-12-12 | 2022-12-12 | 一种分段式细粒度的商品图像描述生成方法、装置和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115953590B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117593069A (zh) * | 2023-07-19 | 2024-02-23 | 行吟信息科技(上海)有限公司 | 一种信息生成方法、装置、计算机设备及介质 |
CN117423108B (zh) * | 2023-09-28 | 2024-05-24 | 中国科学院自动化研究所 | 指令微调多模态大模型的图像细粒度描述方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114330327A (zh) * | 2020-10-09 | 2022-04-12 | 阿里巴巴集团控股有限公司 | 语言模型预训练方法和装置,计算机存储介质和电子设备 |
CN114329034A (zh) * | 2021-12-31 | 2022-04-12 | 武汉大学 | 基于细粒度语义特征差异的图像文本匹配判别方法及系统 |
CN115082693A (zh) * | 2022-07-18 | 2022-09-20 | 湖南大学 | 一种融合多粒度多模态的艺术品图像描述生成方法 |
CN115099854A (zh) * | 2022-06-23 | 2022-09-23 | 广州华多网络科技有限公司 | 广告文案创作方法及其装置、设备、介质、产品 |
CN115187839A (zh) * | 2022-09-15 | 2022-10-14 | 有米科技股份有限公司 | 图文语义对齐模型训练方法及装置 |
CN115393692A (zh) * | 2022-09-08 | 2022-11-25 | 南京邮电大学 | 基于生成式预训练语言模型的联想文本到图像生成方法 |
CN115410067A (zh) * | 2022-08-23 | 2022-11-29 | 浙江工商大学 | 一种基于CNN-Transformer双流网络的细粒度服饰检索方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717498A (zh) * | 2019-09-16 | 2020-01-21 | 腾讯科技(深圳)有限公司 | 图像描述生成方法、装置及电子设备 |
-
2022
- 2022-12-12 CN CN202211597576.1A patent/CN115953590B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114330327A (zh) * | 2020-10-09 | 2022-04-12 | 阿里巴巴集团控股有限公司 | 语言模型预训练方法和装置,计算机存储介质和电子设备 |
CN114329034A (zh) * | 2021-12-31 | 2022-04-12 | 武汉大学 | 基于细粒度语义特征差异的图像文本匹配判别方法及系统 |
CN115099854A (zh) * | 2022-06-23 | 2022-09-23 | 广州华多网络科技有限公司 | 广告文案创作方法及其装置、设备、介质、产品 |
CN115082693A (zh) * | 2022-07-18 | 2022-09-20 | 湖南大学 | 一种融合多粒度多模态的艺术品图像描述生成方法 |
CN115410067A (zh) * | 2022-08-23 | 2022-11-29 | 浙江工商大学 | 一种基于CNN-Transformer双流网络的细粒度服饰检索方法 |
CN115393692A (zh) * | 2022-09-08 | 2022-11-25 | 南京邮电大学 | 基于生成式预训练语言模型的联想文本到图像生成方法 |
CN115187839A (zh) * | 2022-09-15 | 2022-10-14 | 有米科技股份有限公司 | 图文语义对齐模型训练方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于多模态神经网络生成图像中文描述;陈兴;;计算机系统应用(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115953590A (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115953590B (zh) | 一种分段式细粒度的商品图像描述生成方法、装置和介质 | |
Sridhar et al. | Include: A large scale dataset for indian sign language recognition | |
Yi et al. | Dualgan: Unsupervised dual learning for image-to-image translation | |
Yu et al. | Image based static facial expression recognition with multiple deep network learning | |
CN110021051A (zh) | 一种基于生成对抗网络通过文本指导的人物图像生成方法 | |
CN110163115A (zh) | 一种视频处理方法、装置和计算机可读存储介质 | |
CN110428428A (zh) | 一种图像语义分割方法、电子设备和可读存储介质 | |
Hossain et al. | Text to image synthesis for improved image captioning | |
Ak et al. | Semantically consistent text to fashion image synthesis with an enhanced attentional generative adversarial network | |
Joseph et al. | C4synth: Cross-caption cycle-consistent text-to-image synthesis | |
CN114821223A (zh) | 预训练图像文本模型处理方法和图文检索系统 | |
CN111985520A (zh) | 一种基于图卷积神经网络的多模态分类方法 | |
Baraheem et al. | Image synthesis: a review of methods, datasets, evaluation metrics, and future outlook | |
Bissoto et al. | The six fronts of the generative adversarial networks | |
Liu et al. | Relation-based discriminative cooperation network for zero-shot classification | |
Liao et al. | Knowledge-aware multimodal fashion chatbot | |
CN111797622A (zh) | 用于生成属性信息的方法和装置 | |
CN112905762A (zh) | 一种基于同等注意力图网络的视觉问答方法 | |
Huang et al. | C-Rnn: a fine-grained language model for image captioning | |
CN115563982A (zh) | 广告文本优化方法及其装置、设备、介质、产品 | |
Xu et al. | Hierarchical image generation via transformer-based sequential patch selection | |
Song et al. | Hierarchical LSTMs with adaptive attention for visual captioning | |
Abdelaziz et al. | Few-shot learning with saliency maps as additional visual information | |
CN114565913B (zh) | 文本识别方法及其装置、设备、介质、产品 | |
CN113806536B (zh) | 文本分类方法及其装置、设备、介质、产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |