CN114677536B - 一种基于Transformer结构的预训练方法及装置 - Google Patents

一种基于Transformer结构的预训练方法及装置 Download PDF

Info

Publication number
CN114677536B
CN114677536B CN202210197831.7A CN202210197831A CN114677536B CN 114677536 B CN114677536 B CN 114677536B CN 202210197831 A CN202210197831 A CN 202210197831A CN 114677536 B CN114677536 B CN 114677536B
Authority
CN
China
Prior art keywords
training
training sample
image
model
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210197831.7A
Other languages
English (en)
Other versions
CN114677536A (zh
Inventor
李小星
马璐
丁佳
吕晨翀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Yizhun Intelligent Technology Co ltd
Original Assignee
Beijing Yizhun Medical AI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yizhun Medical AI Co Ltd filed Critical Beijing Yizhun Medical AI Co Ltd
Priority to CN202210197831.7A priority Critical patent/CN114677536B/zh
Publication of CN114677536A publication Critical patent/CN114677536A/zh
Application granted granted Critical
Publication of CN114677536B publication Critical patent/CN114677536B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于Transformer结构的预训练方法及装置,该方法先获取目标对象的图像和视频;针对图像和视频中任一分割区域:将分割区域的特征符号作为分割区域的标签;分别对图像的部分分割区域和视频的部分分割区域进行掩膜处理得到第一训练样本和第二训练样本;基于Transformer结构对第一训练样本中掩膜区域的特征符号进行有监督预测学习得到初始模型;之后基于初始模型初始化预训练模型得到初始预训练模型;最后利用初始预训练模型对第一训练样本和第二训练样本中进行有监督联合训练得到最终预训练模型。由此,使得模型同时学习到视频数据的空间特征和时间特征,进而为下游任务提供了很好的预训练模型。

Description

一种基于Transformer结构的预训练方法及装置
技术领域
本发明涉及模型训练技术领域,尤其涉及一种基于Transformer结构的预训练方法及装置。
背景技术
目前,基于超声图像或视频的任务(例如分类、分割或检测任务)中大都依赖大量的数据,且对于超声数据的标注工作较为繁琐,不同的任务需要标注不同的内容。预训练是一种将大量低成本收集的训练数据放在一起,通过模型训练去学习其中的共性,然后将其中的共性“移植”到特定任务中的一种方法。自监督学习是一种利用输入数据本身作为监督,并使几乎所有类型的下游任务受益的一种学习方式。
Transformer是自然语言处理领域的主要网络结构,并在不同的神经语言程序学(Neuro-Linguistic Programming,缩写NLP)任务中取得了巨大的成功。其中最为关键的模型是BERT预训练,这是最成功的预训练任务之一,它对于损坏文本掩码标记的预测、情感预测、句子分类等都有不错的效果。其中将句子中的某些词遮盖,不断训练来预测遮盖词的特征符号,基于这种自监督学习的方式使模型学到丰富的特征,从而使得该模型可以为下游任务提供预训练模型。
然而,在计算机视觉领域,与超声图像不同,超声视频描绘了目标对象如何随时间移动和交互。首先,这种动态特性给表征学习带来了额外的困难;其次,让模型从头开始学习视频表示的计算成本很高,并且需要具有数百万个样本的超大规模数据集,而超声视频的标注工作内容繁多且专业,这将耗费巨大的人力物力。
发明内容
为了解决上述现有技术存在的问题,本发明实施例提供一种基于Transformer结构的预训练方法及装置,在不对样本进行标签标注的情况下,能够使得模型同时学习到视频数据的空间特征和时间特征,从而为下游任务提供很好的预训练模型。
为实现上述目的,根据本发明实施例第一方面,提供一种基于Transformer结构的预训练方法,所述方法包括:获取目标对象的图像和视频;其中,所述图像和所述视频分别被分割成若干分割区域;针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的标签;对所述图像的部分分割区域进行掩膜处理,得到第一训练样本;对所述视频的部分分割区域进行掩膜处理,得到第二训练样本;基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;基于所述初始模型的模型参数初始化预训练模型,得到初始预训练模型;利用所述初始预训练模型,对所述第一训练样本和所述第二训练样本中掩膜区域的特征符号进行有监督的联合训练,得到最终预训练模型。
可选的,所述基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,生成初始模型,包括:对所述第一训练样本中所有分割区域进行图像特征提取,得到第一训练样本对应的图像特征;对所述第一训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和所述第一训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第一融合特征;对所述第一融合特征进行空间上采样处理,得到第一训练样本的最终特征;基于所述第一训练样本的最终特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第一损失函数;当所述第一损失函数趋于最小时,对模型参数进行调节,生成初始模型。
可选的,所述对所述第一训练样本中所有分割区域进行图像特征提取,得到第一训练样本对应的图像特征,包括:针对所述第一训练样本中的任一所述分割区域:利用线性嵌入层对所述分割区域进行拉伸降维处理;将拉伸降维处理后特征依次经过两个连续的transformer block,对所述分割区域进行特征提取,得到第一特征;利用空间下采样层对若干所述第一特征进行拼接降维处理,得到第一图像特征;将所述第一图像特征依次经过六个连续的transformer block,对所述分割区域进行特征提取,得到第二特征;利用空间下采样层对若干所述第二特征进行拼接降维处理,得到第二图像特征;将所述第二图像特征依次经过四个连续的transformer block,对所述分割区域进行特征提取,得到第一训练样本对应的图像特征。
可选的,所述利用所述初始预训练模型,对所述第一训练样本和所述第二训练样本中掩膜区域的特征符号进行有监督的联合训练,得到最终预训练模型,包括:利用所述初始预训练模型,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第一损失函数;利用所述初始预测模型,对所述第二训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第二损失函数;对所述第一损失函数和所述第二损失函数进行加权处理,得到总损失函数;迭代调节所述初始预训练模型的模型参数,当所述总损失函数趋于最小时,得到最终预训练模型。
可选的,所述利用所述初始预测模型,对所述第二训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第二损失函数,包括:对所述第二训练样本进行时间下采样处理;对下采样后第二训练样本中分割区域进行图像特征提取,得到第二训练样本对应的图像特征;对所述第二训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和所述第二训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第二融合特征;将所述第二融合特征依次经过时间上采样和空间上采样,得到采样后特征;基于所述采样后特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第二损失函数。
可选的,所述对所述视频的部分分割区域进行掩膜处理,得到第二训练样本,包括:从所述视频中连续选取若干帧图像,并在选取的每帧图像相同位置所对应的分割区域进行掩膜处理;基于所述视频中掩膜处理后的帧图像和未掩膜处理的帧图像,得到第二训练样本。
可选的,所述针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的真实标签;包括:针对所述图像中任一分割区域:利用视觉标记器模型对所述分割区域进行处理,得到对应的图像特征符号;将所述图像特征符号作为所述分割区域的标签;针对所述视频中任一分割区域:利用视觉标记器模型对所述分割区域进行处理,得到对应的视频特征符号;将所述视频特征符号作为所述分割区域的标签。
为实现上述目的,根据本发明实施例第二方面提供一种基于Transformer结构的预训练装置,所述装置包括:第一获取模块,用于获取目标对象的图像和视频;其中,所述图像和所述视频分别被分割成若干分割区域;第二获取模块,用于针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的标签;掩膜处理模块,用于对所述图像的部分分割区域进行掩膜处理,得到第一训练样本;对所述视频的部分分割区域进行掩膜处理,得到第二训练样本;初始化模块,用于基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;基于所述初始模型的模型参数初始化预训练模型,得到初始预训练模型;联合训练模块,用于利用所述初始预训练模型,对所述第一训练样本和所述第二训练样本中掩膜区域的特征符号进行有监督的联合训练,得到最终预训练模型。
可选的,所述初始化模块包括:特征提取单元,用于对所述第一训练样本中所有分割区域进行图像特征提取,得到第一训练样本对应的图像特征;融合单元,用于对所述第一训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和所述第一训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第一融合特征;上采样单元,用于对所述第一融合特征进行空间上采样处理,得到第一训练样本的最终特征;监督学习单元,用于基于所述第一训练样本的最终特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第一损失函数;模型生成单元,用于当所述第一损失函数趋于最小时,对模型参数进行调节,生成初始模型。
为实现上述目的,根据本发明实施例第三方面,还提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如第一方面所述的方法。
与现有技术相比,本发明实施例提供一种基于Transformer结构的预训练方法及装置,该方法首先获取目标对象的图像和视频;其中,所述图像和所述视频分别被分割成若干分割区域;并针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的标签;其次,对所述图像的部分分割区域进行掩膜处理,得到第一训练样本;对所述视频的部分分割区域进行掩膜处理,得到第二训练样本;并基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;之后,基于所述初始模型的模型参数初始化预训练模型,得到初始预训练模型;最后,利用所述初始预训练模型,对所述第一训练样本和所述第二训练样本中掩膜区域的特征符号进行有监督的联合训练,得到最终预训练模型。
本发明实施例基于图像数据进行掩码图像建模,并基于建模参数初始化预训练模型生成初始预训练模型;之后利用图像数据和视频数据联合训练初始预训练模型;由此,相比从头开始训练视频数据,该方法大大缩小了计算压力;而且通过对两个数据流的掩码建模任务联合训练,从而使得模型同时学习到视频数据的空间特征和时间特征,进而为下游任务提供了很好的预训练模型。
理解的是,本发明的教导并不需要实现上面所述的全部有益效果,而是特定的技术方案可以实现特定的技术效果,并且本发明的其他实施方式还能够实现上面未提到的有益效果。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中在附图中,相同或对应的标号表示相同或对应的部分。
图1为本发明一实施例基于Transformer结构的预训练方法的示意性流程图;
图2为本发明一实施例基于Transformer结构对第一训练样本进行有监督的预测学习的示意性流程图;
图3为本发明一实施例基于Transformer结构对第二训练样本进行有监督的预测学习的示意性流程图;
图4为本发明一实施例基于transformer block结构进行图像特征提取方法的示意性流程图;
图5为本发明一实施例中确定图像分割区域特征符号的示意图;
图6为本发明一实施例中对原始图像和原始视频进行掩膜处理的过程示意图;
图7为本发明一实施例中基于Transformer结构的预训练装置的示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
如图1所示,为本发明一实施例基于Transformer结构的预训练方法的示意性流程图;如图5所示,为本发明一实施例中确定图像分割区域的特征符号的示意图;如图6所示,为本发明一实施例中对原始图像和原始视频进行掩膜处理的过程示意图。
一种基于Transformer结构的预训练方法,至少包括如下操作流程:
S101,获取目标对象的图像和视频;其中图像和视频分别被分割成若干分割区域;
S102,针对图像和视频中任一分割区域:获取分割区域的特征符号,将特征符号作为分割区域的标签;
S103,对图像的部分分割区域进行掩膜处理,得到第一训练样本;对视频的部分分割区域进行掩膜处理,得到第二训练样本;
S104,基于Transformer结构,对第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;基于初始模型的模型参数初始化预训练模型,得到初始预训练模型;
S105,利用初始预训练模型,对第一训练样本和第二训练样本中掩膜区域的特征符号进行有监督的联合训练,得到最终预训练模型;
在S101中,目标对象的图像例如乳腺超声图像,或者甲状腺超声图像,或者其他病灶的CT影像图像等;目标对象的视频例如乳腺超声视频,或者甲状腺超声视频,或者其他病灶的视频等。在这里,对于图像或者视频的形式不作任何限定,任何形式的图像和视频均属于本发明的保护范畴。
图像或视频所对应的若干分割区域可以是相同大小尺寸的分割区域,也可以是不同大小尺寸的分割区域。例如:图像或者视频的分割过程如下所述:先设置分割区域尺寸,而后基于分割区域的预设尺寸,将目标对象的图像或视频划分成若干分割区域,每个分割区域具有相同的尺寸。
在S102中,利用已训练好的视觉标记器模型对图像分割区域进行处理,得到图像分割区域对应的特征符号(token);其中,每个图像分割区域对应一个特征符号。
如图5,原始图像尺寸为384*384,分割区域的尺寸为64*64,先将原始图像分割成36个相同的分割区域;然后视觉标记器模型将原始图像的分割区域转化成分布有36个特征符号的视觉标记。其中,视觉标记和图像的36个分割区域具有相同的维度。
或者,利用已训练好的视觉标记器模型对视频分割区域进行处理,得到视频分割区域对应的特征符号;其中,每个视频分割区域对应一个特征符号。
在S103中,如图6所示,采用随机的方式将原始图像的分割区域进行逐块掩膜,直至掩膜处理40%的原始图像,得到图像数据组,并将该图像数据组作为第一训练样本;
从所述视频中连续选取若干帧图像,并在选取的每帧图像相同位置所对应的分割区域进行掩膜处理;基于视频中掩膜处理后的帧图像和未掩膜处理的帧图像,得到第二训练样本。例如:从所述视频中连续选取若干帧图像,并在选取的每帧图像相同位置所对应的分割区域进行视频通道掩膜;得到视频数据组;基于视频数据组和未掩膜处理的帧图像,得到第二训练样本。
需要注意的是,对于视频做3D掩膜处理的规则是:假设给定输入是一个包含T帧的视频片段,首先随机选取一个起始帧t和帧长度l,对t+l区间内的每一帧图像掩膜相同的分割区域,重复这个过程直至每个掩膜处理的帧图像的遮盖率为40%,其中长度l的区间为[0.5T,T]。
在S104中,若干个第一训练样本形成第一训练样本数据,针对第一训练样本数据中任一第一训练样本:利用Transformer结构预测第一训练样本中掩膜区域的特征符号;基于若干个第一训练样本进行反复训练预测,得到初始模型。由此,使得模型能够学习到更丰富的图像特征。
具体地,Transformer结构包括encoder模块和decoder模块;第一训练样本输入encoder模块,进行图像特征提取,输出第一训练样本对应的图像特征;之后将图像特征输入decorder模块,进一步进行图像特征提取,输出与图像对应的视觉标记尺寸相同的最终特征;最后将最终特征输入softmax分类器,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第一损失函数;对模型进行迭代训练,当第一损失函数趋于最小时,生成初始模型。最后获取初始模型的模型参数,并利用模型参数初始化空白的预训练模型,得到初始预训练模型。
由此,相比于传统卷积神经网络的模型训练,采用Transformer结构对图像进行模型训练,不仅能够减少计算量,而且提高了模型的计算效率。
在S105中,将第一训练样本和第二训练样本共同作为下一次训练的训练样本;利用第一训练样本和第二训练样本,对初始预训练模型进行有监督的联合训练,生成最终预训练模型。例如:利用所述初始预训练模型,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第一损失函数Lossimg;利用所述初始预测模型,对所述第二训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第二损失函数Lossvid;对所述第一损失函数和所述第二损失函数进行加权处理,得到总损失函数;迭代调节所述初始预训练模型的模型参数,当所述总损失函数趋于最小时,得到最终预训练模型。
总损失函数的公式如下式(1)所示:
Loss=Lossimg+σLossvid 式(1);
其中,σ为超参数用来平衡两个数据流的权重。
本发明实施例将视频的表征学习解耦为空间特征学习和时间动态学习;首先基于图像数据进行掩码图像建模,然后基于建模参数初始化预训练模型生成初始预训练模型;最后利用图像数据和视频数据联合训练初始预训练模型;由此,相比从头开始训练视频数据,该方法大大缩小了计算压力;并且通过对两个数据流的掩码建模任务联合训练,从而使得模型同时学习到视频数据的空间特征和时间特征,从而为下游任务提供了很好的预训练模型;而且,本实施例的预训练方法相对于完全监督学习,省去了标签标注的过程。
在这里,下游任务如下游任务如乳腺、甲状腺结节分类,病灶检测、分割等提供预训练模型。这些下游任务只需在最终预训练模型后添加相应的任务层,并提供较少的标注数据,通过有监督的训练方式微调模型即可。
如图2所示,为本发明一实施例基于Transformer结构对第一训练样本进行有监督的预测学习的示意性流程图;本实施例的方法是在前述实施例的基础上进一步优化得到的。基于Transformer结构对第一训练样本进行有监督的预测学习,至少包括如下操作流程:
S201,针对第一训练样本中的任一分割区域:利用线性嵌入层对分割区域进行拉伸降维处理;将拉伸降维处理后特征依次经过两个连续的transformer block,对分割区域进行特征提取,得到第一特征;
S202,利用空间下采样层对若干第一特征进行拼接降维处理,得到第一图像特征;
S203,将第一图像特征依次经过六个连续的transformer block,对分割区域进行特征提取,得到第二特征;利用空间下采样层对若干第二特征进行拼接降维处理,得到第二图像特征;
S204,将第二图像特征依次经过四个连续的transformer block,对分割区域进行特征提取,得到第一训练样本对应的图像特征;
S205,对第一训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和第一训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第一融合特征;
S206,对第一融合特征进行空间上采样处理,得到第一训练样本的最终特征;
S207,基于第一训练样本的最终特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第一损失函数;
S208,当第一损失函数趋于最小时,对模型参数进行调节,生成初始模型。
具体实现过程如下所述:首先,利用线性嵌入层将分割区域拉伸成一维并调整通道数为C;然后输入两个连续的transformer block,进行特征提取,得到第一特征;之后将第一特征输入一层空间下采样,它将每组2*2个分割区域的特征连接起来并将特征维度降为之前的一半;随后再依次经过六个连续的Transformer block、一层空间下采样和四个Transformer block;最后输出第一训练样本对应的图像特征Fe,图像特征Fe的尺寸为2xH/32xW/32x4C。其次,采用空间上采样对图像特征Fe进行处理,得到特征F1;之后,将特征F1与同尺寸特征Fe拼接后输入简单的线性层进行空间特征恢复,得到第一融合特征F′1;之后,使用空间上采样对第一融合特征F′1进行处理,得到与图像视觉标记尺寸相同的特征F;最后使用softmax分类器来预测每一个掩膜位置(i,j)的特征符号,得到第一损失函数Lossimg。第一损失函数使用最大化每个掩码位置的真实token的对数似然,具体如式(2)和式(3)所示:
Figure BDA0003527833640000111
pi,j=softmax(Wfi,j+b) 式(3);
其中,fi,j是输出特征图F在位置(i,j)的特征向量,pi,j表示相应的概率向量。W和b是线性层的权重和偏差;Mimg代表所有掩膜分割区域的位置(i,j)表示集合,对应位置的token为zi,j
对模型进行迭代训练,当第一损失函数趋于最小时,生成初始模型。
如图3所示,为本发明一实施例基于Transformer结构对第二训练样本进行有监督的预测学习的示意性流程图;本实施例的方法是在前述实施例的基础上进一步优化得到的。基于Transformer结构对第二训练样本进行有监督的预测学习,至少包括如下操作流程:
S301,针对第二训练样本中的任一所述分割区域:先将分割区域输入时间下采样层,以降低输出特征的维度;然后再输入线性嵌入层,进行拉伸降维处理;之后将拉伸降维处理后特征依次经过两个连续的transformer block,对分割区域进行特征提取,得到第三特征;
S302,利用空间下采样层对若干第三特征进行拼接降维处理,得到第三图像特征;
S303,将第三图像特征依次经过六个连续的transformer block,对分割区域进行特征提取,得到第四特征;利用空间下采样层对若干第四特征进行拼接降维处理,得到第四图像特征;
S304,将第四图像特征依次经过四个连续的transformer block,对分割区域进行特征提取,得到第二训练样本对应的图像特征;
S305,对第二训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和第二训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第二融合特征;
S306,对第二融合特征依次进行时间上采样处理和空间上采样处理,得到第二训练样本的最终特征;
S307,基于第二训练样本的最终特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第二损失函数。
具体实现过程与图2所述具体实现过程相类似,不同的地方有两处:一是在利用线性嵌入层进行拉伸降维处理前,需要先利用时间下采样层对分割区域进行处理;二是对第二融合特征依次进行时间上采样处理和空间上采样处理,得到第二训练样本的最终特征。
第二损失函数Lossvid的计算过程如式(4)和式(5)所示:
pt,i,j=softmax(Wft,i,j+b) 式(4);
Figure BDA0003527833640000121
其中,ft,i,j是输出特征图F在位置(t,i,j)的特征向量,pt,i,j表示相应的概率向量;W和b是线性层的权重和偏差;Mvid代表所有掩膜分割区域的位置(t,i,j)表示集合,对应位置的token为zt,i,j
如图4所示,为本发明一实施例基于transformer block结构进行图像特征提取方法的示意性流程图。本实施例的方法是在前述实施例的基础上进一步优化得到的。基于transformer block结构进行图像特征提取方法,至少包括如下步骤:
首先,将输入Transformer block的特征zl-1首先应用layer normalization(LN)层进行归一化后输入window multi-head self-attention(wmsa)层进行特征提取,然后将提取的特征与zl-1相加得到特征z′l;之后将z′l再进行归一化后进入两层前馈网络,包括第一个全连接层Fc1+GELU非线性操作和第二层全连接层Fc2,得到特征zl
其次,将特征zl继续应用layer normalization(LN)层进行归一化后输入shiftedwindow multi-head self-attention层进行特征提取,然后将提取的特征与zl相加得到特征z′l+1;之后将z′l+1再进行归一化后进入两层前馈网络,包括第一个全连接层Fcl+GELU非线性操作和第二层全连接层Fc2,得到特征zl+1
由此,特征zl-1经过一个Transformer block后得到特征zl+1
下面将结合具体应用对本发明实施例进行详细描述。
在乳腺超声数据集上进行了实验,数据集包括1000个超声视频,5000张超声图像。首先对5000张超声图像:将每一张图像缩放到512*512的尺寸,依据上述步骤将原始图像划分成分割区域并随机掩膜处理约40%的分割区域,同时对每一个未掩膜处理的分割区域根据视觉标记器模型生成相应的特征符号。将图像的若干分割区域组成的图像数据组输入Transformer结构进行有监督的学习预测,最后通过优化对应的第一损失函数Lossimg来训练模型。
将通过上述图像数据训练好的模型作为视频数据的初始化模型,对1000个超声视频:将每一个视频的宽和高缩放到512*512的尺寸,依据上述步骤将原始视频划分成若干分割区域并随机进行掩膜处理40%分割区域,同时对每一个未掩膜处理的分割区域根据视觉标记器生成相应的特征符号。将视频分割区域组成的视频数据组输入Transformer结构进行有监督的学习预测,通过优化总损失函数Loss来训练模型,总损失函数中σ=1.2。
本发明的实施例通过自我监督的学习方式来学习超声视频特征的方法,将图片(或视频)随机遮盖一些分割区域,让模型预测盖住的分割区域是什么,不断计算预测的分割区域与真实的分割区域之间的差异,利用它作为loss进行反向传播更新参数,来达到自我监督的效果,这种学习方式称为掩码图像(或视频)建模。将训练完成的模型作为其他特定任务的预训练模型。
本发明实施例按照解耦任务设计,首先使用掩码图像建模任务在超声图像流上训练图像流,通过优化Lossimg来学习特征的空间表示;然后使用生成的初始模型来初始化超声视频流,并且通过总损失函数来联合训练两个数据流,以便模型保留空间信息,而视频流学习捕获视频中的时间动态。这样的策略不仅使模型比从头开始在规模视频数据上预训练更高效,而且满足了对不同类型的视频样本学习不同信息的需要。训练完成后生成最终预训练模型,最终预训练模型提供了可用于下游任务的不错的视频特征表示。
如7所示,为本发明一实施例中基于Transformer结构的预训练装置的示意图。基于Transformer结构的预训练装置,该装置700包括:第一获取模块701,用于获取目标对象的图像和视频;其中,所述图像和所述视频分别被分割成若干分割区域;第二获取模块702,用于针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的标签;掩膜处理模块703,用于对所述图像的部分分割区域进行掩膜处理,得到第一训练样本;对所述视频的部分分割区域进行掩膜处理,得到第二训练样本;初始化模块704,用于基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;基于所述初始模型的模型参数初始化预训练模型,得到初始预训练模型;联合训练模块705,用于利用所述初始预训练模型,对所述第一训练样本和所述第二训练样本中掩膜区域的特征符号进行有监督的联合训练,得到最终预训练模型。
在可选的实施例中,所述初始化模块704包括:特征提取单元,用于对所述第一训练样本中所有分割区域进行图像特征提取,得到第一训练样本对应的图像特征;融合单元,用于对所述第一训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和所述第一训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第一融合特征;上采样单元,用于对所述第一融合特征进行空间上采样处理,得到第一训练样本的最终特征;监督学习单元,用于基于所述第一训练样本的最终特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第一损失函数;模型生成单元,用于当所述第一损失函数趋于最小时,对模型参数进行调节,生成初始模型。
在可选的实施例中,特征提取单元包括:第一特征提取子单元,用于针对所述第一训练样本中的任一所述分割区域:利用线性嵌入层对所述分割区域进行拉伸降维处理;将拉伸降维处理后特征依次经过两个连续的transformer block,对所述分割区域进行特征提取,得到第一特征;第一拼接子单元,用于利用空间下采样层对若干所述第一特征进行拼接降维处理,得到第一图像特征;第二特征提取子单元,用于将所述第一图像特征依次经过六个连续的transformer block,对所述分割区域进行特征提取,得到第二特征;第二拼接子单元,用于利用空间下采样层对若干所述第二特征进行拼接降维处理,得到第二图像特征;第三特征提取子单元,用于将所述第二图像特征依次经过四个连续的transformerblock,对所述分割区域进行特征提取,得到第一训练样本对应的图像特征。
在可选的实施例中,联合训练模块705包括:第一预测学习单元,用于利用所述初始预训练模型,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第一损失函数;第二预测学习单元,用于利用所述初始预测模型,对所述第二训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第二损失函数;加权单元,用于对所述第一损失函数和所述第二损失函数进行加权处理,得到总损失函数;参数调节单元,用于迭代调节所述初始预训练模型的模型参数,当所述总损失函数趋于最小时,得到最终预训练模型。
在可选的实施例中,第二预测学习单元包括:图像特征提取单元,用于对所述第二训练样本进行时间下采样处理;对下采样后第二训练样本中分割区域进行图像特征提取,得到第二训练样本对应的图像特征;第二融合子单元,用于对所述第二训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和所述第二训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第二融合特征;预测学习子单元,用于将所述第二融合特征依次经过时间上采样和空间上采样,得到采样后特征;基于所述采样后特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第二损失函数。
在可选的实施例中,掩膜处理模块703包括:掩膜处理单元,用于从所述视频中连续选取若干帧图像,并在选取的每帧图像相同位置所对应的分割区域进行掩膜处理;确定单元,用于基于所述视频中掩膜处理后的帧图像和未掩膜处理的帧图像,得到第二训练样本。
在可选的实施例中,第二获取模块702包括:确定图像特征符号单元,用于针对所述图像中任一分割区域:利用视觉标记器模型对所述分割区域进行处理,得到对应的图像特征符号;将所述图像特征符号作为所述分割区域的标签;确定视频特征符号单元,用于针对所述视频中任一分割区域:利用视觉标记器模型对所述分割区域进行处理,得到对应的视频特征符号;将所述视频特征符号作为所述分割区域的标签。
上述装置可执行本发明一实施例所提供的基于Transformer结构的预训练方法,具备执行基于Transformer结构的预训练方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的基于Transformer结构的预训练方法。
根据本发明再一实施例,还提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当该一个或多个程序被该一个或多个处理器执行,使得该一个或多个处理器实现本发明上述实施例提供的甲状腺结节的分类方法。
本发明实施例另一方面提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,使得所述处理器至少执行如下所述的操作步骤:S101,获取目标对象的图像和视频;其中,所述图像和所述视频分别被分割成若干分割区域;S102,针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的标签;S103,对所述图像的部分分割区域进行掩膜处理,得到第一训练样本;对所述视频的部分分割区域进行掩膜处理,得到第二训练样本;S104,基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;基于所述初始模型的模型参数初始化预训练模型,得到初始预训练模型;S105,利用所述初始预训练模型,对所述第一训练样本和所述第二训练样本中掩膜区域的特征符号进行有监督的联合训练,得到最终预训练模型。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (9)

1.一种基于Transformer结构的预训练方法,其特征在于,包括:
获取目标对象的图像和视频;其中,所述图像和所述视频分别被分割成若干分割区域;
针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的标签;
对所述图像的部分分割区域进行掩膜处理,得到第一训练样本;对所述视频的部分分割区域进行掩膜处理,得到第二训练样本;
基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;基于所述初始模型的模型参数初始化预训练模型,得到初始预训练模型;
利用所述初始预训练模型,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第一损失函数;
利用所述初始预训练模型,对所述第二训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第二损失函数;
对所述第一损失函数和所述第二损失函数进行加权处理,得到总损失函数;
迭代调节所述初始预训练模型的模型参数,当所述总损失函数趋于最小时,得到最终预训练模型。
2.根据权利要求1所述的方法,其特征在于,所述基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,生成初始模型,包括:
对所述第一训练样本中所有分割区域进行图像特征提取,得到第一训练样本对应的图像特征;
对所述第一训练样本对应图像特征进行空间上采样处理,并将空间上采样后特征和所述第一训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第一融合特征;
对所述第一融合特征进行空间上采样处理,得到第一训练样本的最终特征;
基于所述第一训练样本的最终特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第一损失函数;
当所述第一损失函数趋于最小时,对模型参数进行调节,生成初始模型。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一训练样本中所有分割区域进行图像特征提取,得到第一训练样本对应的图像特征,包括:
针对所述第一训练样本中的任一所述分割区域:利用线性嵌入层对所述分割区域进行拉伸降维处理;将拉伸降维处理后特征依次经过两个连续的transformer block,对所述分割区域进行特征提取,得到第一特征;
利用空间下采样层对若干所述第一特征进行拼接降维处理,得到第一图像特征;
将所述第一图像特征依次经过六个连续的transformer block,对所述分割区域进行特征提取,得到第二特征;利用空间下采样层对若干所述第二特征进行拼接降维处理,得到第二图像特征;
将所述第二图像特征依次经过四个连续的transformer block,对所述分割区域进行特征提取,得到第一训练样本对应的图像特征。
4.根据权利要求1所述的方法,其特征在于,所述利用所述初始预训练模型,对所述第二训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第二损失函数,包括:
对所述第二训练样本进行时间下采样处理;
对下采样后第二训练样本中分割区域进行图像特征提取,得到第二训练样本对应的图像特征;
对所述第二训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和所述第二训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第二融合特征;
将所述第二融合特征依次经过时间上采样和空间上采样,得到采样后特征;
基于所述采样后特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第二损失函数。
5.根据权利要求1所述的方法,其特征在于,所述对所述视频的部分分割区域进行掩膜处理,得到第二训练样本,包括:
从所述视频中连续选取若干帧图像,并在选取的每帧图像相同位置所对应的分割区域进行掩膜处理;
基于所述视频中掩膜处理后的帧图像和未掩膜处理的帧图像,得到第二训练样本。
6.根据权利要求1所述的方法,其特征在于,所述针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的真实标签;包括:
针对所述图像中任一分割区域:利用视觉标记器模型对所述分割区域进行处理,得到对应的图像特征符号;将所述图像特征符号作为所述分割区域的标签;
针对所述视频中任一分割区域:利用视觉标记器模型对所述分割区域进行处理,得到对应的视频特征符号;将所述视频特征符号作为所述分割区域的标签。
7.一种基于Transformer结构的预训练装置,其特征在于,包括:
第一获取模块,用于获取目标对象的图像和视频;其中,所述图像和所述视频分别被分割成若干分割区域;
第二获取模块,用于针对所述图像和所述视频中任一分割区域:获取所述分割区域的特征符号,将所述特征符号作为所述分割区域的标签;
掩膜处理模块,用于对所述图像的部分分割区域进行掩膜处理,得到第一训练样本;对所述视频的部分分割区域进行掩膜处理,得到第二训练样本;
初始化模块,用于基于Transformer结构,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,得到初始模型;基于所述初始模型的模型参数初始化预训练模型,得到初始预训练模型;
联合训练模块,用于利用所述初始预训练模型,对所述第一训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第一损失函数;
利用所述初始预训练模型,对所述第二训练样本中掩膜区域的特征符号进行有监督的预测学习,生成第二损失函数;
对所述第一损失函数和所述第二损失函数进行加权处理,得到总损失函数;
迭代调节所述初始预训练模型的模型参数,当所述总损失函数趋于最小时,得到最终预训练模型。
8.根据权利要求7所述的装置,其特征在于,所述初始化模块包括:
特征提取单元,用于对所述第一训练样本中所有分割区域进行图像特征提取,得到第一训练样本对应的图像特征;
融合单元,用于对所述第一训练样本对应的图像特征进行空间上采样处理,并将空间上采样后特征和所述第一训练样本对应的图像特征拼接后经过线性层进行融合处理,得到第一融合特征;
上采样单元,用于对所述第一融合特征进行空间上采样处理,得到第一训练样本的最终特征;
监督学习单元,用于基于所述第一训练样本的最终特征,利用softmax分类器对掩膜区域中每个分割区域对应的特征符号进行有监督的预测学习,生成第一损失函数;
模型生成单元,用于当所述第一损失函数趋于最小时,对模型参数进行调节,生成初始模型。
9.一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
CN202210197831.7A 2022-03-02 2022-03-02 一种基于Transformer结构的预训练方法及装置 Active CN114677536B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210197831.7A CN114677536B (zh) 2022-03-02 2022-03-02 一种基于Transformer结构的预训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210197831.7A CN114677536B (zh) 2022-03-02 2022-03-02 一种基于Transformer结构的预训练方法及装置

Publications (2)

Publication Number Publication Date
CN114677536A CN114677536A (zh) 2022-06-28
CN114677536B true CN114677536B (zh) 2022-12-16

Family

ID=82072254

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210197831.7A Active CN114677536B (zh) 2022-03-02 2022-03-02 一种基于Transformer结构的预训练方法及装置

Country Status (1)

Country Link
CN (1) CN114677536B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842307B (zh) * 2022-07-04 2022-10-28 中国科学院自动化研究所 掩码图像模型训练方法、掩码图像内容预测方法和设备
CN116778006B (zh) * 2023-06-25 2024-04-02 北京百度网讯科技有限公司 图片编码器的建模方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111726621A (zh) * 2020-04-24 2020-09-29 中国科学院微电子研究所 一种视频转换方法及装置
CN113570689A (zh) * 2021-07-28 2021-10-29 杭州网易云音乐科技有限公司 人像卡通化方法、装置、介质和计算设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201709672D0 (en) * 2017-06-16 2017-08-02 Ucl Business Plc A system and computer-implemented method for segmenting an image
GB201912150D0 (en) * 2019-08-23 2019-10-09 Univ Oxford Innovation Ltd Computerised tomography image processing
CN113902670B (zh) * 2021-08-31 2022-07-29 北京医准智能科技有限公司 一种基于弱监督学习的超声视频分割方法及装置
CN113837083A (zh) * 2021-09-24 2021-12-24 焦点科技股份有限公司 一种基于Transformer的视频片段分割方法
CN113743384B (zh) * 2021-11-05 2022-04-05 广州思德医疗科技有限公司 一种胃部图片识别方法及装置
CN114119977B (zh) * 2021-12-01 2022-12-30 昆明理工大学 一种基于图卷积的Transformer胃癌癌变区域图像分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111726621A (zh) * 2020-04-24 2020-09-29 中国科学院微电子研究所 一种视频转换方法及装置
CN113570689A (zh) * 2021-07-28 2021-10-29 杭州网易云音乐科技有限公司 人像卡通化方法、装置、介质和计算设备

Also Published As

Publication number Publication date
CN114677536A (zh) 2022-06-28

Similar Documents

Publication Publication Date Title
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN114677536B (zh) 一种基于Transformer结构的预训练方法及装置
Yin et al. FD-SSD: An improved SSD object detection algorithm based on feature fusion and dilated convolution
CN112541501B (zh) 一种基于视觉语言建模网络的场景文字识别方法
CN109102024B (zh) 一种用于物体精细识别的层次语义嵌入模型及其实现方法
CN111696110B (zh) 场景分割方法及系统
CN113344806A (zh) 一种基于全局特征融合注意力网络的图像去雾方法与系统
CN111932431B (zh) 基于水印分解模型的可见水印去除方法和电子设备
CN110781850A (zh) 道路识别的语义分割系统和方法、计算机存储介质
Liu et al. Griddehazenet+: An enhanced multi-scale network with intra-task knowledge transfer for single image dehazing
CN112954399B (zh) 一种图像处理方法、装置以及计算机设备
CN117033609B (zh) 文本视觉问答方法、装置、计算机设备和存储介质
CN112070040A (zh) 一种用于视频字幕的文本行检测方法
CN111476133A (zh) 面向无人驾驶的前背景编解码器网络目标提取方法
CN116524307A (zh) 一种基于扩散模型的自监督预训练方法
CN116704431A (zh) 水污染的在线监测系统及其方法
CN117934803A (zh) 一种基于多模态特征对齐的视觉定位方法
CN117314938B (zh) 一种基于多尺度特征融合译码的图像分割方法及装置
CN110889276B (zh) 复数融合特征提取指针式抽取三元组信息的方法、系统及计算机介质
CN114494893A (zh) 基于语义重用上下文特征金字塔的遥感图像特征提取方法
CN114220145A (zh) 人脸检测模型生成方法和装置、伪造人脸检测方法和装置
Huang et al. SOAda-YOLOR: Small Object Adaptive YOLOR Algorithm for Road Object Detection
CN112966569B (zh) 一种图像处理方法、装置、计算机设备及存储介质
CN116863279B (zh) 用于移动端模型轻量化的基于可解释指导的模型蒸馏方法
CN114612685B (zh) 一种结合深度特征与对比学习的自监督信息提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Room 3011, 2nd Floor, Building A, No. 1092 Jiangnan Road, Nanmingshan Street, Liandu District, Lishui City, Zhejiang Province, 323000

Patentee after: Zhejiang Yizhun Intelligent Technology Co.,Ltd.

Address before: No. 1202-1203, 12 / F, block a, Zhizhen building, No. 7, Zhichun Road, Haidian District, Beijing 100083

Patentee before: Beijing Yizhun Intelligent Technology Co.,Ltd.