CN115374304A - 数据处理方法、电子设备、存储介质及计算机程序产品 - Google Patents
数据处理方法、电子设备、存储介质及计算机程序产品 Download PDFInfo
- Publication number
- CN115374304A CN115374304A CN202210726203.3A CN202210726203A CN115374304A CN 115374304 A CN115374304 A CN 115374304A CN 202210726203 A CN202210726203 A CN 202210726203A CN 115374304 A CN115374304 A CN 115374304A
- Authority
- CN
- China
- Prior art keywords
- module
- data
- tasks
- task
- adaptive migration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种数据处理方法、电子设备、存储介质及计算机程序产品。方法包括:获取待处理数据,包括图像数据或音频数据;将待处理数据输入与当前组任务相关的神经网络模型,获得对应的处理结果;神经网络模型包括目标网络模块和至少一个自适应迁移模块,每个自适应迁移模块连接在目标网络模块中的任意两个网络层之间,每个自适应迁移模块用于对前一网络层的输出特征进行与当前组任务相关的调整操作,每个自适应迁移模块的输出特征与前一网络层的输出特征的维度保持一致,至少一个自适应迁移模块的参数数量少于目标网络模块的参数数量,至少一个自适应迁移模块基于与当前组任务相关的训练数据集进行训练获得。可方便快速迁移到各下游任务。
Description
技术领域
本申请涉及机器学习领域,更具体地涉及一种数据处理方法、电子设备、存储介质及计算机程序产品。
背景技术
近年来,神经网络被广泛应用于计算机科学、人工智能、信息科学、机器人学、分子生物学等领域。目前,基于神经网络的多任务迁移学习是一种现实需求非常大的发展方向。一种主流的多任务迁移学习方式是在大规模数据集上训练一个预训练网络模块,然后在各种下游任务上,基于该预训练网络模块进行微调。
在现有技术中,针对每个不同的下游任务,都重新对整个预训练网络模块的参数进行微调,这种方式会有较高的性能但同时带来了很大的训练和存储开销。从训练角度来说,在每个任务上都需要对整个网络的权重参数进行梯度更新,时间和能源开销很大。从存储角度来说,每个任务在微调之后都有不同的网络权重,存储代价也随着任务数量的增加而线性增加。
因此,亟需一种新的网络模块的迁移方案,以解决上述问题。
发明内容
考虑到上述问题而提出了本申请。本申请提供了一种数据处理方法、电子设备、存储介质及计算机程序产品。
根据本申请一方面,提供了一种数据处理方法,包括:获取待处理数据,待处理数据包括图像数据或音频数据;将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果;其中,神经网络模型包括目标网络模块和至少一个自适应迁移模块,至少一个自适应迁移模块中的每一个连接在目标网络模块中的任意两个网络层之间,每个自适应迁移模块用于对前一网络层的输出特征进行与当前组任务相关的调整操作,每个自适应迁移模块的输出特征与前一网络层的输出特征的维度保持一致,且至少一个自适应迁移模块的参数数量少于目标网络模块的参数数量,至少一个自适应迁移模块基于与当前组任务相关的训练数据集进行训练获得。
示例性地,在任一自适应迁移模块中,执行以下操作:对前一网络层的输出特征进行残差映射,以获得残差特征,残差特征的维度与前一网络层的输出特征的维度一致;将残差特征与前一网络层的输出特征相加,以获得该自适应迁移模块的输出特征。
示例性地,对前一网络层的输出特征进行残差映射,以获得残差特征包括:对前一网络层的输出特征进行降维,以获得初始降维特征,初始降维特征的通道数少于前一网络层的输出特征的通道数;对通过初始降维特征进一步处理获得的新降维特征或初始降维特征进行升维,以获得残差特征。
示例性地,降维通过1×1卷积模块实现,升维通过1×1卷积模块实现。
示例性地,对通过初始降维特征进一步处理获得的新降维特征进行升维,以获得残差特征包括:对降维特征进行归一化,以获得归一化特征;对归一化特征进行非线性变换,以获得新降维特征;对新降维特征进行升维,以获得残差特征。
示例性地,目标网络模块包括先后依次连接的底层特征模块和高层特征模块,底层特征模块中插入有至少一个自适应迁移模块,高层特征模块中插入有至少一个自适应迁移模块。
示例性地,当前组任务包括多种任务,神经网络模型包括特征提取模块和与多种任务一一对应的多个任务分支,每个任务分支包括一个或多个自适应迁移模块,将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果包括:将待处理数据输入特征提取模块,以获得提取特征;将提取特征分别输入多个任务分支,以获得与多种任务一一对应的处理结果。
示例性地,当前组任务包括多种任务,神经网络模型包括特征提取模块、与多种任务一一对应的多个任务分支和结果输出模块,每个任务分支包括一个或多个自适应迁移模块,将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果包括:将待处理数据输入特征提取模块,以获得提取特征;将提取特征分别输入多个任务分支,以获得多个任务分支分别输出的中间特征;将多个任务分支分别输出的中间特征输入结果输出模块,以获得结果输出模块输出的与多种任务一一对应的处理结果。
示例性地,方法还包括:获取与当前组任务相关的训练数据集,训练数据集包括训练数据和对应的标注数据,训练数据包括图像数据或音频数据;将训练数据输入神经网络模型,获得对应的预测结果;基于预测结果和标注数据,优化至少一个自适应迁移模块的参数,获得与当前组任务相关的神经网络模型。
示例性地,当前组任务包括多种任务,神经网络模型包括与多种任务一一对应的多个任务分支,每个任务分支包括一个或多个自适应迁移模块,获取与当前组任务相关的训练数据集包括:获取与多种任务中的任一目标任务相关的训练数据和标注数据;将训练数据输入神经网络模型,以获得对应的预测结果包括:将与目标任务相关的训练数据输入神经网络模型,以获得与目标任务相关的预测结果;基于预测结果和标注数据,优化神经网络模型中的参数包括:基于与目标任务相关的预测结果和与目标任务相关的标注数据,优化与目标任务相对应的任务分支中的自适应迁移模块的参数,其中,在优化过程中,与目标任务以外的任务相对应的任务分支中的自适应迁移模块的参数以及目标网络模块的参数固定。
根据本申请另一方面,提供了一种电子设备,包括处理器和存储器,其中,所述存储器中存储有计算机程序指令,所述计算机程序指令被所述处理器运行时用于执行上述数据处理方法。
根据本申请另一方面,提供了一种存储介质,在所述存储介质上存储了程序指令,所述计算机程序指令被所述处理器运行时用于执行上述数据处理方法。
根据本申请另一方面,提供了一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序指令被所述处理器运行时用于执行上述数据处理方法。
根据本申请实施例的数据处理方法、电子设备、存储介质及计算机程序产品,通过在目标网络模块中插入至少一个自适应迁移模块形成新的神经网络模型。自适应迁移模块的参数数量少,在将神经网络模型应用于任意下游任务的迁移学习时,可以仅学习自适应迁移模块的参数。由此,通过插入自适应迁移模块所形成的新的神经网络模型,能够方便快速地迁移至各种下游任务,且这种神经网络模型在迁移学习时能够有效减少其需要学习的参数的量,进而能够有效减少训练和存储的开销。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1示出了用于实现根据本申请实施例的数据处理方法和装置的示例电子设备;
图2示出了根据本申请一个实施例的数据处理方法的示意性流程图;
图3示出了根据本申请一个实施例的神经网络模型的架构示意图;
图4示出了根据本申请一个实施例的自适应迁移模块的架构示意图;
图5示出了根据本申请一个实施例的数据处理装置的示意性框图;
图6示出了根据本申请一个实施例的电子设备的示意性框图。
具体实施方式
近年来,基于人工智能的计算机视觉、深度学习、机器学习、图像处理、图像识别等技术研究取得了重要进展。人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸人的智能的理论、方法、技术及应用系统的新兴科学技术。人工智能学科是一门综合性学科,涉及芯片、大数据、云计算、物联网、分布式存储、深度学习、机器学习、神经网络等诸多技术种类。计算机视觉作为人工智能的一个重要分支,具体是让机器识别世界,计算机视觉技术通常包括人脸识别、活体检测、指纹识别与防伪验证、生物特征识别、人脸检测、行人检测、目标检测、行人识别、图像处理、图像识别、图像语义理解、图像检索、文字识别、视频处理、视频内容识别、三维重建、虚拟现实、增强现实、同步定位与地图构建(SLAM)、计算摄影、机器人导航与定位等技术。随着人工智能技术的研究和进步,该项技术在众多领域展开了应用,例如安全防控、城市管理、交通管理、楼宇管理、园区管理、人脸通行、人脸考勤、物流管理、仓储管理、机器人、智能营销、计算摄影、手机影像、云服务、智能家居、穿戴设备、无人驾驶、自动驾驶、智能医疗、人脸支付、人脸解锁、指纹解锁、人证核验、智慧屏、智能电视、摄像机、移动互联网、网络直播、美颜、美妆、医疗美容、智能测温等领域。
为了使得本申请的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。基于本申请中描述的本申请实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本申请的保护范围之内。
为了解决上述问题,本申请实施例提供了一种数据处理方法。该方法采用新的神经网络模型进行数据处理,该新的网络模型通过在目标网络模块中加入自适应迁移模块形成。利用这样的神经网络模型,可以在针对任一下游任务进行迁移学习时,参数更新时可以只更新自适应迁移模块的参数。这样,将神经网络模型迁移到下游任务时增加的参数量比较少,所需的训练和存储开销也都较少。根据本申请实施例的网络模型训练方法可以应用于任何需要神经网络模型的领域,包括但不限于目标识别、目标检测、图像分割、图像分类、语音识别等技术领域。
首先,参照图1来描述用于实现根据本申请实施例的数据处理方法和装置的示例电子设备100。
如图1所示,电子设备100包括一个或多个处理器102、一个或多个存储装置104。可选地,电子设备100还可以包括输入装置106、输出装置108、以及图像拍摄装置110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以采用数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、微处理器中的至少一种硬件形式来实现,所述处理器102可以是中央处理单元(CPU)、图像处理器(GPU)、专用的集成电路(ASIC)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元中的一种或几种的组合,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本申请实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如用户)输出各种信息(例如图像和/或声音),并且可以包括显示器、扬声器等中的一个或多个。可选地,所述输入装置106和所述输出装置108可以集成在一起,采用同一交互装置(例如触摸屏)实现。
所述图像拍摄装置110可以采集图像,并且将所采集的图像存储在所述存储装置104中以供其它组件使用。图像拍摄装置110可以是单独的相机或移动终端中的摄像头等。应当理解,图像拍摄装置110仅是示例,电子设备100可以不包括图像拍摄装置110。在这种情况下,可以利用其他具有图像采集能力的器件采集图像,并将采集的图像发送给电子设备100。
示例性地,用于实现根据本申请实施例的数据处理方法和装置的示例电子设备可以在诸如个人计算机、终端设备、考勤机、面板机、相机或远程服务器等的设备上实现。
图2示出了根据本申请一个实施例的数据处理方法200的示意性流程图。如图2所示,该网络模型训练方法200可以包括步骤S210和S220。
步骤S210,获取待处理数据,待处理数据包括图像数据或音频数据。
示例性地,在待处理数据包括音频数据的情况下,该音频数据可以是利用电子设备的声音采集设备(例如麦克风)采集的语音,并通过模拟/数字转换电路进行转换,以将模拟信号即语音信号转换为电子设备能识别和处理的数字信号即音频。替代地,也可以通过数据传输技术自其他设备或存储介质获取其中预先存储的音频数据。在待处理数据包括图像数据的情况下,该图像数据可以是静态图像,也可以是动态视频中的任一视频帧。图像数据可以是图像采集装置(例如相机中的图像传感器)采集到的原始图像,也可以是对原始图像进行预处理(诸如数字化、归一化、平滑等)之后获得的图像。需注意,对原始图像的预处理可以包括从图像采集装置采集到的原始图像中提取包含目标对象的子图像进而获得待处理图像的操作。目标对象可以是任何物体,包括但不限于:字符、人或人体的一部分(诸如人脸)、动物、车辆、建筑物等。
步骤S220,将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果;其中,神经网络模型包括目标网络模块和至少一个自适应迁移模块,至少一个自适应迁移模块中的每一个连接在目标网络模块中的任意两个网络层之间,每个自适应迁移模块用于对前一网络层的输出特征进行与当前组任务相关的调整操作,每个自适应迁移模块的输出特征与前一网络层的输出特征的维度保持一致,且至少一个自适应迁移模块的参数数量少于目标网络模块的参数数量,至少一个自适应迁移模块基于与当前组任务相关的训练数据集进行训练获得。
神经网络模型可以包括目标网络模块和至少一个自适应迁移模块。目标网络模块可以是在大规模数据集(例如ImageNet)上训练好的通用模型。目标网络模块可以用于任意下游任务的迁移学习。自适应迁移模块可以用于对前一网络层的输出特征进行与当前组任务相关的调整操作,进而使得神经网络模型能够迁移应用到当前组任务上。当前组任务可以包括一种或多种任务。示例性而非限制性地,当前组任务可以包括处理目标具有一定相似性或关联性的任务。例如,当前组任务可以都是图像处理任务,一个是目标检测,一个是图像分类,一个是实例分割等。
每个自适应迁移模块连接在目标网络模块中的任意两个网络层之间,每两个自适应迁移模块彼此不相邻。每个自适应迁移模块的输出特征与输入特征的维度保持一致。特征的维度可以包括特征的宽、高和通道数。输入特征和输出特征可以表示为H×W×C,其中,W表示宽,H表示高,且C表示通道数。例如,自适应迁移模块的输入特征的维度可以是256×256×512,则输出特征的维度也是256×256×512。可以理解,自适应迁移模块的输入特征也就是与该自适应迁移模块连接的前一网络层的输出特征。因此,自适应迁移模块的输出特征与前一网络层的输出特征的维度保持一致。由于自适应迁移模块的输入特征和输出特征的维度保持一致,因此使得该自适应迁移模块可以被添加在任意神经网络的任意网络层之后。因此,本文所述的自适应迁移模块是一种即插即用的模块,适用于任意现有的神经网络,可以达到迁移高效的效果。
至少一个自适应迁移模块的参数数量少于目标网络模块的参数数量。需注意,至少一个自适应迁移模块的参数数量指至少一个自适应迁移模块的总的参数数量。示例性地,至少一个自适应迁移模块的参数数量与目标网络模块的参数数量之间的差可以在目标差值内。目标差值可以根据需要设定为任意合适的值。例如,至少一个自适应迁移模块的参数数量可以是目标网络模块的参数数量的二分之一。本文所述的“参数”可以包括网络中的权重和/或偏置等。目标网络模块可以包括任意形式的网络层,例如,卷积层、池化层、归一化层、激活函数层等中的一种或多种。自适应迁移模块前后连接的网络层也可以是任意形式的网络层,例如卷积层、池化层、归一化层或者激活函数层等。
图3示出根据本申请一个实施例的神经网络模型的架构示意图。在图3中,目标网络模块的网络层用实线框表示,自适应迁移模块(图3示出为自适应模块)用虚线框表示。此外,图3示出目标网络模块可以包括多个块(block),但是这仅是示例而非对本申请的限制。如图3所示,在目标网络模块的任意两个网络层(例如卷积层)之间,可以设置自适应迁移模块。目标网络模块和一个或多个自适应迁移模块可以组成整个神经网络模型。
使用本文提出的新的神经网络模型结构,由于加入自适应迁移模块,使得在迁移到下游任务时能够保持目标网络模块中的参数不变,只需要更新自适应迁移模块中的参数就能达到很好的迁移性能。这样每个新的下游任务带来的新增参数量和训练代价都比较少。
在上述技术方案中,在目标网络模块中插入至少一个自适应迁移模块。自适应迁移模块的参数数量少,在将目标网络模块应用于任意下游任务的迁移学习时,可以仅更新自适应迁移模块的参数,而无需更新目标网络模块的参数。由此,能够减少下游任务迁移学习时参数的计算量,进而有效减少训练和存储的开销。
示例性地,根据本申请实施例的数据处理方法可以在具有存储器和处理器的设备、装置或者系统中实现。
根据本申请实施例的数据处理方法可以部署在图像采集端处,例如,可以部署在个人终端或服务器端处。
替代地,根据本申请实施例的数据处理方法还可以分布地部署在服务器端(或云端)和个人终端处。例如,可以在客户端采集待处理数据,客户端将采集的数据传送给服务器端(或云端),由服务器端(或云端)进行数据处理。
根据本申请实施例,在任一自适应迁移模块中,执行以下操作:对前一网络层的输出特征进行残差映射,以获得残差特征,残差特征的维度与前一网络层的输出特征的维度一致;将残差特征与前一网络层的输出特征相加,以获得该自适应迁移模块的输出特征。
示例性地,每个自适应迁移模块可以是残差网络模块。残差网络模块可以包括残差模块和跳跃连接(shortcut)模块。其中,在任一自适应迁移模块中,可以执行以下操作:将前一网络层的输出特征输入该自适应迁移模块中的残差模块,以获得残差特征;将残差特征与该自适应迁移模块中的跳跃连接模块输出的前一网络层的输出特征相加,以获得该自适应迁移模块的输出特征。
残差模块可以用于对该模块的输入特征(即前一网络层的输出特征)进行残差映射,跳跃连接模块可以用于对该模块的输入特征(即前一网络层的输出特征)进行恒等映射。随后,可以在残差模块和跳跃连接模块的输出端将二者映射的结果进行叠加,获得自适应迁移模块的输出特征。
图4示出根据本申请一个实施例的自适应迁移模块的架构示意图。如图4所示,自适应迁移模块包括残差模块410和跳跃连接模块420。需注意,图4所示的残差模块410中包括的各种模块仅是示例而非对本申请的限制。例如,虽然图4示出两个1×1卷积模块,并通过这两个卷积模块进行降维和升维,但是这些卷积模块也可以替换为其他大小(例如3×3)的卷积模块。又例如,虽然图4示出归一化模块(BN)和非线性变换模块(ReLU),但是这些模块也是可选的,自适应迁移模块也可以仅包括其中一者或两者都不包括,当然,还可以用其他合适的模块替换归一化模块和非线性变换模块。
在残差模块410中,无论经过何种处理,最终使得输出的残差特征保持与自适应迁移模块的输入特征的维度一致。而跳跃连接模块420可以将自适应迁移模块的输入特征跳跃连接至自适应迁移模块的输出端处,在此处将自适应迁移模块的输入特征与残差模块410输出的残差特征进行逐元素相加,获得自适应迁移模块的输出特征进行输出。
在上述技术方案中,自适应迁移模块利用残差网络模块,将其输入特征作用到输出端。这样,可以使得自适应迁移模块的输出端保留有前一网络层(即目标网络模块中的网络层)的输出特征,并在此基础上叠加对前一网络层的输出特征的调整部分。这样,在训练神经网络模型时,可以尽量保持目标网络模块的性能不变,通过尽量仅微调自适应迁移模块即可实现对整个神经网络模型的参数优化的目的。因此,这种方案可以减少神经网络模型训练的复杂性,提高神经网络模型训练的效率。
根据本申请实施例,对前一网络层的输出特征进行残差映射,以获得残差特征可以包括:对前一网络层的输出特征进行降维,以获得初始降维特征,初始降维特征的通道数少于前一网络层的输出特征的通道数;对通过初始降维特征进一步处理获得的新降维特征或初始降维特征进行升维,以获得残差特征。
示例性地,残差模块可以包括降维模块和升维模块。将前一网络层的输出特征输入该自适应迁移模块中的残差模块以获得残差特征可以包括以下步骤:将前一网络层的输出特征输入该自适应迁移模块中的降维模块,以获得初始降维特征;将新降维特征或初始降维特征输入该自适应迁移模块中的升维模块,以获得残差特征。
参见图4,示出降维模块和升维模块。
示例性地,任一自适应迁移模块的输入特征N的维度可以是56×56×256。将输入特征N输入自适应迁移模块的残差模块中之后,可以首先利用一个卷积模块将输入特征N进行降维处理,卷积模块可以包括1×1卷积核或者3×3卷积核等。例如,可以利用一个1×1卷积核,其中1×1卷积核的降维系数可以是K=16或32。如果取K=32,则降维处理后的降维特征N’的维度是56×56×8。
随后,可以将上述获得的降维特征N’输入该自适应迁移模块中的升维模块中,利用一个卷积模块对降维特征N’进行升维处理,卷积模块可以包括1×1卷积核或者3×3卷积核等。例如,可以利用一个1×1卷积核,其中1×1卷积核的升维系数K=32。升维处理后得到的残差特征N”的维度是56×56×256。
在上述技术方案中,将自适应迁移模块的输入特征进行降维处理后再进行升维处理,由此在保证输出特征与输入特征的维度保持一致的情况下,可以大大减少自适应迁移模块中的参数量,进而有助于进一步减少训练和推理(即将神经网络模型应用于实际的推理或说测试阶段)时的计算量,提高训练和推理的效率。
在一个具体实施例中,降维可以通过1×1卷积模块实现,升维可以通过1×1卷积模块实现。即,上述降维模块可以是1×1卷积模块,升维模块可以是1×1卷积模块。
示例性地,可以利用1×1卷积模块实现对输入特征的降维处理和升维处理。1×1卷积模块可以在实现对通道数的调整的同时使得感受野不变,即使得特征的尺寸保持不变,这有助于增强神经网络模型的表达能力。此外,与其他大小的卷积模块相比,1×1卷积模块可以更大幅度地减少参数量。例如,采用传统的针对一个新的任务更新整个目标网络模块的参数的方法,每个特定任务的参数增加量为100%。而通过1×1卷积模块进行降维和升维之后,参数量可以降低到原来的大约2%。这使得基于自适应迁移模块进行训练的参数增加量与原来训练的参数增加量相比几乎可以忽略不计。
根据本申请实施例,对通过初始降维特征进一步处理获得的新降维特征进行升维,以获得残差特征可以包括:对初始降维特征进行归一化,以获得归一化特征;对归一化特征进行非线性变换,以获得新降维特征;对新降维特征进行升维,以获得残差特征。
示例性地,残差模块还可以包括归一化模块和非线性变换模块。将新降维特征或初始降维特征输入该自适应迁移模块中的升维模块以获得残差特征可以包括以下步骤:将初始降维特征输入该自适应迁移模块中的归一化模块,以获得归一化特征;将归一化特征输入该自适应迁移模块中的非线性变换模块,以获得新降维特征;将新降维特征输入该自适应迁移模块中的升维模块,以获得残差特征。
如上所述,残差模块中所包括的归一化模块和非线性变换模块均是可选的。并且,本申请并不局限于非线性变换,线性变换也可以实现本申请的目的。
示例性地,将初始降维特征输入该自适应迁移模块中的归一化模块,以对初始降维特征进行归一化处理。归一化方法可以包括(0,1)标准化,Z-score标准化或者利用Sigmoid函数实现。初始降维特征经过归一化处理后,获得归一化特征。
示例性地,将归一化特征输入该自适应迁移模块中的非线性变换模块,对归一化特征进行非线性变换处理。非线性变换模块可以利用ReLU激活函数等实现。归一化特征经过非线性变换处理后,获得新降维特征。
示例性地,将新降维特征输入升维模块,可以利用1×1卷积核或者3×3卷积核进行升维处理,升维后获得的残差特征与降维前的前一网络层的输出特征维度一致。通过加入非线性变换模块,可以增强自适应迁移模块的非线性变化能力,使得神经网络模型能够更好地适应各种不同的下游任务,在不同的下游任务中取得更好的性能。
下面描述神经网络模型的示例性训练方式。根据本申请实施例,方法200还可以包括:获取与当前组任务相关的训练数据集,训练数据集包括训练数据和对应的标注数据,训练数据包括图像数据或音频数据;将训练数据输入神经网络模型,获得对应的预测结果;基于预测结果和标注数据,优化至少一个自适应迁移模块的参数,获得与当前组任务相关的神经网络模型。在训练过程中,可以保持目标网络模块的参数固定,仅更新自适应迁移模块的参数。
训练数据与上述待处理数据的类型保持一致。标注数据(groundtruth)也可以称为标签,是神经网络模型训练所需的真值。标注数据具体的物理意义与神经网络模型所执行的任务相关。例如,如果神经网络模型应用于图像分类,则标注数据可以包括与训练数据中的每个图像相对应的真实图像分类结果。又例如,如果神经网络模型应用于图像分割,则标注数据可以包括与训练数据中的每个图像相对应的真实图像分割结果。又例如,如果神经网络模型应用于目标检测,则标注数据可以包括与训练数据中的每个图像相对应的真实目标检测结果。又例如,如果神经网络模型应用于语音识别,则标注数据可以包括与训练数据中的每段音频相对应的真实语音识别结果。本领域技术人员可以理解标注数据的含义和作用,本文不赘述。
示例性地,不同种类的训练数据输入神经网络模型可以得到不同的预测结果。同一训练数据所对应的预测结果和标注数据的物理意义是一致的。例如,如果神经网络模型应用于图像分类,则预测结果可以包括与训练数据中的每个图像相对应的预测图像分类结果。又例如,如果神经网络模型应用于图像分割,则预测结果可以包括与训练数据中的每个图像相对应的预测图像分割结果。真实图像分割结果和预测图像分割结果可以用分割遮罩(mask)表示。又例如,如果神经网络模型应用于目标检测,则预测结果可以包括与训练数据中的每个图像相对应的预测目标检测结果。真实目标检测结果和预测目标检测结果可以包括用于指示目标对象所在位置的边界框(bounding box)的坐标。
示例性地,可以基于上述预测结果和标注数据计算损失项,还可以基于损失项,通过反向传播与梯度下降算法优化自适应迁移模块的参数直至损失函数收敛。在优化的过程中,目标网络模块中的参数固定,即不参与优化。优化过程只更新自适应迁移模块的参数。
使用本文提出的自适应模块,在迁移到下游任务时可以只更新自适应迁移模块中的参数就能达到很好的迁移性能。这样每个新的下游任务带来的新增参数量和训练代价都比较少。
在一个实施例中,神经网络模型可以应用于单任务的处理。这种情况下,神经网络模型中的自适应迁移模块可以不做区分,均与同一任务相关联。因此,在训练神经网络模型时,可以使所有自适应迁移模块同步更新参数。此外,训练好神经网络模型之后,在利用该模型进行测试或说推理时,自适应迁移模块也可以不做区分,均参与针对同一任务的测试或推理,输出与该任务对应的处理结果。
在另一个实施例中,神经网络模型可以应用于多任务的处理。这进一步可以分为两种情况。第一种情况是多个任务具有各自独立的任务分支。第二种情况是多个任务不具有各自独立的任务分支,但是可以可选地具有各自独立的网络分支。需注意,本文所述的任务分支是包含与每个任务单独关联的自适应迁移模块的网络分支。对于虽然与每个任务单独关联但是不包含自适应迁移模块的网络分支,不属于任务分支。例如,神经网络模型用于图像分类和目标识别两个任务,前面的网络都是共享的,只是在最后分为两组全连接层,分别用于输出图像分类结果和目标识别结果,并且这两组全连接层中并不包含自适应迁移模块,则这两组全连接层不属于任务分支。第二种情况的神经网络模型所包含的自适应迁移模块属于为多个任务共享的,因此不需要基于不同任务分开训练,直接统一训练即可。
需注意,本文所述的任务分支可以进一步包含属于目标网络模块的一个或多个网络层。
以上描述的多任务处理的第一种情况由于具有与每个任务单独关联的自适应迁移模块,因此可以选择基于任务分开训练。下面描述针对多任务处理的第一种情况的训练方式。
示例性地,当前组任务包括多种任务,神经网络模型包括与多种任务一一对应的多个任务分支,每个任务分支包括一个或多个自适应迁移模块,获取与当前组任务相关的训练数据集可以包括:获取与多种任务中的任一目标任务相关的训练数据和标注数据;将训练数据输入神经网络模型,以获得对应的预测结果包括:将与目标任务相关的训练数据输入神经网络模型,以获得与目标任务相关的预测结果;基于预测结果和标注数据,优化神经网络模型中的参数包括:基于与目标任务相关的预测结果和与目标任务相关的标注数据,优化与目标任务相对应的任务分支中的自适应迁移模块的参数,其中,在优化过程中,与目标任务以外的任务相对应的任务分支中的自适应迁移模块的参数以及目标网络模块的参数固定。
多种任务各自具有自己对应的任务分支,任一种任务的任务分支可以基于自己的训练数据训练,此时其他任务分支的自适应模块的参数不参与更新。
下面举例说明。示例性地,对于训练数据是车辆采集的图像的情况下,神经网络模型可以执行三种任务,例如,行人检测任务A、红绿灯识别任务B和车道线识别任务C,分别对应有任务分支a、任务分支b和任务分支c。在训练时,可以分别获取与每个任务对应的训练数据和标注数据。
在针对行人检测任务A进行训练时,可以利用其对应的训练数据和标注数据优化任务分支a中的自适应迁移模块的参数,同时任务分支a中的属于目标网络模块的网络层的参数、任务分支b中的所有参数、任务分支c中的所有参数以及神经网络模型中的其他属于目标网络模块的网络层的参数均可以保持固定不变。上述神经网络模型中的其他属于目标网络模块的网络层可以是被行人检测任务A、红绿灯识别任务B和车道线识别任务C共享的模块中的属于神经网络模型的参数。
类似地,在针对红绿灯识别任务B进行训练时,可以利用其对应的训练数据和标注数据优化任务分支b中的自适应迁移模块的参数,同时任务分支b中的属于目标网络模块的网络层的参数、任务分支a中的所有参数、任务分支c中的所有参数以及神经网络模型中的其他属于目标网络模块的网络层的参数均可以保持固定不变。
类似地,在针对车道线识别任务C进行训练时,可以利用其对应的训练数据和标注数据优化任务分支c中的自适应迁移模块的参数,同时任务分支c中的属于目标网络模块的网络层的参数、任务分支a中的所有参数、任务分支b中的所有参数以及神经网络模型中的其他属于目标网络模块的网络层的参数均可以保持固定不变。
在将训练好的神经网络模型应用在测试或推理阶段时,对于同一张输入图像,可以通过上述三个任务分支并结合其他网络部分共同处理后得到针对上述三个任务的处理结果。
针对不同的任务进行任务分支的独立训练,使得神经网络模型针对多任务具有更有针对性和适应性的处理能力,有助于获得更高效准确的模型。
示例性地,神经网络模型还包括在多个任务分支之前和/或之后与多个任务分支共同连接的至少一个共享的特征提取模块(简称共享模块),每个共享模块包括一个或多个自适应迁移模块,在优化与目标任务相对应的任务分支中的自适应迁移模块的参数的过程中,可以同步更新至少一个共享模块中的自适应迁移模块的参数。
每个共享模块可以包括一个或多个自适应迁移模块。此外,示例性而非限制性地,每个共享模块可以包括属于目标网络模块的至少一个网络层。
在一个示例中,在多个任务分支之前设置有共享模块。在另一个示例中,在多个任务分支之后设置有共享模块。在又一个示例中,在多个任务分支之前和之后分别设置有共享模块。共享模块用于提取多个任务的共享特征。
沿用以上交通识别场景的示例,假设包括行人检测任务、红绿灯识别任务B,车道线识别任务C。神经网络模型可以包括共享模块,车辆采集的图像输入神经网络模型之后可以首先在该共享模块中提取共享特征,随后可以输入三个任务分支a、b和c中分别进行处理,获得对应的处理结果。
共享模块中包括自适应迁移模块,在更新任务分支A中的自适应迁移模块的参数过程中,可以同步更新共享模块中的自适应迁移模块的参数。同理地,在更新任务分支B和任务分支C中的自适应迁移模块的参数过程中,也可以同步更新共享模块中的自适应迁移模块的参数。
在上述技术方案中,在神经网络模型处理多任务时,共享模块可以包括占据绝大部分计算量的骨干网络模型,由此,自适应迁移模块能够减少参数量,并且减少推理时间,多个计算量很小的自适应模块可以随着任务数增加而线性增加,以适应不同任务的特性。
示例性地,目标网络模块包括先后依次连接的底层特征模块和高层特征模块,底层特征模块中插入有至少一个自适应迁移模块,高层特征模块中插入有至少一个自适应迁移模块。底层特征模块包括目标网络模块中的靠前的第一数目的网络层,高层特征模块包括目标网络模块中的靠后的第二数目的网络层。底层特征模块和高层特征模块如何划分可以根据需要设定。
通过在底层特征模块和高层特征模块中分别插入自适应迁移模块,可以保留各个不同深度的层的学习能力,即使得底层特征和高层特征面对特定任务时都能进行自适应的更新,以保证神经网络模型在迁移学习时针对不同的下游任务均能够取得好的性能。
下面以目标网络模块为ResNet-50模型为例说明神经网络模型的一种示例性处理流程。例如,将一张输入图像x输入ResNet-50模型之后,首先可以得到经过原来模型处理的中间特征f(x)。例如,对于224×224大小的输入图像,在经过ResNet-50的第二个级(stage)处理后的特征f(x)维度为56×56×256,即H=W=56,C=256。自适应迁移模块可以作用在中间特征f(x)上,首先利用1x1大小的卷积核将特征进行降维得到56×56×8的张量(k=32),随后经过归一化和非线性之后,再利用一个1x1大小的卷积核进行升维,得到和f(x)相同维度的向量g(f(x)),其中g(.)表示自适应的进行非线性变换的过程。随后,可以利用残差连接的技术得到自适应迁移模块处理后的中间输出f(x)+g(f(x))。可以看出,自适应迁移模块不会改变中间特征的维度,可以被原来ResNet-50模型的后续模块继续进行处理。例如,经过自适应迁移模块处理后的维度为56×56×256的中间特征可以被继续送到原来模型的第三个stage继续处理。总结来说,自适应迁移模块可以高效地对任意维度的中间特征进行处理,并且不会改变原始网络之前和之后的数据处理流程。
根据本申请实施例,当前组任务包括多种任务,神经网络模型包括特征提取模块和与多种任务一一对应的多个任务分支,每个任务分支包括一个或多个自适应迁移模块,将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果包括:将待处理数据输入特征提取模块,以获得提取特征;将提取特征分别输入多个任务分支,以获得与多种任务一一对应的处理结果。
此处的特征提取模块是为多个任务分支共享的,可以称为共享模块(参见上述共享模块)。示例性地,神经网络模型包括第一共享模块和与多种任务一一对应的多个任务分支,每个任务分支包括一个或多个自适应迁移模块。将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果可以包括以下步骤:待处理数据输入第一共享模块,以获得共享特征(即上述提取特征);将共享特征分别输入多个任务分支,以获得与多种任务一一对应的处理结果。
示例性地,第一共享模块可以包括自适应迁移模块,也可以不包括自适应迁移模块。沿用上述交通识别场景的示例,其中包括行人检测任务A,红绿灯识别任务B,车道线识别任务C。将待处理的三个任务的待处理数据输入第一共享模块M1,可以获得任务A、任务B和任务C的共享特征Q。
示例性地,第一共享模块M1后可以连接三个任务分支,分别用于执行对应的任务,即任务分支a执行任务A,任务分支b执行任务B,并且任务分支c执行任务C。将共享特征Q输入任务分支a,经过任务分支a中的自适应迁移模块MA的降维升维处理,以及其他网络层的处理,最终得到输出特征QA。将共享特征Q输入任务分支b,经过任务分支b中的自适应迁移模块MB的降维升维处理,以及其他网络层的处理,最终得到输出特征QB。同理地,将共享特征Q输入任务分支c,经过任务分支模块c中的自适应迁移模块MC的降维升维处理,以及其他网络层的处理,最终得到输出特征QC。在一个示例中,输出特征QA、输出特征QB、输出特征QC可以是各任务对应的最终处理结果,即分别为行人检测结果、红绿灯识别结果和车道线识别结果。在另一个示例中,输出特征QA、输出特征QB、输出特征QC可以是各任务对应的中间特征,这些中间特征可以进一步输入后续的共享模块进行处理,以获得各个任务的最终处理结果。
在上述技术方案中,将通过共享模块获得的共享特征输入任务分支中,以获得与任务分支一一对应的处理结果,由此,能够减少参数量的计算,提高网络模型的性能。
根据本申请实施例,当前组任务包括多种任务,神经网络模型包括特征提取模块、与多种任务一一对应的多个任务分支和结果输出模块,每个任务分支包括一个或多个自适应迁移模块,将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果包括:将待处理数据输入特征提取模块,以获得提取特征;将提取特征分别输入多个任务分支,以获得多个任务分支分别输出的中间特征;将多个任务分支分别输出的中间特征输入结果输出模块,以获得结果输出模块输出的与多种任务一一对应的处理结果。
示例性地,除上述第一共享模块以外,神经网络模型还可以包括第二共享模块(即结果输出模块),将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果可以包括:待处理数据输入第一共享模块,以获得共享特征;将共享特征分别输入多个任务分支,以获得多个任务分支分别输出的中间特征;将多个任务分支分别输出的中间特征输入第二共享模块,以获得第二共享模块输出的与多种任务一一对应的处理结果。
如上所述,输出特征QA、输出特征QB、输出特征QC可以是各任务对应的中间特征,这些中间特征可以进一步输入后续的共享模块进行处理,以获得各个任务的最终处理结果。
在处理多任务时,本文描述的自适应模块的优势会进一步凸显。除了上面提到的减少参数量以外,还能够减少推理时间。因为在处理多个不同的任务时,可以用共享模块实现占据绝大部分计算量的骨干网络,这些共享模块只需要被前向一次,因此整个网络的计算量大大减少。
根据本申请另一方面,提供一种数据处理装置。图5示出了根据本申请一个实施例的数据处理装置500的示意性框图。
如图5所示,根据本申请实施例的数据处理装置500包括获取模块510和输入模块520。各个模块可分别执行上文中结合图2-4描述的数据处理方法的各个步骤/功能。以下仅对该数据处理装置500的各部件的主要功能进行描述,而省略以上已经描述过的细节内容。
获取模块510用于获取待处理数据,待处理数据包括图像数据或音频数据。获取模块510可以由图1所示的电子设备中的处理器102运行存储装置104中存储的程序指令来实现。
输入模块520用于将待处理数据输入与当前组任务相关的神经网络模型,以获得与待处理数据相对应的处理结果;其中,神经网络模型包括目标网络模块和至少一个自适应迁移模块,至少一个自适应迁移模块中的每一个连接在目标网络模块中的任意两个网络层之间,每个自适应迁移模块用于对前一网络层的输出特征进行与当前组任务相关的调整操作,每个自适应迁移模块的输出特征与前一网络层的输出特征的维度保持一致,且至少一个自适应迁移模块的参数数量少于目标网络模块的参数数量,至少一个自适应迁移模块基于与当前组任务相关的训练数据集进行训练获得。输入模块520可以由图1所示的电子设备中的处理器102运行存储装置104中存储的程序指令来实现。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
根据本申请的另一方面,还提供了一种电子设备,图6示出了根据本申请一个实施例的电子设备600的示意性框图。如图6所示,电子设备600可以包括处理器610和存储器620。其中,存储器620中存储有计算机程序指令,计算机程序指令被处理器610运行时用于执行如上所述的数据处理方法200。
此外,根据本申请的又一方面,还提供了一种存储介质,在存储介质上存储了程序指令。程序指令在运行时用于执行如上所述的数据处理方法200。存储介质例如可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、或者上述存储介质的任意组合。
根据本申请的再一方面,还提供了一种计算机程序产品。计算机程序产品包括计算机程序。计算机程序在运行时用于执行如上所述的数据处理方法200。
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本申请的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本申请的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本申请的范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个申请方面中的一个或多个,在对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本申请的方法解释成反映如下意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本申请的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本申请实施例的数据处理装置中的一些模块的一些或者全部功能。本申请还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本申请的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本申请进行说明而不是对本申请进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本申请可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
以上,仅为本申请的具体实施方式或对具体实施方式的说明,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。本申请的保护范围应以权利要求的保护范围为准。
Claims (13)
1.一种数据处理方法,包括:
获取待处理数据,所述待处理数据包括图像数据或音频数据;
将所述待处理数据输入与当前组任务相关的神经网络模型,以获得与所述待处理数据相对应的处理结果;
其中,所述神经网络模型包括目标网络模块和至少一个自适应迁移模块,所述至少一个自适应迁移模块中的每一个连接在所述目标网络模块中的任意两个网络层之间,每个自适应迁移模块用于对前一网络层的输出特征进行与所述当前组任务相关的调整操作,每个自适应迁移模块的输出特征与前一网络层的输出特征的维度保持一致,且所述至少一个自适应迁移模块的参数数量少于所述目标网络模块的参数数量,所述至少一个自适应迁移模块基于与所述当前组任务相关的训练数据集进行训练获得。
2.如权利要求1所述的方法,其中,在任一自适应迁移模块中,执行以下操作:
对前一网络层的输出特征进行残差映射,以获得残差特征,所述残差特征的维度与前一网络层的输出特征的维度一致;
将所述残差特征与前一网络层的输出特征相加,以获得该自适应迁移模块的输出特征。
3.如权利要求2所述的方法,其中,所述对前一网络层的输出特征进行残差映射,以获得残差特征包括:
对前一网络层的输出特征进行降维,以获得初始降维特征,所述初始降维特征的通道数少于前一网络层的输出特征的通道数;
对通过所述初始降维特征进一步处理获得的新降维特征或所述初始降维特征进行升维,以获得所述残差特征。
4.如权利要求3所述的方法,其中,所述降维通过1×1卷积模块实现,所述升维通过1×1卷积模块实现。
5.如权利要求3或4所述的方法,其中,对通过所述初始降维特征进一步处理获得的新降维特征进行升维,以获得所述残差特征包括:
对所述初始降维特征进行归一化,以获得归一化特征;
对所述归一化特征进行非线性变换,以获得所述新降维特征;
对所述新降维特征进行升维,以获得所述残差特征。
6.如权利要求1至5任一项所述的方法,其中,所述目标网络模块包括先后依次连接的底层特征模块和高层特征模块,所述底层特征模块中插入有至少一个自适应迁移模块,所述高层特征模块中插入有至少一个自适应迁移模块。
7.如权利要求1至6任一项所述的方法,其中,所述当前组任务包括多种任务,所述神经网络模型包括特征提取模块和与所述多种任务一一对应的多个任务分支,每个任务分支包括一个或多个自适应迁移模块,所述将所述待处理数据输入与当前组任务相关的神经网络模型,以获得与所述待处理数据相对应的处理结果包括:
将所述待处理数据输入所述特征提取模块,以获得提取特征;
将所述提取特征分别输入所述多个任务分支,以获得与所述多种任务一一对应的处理结果。
8.如权利要求1至6任一项所述的方法,其中,所述当前组任务包括多种任务,所述神经网络模型包括特征提取模块、与所述多种任务一一对应的多个任务分支和结果输出模块,每个任务分支包括一个或多个自适应迁移模块,所述将所述待处理数据输入与当前组任务相关的神经网络模型,以获得与所述待处理数据相对应的处理结果包括:
将所述待处理数据输入所述特征提取模块,以获得提取特征;
将所述提取特征分别输入所述多个任务分支,以获得所述多个任务分支分别输出的中间特征;
将所述多个任务分支分别输出的中间特征输入所述结果输出模块,以获得所述结果输出模块输出的与所述多种任务一一对应的处理结果。
9.如权利要求1至8任一项所述的方法,其中,所述方法还包括:
获取与所述当前组任务相关的训练数据集,所述训练数据集包括训练数据和对应的标注数据,所述训练数据包括图像数据或音频数据;
将所述训练数据输入所述神经网络模型,获得对应的预测结果;
基于所述预测结果和所述标注数据,优化所述至少一个自适应迁移模块的参数,获得与所述当前组任务相关的所述神经网络模型。
10.如权利要求9所述的方法,其中,所述当前组任务包括多种任务,所述神经网络模型包括与所述多种任务一一对应的多个任务分支,每个任务分支包括一个或多个自适应迁移模块,
所述获取与所述当前组任务相关的训练数据集包括:
获取与所述多种任务中的任一目标任务相关的训练数据和标注数据;
所述将所述训练数据输入神经网络模型,以获得对应的预测结果包括:
将与所述目标任务相关的训练数据输入所述神经网络模型,以获得与所述目标任务相关的预测结果;
所述基于所述预测结果和所述标注数据,优化所述神经网络模型中的参数包括:
基于与所述目标任务相关的预测结果和与所述目标任务相关的标注数据,优化与所述目标任务相对应的任务分支中的自适应迁移模块的参数,其中,在优化过程中,与所述目标任务以外的任务相对应的任务分支中的自适应迁移模块的参数以及所述目标网络模块的参数固定。
11.一种电子设备,包括处理器和存储器,其特征在于,所述存储器中存储有计算机程序指令,所述计算机程序指令被所述处理器运行时用于执行如权利要求1至10任一项所述的数据处理方法。
12.一种存储介质,在所述存储介质上存储了程序指令,其特征在于,所述程序指令在运行时用于执行如权利要求1至10任一项所述的数据处理方法。
13.一种计算机程序产品,所述计算机程序产品包括计算机程序,其特征在于,所述计算机程序在运行时用于执行如权利要求1至10任一项所述的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210726203.3A CN115374304A (zh) | 2022-06-23 | 2022-06-23 | 数据处理方法、电子设备、存储介质及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210726203.3A CN115374304A (zh) | 2022-06-23 | 2022-06-23 | 数据处理方法、电子设备、存储介质及计算机程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115374304A true CN115374304A (zh) | 2022-11-22 |
Family
ID=84062204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210726203.3A Pending CN115374304A (zh) | 2022-06-23 | 2022-06-23 | 数据处理方法、电子设备、存储介质及计算机程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115374304A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115987817A (zh) * | 2022-12-23 | 2023-04-18 | 中国电信股份有限公司 | 交换任务调度方法、装置、电子设备及非易失性存储介质 |
-
2022
- 2022-06-23 CN CN202210726203.3A patent/CN115374304A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115987817A (zh) * | 2022-12-23 | 2023-04-18 | 中国电信股份有限公司 | 交换任务调度方法、装置、电子设备及非易失性存储介质 |
CN115987817B (zh) * | 2022-12-23 | 2024-05-24 | 中国电信股份有限公司 | 交换任务调度方法、装置、电子设备及非易失性存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110414432B (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
WO2019228358A1 (zh) | 深度神经网络的训练方法和装置 | |
WO2021043112A1 (zh) | 图像分类方法以及装置 | |
WO2022042713A1 (zh) | 一种用于计算设备的深度学习训练方法和装置 | |
CN111797893A (zh) | 一种神经网络的训练方法、图像分类系统及相关设备 | |
CN112418392A (zh) | 一种神经网络构建方法以及装置 | |
CN111931764B (zh) | 一种目标检测方法、目标检测框架及相关设备 | |
CN113807399B (zh) | 一种神经网络训练方法、检测方法以及装置 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN113705769A (zh) | 一种神经网络训练方法以及装置 | |
CN111882031A (zh) | 一种神经网络蒸馏方法及装置 | |
WO2022111617A1 (zh) | 一种模型训练方法及装置 | |
CN109034206A (zh) | 图像分类识别方法、装置、电子设备及计算机可读介质 | |
CN110163205A (zh) | 图像处理方法、装置、介质和计算设备 | |
CN113516227B (zh) | 一种基于联邦学习的神经网络训练方法及设备 | |
CN111950700A (zh) | 一种神经网络的优化方法及相关设备 | |
CN111738403A (zh) | 一种神经网络的优化方法及相关设备 | |
WO2023280113A1 (zh) | 数据处理方法、神经网络模型的训练方法及装置 | |
CN117033609B (zh) | 文本视觉问答方法、装置、计算机设备和存储介质 | |
CN113011568A (zh) | 一种模型的训练方法、数据处理方法及设备 | |
CN116343287A (zh) | 面部表情识别、模型训练方法、装置、设备及存储介质 | |
CN114359289A (zh) | 一种图像处理方法及相关装置 | |
CN115018039A (zh) | 一种神经网络蒸馏方法、目标检测方法以及装置 | |
CN112529149A (zh) | 一种数据处理方法及相关装置 | |
CN116597260A (zh) | 图像处理方法、电子设备、存储介质及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |