CN110796166A - 一种基于注意力机制的多任务图像处理方法 - Google Patents
一种基于注意力机制的多任务图像处理方法 Download PDFInfo
- Publication number
- CN110796166A CN110796166A CN201910912554.1A CN201910912554A CN110796166A CN 110796166 A CN110796166 A CN 110796166A CN 201910912554 A CN201910912554 A CN 201910912554A CN 110796166 A CN110796166 A CN 110796166A
- Authority
- CN
- China
- Prior art keywords
- task
- image
- deep learning
- input
- multitask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 230000007246 mechanism Effects 0.000 title claims abstract description 17
- 238000013136 deep learning model Methods 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000012216 screening Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 6
- 230000011218 segmentation Effects 0.000 abstract description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012512 characterization method Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于注意力机制的多任务图像处理方法,用于为给定场景图像同时生成多种图像理解结果,如按照语义对图像进行准确的分割、预测图像中场景表面法线的方向等。具体包括如下步骤:获取用于训练多任务深度学习模型的图像数据集,并定义算法目标;分别构建所需要解决的各个任务的单任务深度学习模型;利用若干共享模块连接各单任务模型,从而构建多任务深度学习模型;使用所述模型生成对于输入图像的多种图像理解结果。本发明适用于真实图像场景的多任务深度学习,面对各类不同任务组合以及各种复杂情况具有较佳的效果和鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,特别地涉及一种基于注意力机制的多任务图像处理方法。
背景技术
在现今社会,随着计算能力的提高以及卷积神经网络等深度学习技术在计算机视觉领域的广泛应用,诸多图像理解任务的性能都有了显著的进步,如语义分割、目标检测、表面发现估计以及属性预测等等。目前许多计算机视觉领域的研究都局限于解决单个图像理解任务,从而使得现有的深度学习模型多为单任务深度学习模型。然而,不同的图像理解任务之间往往存在一定的关联性。以语义分割和表面法线估计任务为例,对一幅图像进行语义分割后所得到结果的边界往往也是对该图像进行表面法线估计后所获得结果的边界。类似的,在属性预测任务当中,不同的属性之间也存在着一定的关联性,比如说拥有“化浓妆”属性的对象会有较大的可能性拥有“女性”属性,而拥有“络腮胡”属性的对象几乎肯定拥有“男性”属性。单任务深度学习仅仅关注单个任务,因此忽视了不同任务之间固有的关联性。与之相反,多任务深度学习同时学习多个任务,并且将提取得到的表征在各任务之间进行一定程度的共享,从而能够充分利用各任务之间的相关性,并且获得泛化能力更强的模型。
现有的多任务深度学习模型大多选择在不同任务间共用卷积神经网络中“较浅”的网络层以实现表征共享,并通过互相独立的“较深”的网络层来产生特定于任务的输出。然而,能够取得最佳性能的多任务卷积神经网络的结构取决于具体的任务组合。因此,给定一组新的任务,我们无法直接判断出网络中的哪些层是需要共享的,哪些层是需要互相独立的。为了能够达到最佳的性能,我们必须训练所有可能的网络结构,然后利用交叉验证从中选取达到最佳性能的网络结构。显然,采取这种方法会显著增加训练模型的成本。此外,卷积神经网络的隐含层特征中存在大量冗余的内容,而现有的多任务深度学习方法在共享特征之前缺乏对特征的预筛选处理,从而限制了模型性能的进一步提升。
发明内容
为解决上述问题,本发明的目的在于提供一种基于注意力机制的多任务图像处理方法,为给定场景图像同时生成多种图像理解结果。本方法利用若干共享模块连接各单任务子网络,并在各任务之间实现了表征的共享。通过学习共享模块中的参数,本方法能够自适应地学习出合适的表征共享方式,从而避免了训练所有可能网络结构所带来的巨大计算开销。此外,本方法通过注意力机制对共享模块的输入特征进行了预筛选,从而保留了有效特征而剔除了冗余特征。
为实现上述目的,本发明的技术方案为:
一种基于注意力机制的多任务图像处理方法,包括以下步骤:
S1、获取用于训练多任务深度学习模型的图像数据集,并定义算法目标;
S2、分别构建所需要解决的各个任务的单任务深度学习模型并进行预训练;
S3、利用若干共享模块连接各单任务模型,从而构建多任务深度学习模型并进行训练;
S4、使用训练好的多任务深度学习模型生成对于输入图像的多种图像理解结果。
进一步的,步骤S1中,所述的图像数据集包括图像Xtrain以及与各任务相对应的人工标注Ytrain={Ytrain-1,Ytrain-2,…,Ytrain-K},Ytrain-k代表任务k所对应的人工标注,K代表任务总数;
定义算法目标为:给定输入图像X,同时完成若干相关的图像理解任务。
进一步的,步骤S2具体包括:
S21、针对需要解决的K个相关任务,建立相应的单任务深度卷积神经网络Msingle={Msingle-1,Msingle-2,…,Msingle-K},网络Msingle-k的输入是一幅图像X,输出则为任务k所对应的图像理解目标
S22、针对需要解决的K个相关任务,分别定义各自的损失函数;
S23、使用带动量的随机梯度下降和反向传播算法预训练各任务所对应的单任务神经网络。
进一步的,步骤S3具体包括:
S31、利用若干共享模块连接各单任务模型,所述共享模块采用某两个单任务神经网络Msingle-i和Msingle-j第l层隐藏层特征fli和flj作为输入,其输出Oli和Olj则分别作为Msingle-i和Msingle-j第l+1层隐藏层的输入;
S32、在共享模块中,分别采用两个通道维度的注意力模块A1和A2对输入fli和flj进行预筛选,注意力模块对输入特征f的预筛选过程可表示为:
S33、对输入fli和flj进行预筛选后,共享模块在通道维度上将筛选后的特征f’li和f’lj拼接在一起,得到特征f’l;
S35、共享模块通过跳跃式连接结构分别将输入特征fli和flj与瓶颈层输出Ol相加,从而得到共享模块的输出Oli和Olj,可表示为:
Oli=fli+Ol 公式(2)
Olj=flj+Ol 公式(3)
S36、对于多任务深度学习模型中单任务子网络部分的参数,分别采用对应的预训练参数进行初始化;对于多任务深度学习模型中共享模块部分的参数,则采用随机初始化;
S37、使用带动量的随机梯度下降和反向传播算法训练整个多任务神经网络。
进一步的,步骤S4中,使用所述模型生成对于输入图像的多种图像理解结果具体包括:将场景图像X输入训练好的神经网络,各单任务子网络的输出即对应任务所要求的图像理解结果。
本发明的基于注意力机制的多任务图像处理方法,相比于现有的多任务图像处理方法,具有以下有益效果:
首先,本发明利用若干共享模块连接各单任务子网络,在各任务之间实现表征的共享。通过学习共享模块中的参数,本发明能够自适应地学习出合适的表征共享方式,从而简化了多任务深度学习模型的设计过程。
其次,本发明通过引入注意力机制,在共享特征之前对特征进行预筛选,保留有效特征并剔除冗余特征,从而进一步增强了模型的性能。
本发明的基于注意力机制的多任务图像处理方法在智能机器人和无人驾驶等系统里具有良好的应用价值,能够有效提高图像理解任务的性能。例如,在智能机器人系统里,本发明的多任务图像处理方法可以同时解决语义分割和表面法线估计任务,并通过充分利用任务之间的相关信息来进一步提升算法有效性和鲁棒性,从而使得智能机器人系统能够对场景进行更为准确的理解。
附图说明
图1为本发明的基于注意力机制的多任务图像处理方法的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
参考图1,在本发明的较佳实施例中,基于注意力机制的多任务图像处理方法,包括以下步骤:
首先,获取用于训练多任务深度学习模型的图像数据集。其中,用于训练多任务深度学习模型的图像数据集,包括图像Xtrain以及与各任务相对应的人工标注Ytrain={Ytrain-1,Ytrain-2,…,Ytrain-K},Ytrain-k代表任务k所对应的人工标注,K代表任务总数;
定义算法目标为:给定输入图像X,同时完成若干相关的图像理解任务。
其次,分别构建所需要解决的各个任务的单任务深度学习模型。具体的,其包括如下步骤:
第一步,针对需要解决的K个相关任务,建立相应的单任务深度卷积神经网络Msingle={Msingle-1,Msingle-2,…,Msingle-K},网络Msingle-k的输入是一幅图像X,输出则为任务k所对应的图像理解目标
第二步,针对需要解决的K个相关任务,分别定义各自的损失函数。以表面法线估计任务为例,其损失函数采用下式进行计算:
第三步,使用带动量的随机梯度下降和反向传播算法预训练各任务所对应的单任务神经网络,动量值采用0.9。
之后,利用若干共享模块连接各单任务模型,从而构建多任务深度学习模型。具体包括:
第一步,利用若干共享模块连接各单任务模型,从而建立多任务深度学习模型。共享模块采用某两个单任务神经网络Msingle-i和Msingle-j第l层隐藏层特征fli和flj作为输入,其输出Oli和Olj则分别作为Msingle-i和Msingle-j第l+1层隐藏层的输入;
第二步,在共享模块中,首先分别采用两个通道维度的注意力模块A1和A2对输入fli和flj进行预筛选,以滤除输入中冗余的内容。注意力模块对输入特征f的预筛选过程可表示为:
第三步,对输入fli和flj进行预筛选后,共享模块在通道维度上将筛选后的特征f’li和f’lj拼接在一起,得到特征f’l;
第四步,对于拼接后的特征f’l,共享模块采用瓶颈层对其进行进一步的处理,可表示为映射(ReLU层和BatchNormalization层已省略),其中C表示特征f’l的通道数,@后面的值表示对应卷积层的输出通道数。
第五步,为弥补瓶颈层中降维操作带来的信息损失,共享模块通过跳跃式连接结构分别将输入特征fli和flj与瓶颈层输出Ol相加,从而得到共享模块的输出Oli和Olj,可表示为:
Oli=fli+Ol 公式(3)
Olj=fli+Ol 公式(4)
第六步,对于多任务深度学习模型中单任务子网络部分的参数,分别采用对应的预训练参数进行初始化;对于多任务深度学习模型中共享模块部分的参数,则采用随机初始化;
第七步,使用带动量的随机梯度下降和反向传播算法训练整个多任务神经网络,动量值采用0.9。
最后,使用所述模型生成对于输入图像的多种图像理解结果。具体包括:将场景图像X输入训练好的神经网络,各单任务子网络的输出即对应任务所要求的图像理解结果。
上述实施例中,本发明的多任务图像处理方法首先针对要解决的各项任务对各单任务网络进行预训练。在此基础上,使用若干共享模块连接各单任务子网络,在各任务之间实现表征的共享,并且利用注意力机制在共享特征之前对特征进行预筛选。最后,利用训练好的模型为给定场景图像同时生成多种图像理解结果。
通过以上技术方案,本发明实施例基于深度学习技术发展了一种多任务图像处理方法。本发明通过引入共享模块,将表征共享方式的选择问题转化为共享模块中参数的学习问题,从而使得模型能够自适应地学习出合理的表征共享方式,从而产生更为准确的图像理解结果。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于注意力机制的多任务图像处理方法,其特征在于,包括以下步骤:
S1、获取用于训练多任务深度学习模型的图像数据集,并定义算法目标;
S2、分别构建所需要解决的各个任务的单任务深度学习模型并进行预训练;
S3、利用若干共享模块连接各单任务模型,从而构建多任务深度学习模型并进行训练;
S4、使用训练好的多任务深度学习模型生成对于输入图像的多种图像理解结果。
2.如权利要求1所述的基于注意力机制的多任务图像处理方法,其特征在于,步骤S1中,所述的图像数据集包括图像Xtrain以及与各任务相对应的人工标注Ytrain={Ytrain-1,Ytrain-2,…,Ytrain-K},Ytrain-k代表任务k所对应的人工标注,K代表任务总数;
定义算法目标为:给定输入图像X,同时完成若干相关的图像理解任务。
4.如权利要求3所述的基于注意力机制的多任务图像处理方法,其特征在于,步骤S3具体包括:
S31、利用若干共享模块连接各单任务模型,所述共享模块采用某两个单任务神经网络Msingle-i和Msingle-j第l层隐藏层特征fli和flj作为输入,其输出Oli和Olj则分别作为Msingle-i和Msingle-j第l+1层隐藏层的输入;
S32、在共享模块中,分别采用两个通道维度的注意力模块A1和A2对输入fli和flj进行预筛选,注意力模块对输入特征f的预筛选过程可表示为:
S33、对输入fli和flj进行预筛选后,共享模块在通道维度上将筛选后的特征f’li和f’lj拼接在一起,得到特征f’l;
S35、共享模块通过跳跃式连接结构分别将输入特征fli和flj与瓶颈层输出Ol相加,从而得到共享模块的输出Oli和Olj,可表示为:
Oli=fli+Ol 公式(2)
Olj=flj+Ol 公式(3)
S36、对于多任务深度学习模型中单任务子网络部分的参数,分别采用对应的预训练参数进行初始化;对于多任务深度学习模型中共享模块部分的参数,则采用随机初始化;
S37、使用带动量的随机梯度下降和反向传播算法训练整个多任务神经网络。
5.如权利要求4所述的基于注意力机制的多任务图像处理方法,其特征在于,步骤S4中,使用所述模型生成对于输入图像的多种图像理解结果具体包括:将场景图像X输入训练好的神经网络,各单任务子网络的输出即对应任务所要求的图像理解结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910912554.1A CN110796166B (zh) | 2019-09-25 | 2019-09-25 | 一种基于注意力机制的多任务图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910912554.1A CN110796166B (zh) | 2019-09-25 | 2019-09-25 | 一种基于注意力机制的多任务图像处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110796166A true CN110796166A (zh) | 2020-02-14 |
CN110796166B CN110796166B (zh) | 2022-07-26 |
Family
ID=69439696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910912554.1A Active CN110796166B (zh) | 2019-09-25 | 2019-09-25 | 一种基于注意力机制的多任务图像处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110796166B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368748A (zh) * | 2020-03-06 | 2020-07-03 | 深圳市商汤科技有限公司 | 网络训练方法及装置、图像识别方法及装置 |
CN111597870A (zh) * | 2020-03-26 | 2020-08-28 | 中国电子科技集团公司第五十二研究所 | 一种基于注意力机制与多任务学习的人体属性识别方法 |
CN111666905A (zh) * | 2020-06-10 | 2020-09-15 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN111832601A (zh) * | 2020-04-13 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 状态检测方法、模型训练方法、存储介质和电子设备 |
CN112488098A (zh) * | 2020-11-16 | 2021-03-12 | 浙江新再灵科技股份有限公司 | 一种目标检测模型的训练方法 |
CN112766490A (zh) * | 2021-01-13 | 2021-05-07 | 深圳前海微众银行股份有限公司 | 特征变量学习方法、装置、设备及计算机可读存储介质 |
CN112950645A (zh) * | 2021-03-24 | 2021-06-11 | 中国人民解放军国防科技大学 | 一种基于多任务深度学习的图像语义分割方法 |
CN113392724A (zh) * | 2021-05-25 | 2021-09-14 | 中国科学院西安光学精密机械研究所 | 基于多任务学习的遥感场景分类方法 |
CN114511918A (zh) * | 2022-04-20 | 2022-05-17 | 中国传媒大学 | 一种基于多任务学习的人脸状态判断方法和系统 |
CN114581706A (zh) * | 2022-03-02 | 2022-06-03 | 平安科技(深圳)有限公司 | 证件识别模型的配置方法、装置、电子设备、存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021916A (zh) * | 2017-12-31 | 2018-05-11 | 南京航空航天大学 | 基于注意力机制的深度学习糖尿病视网膜病变分类方法 |
WO2018126213A1 (en) * | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
CN109544524A (zh) * | 2018-11-15 | 2019-03-29 | 中共中央办公厅电子科技学院 | 一种基于注意力机制的多属性图像美学评价系统 |
CN110120049A (zh) * | 2019-04-15 | 2019-08-13 | 天津大学 | 由单张图像联合估计场景深度与语义的方法 |
CN110263822A (zh) * | 2019-05-29 | 2019-09-20 | 广东工业大学 | 一种基于多任务学习方式的图像情感分析方法 |
-
2019
- 2019-09-25 CN CN201910912554.1A patent/CN110796166B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018126213A1 (en) * | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
CN108021916A (zh) * | 2017-12-31 | 2018-05-11 | 南京航空航天大学 | 基于注意力机制的深度学习糖尿病视网膜病变分类方法 |
CN109544524A (zh) * | 2018-11-15 | 2019-03-29 | 中共中央办公厅电子科技学院 | 一种基于注意力机制的多属性图像美学评价系统 |
CN110120049A (zh) * | 2019-04-15 | 2019-08-13 | 天津大学 | 由单张图像联合估计场景深度与语义的方法 |
CN110263822A (zh) * | 2019-05-29 | 2019-09-20 | 广东工业大学 | 一种基于多任务学习方式的图像情感分析方法 |
Non-Patent Citations (2)
Title |
---|
SHIKUN LIU ET AL.: "End-to-end multi-task learning with attention", 《ARXIV》 * |
张鹏 等: "基于深度学习的伺服系统状态预测算法", 《计算机应用与软件》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368748B (zh) * | 2020-03-06 | 2023-12-01 | 深圳市商汤科技有限公司 | 网络训练方法及装置、图像识别方法及装置 |
CN111368748A (zh) * | 2020-03-06 | 2020-07-03 | 深圳市商汤科技有限公司 | 网络训练方法及装置、图像识别方法及装置 |
CN111597870B (zh) * | 2020-03-26 | 2022-05-03 | 中国电子科技集团公司第五十二研究所 | 一种基于注意力机制与多任务学习的人体属性识别方法 |
CN111597870A (zh) * | 2020-03-26 | 2020-08-28 | 中国电子科技集团公司第五十二研究所 | 一种基于注意力机制与多任务学习的人体属性识别方法 |
CN111832601A (zh) * | 2020-04-13 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 状态检测方法、模型训练方法、存储介质和电子设备 |
CN111666905B (zh) * | 2020-06-10 | 2022-12-02 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN111666905A (zh) * | 2020-06-10 | 2020-09-15 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN112488098A (zh) * | 2020-11-16 | 2021-03-12 | 浙江新再灵科技股份有限公司 | 一种目标检测模型的训练方法 |
CN112766490A (zh) * | 2021-01-13 | 2021-05-07 | 深圳前海微众银行股份有限公司 | 特征变量学习方法、装置、设备及计算机可读存储介质 |
CN112766490B (zh) * | 2021-01-13 | 2024-05-24 | 深圳前海微众银行股份有限公司 | 特征变量学习方法、装置、设备及计算机可读存储介质 |
CN112950645A (zh) * | 2021-03-24 | 2021-06-11 | 中国人民解放军国防科技大学 | 一种基于多任务深度学习的图像语义分割方法 |
CN112950645B (zh) * | 2021-03-24 | 2023-05-12 | 中国人民解放军国防科技大学 | 一种基于多任务深度学习的图像语义分割方法 |
CN113392724A (zh) * | 2021-05-25 | 2021-09-14 | 中国科学院西安光学精密机械研究所 | 基于多任务学习的遥感场景分类方法 |
CN113392724B (zh) * | 2021-05-25 | 2022-12-27 | 中国科学院西安光学精密机械研究所 | 基于多任务学习的遥感场景分类方法 |
CN114581706A (zh) * | 2022-03-02 | 2022-06-03 | 平安科技(深圳)有限公司 | 证件识别模型的配置方法、装置、电子设备、存储介质 |
CN114581706B (zh) * | 2022-03-02 | 2024-03-08 | 平安科技(深圳)有限公司 | 证件识别模型的配置方法、装置、电子设备、存储介质 |
CN114511918A (zh) * | 2022-04-20 | 2022-05-17 | 中国传媒大学 | 一种基于多任务学习的人脸状态判断方法和系统 |
CN114511918B (zh) * | 2022-04-20 | 2022-07-05 | 中国传媒大学 | 一种基于多任务学习的人脸状态判断方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110796166B (zh) | 2022-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796166B (zh) | 一种基于注意力机制的多任务图像处理方法 | |
Chen et al. | DNNOff: offloading DNN-based intelligent IoT applications in mobile edge computing | |
CN109948029B (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
Li et al. | A baseline regularization scheme for transfer learning with convolutional neural networks | |
Nishida et al. | Multimodal gesture recognition using multi-stream recurrent neural network | |
US11651214B2 (en) | Multimodal data learning method and device | |
CN112287170B (zh) | 一种基于多模态联合学习的短视频分类方法及装置 | |
CN113326930B (zh) | 数据处理方法、神经网络的训练方法及相关装置、设备 | |
CN111382868A (zh) | 神经网络结构搜索方法和神经网络结构搜索装置 | |
Chen et al. | AE-Net: Fine-grained sketch-based image retrieval via attention-enhanced network | |
CN110807379B (zh) | 一种语义识别方法、装置、以及计算机存储介质 | |
CN112115744B (zh) | 点云数据的处理方法及装置、计算机存储介质、电子设备 | |
CN111353988A (zh) | Knn动态自适应的双图卷积图像分割方法和系统 | |
CN114037882A (zh) | 边缘人工智能装置、电子装置及其方法 | |
CN114926636A (zh) | 一种点云语义分割方法、装置、设备及存储介质 | |
CN112348033A (zh) | 一种协同显著性目标检测方法 | |
Ju et al. | Efficient convolutional neural networks on Raspberry Pi for image classification | |
US20230072445A1 (en) | Self-supervised video representation learning by exploring spatiotemporal continuity | |
Zheng et al. | Edge-labeling based modified gated graph network for few-shot learning | |
Zheng et al. | Multi-class indoor semantic segmentation with deep structured model | |
Shen et al. | Transfer value iteration networks | |
Ryu et al. | Metaperturb: Transferable regularizer for heterogeneous tasks and architectures | |
CN115965078A (zh) | 分类预测模型训练方法、分类预测方法、设备及存储介质 | |
Wu et al. | CyclicNet: an alternately updated network for semantic segmentation | |
CN110826726B (zh) | 目标处理方法、目标处理装置、目标处理设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |