CN109190649B - 一种深度学习网络模型服务器的优化方法和装置 - Google Patents

一种深度学习网络模型服务器的优化方法和装置 Download PDF

Info

Publication number
CN109190649B
CN109190649B CN201810709200.2A CN201810709200A CN109190649B CN 109190649 B CN109190649 B CN 109190649B CN 201810709200 A CN201810709200 A CN 201810709200A CN 109190649 B CN109190649 B CN 109190649B
Authority
CN
China
Prior art keywords
image
server
neural network
network
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810709200.2A
Other languages
English (en)
Other versions
CN109190649A (zh
Inventor
王慧敏
孙海涌
张默
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Moshanghua Technology Co ltd
Original Assignee
Beijing Moshanghua Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Moshanghua Technology Co ltd filed Critical Beijing Moshanghua Technology Co ltd
Priority to CN201810709200.2A priority Critical patent/CN109190649B/zh
Publication of CN109190649A publication Critical patent/CN109190649A/zh
Application granted granted Critical
Publication of CN109190649B publication Critical patent/CN109190649B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种深度学习网络模型服务器的优化方法和装置。该深度学习网络模型服务器的优化方法包括:确定服务器上预存的图像训练集的图像标签;将带有图像标签的所述图像训练集输入服务器,训练基于预训练模型初始化的神经网络得到目标神经网络;通过所述目标神经网络识别出服务器待测图像的类别属性;其中,所述神经网络中的残差单元在服务器上进行特征学习及提取时采用注意力机制。本申请解决了深度学习中存在的网络训练时收敛速度缓慢导致的服务器运行缓慢的技术问题。

Description

一种深度学习网络模型服务器的优化方法和装置
技术领域
本申请涉及深度学习服务器技术领域,具体而言,涉及一种深度学习网络模型服务器的优化方法和装置。
背景技术
深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度机器学习方法也有监督学习与无监督学习之分.不同的学习框架下建立的学习模型很是不同.例如,卷积神经网络(Convolutional neural networks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(Deep Belief Nets,简称DBNs)就是一种无监督学习下的机器学习模型。
目前的深度学习网络模型服务器主要存在以下缺陷:收敛速度慢、计算复杂度较高导致计算速度缓慢。
针对相关技术中深度学习网络模型服务器中存在的网络训练收敛速度缓慢导致的运行速度缓慢的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种深度学习网络模型服务器的优化方法和装置,深度学习网络模型服务器中存在的网络训练收敛速度缓慢导致的运行速度缓慢的技术问题。
为了实现上述目的,根据本申请的一个方面,提供了一种深度学习网络模型服务器的优化方法。
根据本申请的深度学习网络模型服务器的优化方法包括:
确定服务器上预存的图像训练集的图像标签;
将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到用于深度学习的服务器上目标神经网络;
通过所述目标神经网络识别出向服务器发出的图像识别请求;
其中,所述初始化神经网络中的残差单元采用注意力机制。
进一步地,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制包括:
在池化层将所述图像训练集特征均值池化为预设尺寸;
在压缩层将所述图像训练集特征按照预设比例压缩;
在激励层输出处理后的图像训练集特征。
进一步的,所述激励层的输出通道数量与所述残差单元数量相同。
进一步的,所述目标神经网络的最后一层网络采用编解码层。
进一步的,所述编解码层包括:
将所述目标神经网络的第一输出结果进行编码的编码层;以及
将所述编码层的第二输出结果进行解码的解码层。
进一步的,所述确定服务器上预存的图像训练集的图像标签包括:
将所述图像训练集中的的目标图像标记为正样本;以及
将所述图像训练集中的的非目标图像标记为负样本。
进一步的,所述通过所述目标神经网络识别出向服务器请求的图像包括:
提取向服务器发送的图像的高层语义特征;
输入所述高层语义特征并上传至所述深度学习网络模型服务器进行训练。
为了实现上述目的,根据本申请的另一方面,提供了一种深度学习网络模型服务器的优化装置。
根据本申请的深度学习网络模型服务器的优化装置包括:
确定模块,用于确定服务器上预存的图像训练集的图像标签;
训练模块,用于将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到用于深度学习的服务器上目标神经网络;
识别模块,用于通过所述目标神经网络识别出向服务器请求的图像;
其中,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制。
进一步的,所述训练模块包括:
池化单元,用于将所述图像特征均值池化为预设尺寸;
压缩单元,用于在压缩层将所述图像特征按照预设比例压缩;
激励单元,用于在激励层输出处理后的图像特征。
进一步的,所述目标神经网络还包括:编解码单元。
在本申请实施例中,采用训练集图像训练服务器神经网络,得到目标神经网络,通过在神经网络的残差单元中引入注意力机制,达到了选择性学习必要内容的目的,从而实现了减小网络学习复杂度的技术效果,进而解决了服务器中深度学习网络模型中存在的网络训练时收敛速度慢导致的模型难以收敛技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请第一实施例的深度学习网络模型服务器的优化方法示意图;
图2是根据本申请实施例的残差神经网络示意图;
图3是根据本申请注意力机制示意图;
图4是根据本申请编解码层示意图;
图5是根据本申请深度学习网络模型服务器的图像识别流程示意图;
图6是根据本申请第二实施例的深度学习网络模型服务器的优化方法示意图;
图7是根据本申请第一实施例的深度学习网络模型服务器的优化装置示意图;以及
图8是根据本申请第二实施例的深度学习网络模型服务器的优化装置示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
下面以“识别血腥图片”为一优选实施例,对本申请的实现原理和相应效果进行说明。
根据本发明实施例,提供了一种深度学习网络模型服务器的优化方法方法,如图1所示,该方法包括:
步骤S102,确定服务器上预存的图像训练集的图像标签;
作为本实施例的优选,在服务器上提前存储一定量的图像训练集,将图像训练集分别标记为正样本标签和负样本标签。
例如,正样本的图像训练集可以是已确定为血型图片的训练集,负样本可以是已确定不是血型图片的训练集,其中,负样本中的特征与正样本特征在某些方面有相似之处,但不是血型图片。如正样本图像上具有血红图样,负样本图像上为番茄酱图样。
优选地,确定服务器上预存的图像训练集的正样本图像标签和负样本图像标签。
步骤S104,将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到服务器上用于深度学习的目标神经网络;其中,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制;
优选地,如图2所示,采用ImageNet上的1000类预训练模型参数作血腥分类网络初始化,图像标签作为监督信号,通过反向传播算法在现有血腥图像数据库上微调与原网络相同的网络层,重新训练不同的网络层,逐步迭代学习得到最终网络模型。
注意力机制示意图如图3所示。构建具有注意力机制和编解码思想的残差神经网络。残差神经网络通过在一个浅层网络基础上叠加y=x的层(称identity mappings,恒等映射),可以让网络随深度增加而不退化。在每个残差单元中新增注意力分支,残差单元可有选择性学习必要内容。注意力分支为先将原始特征图AVE Pool为1x1大小,接着在压缩层中将特征通道压缩为原特征的1/16,激励层中输出通道数与残差单元输出相同。相当于对原始残差单元的选择输出。一方面可滤除不必要的信息,减小网络学习复杂度;另一方面可使网络专注于有用信息,更利于特征学习。
编解码思想示意图如图4所示,编解码思想为在原始网络的最后部分加入编解码层,即本血腥分类网络原始特征输出为2维,先将2维特征编码输出为32维,再解码输出为2维。在网络中加入编解码思想,解码出来的特征为网络实际学习到的特征,此特征预测输出与网络真实标签的差异为网络训练的指导方向,有利于网络下一步迭代优化。
具有注意力机制和编解码思想的ResNet网络。注意力机制既可使网络保留有用信息,又可过滤无用信息。
步骤S106,通过所述目标神经网络识别出向服务器发出的图像识别请求。
优选地,服务器接收来自用户端的图像识别请求。
用户可通过网络爬虫方式得到可疑血腥图片,将可疑血腥图片基于步骤S104得到的网络模型提取深层神经网络特征,计算待测图像特征与种子库特征的余弦距离判断是否为血腥图像。
如图5所示,可疑血腥图片神经网络特征与构建的血腥区域种子库特征进行相似度计算,若相似度大于设定的阈值,则判别为血腥图像。图搜匹配算法可使网络模型有更高的容错率,测试性能更具有鲁棒性。
如图6所示,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制包括如下的步骤S202至步骤S206:
步骤S202,在池化层将所述图像特征均值池化为预设尺寸;
优选地,均值池化:计算特征区域的平均值作为该区域池化后的值。
将原始特征图AVE Pool为预设尺寸,例如可以均值池化为1x1大小。
步骤S204,在压缩层将所述图像特征按照预设比例压缩;
优选地,压缩层是执行媒体解码的系统组件,接收从同步层传来的压缩数据,并完成解码操作。
例如,在压缩层中将特征通道压缩为原特征的1/16。
步骤S206,在激励层输出处理后的图像特征。
优选地,激励函数在神经网络的作用通俗上讲就是讲多个线性输入转换为非线性的关系。不使用激励函数的话,神经网络的每层都只是做线性变换,多层输入叠加后也还是线性变换。因为线性模型的表达能力不够,激励函数可以引入非线性因素。
其中,激励层中输出通道数与残差单元输出相同。例如,残差单元输出可以是128维。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
采用本发明提供的优化方法和装置进行优化的深度学习网络模型服务器,运行用于血型图像识别的基于卷积神经网络血型图像识别方法,使得该方法在识别血腥图像时的运行速度大大提升,同时准确率显著提升。
具体的,该方法包括血腥图像采集、数据库制作、网络模型训练和算法测试。其中,网络模型设计及测试是算法的关键部分。本发明提出在模型设计中考虑注意力机制和编解码思想,在模型测试中采用图像搜索(图搜)方式判断待测图像是否为血腥图像。在原始残差网络的残差模块中增加注意力分支,旨在模型训练过程中使网络学习更专注于有用信息,有利于模型收敛;在残差网络的通道融合阶段引入编解码思想,原始特征先编码成一定维度的特征后再解码输出,使得训练阶段的损失计算更有意义;在模型测试中采用图搜的方式得到血腥图像预测结果,先用训练好的模型对正样本中的血腥区域做深层特征提取建立种子库,通过比较待测图像的深层特征与种子库特征的余弦距离判断待测图像的类别属性。
从以上的描述中,可以看出,本发明实现了如下技术效果:本发明针对深度学习网络模型服务器中存在的网络学习复杂度较高导致的模型收敛速度缓慢,首先构建了用于深度学习网络训练的数据库;然后在原有50层残差(ResNet-50)网络的基础上,引入注意力(Attention)机制和特征编解码(Encoder-Decoder)思想,有利于模型的收敛。
本发明的优点主要有以下两点。第一,提出在ResNet-50网络中引入注意力机制,使网络更专注于有用信息的学习,一定程度上可减小网络学习难度。第二,提出在ResNet-50网络中加入编解码思想,解码出网络实际学习的信息,计算网络预测与真实标签的差异,使得网络更容易收敛。
根据本发明实施例,还提供了一种用于实施上述深度学习网络模型服务器的优化方法的优化装置,如图7所示,该装置包括:
确定模块10,用于确定服务器上预存的图像训练集的图像标签;
训练模块20,用于将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到用于深度学习的服务器上目标神经网络;
识别模块30,用于通过所述目标神经网络识别出向服务器请求的图像;
其中,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制。
如图8所示,所述训练模块20包括:
池化单元201,用于将所述图像训练集特征均值池化为预设尺寸;
压缩单元202,用于在压缩层将所述图像训练集特征按照预设比例压缩;
激励单元203,用于在激励层输出处理后的图像训练集特征。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (6)

1.一种深度学习网络模型服务器的优化方法,用于识别血腥图像,其特征在于,包括:
确定服务器上预存的图像训练集的图像标签,图像标签包括正样本图像标签和负样本图像标签;
将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到服务器上用于深度学习的目标神经网络;
通过所述目标神经网络识别出向服务器发出的图像识别请求;
其中,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制;
所述目标神经网络的最后一层网络采用编解码层;
编解码思想为在原始网络的最后部分加入编解码层,即本血腥分类网络原始特征输出为2维,先将2维特征编码输出为32维,再解码输出为2维,解码出来的特征为网络实际学习到的特征,预测输出与网络真实标签的差异;
所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制包括:
在池化层将所述图像特征均值池化为预设尺寸;
在压缩层将所述图像特征按照预设比例压缩;
在激励层输出处理后的图像特征。
2.根据权利要求1所述的优化方法,其特征在于,所述激励层的输出通道数量与所述残差单元数量相同。
3.根据权利要求2所述的优化方法,其特征在于,所述编解码层包括:
将所述目标神经网络的第一输出结果进行编码的编码层;以及
将所述编码层的第二输出结果进行解码的解码层。
4.根据权利要求1所述的优化方法,其特征在于,所述确定服务器上预存的图像训练集的图像标签包括:
将所述图像训练集中的目标图像标记为正样本;以及
将所述图像训练集中的非目标图像标记为负样本。
5.根据权利要求1所述的优化方法,其特征在于,所述通过所述目标神经网络识别出向服务器请求的图像包括:
提取向服务器发送的图像的高层语义特征请求;
输入所述高层语义特征并上传至所述深度学习网络模型服务器进行训练。
6.一种深度学习网络模型服务器的优化装置,用于识别血腥图像,其特征在于,包括:
确定模块,用于确定服务器上预存的图像训练集的图像标签,图像标签包括正样本图像标签和负样本图像标签;
训练模块,用于将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到用于深度学习的服务器上目标神经网络;
识别模块,用于通过所述目标神经网络识别出向服务器请求的图像;
其中,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制;
所述目标神经网络还包括:编解码单元,所述目标神经网络的最后一层网络采用编解码层;
编解码思想为在原始网络的最后部分加入编解码层,即本血腥分类网络原始特征输出为2维,先将2维特征编码输出为32维,再解码输出为2维,解码出来的特征为网络实际学习到的特征,预测输出与网络真实标签的差异;
所述训练模块包括:
池化单元,用于将所述图像训练集特征均值池化为预设尺寸;
压缩单元,用于在压缩层将所述图像训练集特征按照预设比例压缩;
激励单元,用于在激励层输出处理后的图像训练集特征。
CN201810709200.2A 2018-07-02 2018-07-02 一种深度学习网络模型服务器的优化方法和装置 Active CN109190649B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810709200.2A CN109190649B (zh) 2018-07-02 2018-07-02 一种深度学习网络模型服务器的优化方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810709200.2A CN109190649B (zh) 2018-07-02 2018-07-02 一种深度学习网络模型服务器的优化方法和装置

Publications (2)

Publication Number Publication Date
CN109190649A CN109190649A (zh) 2019-01-11
CN109190649B true CN109190649B (zh) 2021-10-01

Family

ID=64948803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810709200.2A Active CN109190649B (zh) 2018-07-02 2018-07-02 一种深度学习网络模型服务器的优化方法和装置

Country Status (1)

Country Link
CN (1) CN109190649B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991511A (zh) * 2019-11-26 2020-04-10 中原工学院 一种基于深度卷积神经网络的向日葵作物种子分拣方法
CN113496442A (zh) * 2020-03-19 2021-10-12 荷盛崧钜智财顾问股份有限公司 图表征产生系统,图表征产生方法与其图表征智能模块

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3121789A1 (en) * 2015-07-22 2017-01-25 Siemens Medical Solutions USA, Inc. Method and system for convolutional neural network regression based 2d/3d image registration
CN106778526A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于汉明距离的大规模高效人脸识别方法
CN106845341A (zh) * 2016-12-15 2017-06-13 南京积图网络科技有限公司 一种基于虚拟号牌的无牌车辆识别方法
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
CN106991386A (zh) * 2017-02-27 2017-07-28 杭州电子科技大学 一种基于深度残差网络的手势识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3121789A1 (en) * 2015-07-22 2017-01-25 Siemens Medical Solutions USA, Inc. Method and system for convolutional neural network regression based 2d/3d image registration
CN106778526A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于汉明距离的大规模高效人脸识别方法
CN106845341A (zh) * 2016-12-15 2017-06-13 南京积图网络科技有限公司 一种基于虚拟号牌的无牌车辆识别方法
CN106991386A (zh) * 2017-02-27 2017-07-28 杭州电子科技大学 一种基于深度残差网络的手势识别方法
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Squeeze-and-Excitation Networks;Jie Hu等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20170930;1-11 *

Also Published As

Publication number Publication date
CN109190649A (zh) 2019-01-11

Similar Documents

Publication Publication Date Title
CN111444340A (zh) 文本分类和推荐方法、装置、设备及存储介质
CN111160350B (zh) 人像分割方法、模型训练方法、装置、介质及电子设备
CN110717325B (zh) 文本的情感分析方法、装置、电子设备及存储介质
CN110072142A (zh) 视频描述生成方法、装置、视频播放方法、装置和存储介质
CN114663670A (zh) 一种图像检测方法、装置、电子设备及存储介质
CN112466298A (zh) 语音检测方法、装置、电子设备和存储介质
CN111222500A (zh) 一种标签提取方法及装置
CN109145940B (zh) 图像识别方法和装置
CN107992937B (zh) 基于深度学习的非结构化数据判决方法和装置
CN114780831A (zh) 基于Transformer的序列推荐方法及系统
CN114330966A (zh) 一种风险预测方法、装置、设备以及可读存储介质
CN112348111A (zh) 视频中的多模态特征融合方法、装置、电子设备及介质
CN109190649B (zh) 一种深度学习网络模型服务器的优化方法和装置
CN113313215A (zh) 图像数据处理方法、装置、计算机设备和存储介质
CN116935170B (zh) 视频处理模型的处理方法、装置、计算机设备和存储介质
CN115883878A (zh) 视频剪辑方法、装置、电子设备及存储介质
CN114548325B (zh) 基于对偶对比学习的零样本关系抽取方法和系统
CN113569886A (zh) 网络结构调整方法、装置和存储介质及电子设备
CN115116444A (zh) 一种语音识别文本的处理方法、装置、设备及存储介质
CN114528762A (zh) 一种模型训练方法、装置、设备和存储介质
CN113571063A (zh) 语音信号的识别方法、装置、电子设备及存储介质
KR20210035535A (ko) 뇌 연결성 학습 방법 및 이를 위한 시스템
CN117711001B (zh) 图像处理方法、装置、设备和介质
CN117173530B (zh) 目标异常检测方法及装置
CN118173174A (zh) 多模态特征融合方法和装置、计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20190111

Assignee: Apple R&D (Beijing) Co., Ltd.

Assignor: BEIJING MOSHANGHUA TECHNOLOGY CO., LTD.

Contract record no.: 2019990000054

Denomination of invention: A kind of optimization method and device of deep learning network model server

License type: Exclusive License

Record date: 20190211

GR01 Patent grant
GR01 Patent grant