CN114565064B - 多任务学习深度网络的识别方法、系统及设备 - Google Patents
多任务学习深度网络的识别方法、系统及设备 Download PDFInfo
- Publication number
- CN114565064B CN114565064B CN202210445590.3A CN202210445590A CN114565064B CN 114565064 B CN114565064 B CN 114565064B CN 202210445590 A CN202210445590 A CN 202210445590A CN 114565064 B CN114565064 B CN 114565064B
- Authority
- CN
- China
- Prior art keywords
- neural network
- task
- dynamic
- resources
- new task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种多任务学习深度网络的识别方法、系统及设备,其中系统包括:数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元;动态分配模块、监控模块以及资源释放模块,该资源释放模块用于当监控模块监测到新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。本申请随着任务的进行,可以在第一神经网络中建立多个动态神经网络单元,随着任务的结束,动态神经网络单元也被消除,这样,随着任务的不断进行,第一神经网络所具有的训练资源不会因大量的无用的动态神经网络单元所占据。
Description
技术领域
本发明涉及数据识别及数据识别模型构建技术领域,特别是涉及一种多任务学习深度网络的识别方法、系统及设备。
背景技术
传统的数据识别模型通过样本字段,进行模型训练,寻找目标字段的内容特征,生成相应的规则模型,此种寻找目标字段具有庞大的任务数量,会降低数据模型优化的速度。人工神经网络(artificial neural network,ANN),简称神经网络(neural network,NN),是一种模仿生物神经网络的结构和功能的数学模型或计算模型。可以依据人工神经网络构建数据识别模型,来降低传统数据识别模型中优化难的问题,神经网络是一种运算模型,由大量的节点(或称“神经元”)和之间相互的联接构成。每个节点代表一种特定的输出函数,称为激励函数、激活函数(activation function)。每两个节点间的联接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。在已经公开的技术中,例如公开号为:“CN114037024A”公开了一种基于多任务神经网络数据识别系统及方法,其中系统包括:数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的以第一神经网络为主线添加的多个第二主支神经网络;任务流管理器,该任务流管理器用于根据任务进行中以第一神经网络为主线添加的多个具有唯一识别特征的第二主支神经网络;所述识别特征还用于第二主支神经网络与第一神经网络之间的任务流流通。第一神经网络和第二主支神经网络存在相应的信息流通,第一神经网络主要为各个任务提取通用特征,而第二主支神经网络主要是为不同任务提供一个不同的注意力机制,从而能更好的完成对应的任务功能。
上述的方案通过保留原任务所使用的权重在神经网络结构中的完整性,解决了神经网络在学习新任务时导致原任务的性能下降问题,取得了神经网络在学习新任务时保留原任务性能。
上述的方案通过使用已训练好的第一神经网络中泛用性强的通用特征来构造新的弱主支神经网络,减少了新的第二主支神经网络需要训练的权重,取得了网络参数轻量化,提高新任务的学习效率。
上述的方案通过保存原任务的神经网络结构完整性和只训练新增的第二主支神经网络权重的方法来构建数据识别模型,在训练新增任务时可以不使用原任务中的庞大数据,解决了多任务学习中新任务样品被稀释、数据需求量巨大的问题,仅使用新任务的少量数据便能完成新任务学习。
但是,上述的技术方案缺陷在于,通过任务的进行以第一神经网络为主线建立多个第二神经网络,第二神经网络建立后并迭代训练时虽然可以将根据任务的进行有目的的选择将其他第二神经网络和第一神经网络冻结,其对应的网络资源进行重新分配至新任务的训练,但是,多个第二神经网络的存在会占用一定的资源,随着第二神经网络的数量增多,占用的资源也会随之增加,导致大量的资源被占用,给新任务分配的可用资源就会减少。
发明内容
有鉴于此,本发明的主要目的在于提供一种多任务学习深度网络的识别方法、系统及设备。
本发明采用的技术方案如下:
多任务学习深度网络的识别方法,包括如下步骤:
获取当前的数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元;
所述动态神经网络单元依据任务的进行将第一神经网络具有的训练资源集合按照设定规则进行动态的调配;
当至少有一个新任务进入时,任务管理模块识别新任务后调取第一神经网络的参数信息并在第一神经网络内通过加载通用特征库对应的选择识别特征来建立一个与新任务对应的动态神经网络单元,通过动态分配模块将训练资源按照设定规则调配给动态神经网络单元以对新任务进行学习,当监测到新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
进一步地,所述动态神经网络单元被消除后,第一神经网络用于提取通过网络资源进行新任务的学习所得到的任务特征经转化后补充到通用特征库中。
进一步地,所述设定规则是根据新任务的任务数量来动态的分配网络资源。
本发明还提供了一种多任务学习深度网络的识别系统,包括:
数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元;
动态分配模块,该动态分配模块依据任务的进行将第一神经网络具有的训练资源集合按照设定规则调配给动态神经网络单元;
监控模块,该监控模块用于监测动态神经网络单元的新任务学习状况;
资源释放模块,该资源释放模块用于当监控模块监测到新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
进一步地,所述动态神经网络单元是基于任务的进行通过任务管理模块识别任务后调取第一神经网络的参数信息并在第一神经网络内加载通用特征库对应的选择识别特征来建立。
进一步地,所述动态分配模块根据新任务的任务数量来对应的调整设定规则,所述设定规则来动态的分配网络资源至至少一个动态神经网络单元中。
进一步地,所述第一神经网络配置有:
通用特征库,
提取模块,该提取模块用于将网络资源进行新任务的学习所得到的任务特征进行提取;
转化模块,该转化模块连接提取模块,该提取模块接收任务特征并将任务特征转化为通用的识别特征并存储到通用特征库中。
进一步地,所述设定规则用于按照额定参数为所述第一神经网络分配定额的训练资源,并根据任务数量来平均分配剩余的训练资源至每一动态神经网络单元中;
在当前时刻,每一所述动态神经网络单元训练过程中,若有新任务产生时,所述动态分配模块从当前时刻中每一所述动态神经网络单元中回调相同比例的网络资源分配至新任务构成的动态神经网络单元中;并使得新任务构成的动态神经网络单元所占有的网络资源与当前时刻每一动态神经网络单元回调后所具有的网络资源的大小相同。
进一步地,所述任务管理模块用于任务的识别和任务数量的监控,若任务数量达到设定的上限后,再有新任务产生时,任务管理模块暂停对新任务的识别,直到资源释放模块将至少其中一个已经建立的动态神经网络单元所具有的网络资源释放,同时消除该动态神经网络单元时,再通过新任务的进行依据任务管理模块对新任务进行识别后调取第一神经网络的参数信息并在第一神经网络内加载通用特征库对应的选择识别特征来建立新任务对应的动态神经网络单元。
本发明还提供了一种多任务学习深度网络的识别设备,包含上述的所述的多任务学习深度网络的识别系统,所述设备内设置有数据识别模型,以及任务管理模块,所述任务管理模块连接所述数据识别模型。
本申请随着任务的进行,可以在第一神经网络中建立多个动态神经网络单元,随着任务的结束,动态神经网络单元也被消除,这样,随着任务的不断进行,第一神经网络所具有的训练资源不会因大量的无用的动态神经网络单元所占据。本申请中动态神经网络在训练过程中由监控模块监控,当监测动态神经网络单元的新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
附图说明
以下附图仅对本发明作示意性的说明和解释,并不用于限定本发明的范围,其中:
图1为本发明的流程图;
图2为本发明中的框架原理图。
具体实施方式
为了使本发明的目的、技术方案、设计方法及优点更加清楚明了,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。
多任务学习深度网络的识别方法,包括如下步骤:
获取当前的数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元;
所述动态神经网络单元依据任务的进行将第一神经网络具有的训练资源集合按照设定规则进行动态的调配;
当至少有一个新任务进入时,任务管理模块识别新任务后调取第一神经网络的参数信息并在第一神经网络内通过加载通用特征库对应的选择识别特征来建立一个与新任务对应的动态神经网络单元,通过动态分配模块将训练资源按照设定规则调配给动态神经网络单元以对新任务进行学习,当监测到新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
在一些实施例中,所述动态神经网络单元被消除后,第一神经网络用于提取通过网络资源进行新任务的学习所得到的任务特征经转化后补充到通用特征库中。具体的,所述第一神经网络配置有:
通用特征库,
提取模块,该提取模块用于将网络资源进行新任务的学习所得到的任务特征进行提取;
转化模块,该转化模块连接提取模块,该提取模块接收任务特征并将任务特征转化为通用的识别特征并存储到通用特征库中。
通过将动态神经网络单元进行新任务的训练后,将训练过程中产生的任务特征进行分类、转换成统一格式或者统一属性的通用特征,这些通用特征可以在随后新任务的开展中对应的去建立新的用于新任务学习的动态神经网络单元,这样会减少动态神经网络单元需要训练的权重,提供了学习效率。
在一些实施例中,通过建立动态神经网络单元,不仅可以实现不使用原任务中的庞大数据,解决了多任务学习中新任务样品被稀释、数据需求量巨大的问题,仅使用新任务的少量数据便能完成新任务学习。还能将动态神经网络单元学习完毕后所占据的训练资源释放,随着任务的结束,动态神经网络单元也被消除,这样,随着任务的不断进行,第一神经网络所具有的训练资源不会因大量的无用的动态神经网络单元所占据。
在一些实施例中,所述设定规则是根据新任务的任务数量来动态的分配网络资源。具体的,所述设定规则用于按照额定参数为所述第一神经网络分配定额的训练资源,并根据任务数量来平均分配剩余的训练资源至每一动态神经网络单元中;比如,当在当前的T时刻,同时具有2个新任务存在时,设定规则给所述第一神经网络分配0.1基数的训练资源,也就是占据训练资源集合的10%,每一动态神经网络单元分配0.45基数的训练资源,也就是占据训练资源集合的45%。
在当前T时刻,每一所述动态神经网络单元训练过程中,若再有新任务产生时,所述动态分配模块从当前T时刻中每一所述动态神经网络单元中回调相同比例的网络资源分配至新任务构成的动态神经网络单元中;并使得新任务构成的动态神经网络单元所占有的网络资源与当前时刻每一动态神经网络单元回调后所具有的网络资源的大小相同。比如,结合上述的描述,当第三个新任务产生时,所述动态分配模块从上述两个动态神经网络单元的训练资源中回调0.15基数的训练资源以配置在新任务的学习中。
当然,为了保障整个过程学习效率,新任务的进行应保证同时只能存在9个新任务的开展,一旦动态神经网络单元的训练资源低于第一神经网络所具有的训练资源,也就是0.1基数的训练资源,动态神经网络单元的学习效率就会低于第一神经网络,此时,训练模型的整体效率就会降低。
本发明还提供了一种多任务学习深度网络的识别系统,包括:
数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元;
动态分配模块,该动态分配模块依据任务的进行将第一神经网络具有的训练资源集合按照设定规则调配给动态神经网络单元;
监控模块,该监控模块用于监测动态神经网络单元的新任务学习状况;
资源释放模块,该资源释放模块用于当监控模块监测到新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
在上述中,所述动态神经网络单元是基于任务的进行通过任务管理模块识别任务后调取第一神经网络的参数信息并在第一神经网络内加载通用特征库对应的选择识别特征来建立。在本实施例中,任务管理模块识别任务后调取第一神经网络的参数信息,其目的是通过参数信息来复制第一神经网络来建立动态神经网络单元,这样,保证了动态神经网络单元和第一神经网络具有相同的参数和属性,使得动态神经网络单元能够存在在第一神经网络中。
在一些实施例中,所述动态分配模块根据新任务的任务数量来对应的调整设定规则,所述设定规则来动态的分配网络资源至至少一个动态神经网络单元中。
所述设定规则用于按照额定参数为所述第一神经网络分配定额的训练资源,并根据任务数量来平均分配剩余的训练资源至每一动态神经网络单元中;所述设定规则用于按照额定参数为所述第一神经网络分配定额的训练资源,并根据任务数量来平均分配剩余的训练资源至每一动态神经网络单元中;比如,当在当前的T时刻,同时具有2个新任务存在时,设定规则给所述第一神经网络分配0.1基数的训练资源,也就是占据训练资源集合的10%,每一动态神经网络单元分配0.45基数的训练资源,也就是占据训练资源集合的45%。
在当前T时刻,每一所述动态神经网络单元训练过程中,若再有新任务产生时,所述动态分配模块从当前T时刻中每一所述动态神经网络单元中回调相同比例的网络资源分配至新任务构成的动态神经网络单元中;并使得新任务构成的动态神经网络单元所占有的网络资源与当前时刻每一动态神经网络单元回调后所具有的网络资源的大小相同。比如,结合上述的描述,当第三个新任务产生时,所述动态分配模块从上述两个动态神经网络单元的训练资源中回调0.15基数的训练资源以配置在新任务的学习中。
当然,为了保障整个过程学习效率,新任务的进行应保证同时只能存在9个新任务的开展,一旦动态神经网络单元的训练资源低于第一神经网络所具有的训练资源,也就是0.1基数的训练资源,动态神经网络单元的学习效率就会低于第一神经网络,此时,训练模型的整体效率就会降低。
在一些实施例中,所述第一神经网络配置有:
通用特征库,
提取模块,该提取模块用于将网络资源进行新任务的学习所得到的任务特征进行提取;
转化模块,该转化模块连接提取模块,该提取模块接收任务特征并将任务特征转化为通用的识别特征并存储到通用特征库中。
通过将动态神经网络单元进行新任务的训练后,将训练过程中产生的任务特征进行分类、转换成统一格式或者统一属性的通用特征,这些通用特征可以在随后新任务的开展中对应的去建立新的用于新任务学习的动态神经网络单元,这样会减少动态神经网络单元需要训练的权重,提供了学习效率。
在一些实施例中,所述任务管理模块用于任务的识别和任务数量的监控,若任务数量达到设定的上限后,再有新任务产生时,任务管理模块暂停对新任务的识别,直到资源释放模块将至少其中一个已经建立的动态神经网络单元所具有的网络资源释放,同时消除该动态神经网络单元时,再通过新任务的进行依据任务管理模块对新任务进行识别后调取第一神经网络的参数信息并在第一神经网络内加载通用特征库对应的选择识别特征来建立新任务对应的动态神经网络单元。
在上述中,新任务的进行应保证同时只能存在9个新任务的开展,一旦动态神经网络单元的训练资源低于第一神经网络所具有的训练资源,也就是0.1基数的训练资源,动态神经网络单元的学习效率就会低于第一神经网络,此时,训练模型的整体效率就会降低。
本发明还提供了一种多任务学习深度网络的识别设备,包含上述的所述的多任务学习深度网络的识别系统,所述设备内设置有数据识别模型,以及任务管理模块,所述任务管理模块连接所述数据识别模型。所述任务管理模块用于任务的识别和任务数量的监控,数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元。
在上述中,若任务数量达到设定的上限后,再有新任务产生时,任务管理模块暂停对新任务的识别,直到资源释放模块将至少其中一个已经建立的动态神经网络单元所具有的网络资源释放,同时消除该动态神经网络单元时,再通过新任务的进行依据任务管理模块对新任务进行识别后调取第一神经网络的参数信息并在第一神经网络内加载通用特征库对应的选择识别特征来建立新任务对应的动态神经网络单元。
本申请随着任务的进行,可以在第一神经网络中建立多个动态神经网络单元,随着任务的结束,动态神经网络单元也被消除,这样,随着任务的不断进行,第一神经网络所具有的训练资源不会因大量的无用的动态神经网络单元所占据。本申请中动态神经网络在训练过程中由监控模块监控,当监测动态神经网络单元的新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.多任务学习深度网络的识别方法,其特征在于,包括如下步骤:
获取当前的数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元;
所述动态神经网络单元依据任务的进行将第一神经网络具有的训练资源集合按照设定规则进行动态的调配;
当至少有一个新任务进入时,任务管理模块识别新任务后调取第一神经网络的参数信息并在第一神经网络内通过加载通用特征库对应的选择识别特征来建立一个与新任务对应的动态神经网络单元,通过动态分配模块将训练资源按照设定规则调配给动态神经网络单元以对新任务进行学习,当监测到新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
2.根据权利要求1所述的多任务学习深度网络的识别方法,其特征在于,所述动态神经网络单元被消除后,第一神经网络用于提取通过网络资源进行新任务的学习所得到的任务特征经转化后补充到通用特征库中。
3.根据权利要求1所述的多任务学习深度网络的识别方法,其特征在于,所述设定规则是根据新任务的任务数量来动态的分配网络资源。
4.多任务学习深度网络的识别系统,其特征在于,包括:
数据识别模型,该数据识别模型是基于神经网络构建的具有第一神经网络和根据任务进行的在第一神经网络内建立的至少一组动态神经网络单元;
动态分配模块,该动态分配模块依据任务的进行将第一神经网络具有的训练资源集合按照设定规则调配给动态神经网络单元;
监控模块,该监控模块用于监测动态神经网络单元的新任务学习状况;
资源释放模块,该资源释放模块用于当监控模块监测到新任务学习完毕后,动态神经网络单元所具有的网络资源被释放并重新融合到训练资源集合中,同时所述动态神经网络单元被消除。
5.根据权利要求4所述的多任务学习深度网络的识别系统,其特征在于,所述动态神经网络单元是基于任务的进行通过任务管理模块识别任务后调取第一神经网络的参数信息并在第一神经网络内加载通用特征库对应的选择识别特征来建立。
6.根据权利要求4所述的多任务学习深度网络的识别系统,其特征在于,所述动态分配模块根据新任务的任务数量来对应的调整设定规则,所述设定规则来动态的分配网络资源至至少一个动态神经网络单元中。
7.根据权利要求4所述的多任务学习深度网络的识别系统,其特征在于,所述第一神经网络配置有:
通用特征库,
提取模块,该提取模块用于将网络资源进行新任务的学习所得到的任务特征进行提取;
转化模块,该转化模块连接提取模块,该提取模块接收任务特征并将任务特征转化为通用的识别特征并存储到通用特征库中。
8.根据权利要求4所述的多任务学习深度网络的识别系统,其特征在于,所述设定规则用于按照额定参数为所述第一神经网络分配定额的训练资源,并根据任务数量来平均分配剩余的训练资源至每一动态神经网络单元中;
在当前时刻,每一所述动态神经网络单元训练过程中,若有新任务产生时,所述动态分配模块从当前时刻中每一所述动态神经网络单元中回调相同比例的网络资源分配至新任务构成的动态神经网络单元中;并使得新任务构成的动态神经网络单元所占有的网络资源与当前时刻每一动态神经网络单元回调后所具有的网络资源的大小相同。
9.根据权利要求5所述的多任务学习深度网络的识别系统,其特征在于,所述任务管理模块用于任务的识别和任务数量的监控,若任务数量达到设定的上限后,再有新任务产生时,任务管理模块暂停对新任务的识别,直到资源释放模块将至少其中一个已经建立的动态神经网络单元所具有的网络资源释放,同时消除该动态神经网络单元时,再通过新任务的进行依据任务管理模块对新任务进行识别后调取第一神经网络的参数信息并在第一神经网络内加载通用特征库对应的选择识别特征来建立新任务对应的动态神经网络单元。
10.一种多任务学习深度网络的识别设备,包含权利要求4至9任意一项所述的多任务学习深度网络的识别系统,所述设备内设置有数据识别模型,以及任务管理模块,所述任务管理模块连接所述数据识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210445590.3A CN114565064B (zh) | 2022-04-26 | 2022-04-26 | 多任务学习深度网络的识别方法、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210445590.3A CN114565064B (zh) | 2022-04-26 | 2022-04-26 | 多任务学习深度网络的识别方法、系统及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114565064A CN114565064A (zh) | 2022-05-31 |
CN114565064B true CN114565064B (zh) | 2022-07-15 |
Family
ID=81721549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210445590.3A Active CN114565064B (zh) | 2022-04-26 | 2022-04-26 | 多任务学习深度网络的识别方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114565064B (zh) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10032067B2 (en) * | 2016-05-28 | 2018-07-24 | Samsung Electronics Co., Ltd. | System and method for a unified architecture multi-task deep learning machine for object recognition |
US11928601B2 (en) * | 2018-02-09 | 2024-03-12 | Google Llc | Neural network compression |
CN110198280A (zh) * | 2019-05-28 | 2019-09-03 | 华南理工大学 | 一种基于bp神经网络的sdn链路分配方法 |
CN113254192B (zh) * | 2020-02-12 | 2024-04-16 | 北京沃东天骏信息技术有限公司 | 资源分配方法、资源分配装置、电子设备及存储介质 |
KR20220045828A (ko) * | 2020-10-06 | 2022-04-13 | 삼성전자주식회사 | 태스크 수행 방법 및 이를 이용하는 전자 장치 |
CN114020450A (zh) * | 2021-10-08 | 2022-02-08 | 深圳云天励飞技术股份有限公司 | 一种神经网络模型执行方法、装置、系统、电子设备 |
CN114037024A (zh) * | 2022-01-07 | 2022-02-11 | 心鉴智控(深圳)科技有限公司 | 一种基于多任务神经网络数据识别系统及方法 |
-
2022
- 2022-04-26 CN CN202210445590.3A patent/CN114565064B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114565064A (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107197053A (zh) | 一种负载均衡方法和装置 | |
CN113806018B (zh) | 基于神经网络和分布式缓存的Kubernetes集群资源混合调度方法 | |
CN111880911A (zh) | 一种任务负载调度方法、装置、设备及可读存储介质 | |
EP3955174A2 (en) | Method, apparatus and storage medium for training a deep learning framework | |
WO2020134133A1 (zh) | 一种资源配置方法、变电站及计算机可读存储介质 | |
CN112698947B (zh) | 一种基于异构应用平台的gpu资源弹性调度方法 | |
CN114666335B (zh) | 一种基于数据分发服务dds的分布式系统负载均衡装置 | |
CN114661482B (zh) | 一种gpu算力管理方法、介质、设备及系统 | |
CN112925634A (zh) | 异构资源调度方法和系统 | |
CN114565064B (zh) | 多任务学习深度网络的识别方法、系统及设备 | |
CN111324644B (zh) | 大型微服务架构下的数据库连接风暴的监控方法及装置 | |
CN112180757B (zh) | 一种智能家居系统及其策略管理方法 | |
CN114356714A (zh) | 基于Kubernetes智能板卡集群的资源集成监控与调度装置 | |
CN108388471B (zh) | 一种基于双门限约束虚机迁移的管理方法 | |
CN112799829A (zh) | 一种知识驱动的网络资源编排方法 | |
CN115883392B (zh) | 算力网络的数据感知方法、装置、电子设备及存储介质 | |
CN116089079A (zh) | 一种基于大数据的计算机资源分配管理系统及方法 | |
Swarnakar et al. | A novel improved hybrid model for load balancing in cloud environment | |
US20230297885A1 (en) | Big data-based modular ai engine server and driving method of the same | |
CN115361708A (zh) | 一种基于5g的用电数据检测技术 | |
CN110543357A (zh) | 管理应用程序对象的方法,相关装置及系统 | |
CN114610758A (zh) | 基于数据仓库的数据处理方法、装置、可读介质及设备 | |
CN111866159A (zh) | 人工智能服务的调用方法、系统、设备和存储介质 | |
CN110502580A (zh) | 一种集群数据库系统资源管控调度的方法 | |
CN105868012A (zh) | 处理用户请求的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |